Noticias

China: Modelo de Inteligencia Artificial de código abierto

En métricas clave, Yi-34B supera a los principales modelos de código abierto que ya están en el mercado, incluido el prestigioso modelo Llama 2 de Meta Platforms.

Una startup china fundada por el científico informático Kai-Fu Lee se ha convertido en un unicornio en menos de ocho meses gracias a un nuevo modelo de inteligencia artificial de código abierto que supera a los mejores de Silicon Valley, al menos en ciertas métricas.

La compañía, 01.AI, alcanzó una valoración de más de 1.000 millones de dólares después de una ronda de financiamiento que incluyó la unidad de nube de Alibaba Group Holding, según afirmó Lee.

Este modelo de lenguaje grande, fundamental y de código abierto, desarrollado por la startup con sede en Beijing, Yi-34B, ahora está disponible para desarrolladores de todo el mundo en chino e inglés. Los modelos de lenguaje grande, o LLM, son algoritmos informáticos entrenados con grandes cantidades de datos para leer, comprender y producir texto, imágenes y códigos similares a los humanos.

En métricas clave, Yi-34B supera a los principales modelos de código abierto que ya están en el mercado, incluido el prestigioso modelo Llama 2 de Meta Platforms.

Hugging Face, que gestiona tablas de clasificación para los LLM con mejor rendimiento en varias categorías, publicó valoraciones durante el fin de semana y clasificó al modelo chino en el primer lugar para lo que se conoce como LLM base previamente capacitado.

En palabras de Lee: “Llama 2 ha sido el estándar de oro y una gran contribución a la comunidad del código abierto. Queremos ofrecer una alternativa superior no solo para China sino para el mercado global (…) Es el mayor avance para la humanidad. También es el paso final para comprendernos a nosotros mismos”.

El tamaño del sistema de Inteligencia Artificial, con 34 mil millones de parámetros, fue elegido cuidadosamente para que pueda ejecutarse en computadoras que no sean prohibitivamente caras.

La compañía también está lanzando un modelo de 6B para atraer a un grupo más amplio de desarrolladores. “Es una decisión muy calculada”, dijo Lee. “El mundo no necesita otro modelo arbitrario, el mundo nos necesita a nosotros”, concluyó.

Mostrar más

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Publicaciones relacionadas

Botón volver arriba