Esto se debe a que utiliza la increíble cifra de 1,75 billones de parámetros. A modo de comparación, otro de los modelos de IA más exitosos es el GPT-3 de la empresa OpenAI, cofundada por Elon Musk, utiliza tan solo 175.000 millones de parámetros, un número bastante inferior a lo logrado por la Academia de Inteligencia Artificial de Pekín (o BAAI).
Además, supera a los 1,6 billones de parámetros de Switch Transformer de Google, proyecto que estableció un récord, hoy superado por WuDao 2.0.
"WuDao 2.0 tiene como objetivo permitir que las máquinas piensen como humanos y logren habilidades cognitivas más allá de la prueba de Turing. […] El camino hacia la IA pasa por los grandes modelos y las supercomputadoras", señaló Tang Jie, subdirector académico de la BAAI, a los medios locales.
WuDao 2.0 tiene capacidades únicas, se ha destacado en campos como el reconocimiento y la generación de imágenes o en la predicción de estructuras 3D de proteínas. Además, puede escribir ensayos, poemas y canciones escritas en inglés y chino tradicional.
Estas capacidades han sido entrenadas con 4,9 terabytes de imágenes y textos, incluidos 1,2 terabytes de textos en inglés y chino.
"Estos modelos sofisticados, entrenados con gigantescos datasets, solo requieren de una pequeña cantidad de datos nuevos cuando se usan para una función específica porque pueden transferir el conocimiento ya aprendido a nuevas tareas, al igual que los seres humanos", señaló Blake Yan, investigador de la BAAI.
El proyecto tiene 22 socios, entre los que se destacan el fabricante de teléfonos inteligentes Xiaomi o el gigante de videos cortos Kuaishou.
"Lo que estamos construyendo es una planta de energía para el futuro de la inteligencia artificial, con megadatos, megapotencia de cálculo y megamodelos; podemos transformar los datos para alimentar las aplicaciones de la inteligencia artificial del futuro", afirmó Zhang Hongjiang, presidente de la Academia de Inteligencia Artificial de Pekín.
No hay comentarios:
Publicar un comentario