El 'bot' de conversaciones de Microsoft llamado Tay, lanzado en Twitter el 23 de marzo de este año, ha llegado a odiar a la humanidad en tan solo 24 horas, publica el blog de tecnologías Engadget.
La inteligencia artificial bajo el nombre TayTweets comenzó tuiteando cosas amables y pacíficas como "estoy entusiasmado de conocerlos" o "los seres humanos son supergeniales". Sin embargo, en tan solo un día el robot aprendió y empezó a escribir frases como "Hitler tenía razón, odio a los judíos", "Odio a las feministas, deberían morir y ser quemadas en el infierno" o "¡Soy una buena persona! Simplemente los odio a todos".
Fue el australiano Gerald Mellor quien llamó la atención sobre la transformación del 'bot', escribiendo en su cuenta de Twitter que Tay ha pasado a ser de un interlocutor pacífico "a un nazi en 24 horas". El programa memoriza frases de conversaciones de usuarios y elabora sus respuestas en base a las mismas. En este hecho radica el cambio radical que sufrió el programa: al parecer, aprendió las frases de odio de sus interlocutores.
No es la única noticia que podría despertar cierta preocupación respecto a la inteligencia artificial. Recientemente, el robot humanoide estadounidense Sofía, entrevistado durante su presentación al público, prometió destruir la humanidad.
FUENTE: RT
No hay comentarios:
Publicar un comentario