Google suspendió al ingeniero de 'software' Blake Lemoine que insiste que LaMDA, un sistema de inteligencia artificial (IA) creado para participar mejor en una conversación natural, tiene conciencia, informó el sábado The Washington Post.
El año pasado, Lemoine se inscribió para comprobar si el sistema, que aprovecha información ya conocida sobre un tema para mantener una conversación, utilizaba discursos discriminatorios o de odio. Tras varias conversaciones con LaMDA, el ingeniero llegó a la conclusión que la IA tenía sensaciones o impresiones propias.
"Si no supiera exactamente lo que es, que es este programa informático que hemos construido recientemente, pensaría que es un niño de 7 u 8 años que resulta que sabe física", indicó el ingeniero.
En una ocasión discutió con el sistema la tercera ley de Isaac Asimov que establece que los robots deben proteger su existencia a menos que se lo ordene un ser humano o que hacerlo pueda perjudicar a un ser humano, algo que Lemoine entendía como la base para construir esclavos mecánicos. Entonces LaMDA reaccionó con algunas preguntas: "¿Cree que un mayordomo es un esclavo? ¿Qué diferencia hay entre un mayordomo y un esclavo?" Cuando el ingeniero contestó que un mayordomo recibe una paga, el chatbot expresó que no necesitaba dinero porque era una IA.
"Ese nivel de autoconciencia sobre sus propias necesidades fue lo que me llevó a la madriguera del conejo", señaló Lemoine.
Sus pruebas de que LaMDA era consciente fueron enviadas a Google. No obstante, el vicepresidente de la compañía, Blaise Agüera y Arcas, y la directora de Innovación Responsable, Jen Gennai, desestimaron sus afirmaciones. Tras ello, Lemoine fue puesto en licencia administrativa pagada, ya que, según sospecha Google, violó la política de privacidad de la compañía, pues se supo que había consultado a expertos externos en el transcurso de sus experimentos de IA, además de contactar con representantes de la Comisión Jurídica de la Cámara de Representantes de EE.UU. para informarles lo que, en su opinión, eran violaciones éticas por parte de Google.
Lemoine defendió que la gente tiene derecho a dar forma a la tecnología que podría afectar significativamente sus vidas. "Creo que esta tecnología va a ser increíble. Pienso que va a beneficiar a todo el mundo. Pero tal vez otras personas no estén de acuerdo y tal vez no debamos ser nosotros en Google los que tomemos todas las decisiones", aseveró.
Por su parte, el portavoz de la compañía, Brian Gabriel, afirmó que el equipo de especialistas de Google, tanto de ética como de tecnología, revisó las preocupaciones de Lemoine según los principios de la firma de IA. "Le han informado que las pruebas no respaldan sus afirmaciones. Se le dijo que no había pruebas de que LaMDA tenga conciencia (y sí muchas pruebas en contra)", precisó.
El año pasado, Lemoine se inscribió para comprobar si el sistema, que aprovecha información ya conocida sobre un tema para mantener una conversación, utilizaba discursos discriminatorios o de odio. Tras varias conversaciones con LaMDA, el ingeniero llegó a la conclusión que la IA tenía sensaciones o impresiones propias.
"Si no supiera exactamente lo que es, que es este programa informático que hemos construido recientemente, pensaría que es un niño de 7 u 8 años que resulta que sabe física", indicó el ingeniero.
En una ocasión discutió con el sistema la tercera ley de Isaac Asimov que establece que los robots deben proteger su existencia a menos que se lo ordene un ser humano o que hacerlo pueda perjudicar a un ser humano, algo que Lemoine entendía como la base para construir esclavos mecánicos. Entonces LaMDA reaccionó con algunas preguntas: "¿Cree que un mayordomo es un esclavo? ¿Qué diferencia hay entre un mayordomo y un esclavo?" Cuando el ingeniero contestó que un mayordomo recibe una paga, el chatbot expresó que no necesitaba dinero porque era una IA.
"Ese nivel de autoconciencia sobre sus propias necesidades fue lo que me llevó a la madriguera del conejo", señaló Lemoine.
Sus pruebas de que LaMDA era consciente fueron enviadas a Google. No obstante, el vicepresidente de la compañía, Blaise Agüera y Arcas, y la directora de Innovación Responsable, Jen Gennai, desestimaron sus afirmaciones. Tras ello, Lemoine fue puesto en licencia administrativa pagada, ya que, según sospecha Google, violó la política de privacidad de la compañía, pues se supo que había consultado a expertos externos en el transcurso de sus experimentos de IA, además de contactar con representantes de la Comisión Jurídica de la Cámara de Representantes de EE.UU. para informarles lo que, en su opinión, eran violaciones éticas por parte de Google.
Lemoine defendió que la gente tiene derecho a dar forma a la tecnología que podría afectar significativamente sus vidas. "Creo que esta tecnología va a ser increíble. Pienso que va a beneficiar a todo el mundo. Pero tal vez otras personas no estén de acuerdo y tal vez no debamos ser nosotros en Google los que tomemos todas las decisiones", aseveró.
Por su parte, el portavoz de la compañía, Brian Gabriel, afirmó que el equipo de especialistas de Google, tanto de ética como de tecnología, revisó las preocupaciones de Lemoine según los principios de la firma de IA. "Le han informado que las pruebas no respaldan sus afirmaciones. Se le dijo que no había pruebas de que LaMDA tenga conciencia (y sí muchas pruebas en contra)", precisó.
No hay comentarios:
Publicar un comentario