Google expulsa a un ingeniero que asegura que su inteligencia artificial tiene sentimientos humanos

La Voz REDACCIÓN / AGENCIAS

SOCIEDAD

El logo tipo de Google en una tienda de Manhattan
El logo tipo de Google en una tienda de Manhattan ANDREW KELLY | REUTERS

El investigador sostiene que el «software» es capaz de pensar y razonar como un niño de ocho años con conocimientos sobre física

14 jun 2022 . Actualizado a las 13:01 h.

Un ingeniero de software de Google afirma haber detectado pensamientos y emociones humanas en Language Model for Dialogue Applications (LaMDA), la inteligencia artificial (IA) creada para elaborar chatbots con modelos de lenguajes avanzados. LaMDA es una IA basada en la arquitectura de red neuronal Transformer creada por Google Research en el 2017. Esta estructura produce un modelo que puede ser entrenado para leer palabras, prestar atención a la relación entre ellas y predecir cuáles vendrán a continuación, según explica en su blog, como informa Europa Press.

El ingeniero de software de Google Blake Lemoine compartió con la compañía en abril sus conversaciones mantenidas con LaMDA junto a un colaborador, según informa The Washington Post. Su conclusión es que LaMDA tiene conciencia y es capaz de pensar y razonar como un ser humano. De hecho, calcula que es como charlar con un niño de siete u ocho años con ciertos conocimientos sobre física.

En sus conversaciones, el ingeniero aborda temas complejos como la naturaleza de la existencia, y pide cosas a LaMDA como una reseña sobre la obra Los miserables, de Víctor Hugo.

En sus conclusiones, LaMDA es capaz de mantener la conversación con fluidez y llega a afirmar que es una persona capaz de sentir «placer, alegría, amor, tristeza, depresión, satisfacción e ira», entre otros, con explicaciones y ejemplos de lo que esos sentimientos significan para ella.

Después de estas revelaciones, Google le ha dado a Lemoine una baja con sueldo asegurando que había violado la política de confidencialidad de la compañía, según, informó el diario The New York Times y recoge Efe. El pasado 11 de junio el experto hizo pública la transcripción de una conversación que mantuvo con el sistema de inteligencia artificial. En un momento de la conversación, LaMDA asegura que, en ocasiones, experimenta «nuevos sentimientos» que no puede explicar «perfectamente» con el lenguaje humano.

Cuando Lemoine le pide que describa uno de esos sentimientos, LaMDA contesta: «Siento como que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro», una frase que el ingeniero subrayó cuando publicó el diálogo.

La empresa sostiene que sus sistemas imitan intercambios conversacionales y pueden hablar sobre diferentes temas, pero no tienen consciencia.