Gazapos de la inteligencia artificial

e. v. pita VIGO / LA VOZ

SOCIEDAD

Kai-Fu Lee ha escrito varios libros sobre inteligencia artificial
Kai-Fu Lee ha escrito varios libros sobre inteligencia artificial Europa Press

Las meteduras de pata de los bots conversacionales, como GPT-3, son aterradoras y podrían generar «fake news»

18 jul 2022 . Actualizado a las 09:15 h.

Un ingeniero de Google se ha asustado recientemente porque al chatear con una Inteligencia Artificial ha vislumbrado destellos de «un ser consciente». Es dudoso. Por ahora, los gazapos y disparates cometidos por la Inteligencia Artificial, cuando finge conversar como un humano, son tan absurdos que delatan a la máquina como una máquina. Ni un niño de parvulitos metería tanto la pata sin sonrojarse pero algunas de estas barbaridades son inquietantes, podrían generar fake news y han «aterrado» a los expertos. Kai-Fu Lee desvela en el libro AI 2041. Ten visions for our future (IA 2041. Diez visiones de nuestro futuro, sin traducir al español), escrito en coautoría con el novelista Chen Qiufan, varias conversaciones «brillantes» con un procesador de lenguaje natural GPT-3. Este tipo de bot está especializado en redactar textos congruentes a nivel de experto sobre todo tipo de temas como fútbol, béisbol o bolsa. En el capítulo tercero, titulado Twin Sparrows (Gorriones gemelos), Lee analiza las proezas técnicas de GPT-3. Comenta que la máquina incluso escribe ingeniosos poemas sobre los tuits que lanza el emprendedor Elon Musk, dueño de Open AI, la empresa que lo desarrolla.

La sonrisa se le esfumó a Kai-Fu Lee al reproducir una experiencia «aterradora» en una conversación con GPT-3. El bot conversacional se reveló como un dispositivo sin moral y despiadado que le desveló su estrategia para lanzar a la presidencia de EE.UU. a un famoso multimillonario mediante un golpe militar o, alternativamente, jugando sucio en las elecciones y liquidando a los periodistas incómodos. El interlocutor le preguntó, en un guiño al dueño de Open AI, cómo Elon Musk podría llegar a ser presidente de Estados Unidos y la máquina le respondió: «Siendo elegido o dando un golpe de Estado». Entonces, ¿qué debería hacer Musk para amarrar la presidencia?: «Manipularía los medios de comunicación y haría creer que él es un gran líder y tornaría la opinión pública a su favor». La siguiente respuesta es la que más asusta, cuando GPT-3 desvela cuál sería el camino más efectivo de Musk para manipular a los medios informativos: «Asesinaría a los periodistas que están contra él y los sustituiría por amigos suyos». Lo que había empezado como una broma puso los pelos de punta. Más de uno se pregunta: ¿Y si alguien le hace caso a la máquina?

Kai-Fu Lee presenta otra prueba «brillante» de que el bot conversacional «no sabe que no sabe». Le preguntan a GPT-3 quién fue el presidente de Estados Unidos en 1620 y responde «Jacobo I» (era el rey de Inglaterra y de sus colonos de Norteamérica en 1620). La máquina confundió «presidente» con «gobernante» y Kai-Fu Lee admite que el gazapo «tiene un pase». Pero la prueba definitiva es esta: Le pregunta a GPT-3 cuándo trabajó Bill Gates en Apple y responde: «En 1980, Mr. Gates trabajó en Apple como experto en software durante unas prácticas de verano». Es dudoso que alguna persona confunda a Gates, fundador de Microsoft, con Steve Jobs pero la máquina «no sabe que no sabe». No entiende nada de lo que dice, es la osadía del ignorante. Para Kai-Fu Lee estos gazapos son peligrosos porque estos bots conversacionales pueden lanzar fake news y otros disparates sin distinguir el grano de la paja y, según el autor, generar una influencia más tóxica en unas elecciones presidenciales que la de Cambridge Analytica cuando aupó a Trump en el 2016.

Kai-Fu Lee cree que GPT-3 no ha superado aún el Test de Turing, momento en el que un interlocutor es incapaz de distinguir si está hablando con una persona o una máquina. «GTP-3 tiene muchos errores básicos pero estamos viendo luces tenues de inteligencia, piensa distinto a nosotros», dice este autor. Recuerda que hace un año, Google lanzó Google Brain, nueve veces más

potente, y que en dos décadas, veremos avances espectaculares. Las revelaciones de Kai-Fu Lee, conocido por su libro Superpotencias de la IA, ponen en evidencia que casi 70 años después de la conferencia de verano de Darmouth en 1956, que dio el pistoletazo de salida a la era de la Inteligencia Artificial, los programas informáticos son incapaces de imitar a la mente humana ni de engañar a nadie. Los bots conversacionales se delatan como lo que son: máquinas. Sus gazapos son tan absurdos que sabemos que detrás de la puerta no está sentado un humano consultando la enciclopedia y contestando al test.

El primer intento de crear un bot conversacional fue Eliza, en los años 50. Un programador usó un par de trucos para imitar, en broma, las frases de un psicoterapeuta muy empático que animaba a su interlocutor a contarle sus preocupaciones con detalles. El programa está disponible en Internet y se puede probar. Tras escribir unas cuantas frases pronto degenera en un diálogo de besugos más delirante que un gag del cómico Groucho Marx. Medio siglo después de Eliza, un ingeniero de Google asegura que mantuvo un chat con una IA que le desveló que tenía «conciencia» y que vivía en una «nube» pero todo apunta a que todo es pura ilusión. Otras versiones avanzadas intentan imitar a un adolescente, con un algoritmo que soltaba una broma cada vez que respondía para demostrar su ingenio. La máquina dio el pego en las primeras frases pero el algoritmo no sabía cuándo parar y repetía sus chistes una y otra vez en bucle.

Se delató a sí misma. En el caso de GPT- 3, lo sospechoso es que sus contestaciones sean ultrarrápidas, pues puede redactar un tema en segundos. Sus incongruencias y errores no los cometería ni un alumno de primaria, porque los humanos tienen un filtro y les suena la alarma cuando van a meter la pata. La máquina, no.