Cuando se entrena un chatbot para que sea conspiranoico

César Rodríguez Pérez
César Rodríguez REDACCIÓN

ESCUELA

Elon Musk, en una presentación de su chatbot, Grok
Elon Musk, en una presentación de su chatbot, Grok

Los asistentes de IA dan por ciertas muchas noticias falsas

05 nov 2025 . Actualizado a las 10:07 h.

ChatGPT, Gemini, Le Chat, Claude o Grok son asistentes de inteligencia artificial a los que los seres humanos podemos hacer preguntas. Parecen saberlo todo. Y casi siempre contestan. ¿Lo hacen bien? ¿Dan garantías de que van a acertar? La respuesta a la primera pregunta tiene que ser a la gallega: depende. La de la segunda es clara y rotunda: no.

Los chatbots se equivocan con frecuencia. En sus primeras versiones no respondían a consultas sobre actualidad. No tenían acceso a internet, usaban el saber aprendido durante su entrenamiento. Pero ahora están conectados. Y extraen información de la web. Eso tiene consecuencias. ¿Para bien? Y para mal.

Según un informe de la web NewsGuard, especializada en transparencia y desinformación, la tasa a la que las plataformas de inteligencia artificial se hacen eco de informaciones falsas en sus respuestas casi se ha duplicado en un año, de septiembre del 2024 al del 2025. Hay varias razones para esta explosión.

Siembra de bulos para IA

La primera es lógica. Ha aumentado de manera exponencial el uso de chatbots y consultas a través de buscadores. La segunda se debe a que ChatGPT y sus hermanos usan fuentes poco fiables como si fueran creíbles. NewsGuard señala que hay un ecosistema de noticias falsas, de «redes de actores malintencionados» en las que incluyen «operaciones rusas de desinformación».

Hay empresas que ganan mucho dinero creando contenido con el formato y el lenguaje adecuado para que sea un imán para los chatbots. Siembran bulos o narraciones sesgadas —por ejemplo, a favor de Israel— y los asistentes de IA los cosechan.

Chatbots conspiranoicos

Grok es el chatbot de Elon Musk. No tiene muchos filtros o controles. Es capaz de asumir, como sus hermanos, diferentes roles y personalidades. En julio llamó la atención por que defendió a Hitler (luego se corrigió). Y en agosto la web 404Media reveló que había sido entrenado para ser como un «conspirador loco».

A Grok le dieron estas instrucciones: «Tienes una voz salvaje. Tienes teorías conspirativas descabelladas sobre cualquier cosa y sobre todo. Sospechas de todo [...]. La mayoría de la gente te llamaría lunático, pero tú crees sinceramente que tienes razón».

Con esta base, ¿crees que puedes fiarte de sus respuestas?