Los sesgos de la inteligencia artificial son una de las materias que se abordan en las charlas «Periodismo vs. Fake News», que impulsan en este tramo final del curso el Programa Prensa-Escuela de La Voz de Galicia y el Plan Social Ence
08 abr 2026 . Actualizado a las 05:00 h.Los asistentes de inteligencia artificial como ChatGPT o Gemini no son oráculos ni están en posesión de la verdad. No garantizan que sus respuestas sean ciertas. Son programas informáticos que buscan información en internet para responder a nuestras consultas. Y, como los seres humanos, tienen una orientación, actúan de forma tendenciosa y se equivocan. A veces de manera tan estrepitosa que acaba convirtiéndose en noticia.
Le sucede con frecuencia a Grok, la IA de Elon Musk accesible a través de la red X. Le han puesto muy pocos límites. Acepta todo tipo de tareas. Y encadena polémica tras polémica: con la creación de millones de imágenes sexualizadas de personas alterando fotografías y vídeos reales (se llaman deepfakes) o con la amplificación de mensajes racistas, estereotipos o contenidos discriminatorios.
En febrero usuarios de la citada plataforma social empezaron a pedirle a Grok que eliminara «el mono» de imágenes en las que aparecía el jugador brasileño del Real Madrid Vinicius Júnior. Y el chatbot lo borraba, aunque luego pidió disculpas. Los sesgos de la IA son una de las materias que se abordan en las charlas «Periodismo vs. Fake News», que impulsan, para alumnos de secundaria en este tramo final del curso, el Programa Prensa-Escuela de La Voz de Galicia y el Plan Social Ence.