Por qué ChatGPT nunca será el nuevo Google: «Se inventa cosas para agradarnos»

Gladys Vázquez REDACCIÓN / LA VOZ

SOCIEDAD

María Pedreda

Aunque cada vez más usuarios lo usan como buscador, el chatbot de inteligencia artificial no fue diseñado para esa tarea, sino para obtener respuestas conversacionales a preguntas específicas

14 dic 2025 . Actualizado a las 11:18 h.

OpenAI declaraba hace solo unos días un «código rojo». Su director ejecutivo, Sam Altam, informó a sus empleados en un comunicado que la compañía implementaría medidas de urgencia con un objetivo claro: mejorar la calidad de ChatGPT. El gran chatbot de inteligencia artificial está sufriendo la presión de la competencia y ve como su mercado, aunque sigue siendo enorme, se reduce. Uno de sus competidores, Google, le está echando un pulso que les ha obligado a maniobrar. Ese pulso tiene mucho que ver con la fiabilidad. «ChatGPT se ha convertido en el nuevo Google para millones de personas. Y ahí está el problema», explica David Martínez Calduch.

Este arquitecto de gobernanza de IA expone los problemas que genera que se use el chatbot de IA generativa como si fuese un buscador cuando su función es proporcionar respuestas conversacionales a preguntas específicas. «La inteligencia artificial más popular del mundo se inventa cosas para agradarnos. Millones de usuarios la usan para buscar información fiable cuando existen alternativas mucho más adecuadas para eso», continúa.

La realidad es que los usuarios prefieren obtener resultados más o menos elaborados en un par de preguntas que tener que navegar entre las opciones que propone el más grande de los buscadores. «En términos de uso, comparar ChatGPT con Google es comparar un cuchillo con un tenedor. Los dos valen para comer, pero tienen utilidades diferentes», añade Amparo Alonso, catedrática de Computación e Inteligencia Artificial de la Universidade da Coruña. Referente internacional en la materia, esta experta resume la cuestión de forma simple. «Yo, si uso ChatGPT, lo uso para que me componga un texto, que siempre, siempre hay que manejar con cuidado. No lo uso para buscar porque estos chatbots generativos tienen la costumbre de darte la razón en todo. Si les pones un texto sin darle ninguna indicación u opinión, el sistema tiende a ser menos fiable», argumenta. 

¿Qué sucede con Google? Que al final siempre es la persona quien construye el relato. «Para lo que usamos Google Search es para nos dé información de varios sitios y buscar cosas para que tú puedas componerte tu propia información», manifiesta.

ChatGPT y su amabilidad también están haciendo mella en OpenAI. En ese «código rojo» enviado a su equipo, Sam Altman asegura que las mejoras en su generador de texto se van a centrar en darle mayor velocidad, personalización, capacidad de responder a más preguntas y lo más importante: que sea más fiable. Esta IA aprende en realidad de las personas, de sus tendencias y siempre intenta satisfacer. «Esta herramienta no fue diseñada para darnos información veraz, sino para generar ideas, propuestas y contenidos. Cuando le pedimos que nos cuente algo como si fuera una enciclopedia, a menudo se lo inventa», explica Martínez Calduch. Son las tan conocidas alucinaciones. Se trata de información falsa, inventada o sin sentido, pero vestida de gran argumento. «Es un problema serio. En cuestiones científicas muy concretas, he jugado con ChatGPT y, si le preguntas algo de esta índole, a veces te responde con cosas que no son correctas. Los textos de donde extrae la información pueden ser cualquier cosa. No está entendiendo lo que le pones. Tal y como lo razona, lo parece, pero en realidad no lo entiende ni lo razona», apunta Amparo Alonso. 

Los motivos de las alucinaciones de este tipo de sistema es que se trata de una inteligencia artificial generativa. Está construida para ayudarnos y agradarnos. No para decir «no lo sé».

«Funciona con matemáticas y estadística: convierte nuestras palabras en números, busca patrones en su memoria y construye respuestas que suenan convincentes. Pero convincente no significa cierto», añade Martínez Calduch.

Con todo, Google no solo no rechaza el uso de este modelo, sino que le ha dado un nuevo impulso al suyo para adelantar posiciones.

La firma estadounidense presentó recientemente la nueva versión de su modelo Gemini 3 con capacidades de razonamiento avanzado, así como su modelo de generación de imágenes Nano Banana Pro, que está teniendo una amplia acogida entre los usuarios. La tecnológica está aumentando así su número de usuarios. Según sus datos de octubre, Gemini tiene 2.000 millones de usuarios mensuales. ChatGPT asegura tener 2.400 millones. Así que, aunque Open AI haya doblado sus usuarios en menos de un año, la empresa no piensa perder mercado.

«En realidad, si hay que comparar algo es ChatGPT con Gemini. Cuando ahora buscas en Google, todo el mundo ve que desarrolla un texto pequeño, genérico e indica que está generado con IA. Es más corto y general que el de OpenAI», explica Amparo Alonso sobre esas líneas que aparecen en la parte superior de la clásica página de resultados.

Con todo, Google acelera ante la innegable fórmula del éxito: los internautas quieren respuestas en forma de conversación. Y esa sencillez engancha. «Otro fallo habitual es querer la respuesta perfecta con una sola pregunta. La IA no funciona así. Es una conversación, no un examen. Tenemos que dirigirla, afinarla, pedirle que profundice o corrija. Quien lanza una pregunta y espera magia, se va a llevar decepciones», argumenta Martínez Calduch. Y no solo eso, bien sonados y conocidos son los casos de los usuarios que usan este modelo como confidente, asesor personal o compañero de trabajo. En el plano de la salud, por ejemplo, su penetración es innegable: dos de cada tres españoles ya consultan sus problemas de salud con la IA. Un reciente estudio de la Universidad Camilo José Cela apuntaba a que el 25 % de los ciudadanos se autodiagnostica como alternativa al médico, subiendo al 40 % en el caso de los adolescentes. «Tampoco podemos olvidar los problemas de privacidad. Los chatbot se quedan con lo que escribes...», pone sobre la mesa Alonso. El pasado verano saltaba la polémica. La función «compartir conversación» de ChatGPT reveló que Google indexaba esas conversaciones, exponiendo en muchos casos información personal sensible.

David Martínez recomienda Perplexity, como una IA «que solo te dice lo que encuentra en fuentes reales, te lo resume y te da referencias». Este experto apunta también a la fiabilidad de Gemini y a Claude para generar ideas y textos.

«La realidad del negocio también es reveladora. OpenAI perdió más de 12.000 millones de dólares -10.300 millones de euros- en el 2025 y no espera ser rentable hasta 2030. Esa carrera por captar usuarios a toda costa explica por qué la versión gratuita es tan potente y por qué están en todos los titulares», añade.

A Amparo Alonso le preocupa que los usuarios circunscriban la inteligencia artificial a este tipo de sistemas y también que la sociedad pierda su capacidad de razonamiento. «La gente habla de la IA y solo se refiere a la generativa. No tenemos presentes las otras herramientas, que también usamos, como los mapas que todos tenemos en el teléfono, o los sistemas de recomendación. La gente ya no lo ve como IA, cuando es una tecnología que tiene usos muy interesantes, como las mejoras de los fármacos o las predicciones climáticas. No solo usan la IA generativa»

Con todo, ambos expertos hacen una llamada al sentido común. Se use Gemini, ChatGPT, Copilot o cualquiera de estas fórmulas. «La tecnología que no sirve a las personas no sirve para nada. Y una IA que nos engaña sin que lo sepamos, nos está haciendo un flaco favor. Antes de dar por buena cualquier respuesta, pregúntate: ¿esto lo he verificado o simplemente me lo he creído?», sentencia Martínez Calduch.