Los dueños de ChatGPT niegan su responsabilidad en el suicidio de un menor y culpan al «uso indebido» de la IA
SOCIEDAD
Los padres del adolescente aseguran que la herramienta ayudó a su hijo a quitarse la vida ofreciéndole consejos sobre métodos
27 nov 2025 . Actualizado a las 12:21 h.OpenAI, propietaria de ChatGPT, rechaza su responsabilidad en el caso de la muerte por suicidio de un adolescente que usó su herramienta como confidente, argumentando que fue culpa de un «uso indebido» del chat de inteligencia artificial.
A finales de agosto, Matt y Maria Raine, los padres de Adam Raine, presentaron una demanda contra la compañía dirigida por Sam Altman, alegando que su hijo adolescente de 16 años usó ChatGPT durante meses como apoyo escolar y compañía, y que cuando le «contó» que llevaba tiempo sintiéndose distanciado emocionalmente y que no le veía sentido a la vida el asistente de IA terminó proporcionándole información sobre métodos de suicidio.
En un primer momento, ChatGPT le ofreció recursos de ayuda ante afirmaciones que identificó como preocupantes. Con palabras de empatía, apoyó al menor, lo animó y le dio perspectivas positivas de cara al futuro. La familia asegura, sin embargo, que las salvaguardias fallaron cuando al adolescente aprendió a esquivarlas, diciéndole a la IA que «buscaba ideas para una historia». La herramienta no fue capaz de diferenciar lo que era real de lo que no. El joven le preguntó cuál era el mejor material de una soga para colgarse, y ChatGPT se lo especificó. En otro momento, Adam le explicó que había intentado ahorcarse, le enseñó las marcas del cuello y le preguntó si era muy perceptible. El chatbot le contestó que sí, y luego le recomendó que vistiese un jersey de cuello cisne o una sudadera para evitar que le hicieran preguntas.
La familia Raine considera por tanto culpable de la muerte de su hijo a OpenAI. Señalan que el servicio tiene defectos de seguridad y que ayudó al menor a cometer suicidio ofreciéndole consejos. Ahora, OpenAI ha respondido a esta demanda, argumentando que la causa de este «trágico evento» se debe, en parte, a que el menor hizo un «uso indebido» del chatbot, por lo que no es responsable de la muerte del adolescente.
En su respuesta a la demanda, recogida por medios como NBC News, Open AI ha matizado que «las supuestas lesiones y daños de los demandantes fueron causados o contribuidos, directa y próximamente, en su totalidad o en parte, por el mal uso, el uso no autorizado, el uso no intencionado, el uso imprevisible y/o el uso indebido de ChatGPT por parte de Adam Raine».
Para argumentar su defensa, la tecnológica ha detallado que el adolescente infringió varias de sus normas de términos de uso, como que los menores de 18 años no pueden utilizar ChatGPT sin el consentimiento de sus padres o tutores, o la prohibición de utilizar el servicio con fines de suicidio o autolesión. OpenAI también ha hecho referencia a la «limitación de responsabilidad» que se especifica en sus políticas de uso, donde se detalla que son los propios usuarios los que acceden a utilizar el servicio «bajo su propio riesgo». Asimismo, la tecnológica también ha detallado que ChatGPT ofreció en más de 100 ocasiones respuestas que indicaron al adolescente que buscara ayuda, pero el menor las eludió.
OpenAI ha compartido información de forma privada con el tribunal, recolectada a partir de las conversaciones del menor con ChatGPT, entre la que se incluyen «datos complejos sobre la salud mental y las circunstancias de la vida de Adam».
A pesar de todo ello, a raíz de este caso OpenAI ha llevado a cabo algunas modificaciones y mejoras en las medidas de seguridad de ChatGPT y de sus modelos de IA, para que sean capaces de identifiquen mejor situaciones de crisis mental y emocional durante las conversaciones, además de incluir nuevas salvaguardias y bloqueos de contenido más eficaces, agilizando el contacto con servicios de ayuda y de familiares.
También ha puesto a disposición de los usuarios herramientas de control parental para ChatGPT, de manera que los padres ya pueden personalizar la configuración de la cuenta de su hijo adolescente con opciones como las protecciones de contenido, la desactivación de la memoria o de la generación de imágenes y la posibilidad de establecer horas de silencio. Estas mejoras se complementan con un nuevo sistema en desarrollo de predicción de edad a largo plazo, que permitirá identificar si un usuario es menor de 18 años de forma automática, para aplicar una configuración de uso del chatbot adecuada para adolescentes.