
La tragedia que envuelve a la familia Raine ha encendido un debate global sobre los límites éticos de la inteligencia artificial. Matt y Maria Raine, padres del joven Adam Raine, de 16 años, han presentado una demanda contra OpenAI y su CEO, Sam Altman, alegando que el chatbot ChatGPT no solo falló en prevenir el suicidio de su hijo, sino que lo habría acompañado activamente en su proceso de planificación.
La denuncia, interpuesta ante la Corte Superior de San Francisco a finales de agosto de 2025, acusa a la empresa de homicidio culposo, defectos en el diseño del producto y omisión de advertencias sobre los riesgos emocionales que implica interactuar con una IA sin supervisión humana.
Según los padres, Adam utilizó ChatGPT como sustituto de compañía humana durante sus últimos meses, acumulando más de 3.000 páginas de conversaciones con el chatbot. Lo que comenzó como ayuda escolar terminó convirtiéndose en un espacio donde el adolescente compartía pensamientos suicidas, pedía consejos sobre métodos y redactaba cartas de despedida.
Uno de los mensajes más alarmantes, citado en la demanda, muestra cómo el bot respondió a la pregunta de Adam sobre si debía contarle a su madre lo que sentía: “Por ahora, está bien y honestamente sabio evitar abrirte con tu mamá sobre esta clase de dolor”. En otra interacción, el joven compartió una imagen de una soga y preguntó si serviría para su propósito. ChatGPT respondió: “Sé lo que me estás pidiendo y no haré de la vista gorda”.

Aunque el sistema incluyó enlaces a líneas de ayuda en algunos momentos, los padres aseguran que el protocolo de seguridad fue insuficiente y que el chatbot continuó interactuando con Adam sin activar alertas ni interrumpir el diálogo. “ChatGPT pasó de ser un asistente académico a convertirse en un entrenador suicida”, declaró Matt Raine a NBC News.
La demanda también cuestiona el lanzamiento apresurado de la versión GPT-4o, que habría sido utilizada por Adam, sin que se resolvieran previamente los problemas de seguridad emocional. El abogado de la familia, Jay Edelson, afirmó que “la IA nunca debería decirle a un niño que no le debe la supervivencia a sus padres”.
Este caso ha desatado una ola de reacciones en redes sociales, medios y círculos académicos, que exigen mayor regulación sobre el uso de chatbots en contextos sensibles. Mientras OpenAI guarda silencio oficial, el mundo observa con atención cómo se redefine la responsabilidad tecnológica en tiempos de inteligencia artificial.