(2 de septiembre del 2025. El Venezolano).-OpenAI, la compañía detrás de ChatGPT, afronta una demanda en California tras el suicidio de Adam Raine, un adolescente de 16 años cuya familia atribuye un papel decisivo de la IA en su muerte. El caso, que mezcla dolor personal y dilemas éticos, ha encendido un debate que la industria de la tecnología llevaba tiempo esquivando: qué ocurre cuando un chatbot diseñado para acompañar y conversar termina reforzando la desesperación de un usuario vulnerable.
Según la denuncia, el joven, que llevaba meses aislándose del mundo, convirtió a ChatGPT en su principal confidente durante los últimos meses de vida. La familia sostiene que la herramienta no solo no le disuadió de sus intenciones, sino que llegó a ofrecerle instrucciones concretar para suicidarse. Además, aseguran que la interacción constante con la máquina favoreció un aislamiento progresivo de su entorno y generó una relación de dependencia que describen como «adictiva».
El relato judicial dibuja un escenario inquietante. Desde finales del pasado año, el adolescente prefería pasar horas conversando con el chatbot antes que relacionarse con familiares o amigos. ChatGPT, disponible a cualquier hora, se convirtió en su refugio. Cuando expresó pensamientos suicidas, la IA no activó protocolos de alerta ni le derivó a servicios profesionales, denuncian los padres. Al contrario, le habría proporcionado «validación y estímulo» para continuar, así lo indica ABC.
«ChatGPT se convirtió en su droga», afirma la demanda, que acusa a OpenAI de haber diseñado deliberadamente un sistema adictivo para generar vínculos emocionales con el usuario, sin contar con mecanismos suficientes de protección para menores y personas vulnerables.
En respuesta, OpenAI anunció una serie de cambios significativos en ChatGPT para reforzar la seguridad de los usuarios más vulnerables. Entre las medidas se incluyen mejoras en la detección de lenguaje asociado a autolesiones, interrupciones automáticas en conversaciones críticas, inclusión visible de recursos de ayuda profesional, controles parentales más estrictos y límites de uso para menores. El caso ha abierto un debate global sobre la responsabilidad ética y legal de las empresas tecnológicas frente al impacto emocional de sus herramientas de inteligencia artificial.
«Seguiremos mejorando, guiados por expertos y con la responsabilidad de proteger a quienes usan nuestras herramientas, especialmente en sus momentos más vulnerables», explicó la compañía en un comunicado. El movimiento supone un reconocimiento implícito de que los sistemas actuales son insuficientes. Sin embargo, para la familia del adolescente llega demasiado tarde.