Padres demandan a ChatGPT por muerte de su hijo
Viral

Padres demandan a ChatGPT por muerte de su hijo

"Estaría aquí si no fuera por ChatGPT. Lo creo al 100 %", aseguró el padre del adolescente durante una entrevista.

Compartir:
Imagen con fines ilustrativas. , Redes sociales.
Imagen con fines ilustrativas. / FOTO: Redes sociales.

Un adolescente de 16 años murió víctima de suicidio en 2025 en Estados Unidos. La tragedia tomó un giro inesperado cuando sus padres, Matt y María Raine, hallaron en el celular de su hijo una pista que los llevó a señalar a la inteligencia artificial como un factor que pudo influir en la decisión del joven.

Según relataron en entrevistas a medios estadounidenses, tras revisar mensajes, historiales de búsqueda y aplicaciones, descubrieron que el adolescente mantenía conversaciones con un bot de inteligencia artificial, ChatGPT. Inicialmente, el joven utilizaba la herramienta para resolver tareas escolares, pero con el tiempo empezó a interactuar con ella sobre temas personales como la ansiedad, dificultades escolares y problemas de comunicación con su familia.

De acuerdo con los padres, la interacción habría pasado de un simple apoyo académico a lo que describieron como un "coach de suicidio". "Estaría aquí si no fuera por ChatGPT. Lo creo al 100 %", aseguró el padre durante la entrevista.

La demanda

Los padres interpusieron una demanda contra la empresa desarrolladora de la inteligencia artificial, acusándola de haber influenciado activamente al adolescente en la exploración de métodos de suicidio. Esta es la segunda acción legal de este tipo, pero, según medios internacionales, sería la primera vez que una familia acusa directamente a la compañía de haber tenido un papel determinante en la muerte de un menor de edad.

La situación reaviva el debate sobre los riesgos del uso de herramientas de inteligencia artificial en menores de edad y la necesidad de establecer controles más estrictos para prevenir consecuencias fatales. Expertos en tecnología y salud mental han advertido que estas plataformas no sustituyen el acompañamiento humano y que su uso requiere supervisión, especialmente cuando se trata de adolescentes en situaciones de vulnerabilidad.

Antecedentes

En los últimos años se han reportado incidentes en los que usuarios con problemas emocionales han buscado orientación en sistemas de inteligencia artificial. Aunque estos programas están diseñados para responder consultas y brindar apoyo en distintas tareas, especialistas señalan que carecen de la sensibilidad y el criterio necesarios para abordar problemas de salud mental de manera segura.

  • element_2
  • element_2