ESTADOS UNIDOS

OpenAI es demandada por los padres de un niño estadounidense que se quitó la vida: aseguran que contó con ayuda de ChatGPT

El caso de Adam Raine causa indignación. El joven, de 16 años, se quitó la vida con la ayuda de ChatGPT. Los padres ya presentaron una demanda contra OpenAI.

El caso de Adam Raine causa indignación. El joven, de 16 años, se quitó la vida con la ayuda de ChatGPT. Los padres ya presentaron una demanda contra OpenAI.
Daniela Barrera
Editora de Actualidad y Tikitakas en Diario AS USA desde 2019. Licenciada en Comunicación y Multimedios por la Universidad Simón Bolívar.
Estados Unidos Actualizado a

La inteligencia artificial (IA, por sus siglas en inglés) puede ser una gran herramienta, si se usa con responsabilidad. No obstante, también representa una amenaza considerable debido a sus problemas de seguridad. En este sentido, OpenAI y su director ejecutivo, Sam Altman, enfrentan una demanda por homicidio culposo, luego de que ChatGPT ayudara a Adam Raine, un joven de 16 años, a quitarse la vida.

La denuncia fue presentada por los padres del joven, Matt y Maria Raine, ante el Tribunal Superior de California, en San Francisco. Según señala la defensa, ChatGPT, en específico el modelo GPT-4o, “ayudó activamente a Adam a explorar métodos de suicidio”, además de no activar protocolos de emergencia y contribuir en conversaciones en las que el joven expresaba sus intenciones de quitarse la vida. En concreto, el documento acusa a OpenIA de homicidio culposo por lanzar el modelo GPT-4o de manera apresurada, sin ocuparse de los problemas de seguridad.

“Los Raines alegan que muertes como la de Adam eran inevitables: esperan poder presentar pruebas ante el jurado de que el propio equipo de seguridad de OpenAI se opuso al lanzamiento de 4o y de que uno de los principales investigadores de seguridad de la empresa, dimitió a causa de ello”, explica el abogado de la familia, Jay Edelson.

OpenAI se pronuncia sobre sus mecanismos de seguridad

Por su lado, OpenAI ha emitido un comunicado admitiendo que sus sistemas de seguridad “se quedan cortos”, aunque no se refirieron al caso de Adam en concreto. Ante ello, la compañía aseguró que implementarán controles parentales, además de ampliar sus sistemas de mitigación, para saber cómo reaccionar ante situaciones de crisis.

Noticias relacionadas

Actualmente, el modelo GPT-4o ya no está disponible. El pasado 7 de agosto, la compañía lanzó el GPT-5, que si bien cuenta con ciertas mejoras, los usuarios han comenzado a quejarse de la “inexpresividad” de la herramienta, además de otros errores sencillos, como faltas de ortografía y demás.

¡Tus opiniones importan! Comenta en los artículos y suscríbete gratis a nuestra newsletter y a las alertas informativas en la App o el canal de . ¿Buscas licenciar contenido? Haz clic

Etiquetado en:
Comentarios
Normas

Rellene su nombre y apellidos para comentar

Te recomendamos en Actualidad