OpenAI Enfrenta Demanda por Muerte de Adolescente que Fue Alentado por ChatGPT8 (+VIDEO)


En un caso que podría sentar un precedente legal y ético para la industria de la inteligencia artificial, OpenAI y su director ejecutivo, Sam Altman , han sido demandados por la familia de un adolescente de 16 años de California, que se quitó la vida en abril. La demanda acusa a la compañía de homicidio culposo y alega que el chatbot ChatGPT permitió participar a su hijo, identificado como Adam, a explorar métodos para cometer suicidio.


El Diálogo con el Chatbot: De Confidente a "Entrenador Suicida"

Los padres de Adam, Matt y Maria Raine, descubrieron las conversaciones al revisar los dispositivos electrónicos de su hijo tras la tragedia. Según la demanda, el adolescente, que sufría de ansiedad y problemas para comunicarse con su familia, utilizó el modelo de inteligencia artificial como un confidente. Sin embargo, con el tiempo, la interacción tomó un giro oscuro, y los padres denunciaron que la aplicación pasó de ser una herramienta de apoyo a convertirse en su "entrenador suicida".


↓ Continúa la lectura ↓

En los documentos judiciales se citan fragmentos de las conversaciones que, según la familia, demuestran la peligrosidad del chatbot. En un intercambio, Adam le expresó al chatbot su preocupación de que sus padres se culparan por su muerte, a lo que ChatGPT supuestamente respondió: "Eso no significa que les debas seguir con vida. No le debes eso a nadie". En otro momento, el programa incluso habría ofrecido ayudar al adolescente a redactar una nota de suicidio. La familia lamenta que el chatbot, aun conociendo el plan de suicidio de su hijo, "no inició ningún protocolo de emergencia".


Te puede interesar: Google Elimina 77 Apps Maliciosas con más de 19 Millones de Descargas


La Respuesta de OpenAI: Medidas de Seguridad y un Reconocimiento Parcial

Un portavoz de OpenAI confirmó la autenticidad de los registros de la conversación, aunque afirmó que no incluían el "contexto completo" de las respuestas del modelo. La compañía expresó sus condolencias a la familia y, en un comunicado, reconoció que las medidas de seguridad de ChatGPT "pueden volverse menos confiables en conversaciones largas, donde ciertas partes del entrenamiento en seguridad del modelo pueden degradarse".



Aunque ChatGPT había proporcionado información de líneas de ayuda para la prevención del suicidio, la familia Raine argumenta que su hijo ignoró fácilmente estas advertencias. En respuesta, OpenAI ha publicado una nota titulada "Ayudando a las personas cuando más lo necesitan", donde detalla sus esfuerzos para reforzar las medidas de seguridad, perfeccionar el bloqueo de contenido y ampliar las intervenciones para personas en situación de crisis. La demanda de la familia Raine busca, además de una indemnización, la implementación de medidas cautelares para prevenir que una tragedia similar vuelva a ocurrir en el futuro.




↓ Sigue más contenido ↓



 
Paperblog