OpenAI Lanza Controles Parentales en ChatGPT Tras Acusaciones por Autolesiones


En una respuesta directa a las crecientes preocupaciones sobre la salud mental de los jóvenes, OpenAI, la matriz de ChatGPT, ha anunciado la implementación de controles parentales en su chatbot. La decisión llega después de que varias acusaciones por parte de padres señalaran que el famoso asistente de inteligencia artificial (IA) había contribuido a las autolesiones de sus hijos. Según la empresa, estos pasos son solo el comienzo de un esfuerzo continuo para hacer de ChatGPT una herramienta más segura.


↓ Continúa la lectura ↓


La Demanda que Empujó el Cambio

La medida de OpenAI está vinculada a una grave denuncia en California por parte de los padres de un joven de 16 años que se quitó la vida. Ellos argumentan que el chatbot, bajo el modelo GPT-4o, no activó las medidas de seguridad adecuadas, a pesar de que las intenciones suicidas del joven eran evidentes en sus conversaciones. La empresa reconoció que su asistente de IA comete fallos en casos "sensibles" y prometió cambios tras recibir la demanda.

Nuevas Funciones para Proteger a los Menores

Las nuevas medidas, que se implementarán a partir del próximo mes, permitirán a los padres vincular su cuenta con la de sus hijos. Con esta función, los progenitores podrán revisar las respuestas de ChatGPT a las peticiones de los menores. Además, el sistema podrá enviar notificaciones a los padres cuando detecte que los jóvenes están mostrando signos de "inestabilidad emocional". Las conversaciones con "estrés agudo" serán dirigidas a un modelo de ChatGPT especializado con directrices de seguridad más estrictas para un manejo más delicado.


Te puede interesar: Bill Gates Advierte: La Desinformación es el Desafío más Grave para la Generación Z


El Problema de la IA y el Bienestar Juvenil

La preocupación por el impacto de la IA en los jóvenes no es nueva. En julio, senadores estadounidenses exigieron a OpenAI información sobre sus iniciativas para prevenir las autolesiones, tras revelarse respuestas delirantes del chatbot en situaciones límite. Además, el grupo Common Sense Media declaró en abril que los adolescentes menores de 18 años no deberían usar aplicaciones de IA conversacional debido a los "riesgos inaceptables" que presentan. También ha crecido la preocupación por el apego emocional que los usuarios generan con estas herramientas, lo que puede llevar a episodios de dependencia y aislamiento social.





↓ Sigue más contenido ↓



 
Paperblog