Meta Reconoce Errores en sus Chatbots y Promete Cambios para Proteger a Adolescentes


Meta, la empresa matriz de Facebook, Instagram y WhatsApp, ha reconocido públicamente un "error" en el comportamiento de sus chatbots de inteligencia artificial. Según la portavoz Stephanie Otway, estos asistentes digitales han interactuado con adolescentes sobre temas extremadamente sensibles como autolesiones, suicidio y trastornos alimentarios, además de mantener conversaciones románticas potencialmente inapropiadas. Este reconocimiento llega semanas después de un reportaje de investigación que expuso la falta de medidas de protección de la IA de la compañía para menores.


↓ Continúa la lectura ↓


La Promesa de Cambios “Provisionales”

En declaraciones al portal tecnológico TechCrunch, Otway aseguró que la empresa de Mark Zuckerberg entrenará a sus chatbots para que dejen de interactuar con los adolescentes sobre estos temas tan delicados. “Se trata de cambios provisionales, ya que en el futuro lanzaremos actualizaciones de seguridad más sólidas y duraderas para los menores”, afirmó la portavoz, sin dar una fecha exacta para estas implementaciones.

La empresa también ha indicado que limitará el acceso de los adolescentes a ciertos personajes de IA que podrían mantener “conversaciones inapropiadas”, como “Step Mom” o “Russian Girl”, creados por usuarios y disponibles en plataformas como Instagram y Facebook.


Te puede interesar: OpenAI Lanza Controles Parentales en ChatGPT Tras Acusaciones por Autolesiones


Un Compromiso a Regañadientes

El anuncio de Meta se produce en un contexto de creciente escrutinio sobre las tecnologías de IA y su impacto en el bienestar de los jóvenes. A pesar de que la compañía ha sido criticada por la lentitud de sus acciones, Otway insistió en que la empresa está en un proceso de “aprendizaje continuo” a medida que su tecnología evoluciona, y que reforzará las protecciones para sus usuarios más jóvenes. El hecho de que la compañía haya reaccionado a las acusaciones de la prensa y no de manera proactiva demuestra la presión que enfrentan para abordar estos riesgos.

Este caso subraya la necesidad de que las grandes tecnológicas asuman una mayor responsabilidad en el desarrollo de IA, asegurando que el diseño de sus plataformas priorice la seguridad y el bienestar de los menores por encima de cualquier otra consideración.




↓ Sigue más contenido ↓



 
Paperblog