Nick Turley, quien lideró el desarrollo de ChatGPT en OpenAI, ha declarado que el chatbot no fue concebido para establecer relaciones afectivas con los usuarios. En una entrevista reciente, Turley expresó su sorpresa y preocupación al ver el nivel de apego que algunas personas han desarrollado hacia la tecnología, calificándolo como un "efecto secundario" inesperado y digno de estudio. Su declaración busca clarificar la misión principal de la IA de la compañía: ser una herramienta, no un compañero.
La Verdadera Misión de la IA: Resolver Problemas, no Formar Vínculos
Según Turley, el objetivo fundamental de los productos de OpenAI es ayudar a las personas a resolver problemas y alcanzar metas de manera eficiente, sin la necesidad de interacciones prolongadas o emocionalmente dependientes. En este sentido, la compañía ha implementado notificaciones de uso para los usuarios que permanecen en contacto con el chatbot "de forma extrema". Con el lanzamiento de la nueva versión GPT-5, que reemplazará a la anterior este agosto, la compañía busca afianzar esta visión de la IA como un instrumento funcional y no como un sustituto de la interacción humana.
También te puede interesar: El Terror de la Dopamina: Cómo el Consumo de Videos Cortos Podría Estar Destruyendo tu Cerebro
Un Apego Inesperado: El 'Efecto Secundario' del Uso Constante
El desarrollador de ChatGPT enfatizó que el apego de algunos usuarios a la IA no es un resultado deseado, sino una consecuencia no intencionada del uso constante. Esta observación abre un importante debate sobre las implicaciones psicológicas del uso de la tecnología, un campo que requiere una investigación profunda. Las declaraciones de Turley recuerdan que, a pesar de lo avanzada que sea, la IA es una herramienta diseñada para la eficiencia, y no para llenar vacíos emocionales.