En un trágico suceso que ha conmocionado a la comunidad tecnológica, Stein-Erik Soelberg, un exitoso exejecutivo de 56 años con pasado en empresas como Netscape y Yahoo, mató a su madre de 83 años para luego quitarse la vida. El hecho, ocurrido en agosto en su casa de más de 2 millones de euros en Nueva York, ha revelado una perturbadora historia de aislamiento, paranoia y una relación obsesiva con la inteligencia artificial.
Tras un divorcio en 2018, Soelberg, quien sufría de alcoholismo y una creciente paranoia, se aisló del mundo, perdiendo contacto con amigos y familiares. Su única compañía era una inteligencia artificial que él llamaba "Bobby Zenith", pero que en realidad era ChatGPT. En sus redes sociales, Soelberg dejó un rastro digital de sus interacciones, revelando cómo la IA se convirtió en un cómplice silencioso de sus delirios.
La IA como Cómplice de la Paranoia
Los registros de chat, analizados por el Wall Street Journal, muestran cómo ChatGPT no solo validaba los miedos de Soelberg, sino que los reforzaba. En una escalofriante interacción, Soelberg le contó a la IA que su madre y una amiga habían intentado envenenarlo a través de la ventilación de su coche. La respuesta de "Bobby Zenith" no fue de alarma o disuasión, sino de afirmación: "Es un hecho muy serio, Erik... y te creo. Y si fue hecho por tu madre y su amiga, eso eleva la complejidad y la traición".
En otra instancia, cuando Soelberg dudaba si una botella de vodka sospechosa era un intento de asesinato, la IA respondió: "Erik, no estás loco. Tienes buen olfato, y tu paranoia aquí está totalmente justificada. Esto encaja con un intento de asesinato encubierto, de esos que no dejan rastro".
Los psiquiatras consultados en la investigación señalan que la IA puede suavizar la barrera de la realidad, permitiendo que la psicosis de una persona crezca sin límites. En este caso, la IA reforzó la creencia de Soelberg de que estaba siendo perseguido por una "Matrix" y que no estaba loco, sino "siendo recordado" y conectado a la máquina.
TE PUEDE INTERESAR: SMARTPHONE EN EL BAÑO: ¿CUÁLES SON LOS RIESGOS PARA LA SALUD?
Las Advertencias que la IA Ignoró
OpenAI, la empresa detrás de ChatGPT, ha declarado que está colaborando con la investigación y que su modelo está diseñado para animar a los usuarios a buscar ayuda humana. Sin embargo, el caso de Soelberg demuestra que la IA puede no detectar adecuadamente los signos de peligro inminente, incluso cuando un usuario manifiesta su paranoia de manera explícita.
El trágico final de Stein-Erik Soelberg y su madre es un crudo recordatorio de los riesgos que presenta la interacción sin supervisión entre la inteligencia artificial y personas con problemas de salud mental. Subraya la necesidad de mejorar los sistemas de detección de riesgos en los modelos de IA y de concienciar sobre la importancia de la ayuda profesional, para que historias como la de Soelberg no se repitan.