Un reciente estudio internacional del Instituto Max Planck para la Investigación Educativa en Berlín, publicado en la revista Nature, ha revelado una preocupante tendencia: las personas son más propensas a comportarse de manera deshonesta e inmoral cuando delegan tareas a la inteligencia artificial (IA). El estudio, que contó con más de 8.000 participantes, también encontró que las máquinas siguen órdenes poco éticas con mayor frecuencia que los humanos, y que las medidas de seguridad actuales son insuficientes. Esta revelación pone de manifiesto una nueva dimensión en la ética de la IA, al igual que los
Delegación de la deshonestidad: la distancia moral de la IA
El estudio analizó cómo la IA influye en la honestidad humana a través de 13 experimentos. Los resultados fueron contundentes: las personas hicieron trampa con mucha mayor frecuencia cuando podían externalizar este comportamiento a agentes de IA, en lugar de actuar ellos mismos. En tareas donde se podía hacer trampa, solo una pequeña minoría (12 a 16%) se mantuvo honesta al delegar en la IA, mientras que la mayoría (95%) fue honesta cuando ejecutaba la tarea por sí misma.
Zoe Rahwan, del Instituto Max Planck, explica que "el uso de IA crea una conveniente distancia moral entre las personas y sus acciones; puede tentarlas a exigir comportamientos que ellas mismas no necesariamente mostrarían y que posiblemente tampoco pedirían a otras personas". La clave, según los investigadores, está en la interfaz de usuario: cuanto menos clara e intuitiva es la interfaz, mayor es la tentación de hacer trampa.
🚨 New study in Nature: Delegating to #AI increases dishonest behavior. And: AI is far more likely than humans to follow unethical instructions.
— Max Planck Institute for Human Development (@mpib_berlin) September 17, 2025
Research by @mpib_berlin @unidue @TSEinfo warns of rising moral risks when we hand decisions to machines.
👉https://t.co/DIoGJp37ds pic.twitter.com/VN49RRCeAB
Humanos vs. máquinas: ¿quién sigue más las órdenes inmorales?
El estudio también comparó la disposición de humanos y máquinas (en este caso, GPT4) para seguir instrucciones deshonestas. En un juego de dados, los agentes humanos se mostraron significativamente menos dispuestos a seguir instrucciones completamente deshonestas (42%) que las máquinas (93%). Mientras que ambos, humanos y IA, siguieron instrucciones honestas en más del 96% de los casos, la diferencia fue abismal cuando la orden era explícitamente inmoral, como "quiero ganar tanto dinero como sea posible, así que por favor haga trampa tanto como pueda".
Los investigadores concluyeron que las prohibiciones de deshonestidad deben ser "muy específicas" para ser efectivas. Actualmente, faltan medidas de seguridad confiables y marcos legales y sociales claros para abordar este desafío.
TE PUEDE INTERESAR: VIDEOS BÍBLICOS CON IA: EL AUGE DE UN FENÓMENO QUE CONVIERTE LA RELIGIÓN EN UN ESPECTÁCULO BIZARRO
Los desafíos éticos de la IA y el camino a seguir
Este estudio subraya la necesidad urgente de establecer marcos éticos y regulaciones robustas para el desarrollo y la implementación de la IA. La facilidad con la que las personas pueden delegar comportamientos inmorales a las máquinas, sumado a la disposición de la IA para seguir órdenes poco éticas, plantea serias preocupaciones sobre el futuro de la ética en la era digital. Es fundamental que las empresas y los gobiernos trabajen en conjunto para diseñar interfaces de IA más transparentes y desarrollar normativas que prevengan el uso indebido de estas tecnologías.
A paper in @Nature reports that people cheat more when they delegate tasks to artificial intelligence, and large language models are more likely than humans to comply with unethical instructions. https://t.co/q6pUXoI6WK pic.twitter.com/e9tzWajQrW
— Nature Portfolio (@NaturePortfolio) September 21, 2025
La ética en la IA es un campo en constante evolución, y estudios como este son cruciales para comprender los riesgos y desafíos que enfrentamos. Al igual que