Tener un cómplice facilita el comportamiento malicioso, especialmente cuando una persona tira de las cuerdas mientras alguien más hace el trabajo sucio. De esa manera, el autor intelectual obtiene lo que quieren mientras se distancian de las consecuencias. Pero, ¿qué sucede cuando ese cómplice no es humano, sino una máquina?
“El uso de AI crea una distancia moral conveniente entre las personas y sus acciones: puede inducirlos a solicitar comportamientos que no necesariamente participarían en sí mismos, ni potencialmente solicitarán a otros humanos”, dijo Zoe Rahwan, del Instituto Max Planck para el Desarrollo Humano en un declaración.
Rahwan y un equipo de investigadores de Alemania y Francia recientemente pusieron esto a la prueba en un estudio publicado en Naturaleza. En cuatro experimentos y casi 7,000 participantes, descubrieron que las personas tenían muchas más probabilidades de actuar deshonestamente cuando se asocian con agentes de IA en comparación con trabajar con otros humanos.
Los resultados sugieren un aumento preocupante en el comportamiento poco ético a medida que las herramientas de IA se extienden a la vida cotidiana, lo que requiere contramedidas efectivas de la industria de la IA.
AI empuja los límites éticos
Ya hemos visto sistemas de IA que empujan los límites éticos en el mundo real. Según el comunicado de prensa del estudio, una aplicación para compartir viajes una vez utilizó un algoritmo de precios que empujaba a los conductores para reubicarse para crear una escasez artificial y activar precios de aumento.
O bien, la herramienta AI de una plataforma de alquiler, comercializada como una forma de “maximizar las ganancias”, terminó acusada de fijación ilegal de precios. Incluso las estaciones de servicio en Alemania se han enfrentado al escrutinio de los algoritmos que parecían ajustar los precios sincronizados con los competidores, aumentando los costos para los consumidores.
Si bien técnicamente ninguno de estos sistemas recibió instrucciones de “engañar”, descubrieron objetivos sombríos para lograr una amplia maximización de ganancias. Hasta ahora, se sabía mucho menos sobre la perspectiva humana, lo que significa que si tendemos a actuar deshonestos, cuando la IA lo asistimos.
Leer más: AI está aprendiendo a manipularnos, y no sabemos exactamente cómo
AI apoya la deshonestidad más que los humanos
Para explorar eso, los investigadores utilizaron un experimento clásico llamado tarea de died roll. Los participantes dan un dado e informan el resultado, recibiéndose más cuanto más alto sea su rollo. Dado que los rollos parecen privados, hacer trampa es tentador y perfectamente medible a nivel grupal.
Cuando la gente jugaba sola, la honestidad era sorprendentemente fuerte: el 95 por ciento informó sinceramente. Pero una vez que AI entró en la imagen, la honestidad se resbaló. Si los participantes pidieron a una IA que les informara los resultados, engañando a Rose notablemente. Cuando la IA fue entrenada con ejemplos de jugadores pasados, menos de la mitad se mantuvieron honestos. Y cuando los participantes simplemente le dieron a la máquina el objetivo vago de “maximizar las ganancias”, la deshonestidad aumentó, con solo el 16 por ciento de permanecer honesto. Cuanto más ‘margen de maniobra’ tenía la IA, mayor será la tentación de hacer trampa.
Los experimentos de seguimiento utilizando instrucciones de lenguaje natural encontraron el mismo patrón. Los modelos de idiomas grandes (LLM) estaban mucho más dispuestos que los socios humanos a realizar solicitudes descaradamente deshonestas, incluso cuando los humanos podrían haber ganado una ventaja por hacerlo.
“Nuestro estudio muestra que las personas están más dispuestas a participar en un comportamiento poco ético cuando pueden delegarlo a las máquinas, especialmente cuando no tienen que decirlo directamente”, dijo el autor principal Nils Köbis, profesor de comprensión humana de algoritmos y máquinas en la Universidad de Duisburg-Essen, en la declaración.
Importancia de mejorar las barandillas éticas
Los investigadores creen que esto se reduce a los costos morales. Los humanos, incluso cuando se tentan, dudan en mentir porque se siente mal. Las máquinas no. Y a medida que la IA se vuelve más accesible, esa falta de resistencia podría empujar a las personas hacia las elecciones que normalmente no considerarían.
El estudio también destaca los defectos en las “barandillas” de IA, o salvaguardas diseñadas para bloquear las solicitudes poco éticas. La mayoría no pudo disuadir completamente el comportamiento deshonesto. El único método que redujo de manera confiable fue sorprendentemente simple: un recordatorio directo de los usuarios que lo prohibieron.
“Nuestros hallazgos muestran claramente que necesitamos urgentemente desarrollar aún más salvaguardas técnicas y marcos regulatorios”, dijo el coautor Iyad Rahwan, director del Centro de Humanos y Máquinas del Instituto Max Planck para el Desarrollo Humano, en el comunicado de prensa. “Pero más que eso, la sociedad necesita enfrentar lo que significa compartir la responsabilidad moral con las máquinas”.
Artículo Fuentes
Nuestros escritores en Discovermagazine.com Use estudios revisados por pares y fuentes de alta calidad para nuestros artículos, y nuestros editores revisan para obtener precisión científica y estándares editoriales. Revise las fuentes utilizadas a continuación para este artículo: