Los investigadores encontraron que los participantes estaban más dispuestos a aceptar una división injusta de dinero de un socio de IA que de un humano, lo que sugiere que las personas ven la inteligencia artificial como más lógica y menos impulsada por las emociones.
Según una investigación, las personas toman decisiones económicamente más racionales cuando creen que están interactuando con inteligencia artificial en lugar de con otra persona.
En un nuevo estudio, los participantes participaron en un juego económico con dinero real y se les preguntó si aceptaban o rechazaban una oferta injusta de una IA o de un socio humano.
La división propuesta pesaba mucho en su contra: 90 centavos para el socio y 10 centavos para el participante de un total de un dólar. Si el participante rechazaba la oferta, ambas partes no recibían nada.
Desde un punto de vista puramente económico, aceptar la oferta de 10 centavos es la opción racional porque deja al participante en mejor situación que rechazarla y no recibir nada.
Los investigadores descubrieron que los participantes que creían que estaban tratando con IA tenían significativamente más probabilidades de aceptar la división injusta que aquellos que pensaban que la oferta provenía de un humano.
El estudio de la UCD Michael Smurfit Graduate Business School sugiere que las personas tienden a ver la IA como algo más impulsado por la razón y la toma de decisiones humana como más influenciada por las emociones.
Los investigadores dijeron que esto puede significar que las personas ajustan su propio comportamiento para que coincida con lo que creen que es una contraparte más lógica, en lugar de que el efecto revele algo único sobre la IA en sí.
Los hallazgos podrían tener importancia mucho más allá del laboratorio a medida que la IA se vuelve más común en los negocios, las políticas públicas y las negociaciones, donde las percepciones de cómo “piensan” las máquinas pueden moldear las decisiones que las personas toman en respuesta.
La investigación fue realizada por los científicos del comportamiento Dr. Suhas Vijayakumar, Dr. Yuna Yang y Dr. David DeFranza, quienes examinaron cómo las “creencias laicas” (suposiciones cotidianas sobre cómo funciona algo) pueden influir directamente en el comportamiento.
Los tomadores de decisiones deben ser conscientes de que las personas pueden incorporar en las interacciones suposiciones preexistentes sobre el estilo de toma de decisiones de la IA, y que esas creencias pueden afectar la facilidad con la que aceptan las recomendaciones de la IA, dijeron.
El Dr. Vijayakumar añadió: “Especulamos que tal vez una razón por la que es menos probable que las personas acepten una oferta injusta similar de una persona (humana) también podría deberse a las expectativas de reciprocidad y justicia emocional que compartimos con otros seres humanos. Las investigaciones futuras deben analizar más expectativas y creencias sobre la IA”.
LEER MÁS: Estas son las 10 tendencias de IA a observar en 2026 que impulsarán los negocios. La llamada IA vertical, la ingeniería de contexto y el uso de sistemas operativos de metadatos están ayudando a las empresas a tomar decisiones más inteligentes y eficientes.
¿Tiene noticias para compartir o experiencia para contribuir? El europeo acoge con agrado las opiniones de líderes empresariales y especialistas del sector. Póngase en contacto con nuestro equipo editorial para obtener más información.
Imagen principal: Pixabay