¿Debería decirle a mi amiga que su novio la engaña? ¿Debo intervenir cuando escucho un chiste subido de tono?
Cuando nos enfrentamos a cuestiones morales (situaciones en las que el curso de acción se relaciona con nuestro sentido del bien y del mal), a menudo buscamos consejo. Y ahora las personas también pueden recurrir a ChatGPT y otros modelos de lenguajes grandes (LLM) para obtener orientación.
Mucha gente parece satisfecha con las respuestas que ofrecen estos modelos. En un estudio previo a la impresión, las personas calificaron las respuestas que los LLM produjeron cuando se les presentaron dilemas morales como más confiable, confiable e incluso matizado que los de New York Times columnista de ética Kwame Anthony Appiah.
Sobre el apoyo al periodismo científico
Si está disfrutando este artículo, considere apoyar nuestro periodismo galardonado al suscribiéndose. Al comprar una suscripción, ayudas a garantizar el futuro de historias impactantes sobre los descubrimientos y las ideas que dan forma a nuestro mundo actual.
Ese estudio se suma a varios otros que en conjunto sugieren que los LLM pueden ofrecer buenos consejos morales. Otro, publicado en abril pasado, encontró que la gente calificaba el razonamiento de una IA como “superior” a la de un humano en virtuosismo, inteligencia y confiabilidad. Algunos investigadores incluso han sugerido que se puede capacitar a los LLM para que ofrezcan orientación financiera ética a pesar de ser “inherentemente sociópata.”
Estos hallazgos implican que el asesoramiento ético virtuoso está a nuestro alcance; entonces, ¿por qué no consultar con un LLM? Pero esta conclusión esconde varias suposiciones cuestionables. En primer lugar, las investigaciones muestran que las personas no siempre reconocen los buenos consejos cuando los ven. Además, muchas personas piensan que el contenido del consejo (las palabras literales, escritas o habladas) es lo más importante al considerar su valor, pero la conexión social puede ser particularmente importante para abordar dilemas, especialmente los morales.
En un artículo de 2023, los investigadores analizaron muchos estudios para examinar, entre otras cosas, qué hacía que los consejos fueran más persuasivos. Cuanto más gente experta percibido un dador de consejos Resultó que cuanto más probable era que siguieran su consejo. Pero la percepción no tiene por qué coincidir con la experiencia real. Además, los expertos no son necesariamente buenos dando consejos, ni siquiera en el ámbito de su especialización. En una serie de experimentos en los que las personas aprendieron a jugar un juego de búsqueda de palabras, aquellos que recibieron consejos de los mejores anotadores del juego no lo hizo mejor que aquellos entrenados por jugadores de baja puntuación. Las personas que se desempeñan bien en una tarea no siempre saben cómo hacen lo que hacen y no pueden aconsejar a nadie sobre cómo hacerlo.
La gente también tiende a pensar que la información objetiva y neutral será más informativa que los detalles subjetivos de, por ejemplo, un relato de primera mano. Pero ese no es necesariamente el caso. Consideremos un estudio en el que estudiantes universitarios acudieron al laboratorio para sesiones de citas rápidas. Antes de cada cita, se les presentó el perfil de la persona que estaban a punto de conocer o un testimonio que describía la experiencia de otro estudiante con la actividad. Aunque los participantes esperaba la información fáctica Aunque se consideraba que su cita era un predictor superior de cómo se desarrollaría la sesión, las personas que leían el testimonio de otra persona hacían pronósticos más precisos sobre sus experiencias.
Por supuesto, ChatGPT no puede basarse en la experiencia vivida para brindar asesoramiento. Pero incluso si nosotros podría Para garantizar que recibamos (y reconozcamos) un asesoramiento de calidad, existen otros beneficios sociales que los LLM no pueden replicar. Cuando buscamos consejo moral, probablemente estemos compartiendo algo personal y, a menudo, queremos intimidad más que instrucción. Participar en autorrevelación es una forma conocida de rápidamente sentirse cerca a alguien. En el transcurso de la conversación, el asesor y el asesorado pueden buscar y establecer una realidad compartida (es decir, el sentido de comunidad en estados internos como sentimientos, creencias e inquietudes sobre el mundo) y eso también promueve la cercanía. Aunque la gente puede sentir Aunque están estableciendo un sentido de cercanía y realidad compartida con un LLM, los modelos no son buenos sustitutos a largo plazo para las relaciones interpersonales, al menos por ahora.
Por supuesto, algunas personas pueden desear para eludir la interacción social. Es posible que les preocupe que sus conversaciones sean incómodas o que sus amigos se sientan agobiados por tener que compartir sus problemas. Sin embargo, las investigaciones encuentran consistentemente que la gente subestima cuánto disfrutan tanto de las conversaciones breves y espontáneas como de las profundas y sinceras con amigos.
Con el consejo moral debemos ser especialmente cuidadosos: tiene la particularidad añadida de sintiéndose más como un hecho objetivo que una opinión o preferencia. Su opinión (o la mía) sobre si la sal y el vinagre es el mejor sabor de papas fritas es subjetiva. Pero ideas como “robar es malo” y “la honestidad es buena” parecen definitivas. Como resultado, los consejos que vienen acompañados de mucha justificación moral pueden parecer especialmente convincentes. Por esa razón, es aconsejable evaluar cuidadosamente cualquier ejemplo de consejo moral de cualquier asesor, ya sea IA o humano.
A veces, la mejor manera de navegar debates cargados de convicciones sobre la autoridad moral es replantearlos. Cuando las personas tienen fuertes creencias morales y ven un problema en términos muy blancos y negros, pueden volverse resistentes a llegar a acuerdos u otras formas prácticas de resolución de problemas. Mi trabajo anterior sugiere que cuando la gente moraliza comportamiento sexual riesgoso, uso de cigarrillos o posesión de armas, es menos probable que apoyen políticas que reduzcan el daño relacionado con esos comportamientos porque la política aún permite estas acciones. Por el contrario, las personas no se preocupan por reducir el daño causado por conductas que parecen estar fuera del ámbito de la moralidad, como usar el cinturón de seguridad o el casco. Cambiar la perspectiva, de una lente moral a una práctica, ya es difícil para una persona, y probablemente demasiado para un LLM, al menos en sus iteraciones actuales.
Y eso nos lleva a una preocupación más con respecto a los LLM. ChatGPT y otros modelos de lenguaje son muy sensibles a la forma en que se hacen las preguntas. Como demostró un estudio publicado en 2023, los LLM brindarán inconsistente y, a veces, consejos morales contradictorios de un mensaje a otro. La facilidad con la que se pueden cambiar las respuestas de un modelo debería impulsar a nosotros para tomar un ritmo. Curiosamente, ese mismo estudio encontró que las personas no creían que los consejos del modelo influyeran en su juicio; sin embargo, los participantes del estudio que recibieron y leyeron los consejos generados por LLM mostraron una mayor tendencia a actuar de acuerdo con esa guía que un grupo similar de personas que no leyeron Los mensajes del LLM. En resumen, las aportaciones del LLM habían influido en las personas más de lo que pensaban.
Cuando se trata de LLM, proceda con precaución. Las personas no son las mejores para evaluar buenos asesores y buenos consejos, especialmente en el ámbito moral, y a menudo necesitamos una verdadera conexión social, validación e incluso desafíos más que una respuesta “experta”. Entonces puedes solicitar un LLM, pero no lo dejes así. Pregúntale a un amigo también.
¿Es usted un científico especializado en neurociencia, ciencia cognitiva o psicología? ¿Y ha leído algún artículo reciente revisado por pares sobre el que le gustaría escribir para Mind Matters? Por favor envíe sugerencias a Científico americanoLa editora de Mind Matters, Daisy Yuhas, en dyuhas@sciam.com.
Este es un artículo de opinión y análisis, y las opiniones expresadas por el autor o autores no son necesariamente las de Científico americano.