File 20240516 17 Agafh3.jpg

Un padre hizo una pregunta en un grupo privado de Facebook en abril de 2024: ¿Alguien con un niño superdotado y discapacitado tiene alguna experiencia en las escuelas públicas de la ciudad de Nueva York? El padre recibió una respuesta aparentemente útil que establecía algunas características de una escuela específica, comenzando con el contexto de que «tengo un hijo que también es 2e», es decir, dos veces excepcional.

En un grupo de Facebook para intercambiar artículos no deseados cerca de Boston, un usuario que buscaba artículos específicos recibió una oferta de una cámara Canon «poco usada» y una «unidad de aire acondicionado portátil casi nueva que nunca terminé usando».

Ambas respuestas fueron mentiras. Eso el niño no existe y tampoco la cámara ni el aire acondicionado. Las respuestas provinieron de un chatbot de inteligencia artificial.

De acuerdo a una página de metaayuda, Meta AI responderá a una publicación en un grupo si alguien la etiqueta explícitamente o si alguien «hace una pregunta en una publicación y nadie responde dentro de una hora». La función aún no está disponible en todas las regiones ni para todos los grupos, según la página. Para los grupos donde está disponible, «los administradores pueden desactivarlo y volver a activarlo en cualquier momento».

Meta AI también se ha integrado en funciones de búsqueda en Facebook e Instagram, y los usuarios no puedo apagarlo.

Como un investigador que estudia ambos comunidades en línea y Ética de la IAConsidero que la idea de que chatbots no invitados respondan preguntas en grupos de Facebook es distópica por varias razones, comenzando por el hecho de que las comunidades en línea son para personas.

Conexiones humanas

En 1993, Howard Rheingold publicó el libro “La comunidad virtual: ocupación en la frontera electrónica» acerca de el pozotemprano y comunidad en línea culturalmente significativa. El primer capitulo comienza con una pregunta para padres: Qué hacer con una “cosa hinchada de sangre que chupa el cuero cabelludo de nuestro bebé”.

Rheingold recibió una respuesta de alguien con conocimiento de primera mano sobre cómo tratar las garrapatas y resolvió el problema antes de recibir una llamada del consultorio del pediatra. Sobre esta experiencia, escribió: “Lo que me sorprendió no fue sólo la velocidad con la que obtuvimos precisamente la información que necesitábamos, justo cuando la necesitábamos. También fue la inmensa sensación interna de seguridad que surge al descubrir que personas reales (la mayoría de ellos padres, algunos de ellos enfermeras, médicos y parteras) están disponibles, las 24 horas del día, si los necesitas”.

Este aspecto de “personas reales” de las comunidades en línea sigue siendo fundamental hoy en día. Imagínese por qué podría plantear una pregunta a un grupo de Facebook en lugar de a un motor de búsqueda: porque desea una respuesta de alguien con una experiencia real vivida o desea la respuesta humana que su pregunta podría provocar (simpatía, indignación, conmiseración) o ambas.

Décadas de investigación sugieren que el componente humano de las comunidades en línea es lo que las hace tan valiosas tanto para la búsqueda de información como para el apoyo social. Por ejemplo, los padres que de otro modo se sentirían incómodos pidiendo consejo como padres han encontrado un refugio en espacios privados en línea solo para papás. Jóvenes LGBTQ+ unirse a menudo a comunidades en línea para encontrar de forma segura recursos críticos y al mismo tiempo reducir la sensación de aislamiento. Foros de apoyo a la salud mental proporcionar a los jóvenes pertenencia y validación además de asesoramiento y apoyo social.

Las comunidades en línea son lugares de apoyo bien documentados para las personas LGBTQ+.


Además de hallazgos similares en mi propio laboratorio relacionados con Participantes LGBTQ+ en comunidades en líneaasí como Twitter negrodos estudios más recientes, aún no revisados ​​por pares, han enfatizado la importancia de los aspectos humanos de la búsqueda de información en las comunidades en línea.

Uno, dirigido por un estudiante de doctorado. Blakeley Paynese centra en gente gordaLas experiencias en línea. Muchos de nuestros participantes encontraron un salvavidas en el acceso a una audiencia y una comunidad con experiencias similares mientras buscaban y compartían información sobre temas como navegar en sistemas de salud hostiles, encontrar ropa y lidiar con prejuicios y estereotipos culturales.

Otro, dirigido por un estudiante de doctorado. Faye Kolligdescubrió que las personas que comparten contenido en línea sobre sus enfermedades crónicas están motivadas por el sentido de comunidad que surge con las experiencias compartidas, así como por los aspectos humanizadores de conectarse con otros para buscar y brindar apoyo e información.

Gente falsa

Los beneficios más importantes de estos espacios en línea, tal como los describen nuestros participantes, podrían verse drásticamente socavados por respuestas provenientes de chatbots en lugar de personas.

Como diabético tipo 1, Sigo varios grupos de Facebook relacionados que son frecuentados por muchos padres que enfrentan recientemente los desafíos de cuidar a un niño pequeño con diabetes. Las preguntas son frecuentes: «¿Qué significa esto?» «¿Cómo debería manejar esto?» «¿Cuales son tus experiencias con esto?» Las respuestas provienen de la experiencia de primera mano, pero también suelen venir con compasión: «Esto es difícil». «Estás haciendo lo mejor que puedes». Y por supuesto: «Todos hemos pasado por eso».

Una respuesta de un chatbot que afirmara hablar desde la experiencia vivida al cuidar a un niño diabético, ofreciendo empatía, no sólo sería inapropiada, sino que rozaría la crueldad.

Sin embargo, tiene mucho sentido que estos sean los tipos de respuestas que ofrecería un chatbot. Los modelos de lenguaje grandes, de manera simplista, funcionan de manera más similar al autocompletado que a los motores de búsqueda. Para un modelo entrenado en millones y millones de publicaciones y comentarios en grupos de Facebook, la respuesta de “autocompletar” a una pregunta en una comunidad de soporte es definitivamente una que invoca experiencia personal y ofrece empatía, al igual que la respuesta de “autocompletar” en una compra. Nada del grupo de Facebook podría ser para ofrecer a alguien una cámara en buen estado.

Meta ha implementado un asistente de inteligencia artificial en sus aplicaciones de mensajería y redes sociales.

Mantener a los chatbots en sus carriles

Esto no quiere decir que los chatbots no sean útiles para nada; incluso pueden ser bastante útiles en algunas comunidades en línea, en algunos contextos. El problema es que en medio de la actual avalancha generativa de IA, existe una tendencia a pensar que Los chatbots pueden y deben hacerlo todo..

Hay muchas desventajas Usar grandes modelos de lenguaje como sistemas de recuperación de información., y estas desventajas apuntan a contextos inapropiados para su uso. Una desventaja es cuando la información incorrecta puede ser peligrosa: una línea de ayuda para trastornos alimentarios o asesoramiento legal para pequeñas empresasPor ejemplo.

Las investigaciones apuntan a consideraciones importantes sobre cómo y cuándo diseñar e implementar chatbots. Por ejemplo, un artículo publicado recientemente en un gran conferencia de interacción persona-computadora descubrió que, aunque las personas LGBTQ+ carecían de apoyo social A veces recurríamos a chatbots. Para obtener ayuda con las necesidades de salud mental, esos chatbots con frecuencia no lograban captar los matices de los desafíos específicos de LGBTQ+.

Otro encontró que aunque un grupo de Los participantes autistas encontraron valor en interactuar con un chatbot. para consejos de comunicación social, ese chatbot también estaba brindando consejos cuestionables. Y otro más descubrió que, aunque un chatbot era útil como herramienta de preconsulta en un contexto de saludlos pacientes a veces consideraban que las expresiones de empatía eran poco sinceras u ofensivas.

El desarrollo y la implementación responsable de la IA significa no solo auditar problemas como el sesgo y la desinformación, sino también tomarse el tiempo para comprender en qué contextos la IA es apropiada y deseable para los humanos que interactuarán con ellos. En este momento, muchas empresas están empuñando la IA generativa como un martillo y, como resultado, todo parece un clavo.

Es mejor dejar muchos contextos, como las comunidades de apoyo en línea, en manos de los humanos.


Casey Fiesler es profesor asociado de ciencias de la información en la Universidad de Colorado Boulder. Este artículo se republica desde La conversación debajo de Licencia Creative Commons. Leer el artículo original.