Minnesota promulgó recientemente una ley destinado a restringir los deepfakes engañosos de IA destinados a influir en las elecciones; la ley ahora está siendo cuestionada por motivos de la Primera Enmienda en Kohls contra Ellison. Para respaldar la ley, los acusados del gobierno introdujeron una declaración pericialescrito por un estudioso de la IA y la desinformación, director de la facultad del Observatorio de Internet de Stanford. Aquí está el ¶ 21 de la declaración:
[T]a dificultad para no creer en los deepfakes se debe a la sofisticada tecnología utilizada para crear reproducciones perfectas y realistas de la apariencia y la voz de una persona. Un estudio encontró que incluso cuando las personas están informadas sobre la existencia de deepfakes, aún pueden tener dificultades para distinguir entre contenido real y manipulado. Este desafío se ve exacerbado en las plataformas de redes sociales, donde los deepfakes pueden propagarse rápidamente antes de ser identificados y eliminados (Hwang et al., 2023).
el adjunto bibliografía proporciona esta cita:
Hwang, J., Zhang, X. y Wang, Y. (2023). La influencia de los vídeos deepfake en las actitudes y el comportamiento políticos. Revista de Política y Tecnología de la Información, 20(2), 165-182. https://doi.org/10.1080/19331681.2022.2151234
Pero los demandantes memorándum en apoyo de su moción para excluir la declaración pericial alega—aparentemente correctamente—que este estudio “no existe”:
No existe ningún artículo con el título. La publicación existe, pero las páginas citadas pertenecen a artículos no relacionados. Probablemente, el estudio fue una “alucinación” generada por un modelo de lenguaje grande de IA como ChatGPT….
Se supone que la URL “doi” es un “identificador de objetos digitales” que los académicos utilizan para proporcionar enlaces permanentes a estudios. Estos enlaces normalmente redirigen a los usuarios a la ubicación actual de la publicación, pero aparece una página de error de la Fundación DOI para este enlace: “NO ENCONTRADO”. … El título del supuesto artículo, e incluso un fragmento del mismo, no aparece en ningún lugar de Internet indexado por Google y Bing, los motores de búsqueda más utilizados. La búsqueda en Google Scholar, un motor de búsqueda especializado en artículos académicos y publicaciones de patentes, no revela ningún artículo que coincida con la descripción de la cita escrita por “Hwang” que incluye el término “deepfake”. …
Este tipo de cita, con un título que suena plausible, una supuesta publicación en una revista real y un “doi” ficticio, es característico de una “alucinación” de inteligencia artificial, sobre la cual los investigadores académicos han advertido a sus colegas. Ver Goddard, J, Alucinaciones en ChatGPT: una advertencia para investigadores biomédicos (2023)….
También revisé las otras fuentes citadas en el declaracióny tampoco pudo encontrar el siguienteque fue citado en el ¶ 19:
De keersmaecker, J. y Roets, A. (2023). Deepfakes y la ilusión de autenticidad: procesos cognitivos detrás de la aceptación de la desinformación. Computadoras en el comportamiento humano, 139, 107569. https://doi.org/10.1016/j.chb.2023.107569
De hecho, es una advertencia para los investigadores sobre la ilusión de autenticidad (aunque estoy seguro de que es un error inocente). Envié un correo electrónico al autor de la declaración para conocer su versión de los hechos; Me respondió para decirme que efectivamente tendrá una declaración en unos días y, por supuesto, estaré encantado de actualizar esta publicación y probablemente publicar un seguimiento cuando la reciba.