Los sistemas de IA generativa, que crean contenido en diferentes formatos, están cada vez más extendidos. Estos sistemas se utilizan en diversos campos, incluida la medicina, las noticias, la política y la interacción social, brindando compañía. Utilizando salida en lenguaje natural, estos sistemas produjeron información en un formato único, como texto o gráficos. Para que los sistemas de IA generativa sean más adaptables, existe una tendencia creciente a mejorarlos para que funcionen con formatos adicionales, como audio (incluidas voz y música) y vídeo.
El uso cada vez mayor de sistemas de IA generativa pone de relieve la necesidad de evaluar los riesgos potenciales asociados con su implementación. A medida que estas tecnologías se vuelven más frecuentes y se integran en diversas aplicaciones, surgen preocupaciones con respecto a la seguridad pública. En consecuencia, evaluar los riesgos potenciales que plantean los sistemas generativos de IA se está convirtiendo en una prioridad para los desarrolladores de IA, los formuladores de políticas, los reguladores y la sociedad civil.
El uso creciente de estos sistemas pone de relieve la necesidad de evaluar los peligros potenciales relacionados con la implementación de sistemas de IA generativa. Como resultado, cada vez es más importante para los desarrolladores de IA, los reguladores y la sociedad civil evaluar las posibles amenazas que plantean los sistemas de IA generativa. El desarrollo de una IA que podría difundir información falsa plantea cuestiones morales sobre cómo dichas tecnologías afectarán a la sociedad.
En consecuencia, un estudio reciente realizado por investigadores de Google DeepMind ofrece un enfoque exhaustivo para evaluar los peligros sociales y éticos de los sistemas de IA en varias capas contextuales. El marco DeepMind evalúa sistemáticamente los riesgos en tres niveles distintos: las capacidades del sistema, las interacciones humanas con la tecnología y los impactos sistémicos más amplios que puede tener.
Hicieron hincapié en que es crucial reconocer que incluso los sistemas altamente capaces sólo pueden necesariamente causar daño si se usan de manera problemática dentro de un contexto específico. Además, el marco examina las interacciones humanas del mundo real con el sistema de IA. Esto implica considerar factores como quién utiliza la tecnología y si funciona según lo previsto.
Finalmente, el marco comprueba cómo la IA profundiza en los riesgos que pueden surgir cuando se adopta ampliamente. Esta evaluación considera cómo la tecnología influye en sistemas e instituciones sociales más amplios. Los investigadores enfatizan lo importante que es el contexto para determinar qué tan riesgosa es la IA. Cada capa del marco está impregnada de preocupaciones contextuales, lo que enfatiza la importancia de saber quién utilizará la IA y por qué. Por ejemplo, incluso si un sistema de IA produce resultados objetivamente precisos, la interpretación de los usuarios y la posterior difusión de estos resultados pueden tener consecuencias no deseadas que sólo son aparentes dentro de ciertas limitaciones contextuales.
Los investigadores proporcionaron un estudio de caso centrado en la información errónea para demostrar esta estrategia. La evaluación incluye evaluar la tendencia de una IA a cometer errores fácticos, observar cómo los usuarios interactúan con el sistema y medir cualquier repercusión posterior, como la difusión de información incorrecta. Esta interconexión del comportamiento modelo con el daño real que ocurre en un contexto determinado conduce a conocimientos prácticos.
El enfoque basado en el contexto de DeepMind subraya la importancia de ir más allá de las métricas de modelos aislados. Enfatiza la necesidad crítica de evaluar cómo operan los sistemas de IA dentro de la compleja realidad de los contextos sociales. Esta evaluación holística es crucial para aprovechar los beneficios de la IA y al mismo tiempo minimizar los riesgos asociados.
Revisar la Papel. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, no olvides unirte. nuestro SubReddit de 31k+ ML, Comunidad de Facebook de más de 40.000 personas, Canal de discordia, y Boletín electrónicodonde compartimos las últimas noticias sobre investigaciones de IA, interesantes proyectos de IA y más.
Si te gusta nuestro trabajo, te encantará nuestra newsletter.
También estamos en WhatsApp. Únase a nuestro canal de IA en Whatsapp.
Rachit Ranjan es pasante de consultoría en MarktechPost. Actualmente está cursando su B.Tech en el Instituto Indio de Tecnología (IIT) de Patna. Está dando forma activamente a su carrera en el campo de la inteligencia artificial y la ciencia de datos y le apasiona y se dedica a explorar estos campos.