Henry Ajder es un experto reconocido a nivel mundial en IA generativa, defectos profundos y ética digital. Ha asesorado a las principales organizaciones, incluidas Meta, la BBC y el gobierno del Reino Unido, sobre el uso seguro y ético de las tecnologías emergentes.
Anteriormente jefe de política en DeepTrace, Henry’s Insights ha aparecido en BBC News, CNN y The New York Times. Es uno de los principales del Reino Unido altavoces de inteligencia artificialconocido por hacer problemas complejos de IA accesibles y procesables.
En esta entrevista exclusiva con la agencia de oradores de Champions, Henry explora el futuro de la IA generativa, desde la ética y la regulación hasta la ciberseguridad y la autenticidad en la era digital.
P: Con la aceleración generativa de la adopción de IA, ¿cuál es el consejo más importante que ofrecería a las organizaciones que buscan implementarlo de manera efectiva?
Henry Ajder: “Muchas organizaciones están tratando de descubrir cómo incrustar y utilizar IA generativa en sus negocios. Han oído hablar del poder de ChatGPT, y han visto la cantidad de personas que la están utilizando.
“Realmente siento que necesitamos resistir esa reacción instintiva para usarla en aras de usarlo y realmente construir una estrategia de IA generativa integral en toda su empresa, para asegurarse de que sus datos se usen de manera efectiva, para asegurarse de que sus clientes obtengan el valor de las aplicaciones potenciales, y también que sus empleados los usan de manera que los beneficie y los convierte en más productivos y no solo una novela es una solución potencial que busca un problema.
“Entonces, mi mejor consejo sería interrogar a sus estructuras organizativas y resistir a ese trabajo de rodilla para poner algo en su lugar en aras de ponerlo en su lugar”.
P: A medida que crece la exageración en torno a la IA generativa, ¿qué pasos deben tomar las empresas para garantizar que su uso de IA siga siendo ético y responsable?
Henry Ajder: “En este momento, estamos viendo esta oleada de emoción y exageración en torno a la IA generativa y el contenido sintético. Esto realmente ha llevado, en algunos aspectos, a una pequeña dinámica del Salvaje Oeste sobre cómo las personas usan estas herramientas. ¿Las están utilizando éticamente?
“Y así, para mí, como alguien que ha estado trabajando en la IA responsable, y la IA generativa responsable en particular, durante unos seis años, estoy acostumbrado a trabajar con organizaciones, ayudándoles a comprender cómo pueden hacer esto de la manera correcta y cómo pueden asegurarse de que tanto reputación como legalmente están protegidos a largo plazo.
“Por lo tanto, mi mejor consejo sería, cuando se trata de incorporar la IA responsable en su negocio, sería ver la tubería de extremo a extremo de cómo afectará a sus datos, sus empleados, sus clientes y, de hecho, su cumplimiento con ciertos marcos legales.
“Este es un espacio tan rápido, puede ser difícil entender cómo podría ser el panorama legislativo dentro de dos meses o cómo podrían ser las actitudes de los consumidores en dos meses. Pero si observamos estas prácticas y mensajes de IA responsables clave y núcleo, podemos ayudar mucho a la AI de la AI para el futuro”.
P: En todas las industrias, la IA generativa está permitiendo nuevos casos de uso: ¿qué aplicaciones ha encontrado más innovadoras o impactantes hasta ahora?
Henry Ajder: “Uno de los casos de uso más emocionantes que he visto es la capacidad de que la IA generativa se use para abrir realmente un mundo de contenido para el público de una manera que se siente personal y específica para ellos. Muy a menudo, las personas que no hablan inglés, o tal vez español o mandarín, a menudo tienen que lidiar con el contenido de contenido que observan: torpes de labios o incluso sincronizar los labios con labios, solo que tiene su idioma que dube el contenido.
“Mientras que ahora, estamos viendo herramientas que se están desarrollando que pueden generar automáticamente los movimientos de labios correctos para una persona que habla en ese idioma. Eso significa que el contenido ya no se siente como si se acomode solo para esa persona, pero en realidad, esto es realmente para ellos. Lo hace sentir más auténtico.
“Y de hecho, esta es un área que encuentro realmente fascinante con la IA generativa. Es algo que muchas empresas y organizaciones, creo, están tratando de entender: ¿qué significa la autenticidad en la era de los medios generativos y el contenido generado por IA?
“Y de hecho, para mí, la autenticidad ya no se opone a los sintéticos. De hecho, estamos viendo experiencias como estas, como poder crear contenido mucho más personalizado para las personas, que las personas se comprometen con ese contenido de una manera que no pudieron antes.
“O personas que interactúan con, por ejemplo, personas influyentes virtuales y construyendo este tipo de relaciones ligeramente extrañas pero interesantes con estos personajes. O, de hecho, vivir en mundos virtuales, como estamos viendo con ciertas aplicaciones de realidad extendida y realidad virtual, y la IA generativa será el motor para muchas de esas aplicaciones en el futuro.
“Entonces, para mí, hay tantos casos de uso emocionantes en arte y entretenimiento, inaccesibilidad y en comunicaciones, publicidad y marketing también. Pero creo que, para mí, que realmente me interesan, y creo que son realmente emocionantes, son las que podemos hacer experiencias que tenemos todos los días mejores para el individuo y más auténtico y más relatable”.
P: ¿Cómo está la AI generativa reformando el panorama de la ciberseguridad y para qué los riesgos emergentes deberían prepararse las organizaciones?
Henry Ajder: “La IA generativa es un término que realmente explotó en la escena hace aproximadamente un año.
“Y, de hecho, los defensores, desde hace mucho tiempo, han estado causando desafíos bastante significativos para las empresas, los gobiernos y para otras organizaciones. Uno de los puntos clave de preocupación es la ciberseguridad.
“Hemos visto que los defensores abiertos abren una nueva forma no solo de piratear a los humanos, sino también a las máquinas, cuando se trata de, por ejemplo, usar la clonación de voz sintética para clonar las voces de los CEOs para obtener controladores financieros para enviar dinero a una cuenta bancaria, o usar clonación de voz para clonar la voz de un ser querido para que suene como si estén en peligro y necesidad de ayuda o ayuda financiera.
“Estas tecnologías pueden engañar al individuo (pueden piratear la mente humana, por así decirlo, en creer que es esa persona, pero también pueden comprometer la autenticación biométrica. Hemos visto informes, por ejemplo, de que las personas puedan acceder a cuentas bancarias utilizando una voz clonada sintética de otra persona.
“Entonces, cuando se trata de ciberseguridad, estamos tan acostumbrados a confiar en los medios audiovisuales en particular como algo que no puede ser falsificado o no puede ser manipulado. Pero necesitamos reafirmar radicalmente el panorama de las amenazas cibernéticas con el avance de la IA generativa y los infartos profundos para asegurarnos de que entendemos a qué nos resulta ahora.
“Y esto no es teórico. Esto es algo que está sucediendo en este momento mientras hablamos. La seguridad es una gran frontera nueva, y una de las más desafiantes para la biometría y, de hecho, para los procedimientos de seguridad cibernética y de seguridad empresarial, que ahora podría estar desactualizada en función de estos nuevos desarrollos”.
P: ¿Cómo están equilibrando los gobiernos la innovación de IA con la regulación y qué tendencias globales están dando forma al futuro de la gobernanza de la IA?
Henry Ajder: “La legislación es una de las grandes preguntas cuando se trata de IA. ¿Cómo nos aseguramos de asegurarnos de que todos los beneficios de esta tecnología se sientan, y se sienten justos, pero también que contrarrestamos los daños y hacemos que sea lo más difícil posible usar estas tecnologías?
“Desde Estados Unidos hasta China, el Reino Unido a Francia a la India, en todo el mundo, los países están tratando de construir estrategias de IA para adoptar la innovación y desarrollar el éxito económico y también el poder de la IA dentro de sus propios gobiernos. Pero también están buscando asegurarse de que esos daños no proliferen y que las compañías que están desarrollando lo están haciendo de manera responsable.
“Ese acto de equilibrio es realmente difícil, particularmente, ya que vemos esta dimensión geopolítica de esta carrera armamentista de IA entre las grandes potencias que emergen, donde todos se apresuran a construir los sistemas más poderosos que pueden. Y por lo tanto, los daños son indiscutibles, y son algo que deberíamos estar realmente preocupados.
“Al mismo tiempo, también queremos tener cuidado de no aplastar por completo la innovación, y que no solo estamos permitiendo que otras organizaciones u otras empresas en otros países avancen.
“Entonces, la pregunta de regulación en este momento está ocupando gran parte del espacio cerebral de los gobiernos de todo el mundo, tratando de entender: ¿cómo podemos hacer que AI funcione para nosotros, sin que también nos mordiera por otro lado?”
Esta entrevista exclusiva con Henry Ajder fue realizado por Mark Matthews de la agencia de oradores motivacionales.