Dar forma a un futuro desactivado: Richard Foster-Fletcher en IA, ética y el nuevo imperativo comercial

Richard Foster-Fletcher es una voz principal en el mundo de la IA responsable y la ética digital. Como fundador de NeuralPath y presidente de MKAI (Milton Keynes Artificial Intelligence), ha asesorado a gobiernos, nuevas empresas y grandes corporaciones sobre el despliegue ético de las tecnologías emergentes.

Reconocido entre la parte superior del Reino Unido altavoces de inteligencia artificialRichard trae una poderosa combinación de información técnica y previsión social, lo que le brinda un comentarista solicitado sobre el futuro del trabajo, la inclusión de IA y la transformación digital.

En esta entrevista exclusiva con la agencia de oradores de Champions, Richard comparte sus puntos de vista sinceros sobre el desplazamiento laboral, el capital global de IA y por qué las empresas deben repensar con urgencia su enfoque de la innovación ética.

P: Con tanta exageración en torno al potencial de la IA, ¿qué resultados realistas deberían anticipar las empresas cuando se trata del futuro del trabajo y el empleo?

Richard Foster-Fletcher: “Este es un tema tan candente para mí, y si puedo extenderlo al futuro de los trabajos, estoy realmente preocupado por, sea honesto, una narrativa de basura que estamos viendo de nuestros líderes, tanto en la sociedad civil como en los negocios.

“No fue hace mucho tiempo que escuché al CEO de LinkedIn hablar en una conferencia a la que asistí en sus oficinas, y él dijo:” Por supuesto, la IA creará más empleos, por lo tanto, Internet lo hizo “. Y eso fue todo lo que tenía que decir sobre esto.

“Bueno, tomemos un paso atrás de eso. Hagamos algo muy simple. Vamos a Chatgpt y preguntemos:” ¿Qué trabajos están en riesgo? ” Y echemos un vistazo a esa lista.

“Ahora, alentaría a cualquiera a ir y hacer esto. Mira esas dos listas y pregúntate: ¿son el mismo nivel de trabajos? Y aquí está la respuesta: No, no lo son. Los trabajos irán y los trabajos se crearán. En mi opinión, habrá muchos más trabajos en riesgo, es posible que vaya, que se creen.

“En segundo lugar, los trabajos que se están creando, creo, tienen un nivel mucho más alto de habilidades y educación necesarias para hacer esos trabajos. En efecto, son trabajos de nicho y son trabajos técnicos. Entonces, ¿deberían los colegios, universidades y gobiernos ser ascendentes?

“Los gerentes de recursos humanos no van a volver a entrenar para ser verificadores de modelos de IA o éticos de IA. Así que tenemos que pensar con mucho cuidado sobre eso.

“Lo que creo que podemos ver en términos del futuro del trabajo y la IA es que no va a crear más empleos en las empresas existentes.

“Lógicamente, no puede, porque la IA generativa de la que estamos hablando hace que las empresas sean más productivas. ¿Qué significa eso? Significa que pueden hacer más con menos. Menos personas.

“Por lo tanto, no podemos confiar en que estas compañías necesiten más personas, aparentes de algunos nicho y técnicos altamente calificados. Lo que podemos esperar es que la IA cree oportunidades, no solo oportunidades en la IA, sino oportunidades en nuevas plataformas y negocios que hace posible.

“Entonces, creo que nuestro enfoque, como sociedad, particularmente a nivel gubernamental, debería ser: ¿Cómo creamos más negocios?

“Si queremos más empleos de la IA, simplemente tenemos que crear más negocios a partir de la IA. Y eso significa incentivar a las personas, incentivar a las empresas a salir e innovar, patrocinando esa innovación, patrocinando a las empresas para permitir que sus empleados pasen algo de su tiempo innovando en cosas que no tienen nada que ver con el negocio en los que están.

“Tienes que encontrar una manera de hacer eso”.

P: ¿Cómo se ve la adopción de tecnologías de IA en los mercados globales emergentes, y qué desafíos podrían enfrentar estas regiones al alinearse con las plataformas construidas por el oeste?

Richard Foster-Fletcher: “He estado viajando mucho recientemente, presentando y trabajando con gobiernos en lugares como Túnez y Turquía.

“En Túnez, fue bastante interesante ver no solo haber establecido una universidad de IA de una de las escuelas de gestión, sino que en realidad lo están lanzando en inglés en lugar de sus franceses habituales, que es una indicación de cómo quieren conectarse más con el mercado global y el trabajo que están haciendo.

“Lo peor que pueden hacer es dejar atrás este tipo de tecnologías.

“Si miramos a los EE. UU., El 70% aparentemente de las empresas ahora usa ChatGPT. Pero hagamos una pausa de ese pensamiento por un segundo, porque gran parte de la conversación que escuchamos en lugares como Túnez y Turquía y otros se trata de la vanguardia. Están entusiasmados con los tipos de avances que pueden ser parte en áreas como la salud, y en la agricultura y el cambio climático y la industria y la fabricación.

“Pero mi mensaje para esos líderes es que no olvidemos que cuando hablemos sobre la mayoría de las implementaciones de IA, la abrumadora mayoría será compañías cotidianas, compañías pequeñas, utilizando plataformas como ChatGPT, junto con Gemini, junto con otras opciones como Claude y Perplexity, solo para mencionarlas también.

“¿Y cuáles son los problemas en torno a eso? Hay una gran elevación potencial en la productividad de esas organizaciones que saltan y el uso de esas herramientas de bajo costo y sin costo. Pero veamos algunos de los datos detrás de eso: el 55% de los sitios web están en inglés. El 50% de todos los tráfico de Internet van a las empresas estadounidenses.

“Entonces, ¿no es solo preguntar cómo ofrecemos investigaciones de vanguardia y AI? No es solo preguntar cómo tenemos a las empresas que se les facilite el uso de estas plataformas tremendamente útiles como ChatGPT?

“Pero preguntar, espera, si se ha construido en sitios web y en el tráfico que no tiene nada que ver con Túnez, Turquía, otros lugares, ¿qué tan relevante? ¿Qué tan útil es? ¿Y cuáles son los riesgos?

“¿Cómo podría afectar nuestra cultura, nuestra soberanía, nuestra moralidad, nuestros clientes en este país si estamos utilizando plataformas que se basaron en datos que simplemente no están alineados con la forma en que pensamos y la forma en que trabajamos?

“Entonces, ¿pueden saltar? Absolutamente. ¿Pueden ser una gran parte de la historia de AI? Absolutamente. Pero creo que hasta cierto punto, debe estar en sus términos, y tenemos que resolver cómo hacerlo”.

P: A medida que la IA se vuelve integral para la estrategia organizacional, ¿cómo prevé marcos para la inclusión y la ética digital que evolucionan en los sectores, desde empresas tecnológicas de vanguardia y industrias reguladas hasta empresas cotidianas?

Richard Foster-Fletcher: “Veo tres categorías distintas de empresas que realmente trabajan alrededor de la IA y la ética.

“La primera son las compañías tecnológicas. Se están moviendo a la velocidad de la luz y su desafío es aprovechar el último y mejor hardware y personas. Así que creo que es interesante para ellos tratar de incorporar la ética en eso también, pero en cierta medida están trabajando a la vanguardia de lo que está sucediendo en el sector.

“El segundo grupo son las industrias reguladas, piensan sobre las finanzas y la salud, etc., y para ellos creo que el enfoque principal es mantenerse legal. Es comprender la regulación lo que está llegando y cambiando, y cómo administran sus modelos y administran sus datos en términos de privacidad y seguridad y ética en torno a eso.

“Y el tercero es este cubo que es todos los demás. Quiero hablar de eso específicamente porque esa es la mayoría de las empresas. Y no están en la ventaja sangrante, no están en industrias reguladas, entonces, ¿por qué les importa?

“Bueno, les importa porque nos estamos mudando a una época en la que los líderes necesitan comprender la ética digital y necesitan ser líderes en la era de la IA. Y en la edad de este uso ético de la IA, simplemente no se puede ignorar esto, no es” bueno tener “.

“Por lo tanto, estos líderes deben poder observar las decisiones y los resultados en un negocio y poder tener el tipo de procesos que pueden revertir el ingeniería y decir:” Guau, no obtuvimos lo que estábamos pensando que llegaríamos allí “o” Tenemos algo que fue dañino o perjudicial para las personas o nuestra marca “.

“Entonces, ¿cómo regresamos y cambiamos eso? Tienen que entender lo que sucedió en términos de los datos y las personas y los procesos y los modelos en la medida en que puedan decir:” Necesitamos modificar la forma en que hicimos eso para obtener la salida que queremos “.

“Finalmente, creo que la evolución de la inclusión y la ética de datos en los negocios debe comprender que la percepción del público de la confianza ha cambiado.

“Si volvemos una década más o menos, todos ponen todo en las redes sociales. Es casi como si entraremos en eso con los ojos cerrados. Pero la gente no está entrando en la IA con los ojos cerrados. Están muy preocupados por los datos que se comparten en plataformas como ChatGPT.

“Entonces, ahora tenemos una narración muy diferente. Solíamos tener gente, y he oído que la gente muy de gran cantidad me dice en el pasado …” Estoy absolutamente bien compartiendo mis datos con grandes compañías de tecnología siempre que me beneficie “. Pero ya no están diciendo eso.

“Ahora están diciendo preguntas como:” ¿Puedo confiar en estos sistemas autónomos para no explotarme? ” Entonces, las reglas han cambiado.

“Entonces, los líderes tienen mucho en su plato. Necesitan pensar con mucho cuidado sobre eso”.

Esta entrevista exclusiva con Richard Foster-Fletcher fue realizado por Mark Matthews de los oradores motivacionales Agenc