El presidente de los Estados Unidos, Donald Trump, muestra una orden ejecutiva firmada en una cumbre de IA el 23 de julio de 2025 en Washington, DC
Chip somodevilla/getty imágenes
El presidente Donald Trump quiere garantizar que el gobierno de los Estados Unidos solo brinde contratos federales a los desarrolladores de inteligencia artificial cuyos sistemas están “libres de sesgo ideológico”. Pero los nuevos requisitos podrían permitir que su administración imponga su propia visión del mundo de los modelos de inteligencia artificial de las compañías tecnológicas, y las empresas pueden enfrentar desafíos y riesgos significativos al tratar de modificar sus modelos para cumplir.
“La sugerencia de que los contratos gubernamentales deben estructurarse para garantizar que los sistemas de IA sean” objetivos “y” libres de sesgo ideológico de arriba hacia abajo “, indica la pregunta: ¿Objetivo de acuerdo con quién?” dice Becca Branum en el Centro de Democracia y Tecnología, una organización sin fines de lucro de políticas públicas en Washington DC.
Los de la Casa Blanca de Trump Plan de acción de AIpublicado el 23 de julio, recomienda actualizar las pautas federales “para garantizar que el gobierno solo contrata a los desarrolladores de modelos de idiomas grandes (LLM) que aseguran que sus sistemas sean objetivos y libres de un sesgo ideológico de arriba hacia abajo”. Trump firmó un orden ejecutivo titulado “Evitar a Woke AI en el gobierno federal” el mismo día.
El Plan de Acción de AI también recomienda que el Instituto Nacional de Normas y Tecnología de los Estados Unidos revise su Marco de Gestión de Riesgos de IA para “eliminar las referencias a la información errónea, la diversidad, la equidad y la inclusión, y el cambio climático”. La administración Trump ya ha desanimado la investigación Estudiar información errónea y cerrar las iniciativas dei, junto con despedir a los investigadores trabajando en el informe de evaluación climática nacional de EE. UU. Y Cortar el gasto de energía limpia en un proyecto de ley respaldado por el Congreso dominado por los republicanos.
“Los sistemas de IA no pueden considerarse” libres de sesgo de arriba hacia abajo “si el gobierno mismo está imponiendo su visión del mundo a los desarrolladores y usuarios de estos sistemas”, dice Branum. “Estos estándares imposiblemente vagos están maduros para el abuso”.
Ahora los desarrolladores de IA que sostienen o buscan contratos federales enfrentan la posibilidad de tener que cumplir con el impulso de la administración Trump para los modelos de IA libres de “sesgo ideológico”. Amazon, Google y Microsoft han mantenido contratos federales que suministran servicios de computación con alimentación de IA a varias agencias gubernamentales, mientras que Meta ha realizado sus Modelos de IA de llamas Disponible para su uso por agencias gubernamentales de EE. UU. Trabajando en aplicaciones de defensa y seguridad nacional.
En julio de 2025, la oficina principal y artificial del Departamento de Defensa de los Estados Unidos anunció que había otorgado nuevos contratos Vale hasta $ 200 millones cada uno a Antrópico, Google, Openai y Elon Musk’s XAI. La inclusión de Xai fue notable dado el reciente papel de Musk. Grupo de trabajo de Doge, que ha disparado Miles de empleados del gobierno, sin mencionar el chatbot Grok de Xai recientemente en los titulares para expresar puntos de vista racistas y antisemitas mientras se describe a sí mismo como “mecanista”. Ninguna de las compañías proporcionó respuestas cuando se contactó con Nuevo científicopero algunos se refirieron a las declaraciones generales de sus ejecutivos alabando el plan de acción de AI de Trump.
Podría resultar difícil en cualquier caso que las compañías tecnológicas garanticen que sus modelos de IA siempre se alineen con la cosmovisión preferida de la administración Trump, dice Paul Röttger en la Universidad de Bocconi en Italia. Esto se debe a que los modelos de idiomas grandes, los modelos que impulsan los chatbots de IA populares como el chatgpt de OpenAi, tienen ciertas tendencias o prejuicios inculcados en ellos por las franjas de los datos de Internet en los que originalmente fueron entrenados.
Algunos chatbots de IA populares de los desarrolladores estadounidenses y chinos demuestran puntos de vista sorprendentemente similares que se alinean más con las posturas de votantes liberales de EE. UU. En muchos temas políticos, como la igualdad de pago de género y la participación de las mujeres transgénero en los deportes de las mujeres, cuando se usan para escribir tareas de asistencia, Según la investigación de Röttger y sus colegas. No está claro por qué existe esta tendencia, pero el equipo especuló que podría ser una consecuencia de la capacitación de modelos de IA para seguir principios más generales, como incentivar la veracidad, la equidad y la amabilidad, en lugar de los desarrolladores que alinean específicamente los modelos con posturas liberales.
Los desarrolladores de IA aún pueden “dirigir el modelo para escribir cosas muy específicas sobre problemas específicos” refinando las respuestas de AI a ciertas indicaciones del usuario, pero eso no cambiará de manera exhaustiva la postura predeterminada de un modelo y los sesgos implícitos, dice Röttger. Este enfoque también podría chocar con los objetivos generales de entrenamiento de IA, como priorizar la veracidad, dice.
Las empresas tecnológicas estadounidenses también podrían alienar a muchos de sus clientes en todo el mundo si intentan alinear sus modelos comerciales de IA con la cosmovisión de la administración Trump. “Estoy interesado en ver cómo funcionará esto si los Estados Unidos ahora intentan imponer una ideología específica en un modelo con una base de usuarios global”, dice Röttger. “Creo que eso podría ser muy desordenado”.
Los modelos de IA podrían intentar neutralidad política aproximada Si sus desarrolladores comparten más información públicamente sobre los prejuicios de cada modelo, o crean una colección de “modelos deliberadamente diversos con diferentes inclinaciones ideológicas”, dice Jillian Fisher en la Universidad de Washington. Pero “a partir de hoy, crear un modelo de IA verdaderamente neutral políticamente neutral puede ser imposible dada la naturaleza inherentemente subjetiva de la neutralidad y las muchas elecciones humanas necesarias para construir estos sistemas”, dice.
Temas: