“Creo que la mayoría de las personas e instituciones no están preparadas para los sistemas de IA que existen hoy, y mucho menos más poderosos”, escribió los más poderosos “, escribió New York Times columnista de tecnología Kevin Roose En marzo, “y que no existe un plan realista en ningún nivel de gobierno para mitigar los riesgos o capturar los beneficios de estos sistemas”.
Tiene razón. Por eso yo recientemente presentó una demanda federal contra Operai que busca una orden de restricción temporal para evitar que la empresa despliegue sus productos, como como chatgpten el estado de Hawai, donde vivo, hasta que pueda demostrar las medidas de seguridad legítimas que la compañía ha pedido de su “modelo de lenguaje grande”.
Estamos en un momento crucial. Los líderes en el desarrollo de la IA, incluido el propio CEO de OpenAI, Sam Altman, han reconocido los riesgos existenciales que plantean los sistemas de IA cada vez más capaces. En junio de 2015, Altman declaró: “Creo que la IA probablemente, muy probablemente, conducirá al fin del mundo, pero mientras tanto, habrá grandes compañías creadas con un aprendizaje automático serio”. Sí, probablemente estaba bromeando, pero no es una broma.
Sobre el apoyo al periodismo científico
Si está disfrutando de este artículo, considere apoyar nuestro periodismo galardonado con suscripción. Al comprar una suscripción, está ayudando a garantizar el futuro de las historias impactantes sobre los descubrimientos e ideas que dan forma a nuestro mundo hoy.
Ocho años más tarde, en mayo de 2023, más de 1,000 líderes tecnológicos, incluido el propio Altman, firmados una carta abierta Comparación de riesgos de IA con otras amenazas existenciales como el cambio climático y las pandemias. “La mitigación del riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos de escala social, como pandemias y guerra nuclear”, la carta publicada por el Centro de seguridad de IAuna organización sin fines de lucro de California, dice en su totalidad.
Estoy al final de mi cuerda. Durante los últimos dos años, he tratado de trabajar con legisladores estatales para desarrollar marcos regulatorios para la inteligencia artificial en Hawai. Estos esfuerzos buscaron crear una oficina de seguridad de IA e implementar el principio de precaución en la regulación de IA, lo que significa tomar medidas antes de que el daño real se materialice, porque puede ser demasiado tarde si esperamos. Desafortunadamente, a pesar de la colaboración con senadores clave y presidentes de comité, mis esfuerzos legislativos estatales murieron temprano después de ser presentado. Y mientras tanto La administración Trump ha retrocedido casi todos los aspectos de la regulación federal de IA y esencialmente ha puesto en hielo el esfuerzo del tratado internacional que comenzó con el Declaración de Bletchley en 2023. Sin nivel de gobierno, hay salvaguardas para el uso de sistemas de IA en Hawai.
A pesar de sus declaraciones anteriores, Operai ha abandonado sus compromisos clave de seguridad, incluido el regreso de su “superalineaciónIniciativa que prometió dedicar el 20 por ciento de los recursos computacionales a la investigación de seguridad, y a fines del año pasado, revertir su prohibición en aplicaciones militares. Sus investigadores críticos de seguridad se han ido, incluida la cofundadora Ilya Sutskever y Jan Leike, quienes declararon públicamente en Mayo de 2024“En los últimos años, la cultura y los procesos de seguridad han quedado atrás en productos brillantes”. La estructura de gobierno de la compañía fue alterada fundamentalmente durante una crisis de liderazgo de noviembre de 2023, ya que la junta reconstituida eliminó importantes mecanismos de supervisión de la seguridad centrados en la seguridad. Más recientemente, en abril, Openai eliminó las barandillas contra la desinformación y la desinformación, abriendo la puerta a liberar modelos de IA “alto riesgo” y “riesgo crítico”, “posiblemente ayudando a balancear elecciones o crear campañas de propaganda altamente efectivas”. Según la revista Fortune.
En su primera respuesta, Operai ha argumentado que el caso debe ser desestimado porque la regulación de la IA es fundamentalmente una “cuestión política” que debe abordarse por el Congreso y el Presidente. Yo, por mi parte, no me siento cómodo dejando decisiones tan importantes a este presidente o este Congreso, especialmente cuando no han hecho nada para regular la IA hasta la fecha.
Hawaii enfrenta riesgos distintos del despliegue de IA no regulado. Análisis recientes Indique que una parte sustancial de los trabajos de servicios profesionales de Hawai podría enfrentar una interrupción significativa en cinco a siete años como consecuencia de la IA. Nuestra geografía aislada y diversificación económica limitada hacen que la adaptación de la fuerza laboral sea particularmente desafiante.
Nuestro conocimiento cultural único, prácticas y lenguaje del riesgo de apropiación indebida y tergiversación por parte de AI Systems capacitados sin el permiso o el contexto apropiado.
Mi demanda federal aplica principios legales bien establecidos a esta nueva tecnología y hace cuatro reclamos clave:
Reclamos de responsabilidad del producto: Los sistemas de IA de OpenAI representan productos diseñados de manera defectuosa que no funcionan tan seguros como esperarían los consumidores comunes, particularmente dada la eliminación deliberada de las medidas de seguridad de la compañía que previamente consideraba esencial.
No advertir: Operai no ha podido proporcionar advertencias adecuadas sobre los riesgos conocidos de sus sistemas de IA, incluido su potencial para generar información errónea dañina y exhibir comportamientos engañosos.
Diseño negligente: Operai ha incumplido su deber de cuidado al priorizar los intereses comerciales sobre las consideraciones de seguridad, como lo demuestran los documentos internos y las declaraciones públicas de los antiguos investigadores de seguridad.
Molestia pública: El despliegue de OpenAI de sistemas de IA cada vez más capaces sin medidas de seguridad adecuadas crea una interferencia irrazonable con los derechos públicos en Hawai.
Los tribunales federales han reconocido la viabilidad de tales reclamos para abordar los daños tecnológicos con amplios impactos sociales. Precedentes recientes De la Corte de Apelaciones del Noveno Circuito (de los cuales Hawaii forma parte) establece que las compañías de tecnología pueden ser responsables de los defectos de diseño que crean riesgos previsibles de daño.
No estoy pidiendo una prohibición permanente de Operai o sus productos aquí en Hawai, sino una pausa hasta que OpenAI implementa las medidas de seguridad que la compañía misma ha dicho que son necesarias, incluida la restitución de su compromiso anterior de asignar el 20 por ciento de los recursos a la alineación y la investigación de seguridad; Implementación del marco de seguridad descrito en su propia publicación “Planificación de AGI y más allá“, Que intenta crear barandillas para tratar con la IA como o más inteligente que sus creadores humanos; restaurar la supervisión significativa a través de las reformas de gobernanza; crear salvaguardas específicas contra el uso indebido para la manipulación de los procesos democráticos; y desarrollar protocolos para proteger los recursos culturales y naturales únicos de Hawai.
Estos elementos simplemente requieren que la empresa se adhiera a los estándares de seguridad que ha respaldado públicamente, pero no ha podido implementarse constantemente.
Si bien mi demanda se centra en Hawai, las implicaciones se extienden mucho más allá de nuestras costas. El sistema de la corte federal proporciona un lugar apropiado para abordar estos problemas de comercio interestatal al tiempo que protege los intereses locales.
Es probable que el desarrollo de sistemas de IA cada vez más capaces sea una de las transformaciones tecnológicas más significativas en la historia humana, creen muchos expertos, tal vez en una liga con fuego, según CEO de Google Sundar Pichai. “La IA es una de las cosas más importantes en las que la humanidad está trabajando. Es más profundo que, no sé, electricidad o fuego”, dijo Pichai en 2018.
Tiene razón, por supuesto. Las decisiones que tomamos hoy darán forma profundamente al mundo que nuestros hijos y nietos heredan. Creo que tenemos la obligación moral y legal de proceder con la precaución apropiada y garantizar que las tecnologías potencialmente transformadoras se desarrollen y desplegen con medidas de seguridad adecuadas.
Lo que está sucediendo ahora con el desarrollo y el despliegue de AI de AI de Openai al público es, para eco del tecnólogo Tristan Harris. Resumen de abril de 2025“loco.” Mi demanda tiene como objetivo restaurar solo un poco de cordura.
Este es un artículo de opinión y análisis, y las opiniones expresadas por el autor o los autores no son necesariamente las de Scientific American.