Estados Unidos planea restringir el acceso de China al software de IA detrás de aplicaciones como ChatGPT Una medida para limitar la exportación de modelos de IA propietarios o de código cerrado

-

La administración Biden está preparada para abrir un nuevo frente en sus esfuerzos por proteger la IA estadounidense de China y Rusia, con planes preliminares para colocar barreras alrededor de los modelos de IA más avanzados, el software central para sistemas de inteligencia artificial como ChatGPT, dijeron las fuentes.

ChatGPT es un chatbot desarrollado por OpenAI y lanzado el 30 de noviembre de 2022. Basado en modelos de lenguaje grandes (LLM), permite a los usuarios refinar y dirigir una conversación hacia la longitud, el formato, el estilo, el nivel de detalle y el lenguaje deseados. Las sucesivas indicaciones y respuestas del usuario se tienen en cuenta en cada etapa de la conversación como contexto.

El Ministerio de Comercio está considerando una nueva iniciativa regulatoria para restringir la exportación de modelos de IA patentados o de código cerrado cuyo software y datos en los que se entrenan se mantienen en secreto, dijeron tres personas familiarizadas con el asunto.

Cualquier acción complementaría una serie de medidas implementadas durante los últimos dos años para bloquear la exportación de sofisticados chips de IA a China, con el fin de frenar el desarrollo por parte de Beijing de esta tecnología de punta con fines militares. Aun así, será difícil para los reguladores seguir el ritmo de la rápida evolución de la industria.

La embajada china describió este enfoque como acto típico de coerción económica e intimidación unilateral, al que China se opone firmemente añadiendo que ella tomaría Medidas necesarias para proteger sus intereses.

Actualmente, no hay nada que impida a los gigantes estadounidenses de la IA, como OpenAI, respaldado por Microsoft, Google DeepMind de Alphabet y su rival Anthropic, que han desarrollado algunos de los modelos de IA de código cerrado más potentes, venderlos a casi cualquier persona en el mundo sin gobierno. vigilancia.

Los investigadores del gobierno y del sector privado temen que los adversarios estadounidenses puedan utilizar estos modelos, que aprovechan grandes cantidades de texto e imágenes para resumir información y generar contenido, para llevar a cabo ciberataques agresivos o incluso crear poderosas armas biológicas.

Una de las fuentes dijo que cualquier nuevo control de exportaciones probablemente apuntaría a Rusia, China, Corea del Norte e Irán. En un informe publicado en febrero, Microsoft dijo que rastreó a grupos de piratas informáticos afiliados a los gobiernos de China y Corea del Norte, así como a la inteligencia militar rusa y a la Guardia Revolucionaria iraní, mientras intentaban perfeccionar sus campañas de piratería utilizando grandes modelos de lenguaje.

Poder computacional

Para implementar controles de exportación de modelos de IA, las fuentes dijeron que Estados Unidos podría recurrir a un umbral contenido en una orden ejecutiva de IA emitida en octubre pasado, que se basa en la potencia informática necesaria para entrenar un modelo. Cuando se alcanza este umbral, un desarrollador debe informar sus planes de desarrollo del modelo de IA y proporcionar los resultados de las pruebas al Ministerio de Comercio.

Este umbral de potencia informática podría servir como base para determinar qué modelos de IA estarían sujetos a restricciones de exportación, según dos funcionarios estadounidenses y otra fuente informada sobre las discusiones. Se negaron a ser identificados porque los detalles no se han hecho públicos.

Si se utiliza este umbral, probablemente solo restringirá la exportación de modelos que aún no se han lanzado, ya que ninguno ha alcanzado aún el umbral, aunque se considera que el Gemini Ultra de Google está cerca de él, según EpochAI, un instituto de investigación que realiza un seguimiento. Tendencias en inteligencia artificial.

La agencia está lejos de finalizar una norma propuesta, señalaron las fuentes. Pero el hecho de que se esté considerando una medida de este tipo muestra que el gobierno de Estados Unidos está tratando de llenar los vacíos en sus esfuerzos por frustrar las ambiciones de IA de Beijing, a pesar de los serios desafíos que implica imponer un régimen regulatorio severo para esta tecnología en rápida evolución.

Mientras la administración Biden analiza la competencia con China y los peligros de la IA sofisticada, los modelos de IA son obviamente una de las herramientas, uno de los posibles puntos críticos en los que pensar aquí. dijo Peter Harrell, ex funcionario del Consejo de Seguridad Nacional. Queda por ver si, en la práctica, puede convertirse en un cuello de botella controlable para las exportaciones. añadió.

¿Armas biológicas y ciberataques?

La comunidad de inteligencia, los grupos de expertos y los académicos de Estados Unidos están cada vez más preocupados por los riesgos que plantean los actores extranjeros maliciosos que tienen acceso a capacidades avanzadas de inteligencia artificial. Investigadores de Gryphon Scientific y Rand Corporation señalaron que los modelos avanzados de IA pueden proporcionar información que podría ayudar a crear armas biológicas.

El Ministerio de Seguridad Interna dijo que los actores cibernéticos probablemente usarían IA para desarrollar nuevas herramientas con el fin de permitir ciberataques más grandes, más rápidos, más eficientes y más invasivos en su evaluación de las amenazas a la seguridad interior en 2024.

La potencial explosión del uso y la explotación [de l’IA] es radical y en realidad tenemos muchos problemas para seguirlo Brian Holmes, funcionario de la Oficina del Director de Inteligencia Nacional, dijo en una reunión sobre controles de exportaciones en marzo, señalando que el progreso de China era particularmente preocupante.

La crisis de la IA

Para abordar estas preocupaciones, Estados Unidos ha tomado medidas para detener el flujo de chips de IA estadounidenses y las herramientas necesarias para fabricarlos hacia China.

También propusieron una norma para exigir a las empresas estadounidenses de nube que notifiquen al gobierno cuando clientes extranjeros utilicen sus servicios para entrenar potentes modelos de inteligencia artificial que podrían usarse para ataques cibernéticos.

Pero hasta ahora no ha abordado la cuestión de los modelos de IA en sí. Alan Estevez, quien supervisa la política de exportaciones de Estados Unidos en el Departamento de Comercio, dijo en diciembre que la agencia estaba explorando opciones para regular las exportaciones de modelos de lenguajes grandes (LLM) antes de buscar asesoramiento de la industria del Departamento de Comercio.

Tim Fist, experto en políticas de IA del grupo de expertos CNAS, con sede en Washington, DC, cree que el umbral Es una buena medida temporal hasta que desarrollemos mejores métodos para medir las capacidades y riesgos de los nuevos modelos. .

Jamil Jaffer, exfuncionario de la Casa Blanca y del Departamento de Justicia, dijo que la administración Biden no debería utilizar un umbral de potencia informática, sino optar por un control basado en las capacidades del modelo y el uso previsto. Centrarse en el riesgo de seguridad nacional en lugar de los umbrales tecnológicos es la mejor solución porque es más sostenible y se centra en la amenaza. él declaró.

El umbral no está escrito en piedra. Una de las fuentes dijo que el Departamento de Comercio podría terminar estableciendo un umbral más bajo, dependiendo de otros factores, como el tipo de datos o los usos potenciales del modelo de IA, como la capacidad de diseñar proteínas que podrían usarse para. fabricar un arma biológica.

Independientemente del umbral elegido, las exportaciones de modelos de IA serán difíciles de controlar. Muchos modelos son software de código abierto, lo que significa que permanecerían fuera del alcance de los controles de exportación planificados.

Incluso imponer controles a los modelos patentados más avanzados resultará difícil, porque los reguladores probablemente tendrán dificultades para establecer los criterios correctos para determinar qué modelos deben controlarse, dijo Fist, señalando que China probablemente esté sólo dos años por detrás de Estados Unidos en desarrollando su propio software de IA.

Los controles de exportación propuestos afectarían el acceso al software central que impulsa algunas aplicaciones de consumo como ChatGPT, pero no limitarían el acceso a las aplicaciones posteriores en sí.

Fuentes: La administración Biden, el Departamento de Comercio de los Estados Unidos

Y usted ?

¿Cuál es tu opinión sobre el tema?

¿Le parece creíble o relevante esta iniciativa de la administración Biden?

Ver también :

China ha aprobado más de 40 modelos de IA para uso público en los primeros seis meses cuando las autoridades comenzaron el proceso de aprobación, mientras el país se esfuerza por alcanzar a Estados Unidos.

China supera a Estados Unidos en investigación de IA, la lucha por la supremacía se intensifica mientras ambas partes lidian con preocupaciones de seguridad

-

PREV Agricultura: Mauritania emprende la ruta del trigo
NEXT Pierre-Karl Péladeau pillado con las manos en la masa