A medida que los modelos de IA se vuelven cada vez más sofisticados, han surgido temores sobre sus riesgos potenciales para la sociedad, particularmente en áreas sensibles como la ciberseguridad, la química o la biología. Anthropic, que recientemente actualizó su Política de Escalamiento Responsable (RSP), insta a los gobiernos a adoptar rápidamente medidas regulatorias efectivas, advirtiendo: “La ventana para la prevención proactiva de riesgos se está cerrando rápidamente”.
Cofundada en 2021 por los hermanos Daniela y Dario Amodei, que anteriormente trabajaron en OpenAI, a los que posteriormente se unieron exempleados de la startup, Anthropic es hoy uno de los líderes en IA generativa.
Su objetivo es hacer que los sistemas sean más fiables, orientables e interpretables. Para ello, desarrolló la IA constitucional, un enfoque para entrenar modelos de lenguaje destinado a inculcar valores y principios específicos en los sistemas de IA. Su familia de modelos Claude se guía así por un conjunto de principios como los de la Declaración de Derechos Humanos para generar respuestas más honestas y alineadas con valores éticos.
En julio de 2023, Anthropic fue una de las siete empresas principales que se comprometieron formalmente con la administración Biden a implementar nuevos estándares de seguridad y confianza y, con tres de ellas, Microsoft, Anthropic y Google, lanzaron el Frontier Model Forum, un organismo industrial dedicado a la Desarrollo seguro y responsable de modelos de IA de última generación.
En septiembre siguiente, la start-up, destacando los riesgos reales que los modelos fronterizos podrían representar para los ámbitos cibernético y QBRN (químico, biológico, radiológico y nuclear) dentro de dos o tres años, presentó su política de implementación a escala responsable.
Para ella:
“Una regulación sensata y con objetivos específicos puede permitirnos obtener lo mejor de ambos mundos: disfrutar de los beneficios de la IA y al mismo tiempo mitigar los riesgos. Demorar los pies podría conducir a lo peor de ambos mundos: una regulación instintiva y mal concebida que obstaculiza el progreso y no previene los riesgos”.
¿Hacia un marco regulatorio inspirado en el RSP de Anthropic?
Algunos actores de la IA se han anticipado a estos desafíos relacionados con la IA adoptando un RSP, más o menos similar al de Anthropic, que ajusta las medidas de seguridad en función de las capacidades alcanzadas por los modelos: se definen umbrales de rendimiento para cada nueva generación de sistemas, y la seguridad Se despliegan mecanismos cuando se cruzan estos umbrales.
Los RSP permiten a las empresas gestionar de forma proactiva los riesgos avanzados de la IA mientras optimizan su desempeño en el mercado. También ofrecen beneficios en términos de transparencia y responsabilidad: las empresas que adoptan este modelo se comprometen a documentar sus prácticas de seguridad, identificar y evaluar continuamente los riesgos e invertir en equipos de seguridad dedicados. En Anthropic, equipos especializados en seguridad informática, interpretabilidad y evaluaciones del equipo adversario (equipo rojo) se integran en la hoja de ruta de cada nuevo modelo.
Dario Amodei señaló hace un año en la Cumbre de Seguridad de IA de Bletchley:
“Los RSP no pretenden reemplazar las regulaciones, sino más bien ser un prototipo de ellas. No quiero decir que queramos que el RSP de Anthropic se convierta literalmente en ley; nuestro RSP es sólo un primer intento de resolver un problema difícil y es casi seguro que tiene fallas en muchos aspectos.
Los tres pilares de una regulación específica eficaz
Según la empresa, “este marco regulatorio no será perfecto“, más “Cualquiera que sea la regulación que se nos ocurra, debe ser lo más quirúrgica posible”.
Identifica tres pilares esenciales:
- Transparencia : Actualmente, no existe ningún mecanismo para verificar el cumplimiento de las empresas con sus políticas de seguridad. Exigir la publicación de estas políticas y sus evaluaciones podría ayudar a crear un registro público de los riesgos asociados con los sistemas de IA;
- Promoción de prácticas de seguridad sólidas : Se debe alentar, si no exigir, a las empresas a fortalecer sus medidas de seguridad y mantener altos estándares de gestión de riesgos. Los organismos reguladores podrían así establecer los estándares mínimos de seguridad que debe cumplir cada sistema;
- Simplicidad y orientación : Cualquier regulación debe ser lo más clara y enfocada posible para evitar obstaculizar la innovación. Una ley sencilla y bien definida reduce la complejidad para las empresas y facilita el cumplimiento de las normas sin crear obligaciones excesivas.
Otros enfoques distintos del antrópico cumplen estas tres condiciones, que ella reconoce fácilmente y concluye:
“Es esencial que durante el próximo año los formuladores de políticas, la industria de la IA, los defensores de la seguridad, la sociedad civil y los legisladores trabajen juntos para desarrollar un marco regulatorio eficaz que aborde las condiciones antes mencionadas y que sea aceptable para una amplia gama de partes interesadas. ”.
Related News :