LLama y Mixtral no son verdadera IA de código abierto según OSI

LLama y Mixtral no son verdadera IA de código abierto según OSI
LLama y Mixtral no son verdadera IA de código abierto según OSI
-

Al publicar su primera definición oficial 1.0 de lo que es la IA de código abierto, OSI busca eliminar la ambigüedad y promover un verdadero acceso abierto a las tecnologías de inteligencia artificial. Pero su definición pone en duda la etiqueta de “código abierto” reclamada por jugadores como Meta y Mistral.

Desde hace 25 años, la Open Source Initiative (OSI) ha sido una autoridad en la definición de estándares de código abierto. La publicación de esta semana de su primera definición oficial de lo que constituye un “ inteligencia artificial verdaderamente de código abierto » viene a aclarar los debates, mientras que las licencias de Apache y MIT resultan inadecuadas para trazar los límites de la IA de código abierto. Este anuncio, que llega tras dos años de consultas con expertos de todo el mundo, cuestiona las prácticas de gigantes tecnológicos como Meta o Google, pero también de las startups que abogan por un enfoque de código abierto como Mistral. Explicaciones…

Criterios estrictos que excluyen a los principales modelos actuales.

Según la OSI, para que una IA sea considerada auténticamente de código abierto, debe satisfacer cuatro libertades fundamentales: uso ilimitado, estudio de cómo funciona, modificación para cualquier uso y libre intercambio de modificaciones.

Más concretamente, los desarrolladores deben proporcionar:

Acceso a los detalles de los datos de entrenamiento. permitiendo que el modelo sea comprendido y reproducido

El código fuente completo utilizado para el construcción y ejecución de IA

Parámetros y peso. del entrenamiento

Hasta ahora, la mayoría de los modelos calificados como de código abierto se conformaban con los dos últimos puntos o incluso simplemente con el último, según una práctica a menudo denominada “ peso abierto ».

Con la publicación del OSI, la nueva lista oficial de IA de código abierto ahora es muy limitada: pitia (Eleuther AI), Olmo (AI2), Ámbar y codificador de cristal (LLM360) así como el ancestral T5 (Google). Otros modelos podrían sumarse rápidamente a esta breve lista siempre que modifiquen sus términos legales y licencias: FLORACIÓN (Gran Ciencia), Codificador de estrellas2 (Código grande), Halcón (TII).

En otras palabras, los requisitos OSI colocan modelos populares como Llama 2 de gol o Mixtral de Mistral fuera del ámbito del “código abierto”. De hecho, Llama impone restricciones de uso comercial para plataformas que superan los 700 millones de usuarios, mientras que Mistral prohíbe ciertos usos comerciales. Y la lista de exclusiones está lejos de limitarse a estos dos modelos populares. Grok AIla IA de la startup de Elon Musk en conflicto con OpenAI porque este último ya no publica nada como código abierto, tampoco cumple con la definición OSI. Lo mismo ocurre con los modelos populares. fi-3 de Microsoft y probablemente también los últimos modelos Granite 3.0 de IBM.
Porque, en todos los casos, un elemento crucial excluye a estos modelos de la definición OSI: ninguno de ellos revela sus datos de entrenamiento.

Una batalla por los datos de entrenamiento

De hecho, a lo largo de los meses, los debates sobre una definición de IA de “fuente abierta” se han centrado en la cuestión de los datos de entrenamiento. ¿Deben estos datos en sí estar en el dominio de código abierto (y por lo tanto etiquetados como “Creative Common” o similar) o es suficiente revelar las fuentes de los datos que se utilizaron para la capacitación, pudiendo estos últimos adquirirse bajo licencia o cerrados?

En este asunto, la OSI se ha decidido –en esta versión 1.0– por la segunda opción. Una IA de código abierto puede utilizar para su entrenamiento datos que no sean de código abierto siempre que la fuente de los datos esté claramente especificada.

Como era de esperar, Meta, a través de su portavoz Faith Eischen, cuestiona la definición de OSI: “ Estamos de acuerdo con nuestro socio OSI en muchos puntos, pero no estamos de acuerdo con su nueva definición. En nuestra opinión, No puede haber una definición única de IA de código abierto, y definirla es un desafío porque las definiciones anteriores no cubren las complejidades de los modelos de IA actuales. »
Y Meta invoca (al igual que OpenAI, además) preocupaciones de seguridad para justificar sus restricciones.

Stefano Maffulli, director ejecutivo de la OSI, lo ve más bien como una repetición de la historia: “ Meta utiliza los mismos argumentos que Microsoft en la década de 1990, cuando vio el código abierto como una amenaza a su modelo de negocio. »
Para él, la renuencia a compartir datos de capacitación se debe más a proteger una ventaja competitiva que a consideraciones de seguridad.

De momento, y a la espera de sentencia al respecto, la posición de la OSI se ve reforzada por el contexto legal actual, donde muchas empresas de IA se enfrentan a demandas por infracción de derechos de autor en su formación de datos. La transparencia requerida por la OSI no sólo coloca estas prácticas controvertidas en el centro de los debates, sino que ahora permite definir claramente quiénes son y quiénes no son parte de la IA de código abierto. Incluso si eso significa que todas las IA que no entran dentro de la definición OSI finalmente adoptan la etiqueta no oficial de “IA de peso abierto”.

Una definición que evolucionará

« Llegar a la versión 1.0 de OSAID hoy ha sido un viaje difícil, lleno de nuevos desafíos para la comunidad OSI » explica Stefano Maffulli. “ A pesar de este delicado proceso, marcado por opiniones divergentes y fronteras técnicas inexploradas –y a veces incluso acalorados intercambios–, los resultados están alineados con las expectativas fijadas al inicio de este proceso de dos años. Este es un punto de partida para un esfuerzo continuo para interactuar con las comunidades para mejorar la definición con el tiempo, a medida que desarrollamos con la comunidad de código abierto más amplia el conocimiento necesario para comprender y aplicar OSAID v1. »

Si se espera que esta versión 1.0 de la definición adquiera autoridad en el corto plazo y redefina el panorama de la IA de código abierto, la OSI reconoce, no obstante, que tendrá que evolucionar. Se creó un comité para supervisar su aplicación y proponer modificaciones. Porque quedan preguntas sin respuesta, en particular sobre la gestión de los derechos de autor de los propios modelos y sobre el acceso a los datos de formación propios.

Sin embargo, esta iniciativa marca un punto de inflexión decisivo en el ecosistema de la IA, sentando las bases para una mayor transparencia y una verdadera democratización de las tecnologías de inteligencia artificial.

¡Te enviaremos un correo electrónico de validación!

-

PREV Alimentaments du Québec y Geneviève O’Gleman presentan una serie de podcasts – Vivir en el campo
NEXT El Festival de Ronquières, inmovilizado a pesar de Test Achats: “Nos metieron en el mismo bote que a los demás”