La comunidad de código abierto TrustyAI debe desempeñar un papel en la IA responsable

La comunidad de código abierto TrustyAI debe desempeñar un papel en la IA responsable
La comunidad de código abierto TrustyAI debe desempeñar un papel en la IA responsable
-

El conjunto de herramientas de IA responsable respaldado por IBM y Red Hat lanzado en 2019 es hoy más esencial que nunca. La comunidad TrustyAI debería evolucionar e integrarse con otras comunidades de código abierto, como KubeFlow y EleutherAI. Explicaciones.

miComo comunidad de código abierto, TrustyAI ocupa una posición única dentro del espacio de la IA responsable. La comunidad cree que es fundamental democratizar el diseño y la investigación de herramientas de IA responsables a través de un modelo de código abierto. La observación es la misma que la de OpenLLM en Francia con LUCIE. Ha llegado el momento de hacer oír la voz de los libres en el campo de la IA ética y responsable.

¿De qué estamos hablando?

TrustyAI es un Comunidad de código abierto que se esfuerza por proporcionar un conjunto diverso de herramientas para respaldar el desarrollo y la implementación de inteligencia artificial (IA) responsable..

Creada en 2019 como parte de Kogito, una comunidad de código abierto dedicada a la automatización, cuenta con el respaldo principal de Red Hat e IBM.

A partir de 2021, TrustyAI se separó de Kogito y ganó tamaño y alcance debido al reciente auge de la IA.

Qué hace TrustAI

La comunidad TrustyAI está desarrollando varios proyectos de IA responsable, centrados en la explicabilidad, el seguimiento, el despliegue y la integración responsable de modelos. Se conocen dos casos de uso.

  1. El primero se refiere a un modelo de aprendizaje automático “tradicional” que predice la aceptación de reclamaciones en el campo de los seguros.
  2. El segundo se refiere al despliegue de un modelo de IA generativa destinado a servir como tutor en el campo del álgebra.

Desarrollamos este segundo escenario. Se imagina obtener un modelo de IA generativa destinado a actuar como tutor de álgebra. Para garantizar esto, sería preferible comprobar que este modelo tiene buenos conocimientos específicos en el tema y limitar las interacciones con los usuarios a este área específica. Para comprobar las capacidades de álgebra del modelo, es posible realizar evaluaciones utilizando el servicio Evaluación del modelo de lenguaje de TrustyAI. Se basa en lm-evaluación-arnés, la biblioteca de EleutherAI, y realiza una serie de evaluaciones automatizadas para medir una amplia gama de aspectos vinculados al rendimiento del modelo. En este caso, simplemente seleccione tres subconjuntos de la evaluación Massive Multitask Language Understanding: álgebra abstracta, matemáticas de educación superior y matemáticas de educación secundaria. Si el modelo obtiene una buena puntuación en estos exámenes, generará confianza en que es una herramienta adecuada para servir como un tutor de álgebra confiable.

Una vez que el rendimiento del modelo en el dominio deseado se considera satisfactorio, es posible configurar una implementación limitada utilizando Barandillas TrustyAI. En este caso, es posible aplicar barreras de seguridad en la entrada y salida que verifiquen que el contenido y la conversación sean matemáticos.

Proyectos comunitarios TrustyAI

La comunidad TrustyAI proporciona varias herramientas.

Para desarrolladores de Java, ofrece la biblioteca Java TrustyAI.el proyecto más antiguo aún activo dentro de la comunidad. Su objetivo es permitir un flujo de trabajo de IA responsable dentro de las aplicaciones Java, convirtiéndola en la única biblioteca de este tipo dentro del ecosistema Java en el momento de su desarrollo.

Para científicos y desarrolladores de datos que utilizan PythonTrustyAI pone a disposición su biblioteca Java a través de la biblioteca TrustyAI Python. En este caso, los algoritmos de TrustyAI se integran con bibliotecas de ciencia de datos comunes, como Numpy o Pandas. Hay planes para agregar algoritmos nativos de Python a la biblioteca, lo que ampliará la compatibilidad de TrustyAI integrándola con bibliotecas como PyTorch o TensorFlow. Un ejemplo de un proyecto de este tipo es trustyai-detoxify, un módulo integrado en la biblioteca TrustyAI Python que ofrece barreras de seguridad, detección de lenguaje tóxico y capacidades de reformulación para su uso con LLM.

Para grandes empresas y casos de uso de MLOps, TrustyAI proporciona el servicio y operador TrustyAI Kubernetes, que incluye algoritmos TrustyAI dedicados a la detección de sesgos, explicabilidad y deriva dentro de un entorno de nube, al tiempo que ofrece interfaces para funciones de evaluación de modelos de lenguaje y Guardrails. Tanto el servicio como el operador están integrados en Open Data Hub y Red Hat OpenShift AI. Actualmente, el servicio Kubernetes de TrustyAI admite modelos tabulares proporcionados en KServe o ModelMesh.

El futuro de TrustyAI

El principal contribuyente a TrustyAI es Red Hat (y su empresa matriz IBM). La compañía pretende fomentar la colaboración para crecer y cree que es necesario integrar TrustyAI con otras comunidades de código abierto, como KubeFlow y EleutherAI, para poder “ promover el crecimiento y la expansión de todos ».

Puede ver la guía y las hojas de ruta de la comunidad de TrustyAI o unirse al canal comunitario de Slack.

Me gusta esto:

Me gusta cargando…

-

PREV Por menos de 100 euros, esta batería de cocina Tefal Ingenio está causando estragos en este famoso sitio
NEXT ¡Gana un set completo de Kensington!