“Supervisar el uso de la IA generativa en las empresas”

“Supervisar el uso de la IA generativa en las empresas”
“Supervisar el uso de la IA generativa en las empresas”
-

A dos años de la creación de ChatGPT, Nicolas Blanc, secretario nacional para la transición económica de CFE-CGC, analiza las prácticas tecnológicas en las empresas y su uso por parte de empleados y representantes del personal.

Creada en noviembre de 2022, la herramienta de inteligencia artificial ChatGPT celebró su segundo aniversario. ¿Qué conclusiones podemos sacar de su despliegue?

ChatGPT superó rápidamente su objetivo inicial como un simple proyecto de demostración. Ya no podemos ignorarlo. Diseñado por la empresa estadounidense OpenAI para explorar cómo interactuarían los usuarios con una herramienta basada en el modelo de lenguaje GPT 3.5, ChatGPT ha experimentado una adopción masiva, sorprendiendo incluso a sus creadores. ¡En sólo dos meses, ha acumulado una base de 100 millones de usuarios! Este éxito demuestra el potencial de los grandes modelos de lenguaje (LLM), que se basan en la arquitectura de “transformación” introducida por Google en 2017. Gracias a los mecanismos de autoatención, estos modelos procesan y generan texto de manera humana y sobresalen. Tareas como la comprensión del lenguaje natural.

¿Y en el mundo profesional?

Ya estamos viendo surgir muchos usos en el trabajo, pero hoy necesitamos regular estas prácticas que se desarrollarán aún más con la llegada de Microsoft Copilot, una herramienta tipo ChatGPT que se integrará en su suite de software y ofimática.

Cada vez más empleados utilizan ChatGPT “discretamente” para su trabajo. ¿Qué opinas?

Este fenómeno de “Shadow AI” se refiere al uso de soluciones de IA generativa como ChatGPT o Google Gemini sin la aprobación de la empresa. Por ejemplo, el uso de IA en los dispositivos personales del empleado para corregir texto, generar contenido o escribir un correo electrónico a un cliente. Los casos de uso de IA a pesar de las políticas implementadas por las organizaciones están aumentando. A pesar de las innegables ventajas, este uso “clandestino” plantea serias preocupaciones con respecto a la seguridad y la confidencialidad de los datos. Algunos GAFAM (Microsoft, Apple, Amazon) También han prohibido a sus empleados el uso de ChatGPT. para uso profesional. ¡Esto no es trivial!

¿Cómo constituye esto un riesgo para las empresas?

Independientemente de las reglas establecidas, la IA en la sombra plantea riesgos muy reales, ya que las soluciones de IA absorben una gran cantidad de datos para funcionar. Sin control y supervisión, es posible que los datos confidenciales de la empresa queden expuestos o se utilicen de forma inapropiada. La Shadow AI también puede introducir vulnerabilidades en los sistemas de la empresa porque las soluciones utilizadas no están sujetas a los mismos controles de seguridad que los aprobados por el departamento de TI… La seguridad y la confidencialidad de los datos de la empresa son, por tanto, los dos riesgos principales y, por lo tanto, los empleados no deben exponerse en peligro.

¿Cómo podemos regular estas prácticas?

La idea no es prohibirlos sino apoyarlos. Para ello, las empresas deberán comentarlo primero con los representantes del personal para recuperar el control y definir las condiciones de uso por parte de sus empleados de este tipo de herramientas. Esto puede implicar la negociación de un estatuto en el que los empleados se comprometan a respetar las normas negociadas mediante acuerdo. Por supuesto, es necesario asociar esto a una política de sensibilización y formación de los empleados para que el enfoque sea coherente.

También es fundamental proporcionar una formación adecuada a los empleados sobre los riesgos asociados al uso de la IA y sobre las mejores prácticas a adoptar. Esto creará conciencia sobre las cuestiones de seguridad y privacidad de los datos, así como sobre las limitaciones y usos apropiados de la IA generativa. Algunas empresas ya han tomado la iniciativa al implementar su propio ChatGPT seguro para contrarrestar estas prácticas descabelladas. En todos los casos, recomendamos que las empresas realicen consultas-información para involucrar a los empleados y sus representantes en los consejos económicos y sociales (CSE). Esto permite un proceso de implementación transparente y fluido para todos los empleados.

Los representantes del personal y los sindicatos también pueden utilizar la IA generativa. ¿Cuáles deberían ser las buenas prácticas?

Por supuesto, podemos imaginar que tales herramientas podrían ayudarles a preparar resúmenes de las reuniones del CSE, escribir folletos sindicales o negociar acuerdos. Una vez más, se requiere precaución. Sin pretender prohibirlos, debemos regular estos usos y recordar buenas prácticas en términos de confidencialidad y seguridad de los datos. Los documentos proporcionados como parte de una consulta de información pueden ser confidenciales. Lo mismo ocurre con la negociación de un acuerdo.

Además, el uso de una solución de pago, por ejemplo ChatGPT, no garantiza una seguridad absoluta, como señala OpenAI. en sus preguntas frecuentes. De hecho, tampoco debes indicar nada confidencial en los intercambios que tengas con la herramienta, lo que llamamos “prompts”. Pero rara vez lo sabemos… En general, es apropiado que las partes interesadas adopten una posición de responsable del tratamiento en el sentido del RGPDcon los compromisos resultantes.

¿Cómo trabaja la CFE-CGC en todos estos temas?

Llevamos mucho tiempo investigando la IA, por ejemplo con el proyecto europeo SecoIADeal sobre diálogo social e IA. Vamos a trabajar en una guía de inteligencia artificial que nos recordará buenas prácticas para nuestros miembros y activistas. También será una oportunidad para educar sobre el uso de estos sistemas desde un punto de vista medioambiental ya que, según diversos estudios, una simple consulta en ChatGPT consume diez veces más energía que una búsqueda en Google.

Al mismo tiempo, nuestra red de referentes de IA en las federaciones CFE-CGC son garantes de la difusión de estas normas lo más cerca posible de nuestros afiliados y activistas. También estamos trabajando en la cualificación de un cierto número de IA o herramientas de formación que cumplan con un alto nivel de requisitos de seguridad y confidencialidad para permitir a nuestros miembros beneficiarse tranquilamente de las ventajas de la IA generativa.

Comentarios recogidos por Mathieu Bahuet

-

PREV He aquí por qué estos modelos de iPhone pronto dejarán de venderse en Francia y Europa
NEXT Este nuevo producto para dar volumen a los labios está causando sensación en la industria