DayFR Spanish

El uso de la IA en la oficina puede estar poniendo en riesgo su negocio, advierten los expertos

-

La proliferación de herramientas basadas en inteligencia artificial en las oficinas ha abierto una nueva vulnerabilidad en la red corporativa.

¿Su chatbot impulsado por IA está poniendo en peligro su oficina? La adopción de numerosas herramientas basadas en inteligencia artificial en empresas y gobiernos ha creado nuevos riesgos para la seguridad de la red. Empresas como Samsung ahora prohíben el uso interno de ChatGPT con razón: los ingenieros de la división de semiconductores habían utilizado el agente conversacional proporcionándole un código fuente confidencial que querían mejorar. También podemos citar a la ciudad de Montpellier que aplicó las mismas instrucciones y bloqueos a los puestos de los empleados municipales. El temor siempre sería el mismo: los empleados brindan demasiada información confidencial a ChatGPT.

Por lo tanto, muchos grandes grupos han favorecido un enfoque diferente: desarrollar su propia inteligencia artificial interna, basada en las bases “comerciales” de ChatGPT o Claude. Datos alojados a veces localmente, empleados que optimizan la herramienta interna, todo parece en teoría impecable. Excepto que esta herramienta, como otras, se puede piratear. Y la ganancia puede ser aún más interesante cuando el ciberdelincuente ha robado el acceso a este programa ofrecido a todos los empleados.

En concreto, ¿cuáles son los riesgos? “ Si un hacker tiene acceso a la cuenta profesional de un chatbot popular, podrá encontrar documentos confidenciales transferidos a ella o incluso el historial de chat. », Explica Adrien Merveille, experto en ciberseguridad de Check Point. “ Un programa desarrollado internamente tampoco es inmune. El ciberdelincuente puede intentar envenenar el código para modificar los resultados producidos por una IA y perjudicar a la empresa » añade el especialista. Una empresa que analiza imágenes de cámaras podría, por ejemplo, verse engañada en los análisis proporcionados por su programa.

Módulos para bloquear solicitudes a ChatGPT

>

Ciberataques: cuando los humanos somos el eslabón débil

Con U-Cyber ​​​​360°, la empresa francesa Mailinblack te permite proteger tu organización y educar a tus empleados en ciberseguridad.

Desde el gestor de contraseñas hasta la seguridad del correo electrónico, pasando por la formación continua y las simulaciones de ataques, esta solución reúne todas las herramientas para prevenir los ciberriesgos.

Están empezando a surgir soluciones para asegurar estas nuevas herramientas internas. La empresa Check Point ahora ofrece módulos en motores de búsqueda para bloquear las solicitudes de un empleado en ChatGPT cuando revela información privada.

Si solicita un resumen basado en los resultados de las diferentes sucursales de la empresa, será bloqueado ya que contiene información considerada sensible.

>
Un ejemplo de una solicitud bloqueada en la que el empleado proporcionaría información financiera al chatbot. // Fuente: Punto de control

ANSSI, el centinela responsable de la protección digital de la administración francesa, también investigó el tema y proporcionó la primavera pasada un folleto en línea para asegurar el uso de la IA en los negocios.

« El error más básico es creer que la inteligencia artificial es un tema aparte, hasta el punto de olvidar que las normas de seguridad no se aplican a su uso. » advierte Vincent Strubel, director general de ANSSI. “ Observamos algunos errores en la práctica, una IA que se actualiza online, que no está controlada… antes de dejar que el programa tome una decisión, recomendamos dominarlo bien. » nos explica.

>
Vincent Strubel, director general de ANSSI. // Fuente: Patrick Gaillardin

Para avanzar, ANSSI consideraría que las etiquetas utilicen programas seguros de inteligencia artificial. Estas certificaciones nacionales ya existen para soluciones de ciberseguridad, pero aún es necesario encontrar los criterios para una IA segura.

Mientras tanto, siempre puedes pedirle a ChatGPT que no guarde el historial de chat para evitar alimentar su IA.


Related News :