El comité de evaluación expresa dudas sobre la eficacia del sistema implementado para los Juegos de París.

El comité de evaluación expresa dudas sobre la eficacia del sistema implementado para los Juegos de París.
El comité de evaluación expresa dudas sobre la eficacia del sistema implementado para los Juegos de París.
-

El comité de evaluación, encargado de evaluar el uso de la videovigilancia algorítmica (VSA) probada durante los Juegos Olímpicos de París 2024, expresa dudas sobre la eficacia del dispositivo, en un informe consultado por El mundo y franceinfo el miércoles 15 de enero. Este informe fue presentado al Ministerio del Interior el martes.

Recordemos que la videovigilancia algorítmica es una tecnología basada en un software asociado a cámaras de vigilancia para identificar eventos considerados sospechosos o de riesgo, antes de alertar a un operador en tiempo real. Probado durante los Juegos Olímpicos, desde entonces el gobierno ha considerado generalizar el sistema. El texto de la ley ya prevé una prórroga hasta el 31 de marzo de 2025. Matignon indicó que estaba esperando el informe del comité de evaluación para tomar su decisión.

En este informe de un centenar de páginas consultado por franceinfo y por la agencia Radio France, se desprende “Que el uso del procesamiento algorítmico implementado como parte del experimento resultó en desempeños técnicos desiguales, que varían mucho según los operadores y los casos de uso, los contextos de uso, así como las características técnicas y el posicionamiento de la cámara.

El comité considera que el interés del dispositivo en el contexto del experimento “depende en gran medida del contexto de uso”. Entre las conclusiones, el comité considera que el VSA es, por ejemplo, “menos efectivo cuando hay poca iluminación” y los resultados son más relevantes “en espacios cerrados o semicerrados, en particular corredores y estaciones de metro, en comparación con los resultados observados en espacios abiertos”.

Las prestaciones técnicas del dispositivo son “en general satisfactorio” para ciertos casos de uso como “la intrusión de personas o vehículos en una zona no autorizada, el tráfico en dirección no autorizada o incluso la densidad de personas”. Sin embargo, con algunas reservas. En cuanto a la densidad de personas, por ejemplo, “El software a veces tenía dificultades para contar demasiados individuos (…) debido a la altura de las cámaras”. El dispositivo parece de hecho. “Menos efectivo cuando las cámaras están demasiado cerca de la audiencia y los cuerpos no son completamente visibles”. En cuanto a los movimientos de multitudes, la eficacia del dispositivo es “difícil de evaluar”explica el informe. “Los pocos retornos indican las dificultades encontradas para identificar movimientos reales. El procesamiento permite, en particular, asimilar grupos de personas que se desplazan en la misma dirección, sin especial prisa. Es difícil definir agrupaciones o movimientos de agrupación. rápida dispersión.

Otro punto destacado por el informe es el de los objetos abandonados. Se juzgan las actuaciones “muy desigual”. Por ejemplo, existe confusión entre objetos desatendidos y aquellos cuya presencia en el local no es anormal: “El tratamiento asimila así periódicamente el mobiliario urbano (bancos, paneles) o incluso los equipos de limpieza (cubos de basura, cubos y máquinas de limpieza) y otros objetos fijos o habituales. Más gravemente, a veces asimila a personas sentadas o estáticas, especialmente a personas sin hogar.

A pesar de ello, el informe afirma que “Los agentes interesados ​​están en general satisfechos con la implementación del sistema”. “La integración de pantallas de cámaras con IA en las salas de mando, cuando se logró, ayudó a promover la complementariedad de las cámaras convencionales y las cámaras con IA”.

Para el comité, “abandono, extensión o perpetuación” del dispositivo es “una elección política” que no entra dentro de su misión. Sin embargo, el comité considera que si se pone en marcha este sistema, “Se requiere una vigilancia especial (…) en particular para evitar cualquier riesgo de uso indebido de fines legales o, más fundamentalmente, de habituación al uso de dicha tecnología con fines de vigilancia”.

Si el experimento se prolonga o se hace permanente, el comité considera importante que el “legislador” reafirma varios principios generales como “el control de los parlamentarios aguas arriba y la remisión a los proyectos de decreto presentados a la CNIL”. Otros principios a reafirmar: “La prohibición del reconocimiento facial fuera del contexto judicial, la evaluación constante de las cuestiones de libertades públicas y derechos fundamentales”o incluso “Informar claramente al público sobre el alcance exacto del uso de cámaras equipadas con IA con respecto a su derecho de acceso”. “Es fundamental”, insiste el comité, “que la información facilitada sea suficiente para garantizar que el público esté informado y conozca los derechos que le reconocen el derecho europeo y la legislación nacional”.

Laurent Nuñez, jefe de la policía de París, se mostró partidario de la generalización del sistema, al igual que el Ministerio del Interior y el ministro de Transportes, Philippe Tabarot, en un artículo en Le Parisien. Las asociaciones que defienden las libertades, por su parte, temen una vigilancia generalizada a pesar de la línea roja marcada hasta ahora por el gobierno: el uso del reconocimiento facial.

-

PREV Renovación energética: cuidado con las encuestas fraudulentas
NEXT Marsella revela un vídeo de tensiones durante el OM-Lille y exige un “trato justo” tras la expulsión de Medhi Benatia