Quince asociaciones se oponen al uso de un algoritmo Cnaf

-
Imagen oculta de Pinterest

Quince asociaciones, entre ellas Amnistía Internacional y la Fundación Abbé Pierre, han presentado un recurso ante el Consejo de Estado para impugnar la utilización de un algoritmo por parte de la Caja Nacional de Asignaciones Familiares (Cnaf). A este último se le acusa de discriminar a los beneficiarios precarios al asignarles una “puntuación de sospecha” basada en criterios socioeconómicos.

Las sospechas pesan sobre los más precarios

El algoritmo utilizado por la Cnaf, destinado a detectar fraudes o errores en las prestaciones sociales, está en el centro de una creciente polémica. Quince asociaciones, entre ellas Amnistía Internacional, Quadrature du Net y la Fundación Abbé Pierre, se han puesto en contacto con el Consejo de Estado para obtener el cese de esta herramienta digital. Según ellos, el algoritmo en cuestión genera una “puntuación de sospecha” para cada destinatario, que determinaría la probabilidad de ser controlado.

El sistema, en funcionamiento desde 2011, afecta a los beneficiarios mediante el análisis de sus datos personales. Este sistema estadístico está dirigido a los 13,5 millones de beneficiarios de las prestaciones de la Cnaf, en particular a los que perciben la Renta Activa Solidaria (RSA), la Asignación de Adulto con Discapacidad (AAH) o el bono de actividad. Según las asociaciones solicitantes, este algoritmo se basaría en criterios discriminatorios, en particular el hecho de tener bajos ingresos o estar desempleado, para aumentar la probabilidad de una inspección.

« A cambio, las personas en dificultades se encuentran sobrecontroladas en comparación con el resto de la población. », lamentan las asociaciones en su comunicado de prensa, señalando un algoritmo que reforzaría la estigmatización de los más vulnerables. Tras acceder al código fuente del algoritmo utilizado entre 2014 y 2018, denuncian una vigilancia reforzada de poblaciones ya vulnerables.

Un llamamiento que pone en duda la transparencia de Cnaf

En julio, las asociaciones pidieron a la Cnaf que dejara de utilizar este algoritmo, sin obtener respuesta después de dos meses. Este silencio fue interpretado como una negativa implícita por Katia Roux, responsable de defensa de Tecnología y Derechos Humanos de Amnistía Internacional, lo que llevó a que el asunto fuera remitido al Consejo de Estado.

Ante las críticas, el director general de Cnaf, Nicolas Grivel, defendió el algoritmo afirmando que tenía como objetivo identificar los errores más graves y repetidos.al tiempo que insiste en que son los beneficiarios más precarios quienes reciben “ la mayor ayuda “. Sin embargo, reconoció que determinadas situaciones complejas de la vida profesional amplificaban el riesgo de errores en las declaraciones, a menudo debido a la complejidad de los formularios que debían cumplimentarse.

Nicolás Grivel destacó que el algoritmo respondía a las necesidades de gestión de riesgos, garantizando al mismo tiempo que la Cnaf cumpliría cualquier posible decisión judicial. “ Si una jurisdicción cambiara el sistema, nos adaptaríamos en consecuencia “, aclaró.

-

PREV Impuestos sobre la electricidad, multas a los coches, superganancias… Lo que los diputados cambiaron en el presupuesto de 2025 en la comisión
NEXT Acuerdo de principio entre el fabricante de aviones estadounidense y los huelguistas para poner fin al conflicto social – Libération