En secreto, durante las vacaciones, el Gobierno [francés] presentó el proyecto de ley1 relativo a los Juegos Olímpicos y Paralímpicos de 2024. Como era de esperar, este texto pretende abrir la vía a la legalización de la videovigilancia automatizada (o algorítmica, abreviada «VSA»), todo ello bajo un barniz teórico de experimentación limitada en el tiempo. Y esto mientras que en todo el territorio ya se utilizan estas tecnologías ilegalmente y con total impunidad. Utilizando como pretexto las grandes competiciones deportivas que se avecinan, el gobierno y algunos parlamentarios se hacen pasar por defensores de la industria francesa permitiéndole una expansión duradera en el mercado de la videovigilancia.
A modo de recordatorio: la videovigilancia automatizada es la vigilancia policial masiva de los espacios públicos para detectar comportamientos considerados «anormales»; es el seguimiento algorítmico de individuos «sospechosos» en la calle; es la inteligencia artificial para cazar ilegalismos populares; es, a largo plazo, la identificación por reconocimiento facial en tiempo real y la masificación de la videovigilancia; son decenas de millones de euros de dinero público para tecnologías peligrosas desplegadas sin ningún debate digno de ese nombre.
Si queremos derrotar este proyecto social, debemos conseguir que estas disposiciones sean rechazadas a toda costa. ¡Nos hemos de preparar para movilizarnos!
Llevamos más de tres años documentando la experimentación ilegal de la videovigilancia automatizada en ciudades y pueblos franceses, y llevando casos a los tribunales, en grandes ciudades como Marsella o pequeños pueblos como Moirans (Isère)2, para denunciar la ilegalidad de estas tecnologías de vigilancia dopadas con inteligencia artificial. Durante tres años, el gobierno y la industria han sido conscientes de la ilegalidad de estas tecnologías y han intentado cambiar la ley para hacerlas legalmente seguras. Ya en 2020, la Ley de Seguridad Global casi se utilizó como cauce legislativo. Por miedo a la oposición, el gobierno prefirió dar largas al asunto. Pero esta vez, va hacia adelante…
El oportunismo de los Juegos Olímpicos
La elección de los Juegos Olímpicos y Paralímpicos de 2024 para intentar legalizar estas tecnologías no es baladí. Los Juegos Olímpicos son un «megaevento» que, por su dimensión excepcional, permitirá aplicar y acelerar políticas igualmente excepcionales. Como se ha observado3 en ediciones anteriores, estos actos son una oportunidad para introducir innovaciones legislativas en el ámbito de la seguridad. Las leyes que acompañan a los Juegos Olímpicos establecen sistemáticamente un marco de estricta vigilancia policial, militarización del espacio público e intensificación de las medidas de vigilancia.
El investigador Jules Boykoff compara4 [https://saccage2024.noblogs.org/files/2021/07/boykoff-v5.pdf] este fenómeno de aceleración legislativa con la «teoría del shock» de Naomi Klein, según la cual los gobiernos utilizan una catástrofe o un trauma social para impulsar medidas basadas en la privatización y la desregulación. Los Juegos Olímpicos también parecen ser un acelerador de políticas excepcionales, pero esta vez utilizando un momento de celebración o espectáculo, que es en esencia extraordinario, en el que las reglas políticas podrían suspenderse temporalmente, para impulsar políticas que habrían sido difíciles, si no imposibles, de aplicar en tiempos normales.
Por ejemplo, el gobierno brasileño utilizó los Juegos Olímpicos de 2016 en Río para llevar a cabo operaciones cuasi militares5 en las favelas o para desalojar5 a personas de sus hogares. Del mismo modo, con motivo de los Juegos Olímpicos de Tokio, el gobierno japonés aprobó una ley «anticonspiración»6 que, en realidad, llevaba mucho tiempo destinada a someter a grupos activistas y sindicales. Los gobiernos anteriores habían intentado sin éxito en tres ocasiones aprobar una legislación similar. La ley fue ampliamente criticada7, incluso por Naciones Unidas, por la vulneración de libertades que creaba y los poderes de vigilancia que otorgaba al Estado.
Del mismo modo, los megaeventos deportivos se describen8 a menudo como «espectáculos de seguridad» o «escaparates de seguridad», ya que son a la vez momentos de experimentación y laboratorios tecnológicos, pero también juegan con este momento excepcional para atenuar las medidas de vigilancia y hacerlas más aceptables (ya hemos hablado de ello aquí9).
París en marcha
La elección del gobierno francés de introducir experimentos de video-vigilancia automatizada en la ley sobre los Juegos Olímpicos de 2024 corresponde exactamente a este esquema y lógica de instrumentalización de los megaeventos. Aunque no existe ningún estudio público y científico sobre este tema y no se ha identificado con precisión ninguna necesidad, las medidas relativas a la VSA son presentadas por el Gobierno y algunos parlamentarios como necesarias para la seguridad de este acontecimiento.
En la evaluación de impacto, el Gobierno se contenta con tomar como ejemplo la detección de paquetes abandonados: «En lugar de esperar a que lo señale el personal de la vía pública o a que lo localicen los operadores encargados de visionar miles de imágenes de videovigilancia, esta medida permitiría ahorrar un tiempo precioso» y «solo la utilización de un tratamiento algorítmico es susceptible de señalar esta situación de riesgo en tiempo real y permitir a los servicios interesados analizarla y hacer un seguimiento en caso necesario». Esta es la única justificación para la introducción de la vigilancia algorítmica del espacio público que el Gobierno ya pretende hacer permanente y que potencialmente afecta a millones de personas.
En realidad, los experimentos forman parte de un proyecto político más amplio y satisfacen los deseos expresados desde hace varios años por el sector industrial y las instituciones policiales de hacer un uso masivo de estos dispositivos. Por tanto, es seguro que estas herramientas no se abandonarán una vez finalizado el periodo experimental, del mismo modo que se perpetuaron las cajas negras de los servicios de inteligencia o las normas derogatorias del estado de excepción de 2015, cuando se suponía que eran temporales y excepcionales. Además, parlamentarios en el punto de mira de este asunto, como Philippe Latombe, ya hablan de otra ley más general sobre el mismo tema que se aprobará en el transcurso de 2023.
Vía libre para el mercado ASV
Para permitir el desarrollo del VSA, el Gobierno ha incluido un artículo 7 en el proyecto de ley que propone un proceso de experimentación en varias etapas hasta junio de 2025. Detrás de este aparente formalismo procedimental, el artículo 7 es en realidad un trampolín para la venta de software VSA al Estado y a las autoridades locales por parte del sector privado.
Aunque la ley se presenta como relativa a los Juegos Olímpicos, en realidad es en toda una serie de otros acontecimientos donde se desplegarán los algoritmos durante el periodo previsto para los experimentos: festivales de música, carreras de maratón, espectáculos al aire libre, mercadillos navideños o la Copa del Mundo de Rugby de 2023. Todos ellos son acontecimientos «deportivos», «recreativos» o «culturales» que servirán de campo de entrenamiento para estos algoritmos. Además, el perímetro de estos acontecimientos también es muy amplio, ya que las imágenes utilizadas se extenderán a los alrededores de estos lugares y a los medios de transporte que les dan servicio (el interior y las vías).
Fundalmentalmente se supone que los experimentos respetan una doble condición que se ajusta perfectamente al término y a las ofertas creadas por el mercado VSA. En primer lugar, la finalidad de los experimentos debe ser «garantizar la seguridad de acontecimientos deportivos, recreativos o culturales que, por su envergadura o circunstancias, estén especialmente expuestos al riesgo de actos de terrorismo o de atentar gravemente contra la seguridad de las personas». En segundo lugar, la finalidad del tratamiento debe ser «detectar, en tiempo real, acontecimientos predeterminados susceptibles de presentar o revelar tales riesgos e informar de ellos con vistas a aplicar las medidas necesarias» para una serie de servicios de seguridad (la policía y la gendarmería nacionales, la policía municipal, los servicios de bomberos y salvamento y los servicios internos de seguridad de la SNCF y la RATP). Las imágenes procesadas pueden ser las de cámaras de vigilancia o drones, estos últimos autorizados desde el año pasado.
Como ocurre con muchos dispositivos de vigilancia, el gobierno se justifica por una lógica de prevención de riesgos. Y, como suele ocurrir, su definición es tan amplia que puede abarcar situaciones muy diversas. La funcionalidad de detección de eventos está en el corazón de los dispositivos diseñados y vendidos por el mercado VSA: adivinar y clasificar los comportamientos «de riesgo» en el espacio público y alertar de aquellos que requerirían la atención e intervención policial. Así, en la ley, la «inteligencia artificial» (que nunca se define en el texto) permitiría detectar en nuestras formas de vivir, movernos y caminar aquellas que deberían activar –o no– una alerta.
En la evaluación de impacto, las únicas «repercusiones sociales» que el gobierno identifica son beneficios: la VSA «mejoraría» la seguridad, garantizaría «el anonimato en el espacio público y la no invasión de la privacidad» debido a la ausencia de reconocimiento facial… –¿de verdad?– y, por último, los requisitos de la ley permitirían la «neutralidad de la herramienta». En su dictamen, el Consejo de Estado adopta la misma lógica que la promovida por las empresas, a saber, que la función del algoritmo se limita a «disipar dudas», minimizando así el papel del programa informático en la toma de decisiones de los agentes de seguridad, que quedan liberados de responsabilidad tras una herramienta técnica. La CNIL, por su parte, está ausente y se contenta con felicitarse de que se hayan incluido en el proyecto de ley las «garantías» exigidas en su anterior posición, en la que pedía la legalización del ASV…
Hemos denunciado repetidamente que estas herramientas son cualquier cosa menos neutrales. En la práctica actual del sector, estos sucesos van desde la «detección de un comportamiento sospechoso», el «robo» (quedarse estático en el espacio público), pasando por el «cruce de una línea virtual» (es decir, una persona que entra en una zona), el seguimiento de una persona, la detección de objetos abandonados, una pelea o un robo. Los denominados comportamientos «sospechosos» no reflejan ninguna realidad tangible, sino que no son más que la materialización de opciones políticas subjetivas y discriminatorias que se centran en las personas que pasan más tiempo en la calle: por ejemplo, bajo la funcionalidad de detección de «vagabundeo» se persigue en realidad a los mendigos. Ya sea humana o algorítmica, la interpretación de las imágenes siempre viene dictada por criterios sociales y morales, y la adición de una capa de software no cambia esto. En definitiva, automatiza y masajea la toma de decisiones de la policía para permitirle aumentar su poder de vigilancia y represión.
Para impulsar esta estrategia de minimizar su vigilancia, el gobierno también afirma que estos dispositivos no procesarán datos biométricos (lo cual es falso, como explicamos aquí10, y como nos recordó recientemente el Defensor de los Derechos [En su informe11 Tecnologías biométricas: el imperativo de respetar los derechos fundamentales de 2021, el Defensor de los Derechos ya consideraba las tecnologías VSA como tratamiento de datos biométricos. En 2022, recordó que el VSA consiste en el tratamiento de datos biométricos en su encuesta [sobre la «Percepción del desarrollo de las tecnologías biométricas en Francia».] ) y que no realizarán reconocimiento facial. Al comprometerse a renunciar por el momento a esta tecnología, que ocupa un lugar muy especial en el imaginario colectivo, está jugando un juego político y estratégico de comunicación para dar una imagen menos peligrosa de la VSA. El discurso consiste en afirmar que el VSA «solo» se basa en un análisis de imagen puramente técnico que «solo» ayuda a los humanos. Una vez más, el Gobierno y el Consejo de Estado sacan directamente sus explicaciones del montón de argumentos de los mercaderes12 y promotores13 de VSA. El VSA no es en modo alguno menos peligroso que el reconocimiento facial y afecta a la misma intimidad del cuerpo. En otras palabras, el reconocimiento facial es solo una de las muchas aplicaciones del VSA. Y hay muchas posibilidades de que su uso para identificar a personas en tiempo real en la vía pública se legalice en la próxima y enésima ley de seguridad. Ya en 2018, fue este uso el que cargos electos como Christian Estrosi, alcalde de Horizontes de Niza, esgrimieron para legitimar14 el uso de la videovigilancia automatizada en sus ciudades.
El Estado al mando
Además, el proyecto de ley prevé que la creación y el despliegue de algoritmos se dividan en varias etapas, todas ellas supervisadas por el poder ejecutivo y con el menor número posible de obstáculos o salvaguardas.
En primer lugar, al igual que en el caso de la videovigilancia tradicional, los servicios del Estado o de las autoridades locales deberán solicitar una autorización al prefecto. Estas solicitudes de autorización deberán identificar un acontecimiento preciso en el que se llevará a cabo la experimentación (por ejemplo, el maratón de París en abril de 2023 o el festival Vieilles Charrues en julio) y definir el algoritmo que se aplicará (qué «acontecimiento» detectar, las especificidades de la situación que justifican el uso del VSA, quién puede tener acceso a él, cómo se financia…). También debe adjuntarse a esta solicitud un análisis «beneficio/riesgo», pero este tipo de documento se exige regularmente en la ley de datos personales y ya ha demostrado su incapacidad para proteger las libertades públicas (estos análisis de impacto suelen estar mal redactados por los solicitantes y casi nunca impiden el despliegue de dispositivos que luego podrían ser considerados ilegales por los tribunales).
Para producir el software, el Estado y las autoridades locales tendrán tres opciones: desarrollarlo ellos mismos, encargarlo a un tercero o adquirirlo directamente en el mercado. Por supuesto, lo más probable es que se prefieran las dos últimas opciones, ya que es mucho más barato y rápido confiar la tarea a empresas que llevan años haciéndolo que crear un departamento de ingenieros internos (que ganarían más en el sector privado). Y los industriales de VSA –los grandes como Thales o Idemia, los pequeños como Briefcam, Aquilae, XXII, Two‑I o Datakalab– ¡están todos a favor! Esta ley les permitirá aumentar sus despliegues al proporcionarles un marco jurídico del que hasta ahora carecían en gran medida, y al reorientar todos los desarrollos de su tecnología de «visión asistida por ordenador» hacia aplicaciones de seguridad.
En cuanto a las multitudes controladas por estos sistemas durante la multitud de eventos en los que se llevarán a cabo las pruebas, se utilizarán como conejillos de indias: el proyecto de ley prevé de hecho que las imágenes «clásicas» de videovigilancia reguladas por el código de seguridad interior puedan utilizarse como datos de aprendizaje si su periodo de conservación no ha expirado. Sin embargo, en el estudio de impacto nos enteramos de que «si la reutilización de estos datos es necesaria para corregir los parámetros del tratamiento, podrán conservarse más allá de estos periodos, dentro del límite de la duración del experimento y para este único uso, con el fin de perfeccionar el aprendizaje de los algoritmos». Esto significa que las empresas de VSA dispondrán de un gran volumen de imágenes para entrenar sus algoritmos. Y los ciudadanos filmados se convertirían simplemente en sus ratas de laboratorio.
En el aspecto técnico, el proyecto de ley establece que el desarrollo del software tendrá que cumplir unos requisitos totalmente desfasados con respecto a la realidad de la fabricación de este tipo de software de análisis de imágenes. Volveremos sobre este tema con más detalle en un próximo artículo.
Estos requisitos serán objeto de un certificado de conformidad expedido por una autoridad administrativa que aún no se ha definido y según criterios y métodos que nunca se han especificado. Según el estudio de impacto, es probable que el Estado pida ayuda a un «organismo de certificación especializado». ¿Presumiblemente otro actor privado? En cualquier caso, lo único que se exige a los fabricantes es que «presenten garantías de competencia y continuidad y faciliten documentación técnica completa».
Una vez que el software esté listo, será el prefecto del departamento y, en París, el prefecto de policía quien autorice el uso de los algoritmos ante los servicios de seguridad que lo soliciten. También serán los únicos que podrán decidir si dejan de utilizarlo o lo renuevan, cada mes, si se cumplen las condiciones. Al final de todo esto, lo que llama la atención es la clamorosa ausencia de la CNIL. Sus competencias son extremadamente limitadas y nunca vinculantes, ya se trate del decreto por el que se autoriza el experimento (solo es un dictamen consultivo), de la decisión del representante del Estado o del prefecto de policía de implantar el sistema (esta decisión simplemente se le envía) o del seguimiento del experimento (el prefecto le mantiene informado «como y cuando sea necesario», es decir, según su buena voluntad).
Esta eliminación de cualquier control independiente no es sorprendente y se inscribe en la pérdida de competencias de la CNIL observada desde principios de la década de 2000, al alejarse de las cuestiones de vigilancia del Estado para concentrarse en el apoyo a las empresas. La falta de reacción contundente de la CNIL ante el despliegue de la VSA, prefiriendo en su lugar entablar un diálogo complaciente con sus fabricantes, confirma su transformación en una autoridad reguladora del sector económico de la vigilancia.
Comienza la batalla
El Gobierno ha tenido este proyecto en el bolsillo durante mucho tiempo. No queremos mejorarlo ni retocar la ley: queremos el rechazo rotundo del artículo 7 por el proyecto de sociedad de vigilancia que encarna.
La VSA supone un cambio en la dimensión de la vigilancia masiva. Al autorizar al Estado a analizar, clasificar y evaluar los movimientos y comportamientos de cada individuo en el espacio público, y al otorgarle un poder de decisión que se multiplica por diez gracias a la automatización de la toma de decisiones, esta tecnología transforma nuestra relación con el espacio público y aumenta la capacidad de control y represión de la policía.
Lucharemos para garantizar que este primer paso hacia la legalización del ASV nunca se produzca. Necesitaremos tu ayuda para mostrar la oposición de la sociedad a estas tecnologías y para interpelar a los parlamentarios. La batalla comienza en el Senado el 18 de enero, antes de que el texto se envíe a la Asamblea. Volveremos pronto con nuevos análisis y herramientas para que puedas actuar con nosotros. Mientras tanto, os invitamos a acudir a debatir el tema el 14 de enero en la Flèche d’Or de París. Hablaremos de Tecnopolice y los Juegos Olímpicos con activistas e investigadores que trabajan en el tema, ¡toda la información está aquí!
La quadrature du Net
5 de enero de 2023
- https://www.senat.fr/leg/pjl22-220.html
- https://www.mediapart.fr/journal/france/080522/videosurveillance-moirans-cite-de-la-demesure
- https://www.scielo.br/j/cm/a/zcKnN9ChT9Wqc4hfGWKSk4d/?lang=en
- https://www.huffingtonpost.fr/actualites/article/jeux-olympiques-de-rio-2016-quand-le-bresil-pacifie-ses-favelas-cela-n-a-rien-de-pacifique_82336.html
- https://www.lesechos.fr/2017/06/le-japon-adopte-une-loi-securitaire-controversee-172489
- https://www.humanite.fr/monde/japon/tokyo-legalise-la-surveillance-de-masse-636703
- https://metropolitiques.eu/Les-grands-evenements-olympiades-de-la-securite-urbaine-numerique.html
- y aquí4
- https://www.laquadrature.net/2022/04/07/en-quoi-la-videosurveillance-algorithmique-est-elle-illegale/
- https://www.defenseurdesdroits.fr/sites/default/files/atoms/files/rap-biometr-num-08.07.21.pdf
- https://www.xxii.fr/rgpd/
- https://twitter.com/cestrosi/status/1537443534856278017
- https://www.lesechos.fr/pme-regions/provence-alpes-cote-dazur/le-maire-de-nice-demande-la-liste-des-fiches-s-de-sa-ville-238685