La pandemia está sirviendo para experimentar nuevas técnicas represivas a gran escala. Por ejemplo, las dos provincias más pobladas de Australia están probando un programa de reconocimiento facial que permite a la policía comprobar que la gente permanece en sus casas durante el confinamiento.
La empresa tecnológica Genvis ha declarado que Nueva Gales del Sur y Victoria, donde se encuentran Sydney, Melbourne y más de la mitad de los 25 millones de habitantes de Australia, están probando técnicas de reconocimiento facial. Genvis dijo que las pruebas se realizaban de forma voluntaria.
Esta empresa con sede en Perth, Australia Occidental, desarrolló el programa el año pasado con la policía para ayudar a imponer las restricciones sanitarias, y ha dicho que espera vender sus técnicas en el extranjero.
El mes pasado, la provincia de Australia Meridional comenzó a probar una tecnología similar que no es de Genvis, lo que provocó advertencias en todo el mundo sobre la extralimitación de la vigilancia.
La primera ministra de Nueva Gales del Sur, Gladys Berejiklian, dijo antes de su dimisión, que el gobierno estaba “cerca de probar algunas opciones de cuarentena en el hogar para los australianos que regresan”, sin responder directamente a las preguntas sobre el programa de reconocimiento facial Genvis.
En el sistema que se está experimentando, las personas tienen que responder a solicitudes de la policía aleatorias haciéndose un “selfie” en el domicilio en el que indican cumplir la cuarentena. Si el programa, que también recoge datos de localización, no verifica la imagen con una “firma facial”, la policía puede realizar una visita al lugar para confirmar el paradero de la persona.
Aunque la tecnología se utiliza en Australia Occidental desde noviembre del año pasado, se ha presentado más recientemente como una herramienta para que el país pueda reabrir sus fronteras, poniendo fin a un sistema vigente desde el inicio de la pandemia que obliga a las llegadas internacionales a pasar dos semanas en cuarentena en un hotel bajo la vigilancia de la policía.
Aparte de la pandemia, las fuerzas policiales han expresado su interés en utilizar las aplicaciones de reconocimiento facial, lo que ha provocado una reacción de los grupos por la posibilidad de ataques a grupos minoritarios.
La directora ejecutiva de Genvis, Kirstin Butcher, dijo que “una cuarentena domiciliaria no se sostiene sin controles de cumplimiento, si lo que se busca es mantener la seguridad de las poblaciones”.
“No puedes realizar controles de cumplimiento físicos a la escala necesaria para apoyar los planes de reapertura [social y económica], así que hay que utilizar la tecnología”, añadió.
“Me preocupa no sólo el uso que se hace de ella, sino el hecho de que sea un ejemplo del uso progresivo de este tipo de tecnología en nuestras vidas”, dijo Toby Walsh, profesor de Inteligencia Artificial de la Universidad de Nueva Gales del Sur.
Walsh puso en duda la fiabilidad de la tecnología de reconocimiento facial en general, que, según él, podría ser pirateada para dar informes de localización falsos. “Incluso si funciona aquí… entonces valida la idea de que el reconocimiento facial es algo bueno”, dijo. “¿Dónde termina?”
El gobierno de Australia Occidental ha dicho que ha prohibido a la policía utilizar los datos recogidos por las aplicaciones informáticas relacionadas con la pandemia para otros asuntos. La policía de Australia Occidental afirma que ha sometido a 97.000 personas a la cuarentena domiciliaria, utilizando el reconocimiento facial, sin incidentes.
Próximamente el Parlamento Europeo va a prohibir totalmente la vigilancia biométrica masiva por parte de la policía porque las técnicas de control a distancia basadas en la inteligencia artificial, como el reconocimiento facial, suponen un atentado a los derechos y libertades fundamentales, como la intimidad.
—https://www.reuters.com/world/asia-pacific/australias-two-largest-states-trial-facial-recognition-software-police-pandemic-2021 – 09-16/
La entrada Un futuro de represión y control se publicó primero en La otra Andalucía.