Essex Police pausa cámaras reconocimiento facial

La Essex Police pausa cámaras reconocimiento facial en vivo (LFR) tras detectar riesgos de inexactitud y sesgo racial, según un comunicado de la Oficina del Comisionado de Información (ICO). Esta medida precede a una auditoría nacional sobre el uso responsable de esta tecnología por fuerzas policiales británicas, priorizando la protección de datos. El sistema, suministrado por Digital Barriers y subcontratado a Corsight UK —filial de la israelí Corsight AI, polémica por su empleo en Gaza—, genera alertas éticas sobre sesgos y derechos humanos.

Contexto de la suspensión y fallos documentados

Essex Police ha suspendido temporalmente su despliegue de LFR tras pruebas desde octubre de 2023, donde estudios de Big Brother Watch identificaron evaluaciones de impacto deficientes. Un caso emblemático: la identificación errónea de un voluntario negro en 2024. La ICO enfatiza la necesidad de algoritmos actualizados, entrenamiento uniforme y evaluaciones de privacidad para mitigar discriminación demográfica.

Condiciones reales como iluminación variable y ángulos complicados agravan la precisión algorítmica, especialmente con datasets no diversificados. Siete fuerzas policiales en UK usan LFR con supervisión fragmentada entre ICO, BSCC y EHRC, lo que impulsa consultas gubernamentales hasta febrero 2026.

Implicaciones éticas y controversias con proveedores

La pausa de Essex Police en cámaras reconocimiento facial destaca tensiones por el proveedor Corsight AI, criticado por AOAV por vigilancia en palestinos y falta de transparencia. Essex rechazó revelar reuniones vía FOI, alegando sobrecostos, pese a negar ‘negocios directos’. Esto cuestiona reclamos de responsabilidad.

Paralelamente, el Home Office invierte £6.6M en expansión nacional de biometría, validando algoritmos de Cognitec e Idemia vía NPL, aunque persisten alertas de sesgos. Críticos ven hipocresía en impulsar tech mientras se pausan despliegues por fallos previsibles.

Análisis regulatorio y desafíos técnicos

La ICO exige despliegues responsables, pero la supervisión fragmentada revela contradicciones regulatorias. Datos duros muestran que LFR falla más en minorías por sesgos inherentes en entrenamiento, no por ‘mala fe’, sino por datasets sesgados históricamente blancos y masculinos.

Precedentes como pruebas de Essex confirman tasas de error del 20-30% en condiciones reales, versus 1-5% en labs. Esto subraya la necesidad de innovación en datasets inclusivos, no prohibiciones.

Análisis Blixel:

Como redactor escéptico de narrativas oficiales, esta pausa de Essex Police en cámaras reconocimiento facial por sesgo racial es un recordatorio pragmático: la IA no es infalible, pero demonizarla frena innovación vital para seguridad pública. Corsight AI carga con controversias geopolíticas —vigilancia en Gaza—, pero el núcleo es técnico: algoritmos entrenados en datos no representativos fallan en diversidad real. ICO acierta en auditar, pero su enfoque punitivo ignora que sesgos se corrigen con datos duros y actualizaciones, no pausas indefinidas.

Ironía aparte, mientras Home Office gasta millones en biometría nacional, rechazar FOI sobre proveedores socava confianza. Libertarios como yo defendemos LFR regulado: precisión sube al 95% con datasets inclusivos (estudios NIST 2023). Sobrerregulación británica, con EHRC y BSCC pisándose, genera parálisis, no protección. Futuro: estandarizar evaluaciones independientes, obligar transparencia en proveedores y priorizar innovación sobre pánico moral. Pausar es sensato; prohibir, miope. Essex lidera por necesidad, pero UK debe acelerar datos diversificados para equilibrar seguridad y libertades.

Fuentes: Comunicados ICO, Big Brother Watch, AOAV.


Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *