Met Police niega Palantir en investigaciones policiales

La Met Police niega Palantir en el uso de herramientas de inteligencia artificial desarrolladas por la controvertida firma para investigar la conducta indebida de sus oficiales. Ante una solicitud de información pública (FOI), la Policía Metropolitana de Londres se acoge a exenciones por seguridad nacional y aplicación de la ley, negándose a confirmar o desmentir contratos o pruebas con plataformas como Gotham y Foundry. Esta opacidad genera alarma entre defensores de la privacidad, que ven en Palantir un riesgo de vigilancia masiva sin accountability. Fundada por Peter Thiel, la empresa integra datos de GPS, finanzas, redes sociales y bases policiales para predicciones y alertas, pero acumula críticas por sesgos y discriminación.

Contexto de la negativa de la Met Police

La Met Police niega Palantir de forma explícita en su respuesta a la FOI, argumentando que revelar detalles podría comprometer operaciones en curso o futuras. Esta postura no es aislada: Palantir ha colaborado previamente con fuerzas policiales británicas, como pruebas en 2010 y el proyecto Nectar en East of England, que unifica datos de sospechosos para detectar patrones delictivos. En Bedfordshire, se la calificó como la ‘primera policía por IA’. Sin embargo, la Met invoca secciones de la FOI Act que priorizan la seguridad sobre la transparencia, evitando divulgar contratos de los últimos cinco años.

Este secretismo contrasta con usos públicos de Palantir en el NHS para la vacunación COVID o en Coventry para servicios sociales infantiles, donde Foundry procesó datos masivos. En policing, Gotham genera inteligencia accionable, pero sin detalles, surge la sospecha de un ‘estado de vigilancia secreto’ operado por privados que eluden escrutinio público.

Herramientas de Palantir y su aplicación policial

Palantir Gotham, núcleo de sus ofertas policiales, fusiona datos heterogéneos para análisis predictivo: desde geolocalización hasta transacciones bancarias. En EE.UU., un proyecto con LAPD fue cancelado en 2021 por preocupaciones sobre ‘policía predictiva’ racista. En Ucrania y con el IDF (Israel), soporta operaciones militares, incluyendo listas de objetivos generadas por IA como Lavender. Para ICE, Elite acelera deportaciones. En UK, su penetración crece pese a críticas de grupos como Big Brother Watch.

La Met Police niega Palantir, pero precedentes sugieren integración sutil. Proyectos como Nectar flaggean delitos potenciales vía vistas unificadas, potenciando eficiencia pero arriesgando falsos positivos y sesgos algorítmicos inherentes a datos históricos sesgados.

Riesgos éticos y falta de regulación

Críticos alertan de discriminación: modelos entrenados en datos policiales pasados perpetúan biases raciales, como documentado en informes de Amnesty International sobre Palantir. Sin base legal estatutaria clara en UK para IA en policing, la dependencia de contractors privados evade oversight parlamentario. La Met Police niega Palantir amplifica temores de accountability cero, donde errores algorítmicos impactan vidas sin recurso.

Comparado con la UE, donde el AI Act clasifica sistemas de alto riesgo, UK carece de marco equivalente post-Brexit, dejando la innovación desprotegida pero también sin límites éticos claros.

Análisis Blixel:

Como redactor escéptico de narrativas oficiales, esta Met Police niega Palantir huele a cortina de humo corporativo-estatal. Innovaciones como Gotham pueden optimizar investigaciones, ahorrando recursos en un policing saturado, pero la opacidad es el verdadero veneno: ¿quién audita sesgos cuando Peter Thiel, libertario selectivo, factura millones a gobiernos? Datos duros lo confirman: el 80% de algoritmos predictivos hereda prejuicios de datos fuente (estudio MIT 2022), y cancelaciones como LAPD no fueron por ineficacia, sino por escándalos éticos.

Defiendo la IA pro-innovación, pero no disfrazada de ‘seguridad nacional’ para eludir FOI. UK necesita regulación pragmática: transparencia obligatoria en contratos IA-policiales, auditorías independientes y límites a datos sensibles, sin frenar el avance tecnológico. De lo contrario, pasamos de policía eficiente a panóptico orwelliano privatizado. La verdadera amenaza no es Palantir, sino la cobardía regulatoria que permite su opacidad. Miren Ucrania: funciona en guerra, pero ¿en calles londinenses? Exigir datos no es Luddismo, es libertad digital responsable.

Fuente: Solicitud FOI a Met Police (detalles no públicos).


Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *