En Alemania, la controversia aún rodea la videovigilancia

Las cámaras de vigilancia en las estaciones de tren y en lugares públicos se han convertido en una parte bien establecida de la vida cotidiana. El software de reconocimiento facial, sin embargo, no lo es. En Alemania, eso podría cambiar pronto.

    
Un monitor muestra a cuatro personas con datos superpuestos en sus rostros (picture-alliance / imageBROKER / J. Tack)

(DW) “El sistema ha demostrado ser tan bueno que su amplia implementación ahora es posible”, anunció Horst Seehofer en octubre pasado. “Los resultados han demostrado que la tecnología de reconocimiento facial puede ser de gran ayuda para nuestros oficiales de policía”.

El ministro del Interior, responsable de garantizar la seguridad del público alemán, se refería a un proyecto piloto para probar la tecnología de reconocimiento facial en la estación de tren Südkreuz de Berlín , un importante centro para viajeros locales e internacionales.

Thomas de Maiziere en imágenes de seguridad (picture-alliance / dpa / M. Schreiber)

 

El ex ministro del Interior Thomas de Maiziere (con gafas, derecha) participó en una prueba del software en 2017. Fue en esta bulliciosa estación donde 300 voluntarios se dejaron observar  por cámaras de vigilancia durante el transcurso de un año mientras viajaban al trabajo o compraban.

Antes de que comenzara el proyecto, las imágenes de sus caras se ingresaron en una base de datos policial especial, imitando la forma en que la policía trata con sospechosos del mundo real. Esas imágenes se actualizaban constantemente con grabaciones de video de cámaras instaladas en cada rincón del espacio. El software desarrollado para el experimento alertó a los funcionarios cada vez que un voluntario fue captado por la cámara.

Según el Ministerio del Interior, el sistema promedió un 80% de precisión, lo que significa que solo una de cada cinco personas pasó desapercibida. El ministerio también afirmó que los promedios de falsos positivos fueron significativamente más bajos, señalando que el software solo identificó falsamente a una de cada 1,000 personas como persona de interés. Es bajo, pero en el mundo real esa tasa de error podría tener graves consecuencias para una persona inocente arrestada por error por la policía.

Complicaciones legales

A pesar de tales riesgos, Dieter Romann, el jefe de la fuerza de policía federal de Alemania, elogió las posibilidades que presenta el software de reconocimiento facial. Dijo que facilita el reconocimiento y la detención de delincuentes sin la necesidad de operaciones policiales especiales, “una gran victoria para la seguridad”. Pero Romann y Seehofer tendrán que ser pacientes: Alemania actualmente carece de un marco legal claro para la implementación de tecnología avanzada de videovigilancia.

El miércoles, los defensores de la nueva tecnología se acercaron un paso más a la realización de su plan cuando un tribunal administrativo en Hamburgo declaró que una orden para eliminar una controvertida base de datos que contenía imágenes de las protestas de la cumbre del G20 2017 en la ciudad había sido ilegal. La policía local estaba usando el software de reconocimiento facial Videmo 360 para identificar a las personas que participaron en actos violentos durante el evento.

Las imágenes fueron obtenidas en gran parte de cámaras de video vigilancia en la ciudad; algunos estacionarios, otros móviles. Pero la policía también tiene acceso a fotos y videos privados tomados durante las manifestaciones. Todo el material se almacena actualmente en discos duros en el departamento de policía de Hamburgo.

Johannes Caspar, comisionado de protección de datos de la ciudad-estado, ha argumentado que no hay justificación legal para recopilar y almacenar los datos biométricos de las multitudes de ciudadanos inocentes “para compararlos con los sospechosos algún día”.

Tecnología de vigilancia en cada estación de tren.

Caspar ahora está considerando apelar la decisión del tribunal. Mientras tanto, se lanzó un segundo proyecto piloto en junio en la estación Südkreuz, cuyos detalles se presentaron recientemente al Parlamento en respuesta a una solicitud del partido de extrema derecha Alternativa para Alemania.

La policía federal afirma que la nueva tecnología de reconocimiento facial proporcionará una “defensa más efectiva” contra las amenazas típicas, que han estado simulando en la estación. Los escenarios en los que la tecnología ha demostrado ser útil, según la policía, incluyen situaciones estándar como bolsas no acompañadas o la aparición de “corrientes o grupos de personas”.

Las estaciones de tren alemanas son a menudo escenario de incidentes peligrosos o, a veces, mortales. En julio, un niño de 8 años fue asesinado luego de que un hombre lo empujara a las vías en la estación central de trenes de Frankfurt . Seehofer tiene como objetivo instalar tecnología de videovigilancia en casi todas las principales estaciones de tren de Alemania para 2024, y dice que el software de reconocimiento facial será una parte importante “de esta campaña.

Los defensores de la privacidad luchan

Pero Seehofer necesitará el respaldo de todo el gobierno antes de poder avanzar, y no está claro si lo conseguirá. Al comentar sobre las conclusiones del primer proyecto piloto de Südkreuz, Seehofer dijo que las opiniones “aún no se han formado por completo”. A diferencia de los miembros de la conservadora Unión Social Cristiana de Seehofer y su partido hermano, la Unión Demócrata Cristiana de la canciller Angela Merkel, algunos miembros de los socialdemócratas de centroizquierda de la coalición gobernante son escépticos.

Otros también han expresado su preocupación por el mayor uso de la tecnología de reconocimiento facial. En julio, la organización no gubernamental Society for Civil Rights (GFF) presentó una queja constitucional contra la búsqueda automática de fotos de pasaportes por parte de la policía y los servicios de inteligencia.

Hasta 2017, la ley alemana solo permitía realizar tales búsquedas en casos penales, pero una enmienda ahora permite búsquedas incluso en casos en que las autoridades no tienen fundamento para sospechar. Bijan Moini, un abogado que representa a GFF, ahora teme que se esté compilando una “base de datos nacional de características biométricas”

Deja una respuesta

Tu dirección de correo electrónico no será publicada.