La Policía Metropolitana de Londres ha desplegado un furgón para utilizar reconocimiento facial “en vivo” a sus ciudadanos. Es la segunda vez que la policía londinense practica este método, y esta vez ha sido cerca de una de las calles de compras más transitadas: Regent Street.
El método, que pretende reducir los delitos graves, ha recibido muchas críticas por la privacidad y la libertad individual. A pesar de avisar a los peatones con un cartel colocado al lado del vehículo, la mayoría de los ciudadanos no saben que la policía está escaneando y analizando sus datos.
En cuanto a su ejecución, el proceso es muy simple. Las cámaras, colocadas en el interior del furgón, escanean las caras de los peatones y cuando coinciden con una de la lista de criminales buscados, la policía se lanza a por dicha persona.
Hasta aquí todo parece correcto, incluso positivo. Pero como ya hemos avisado en The Technolawgist (“El sesgo algorítmico o como una máquina decide nuestro futuro”; “La inteligencia artificial y el riesgo asociado a los niños: los datos siempre muestran la verdad”; o “Los 5 principios básicos de la responsabilidad algorítmica”), los datos contienen sesgos. Y en estos casos, un error puede provocar que todo el despliegue deje de tener sentido. Todo lo positivo se convierte en negativo.
El gran riesgo de la tecnología asociado a los sesgos
El reconocimiento facial es todavía una tecnología en proceso de evolución. El “National Institute of Standards and Technology” publicó un informe el pasado diciembre en el que explicaba cómo el reconocimiento facial mostraba errores por edad, raza y género.
Tal y como menciona Forbes, la empresa Liberty cargó contra el uso de esta tecnología en las calles de Londres: “Es discriminatorio: es muy probable que la tecnología identifique erróneamente a mujeres y personas de comunidades étnicas negras, asiáticas y minoritarias”. Además, añadió: “Viola nuestros derechos de privacidad. Al escanear caras en masa, la policía está capturando datos biométricos sin nuestro consentimiento”.
Para más inri, todavía no se ha podido demostrar que esta tecnología consiga mejorar la seguridad. Las imágenes de la policía suelen ser borrosas y de perfil, algo que dificulta aún más el proceso. Silkie Carlo, directora de Big Brother Watch, una organización que defiende los derechos civiles y la protección de la privacidad, ha declarado: “Todas las evidencias muestran que esta tecnología nos hace menos libres y no más seguros. Esta expansión del estado de vigilancia debe revertirse”.
Silkie abre un debate sobre la tecnología y los derechos de la sociedad. Es fundamental que el avance tecnológico vaya de la mano de una regulación que proteja a las personas.
Cuando ocurren estos casos, en los que el reconocimiento facial incurre en sesgos para culpar a inocentes o en los que la tecnología recopila más datos de los estipulados, es importante escuchar a líderes como Sundar Pichai, CEO de Google: “En este momento no tengo la menor duda de que la inteligencia artificial necesita ser regulada. Es algo demasiado importante para no intervenir”.
Suscríbete a nuestro newsletter aquí.