Piden suspender la tecnología de reconocimiento facial por "discriminación" y "abuso"

Aunque se utiliza en cuestiones vinculadas a la seguridad, la amenaza a la privacidad y el peligro de control social constituyen dos de sus grandes problemas.

28 de septiembre, 2023 | 09.28

Un grupo de 120 organizaciones no gubernamentales y 60 expertos en tecnología y privacidad pidieron suspender la utilización de reconocimiento facial en espacios públicos y en personas migrantes, ya que puede provocar abusos y discriminación. Aunque la carta fue impulsada por el grupo europeo de defensa de los derechos digitales, contó con el apoyo de organizaciones de todo el mundo. Si bien el reconocimiento facial es uno de los puntos ásperos de la Ley de Inteligencia Artificial que está trabajando la Unión Europea, el problema de esta tecnología que incluye derechos digitales y privacidad se replica en muchas partes del mundo.

El reconocimiento facial se emplea cotidianamente para loguearse en el celular y validar la identidad para instalar apps bancarias u organismos de seguridad social. Incluso, solo con una selfie y mostrar el DNI alcanza para sacar un crédito o hacer compras. Aunque hay aplicaciones para la identificación de personas extraviadas y desaparecidas, se utiliza mayormente para el monitoreo de fronteras o de la vía pública para brindar ‘mayor seguridad’. Aunque diversos sectores sociales tratan de resguardar la privacidad y apuntan contra este instrumento, cada vez hay más tecnologías que capturan rostros, voces y movimientos.

“La gente trata de resguardarse, pero en realidad tenemos otras fugas de privacidad que son los celulares. Siempre nos parece casual que nos aparezca publicidad de un lugar que me gustaría ir y lo hablé con alguien un rato antes. Los teléfonos móviles todo el tiempo están captando nuestra información e incluso la venden”, señala Pablo Negri, investigador del Conicet en el Instituto de Ciencias de la Computación (UBA), en diálogo con la Agencia de Noticias Científicas de la Universidad Nacional de Quilmes.

¿Seguridad o privacidad?

La seguridad es uno de los temas que reina en todos los debates políticos y el reconocimiento facial se ofrece como una herramienta para detectar a aquellas personas consideradas peligrosas. En este sentido, uno de los debates es hasta qué punto la población está dispuesta a perder privacidad para ganar seguridad.

“En este punto, la cuestión radica en la utilización proporcional frente a ciertos casos riesgosos para la sociedad o para las personas. Seguramente hay sociedades más permeables a este tipo de usos que prefieren estar más seguras, y otras que prefieren optar por la privacidad”, destaca Negri.

Pese al debate entre ambas posturas, el peligro es caer en la vigilancia y el control social a través de esta herramienta. De hecho, la Procuraduría de Investigaciones Administrativas denunció penalmente a las autoridades de la Ciudad Autónoma de Buenos Aires por presunto espionaje ilegal con cámaras y datos biométricos sobre funcionarios, dirigentes sociales y gremiales, opositores, jueces, periodistas y empresarios.

La tecnología tampoco es objetiva

Aunque suele pensarse que estos softwares son neutros y eficientes, quienes los diseñan todavía son personas de carne y hueso que cargan con sus prejuicios, estereotipos y errores. Denominado como sesgo tecnológico, el problema está en la construcción de la base de datos. Las primeras que iniciaron en 2015 estaban formadas con millones de fotos de personas famosas, en su mayoría provenientes de Estados Unidos y Europa.

De esta manera, se generó una preponderancia de gente blanca, occidental y masculina. Si bien el margen de error para estos rasgos es mínimo, hay otras razas, etnias y géneros que quedaron por fuera de la validación precisa.

“Esto lleva a que se produzcan más falsas alarmas con personas que no son blancas y europeas. Así, se generan falsas alarmas donde una persona que según los umbrales del sistema es parecida, pueda ser detenida en la vía pública”, señala el científico creador de Siface: un sistema de reconocimiento facial para localizar individuos perdidos y prófugos.

Argentina, Brasil y Estados Unidos tienen más de un ejemplo donde la tasa de error del reconocimiento facial es mayor en personas negras, mujeres o trans, que en hombres blancos. Según un informe de la Red en Defensa de los Derechos Digitales, “estos errores alcanzan casi el 40 por ciento cuando se trata de mujeres racializadas o personas trans, mientras que, en hombres blancos, la tasa de error cae a solo el 0.3 por ciento”.

Por eso, es necesario generar otras bases de datos inclusivas con tecnologías que sean capaces de reconocer con igual eficacia todos los tipos de rostros y todos los tipos de pieles.

 

Con información de la Agencia de Noticias Científicas