El escaneo del iris continúa generando polémica en Argentina. La propuesta de la empresa WorldCoin -creadora del ChatGPT- que escanea el iris de las personas de distintas parte del mundo a cambio de pagos en criptomonedas fue cuestionada por el Consejo Argentino de Oftalmología (CAO), que advirtió sobre los posibles riesgos de esta práctica.
El escaneo del iris es una tecnología que utiliza luz infrarroja para capturar los patrones únicos del ojo humano y almacenarlos, lo que hace posible identificar a las personas con un margen de error casi nulo, similar a la huella digital. Si bien la popularidad aumenta, todavía existe preocupación respecto a qué uso se le dan a los datos biométricos y crecen alertas por la falta de una regulación que proteja los datos personales.
Por qué es un riesgo el escaneo del iris de los ojos, según el Consejo Argentino de Oftalmología
El Consejo Argentino de Oftalmología (CAO), entidad que congrega a todas las Sociedades y Cátedras oftalmológicas del país y mantiene estrechas relaciones con la comunidad oftalmológica internacional, manifestó en un comunicado su preocupación respecto al escaneo de iris “realizado por entidades de dudosa procedencia y sin respaldo académico”. “Es crucial resaltar que esta práctica podría carecer de respaldo médico legítimo o estudios científicos aprobados por el CAO”, alertaron.
Desde el Consejo advirtieron sobre “el potencial riesgo de que estas prácticas sean utilizadas para recopilar datos biométricos sin un propósito médico legítimo aparente”. “Hasta la fecha, no tenemos constancia de la adecuada protección de los datos personales según la legislación de protección de datos ‘habeas data’”, remarcaron. En ese sentido, desde el CAO informaron que están en contacto con la Secretaría de Salud de la Nación para investigar la legislación vigente al respecto y garantizar la protección de las y los ciudadanos.
“Además, estamos buscando establecer contacto con estas entidades responsables que realizan el procedimiento del ‘escaneo de iris’ con el fin de aclarar su base académica y científica. Es esencial para nosotros garantizar la transparencia y la calidad en cualquier procedimiento relacionado con la salud ocular”, agregaron.
¿Qué pasa si te escanean el iris de los ojos?
WorldCoin, la empresa creada por Sam Altman el director ejecutivo de OpenAI que también desarrolló el ChatGPT, contabilizó hasta finales de enero de este año más de medio millón de argentinos con su identidad verificada en la World App y más de cinco millones de personas descargaron la aplicación de esta criptomoneda.
“Los datos no se van a monetizar nunca", asegura Martín Mazza, gerente regional de Latinoamérica de Tools for Humanity, empresa que desarrolla WorldCoin. Sin embargo, las verdaderas intenciones de la recolección de datos biométricos generan polémica.
Desde enero de este año, la Agencia de Acceso a la Información (AAIP) avanza en una investigación contra WorldCoin para verificar si su actividad viola la Ley 25.326 de Protección de Datos Personales. Para esto, la Agencia le solicitó a la compañía que aportara información que permitiera evaluar este aspecto. Además, la AAIP formó un Grupo de Trabajo en colaboración con otros países a través de la Red Iberoamericana de Protección de Datos (RIPD) para abordar la actividad de WorldCoin y examinar la problemática en distintas partes del mundo.
Lo cierto es que el avance tecnológico pone en jaque las legislaciones nacionales y genera incertidumbre que la empresa no cuente con sucursales o personería jurídica en la Argentina.
Jordi Serra, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC e investigador del grupo de investigación KISON, le dijo al medio español El Heraldo que "la preocupación viene por la entrega de información privada que nos identifica. A diferencia de las contraseñas, que se pueden cambiar en caso de problemas, nuestros rasgos oculares permanecen inalterables".
"Si los sistemas que almacenan la información codificada son vulnerables y los ciberdelincuentes llegan a tener acceso a los datos, tendrían la capacidad de suplantar la identidad de una persona si pueden relacionar los datos con las personas reales", advirtió Serra.