Preocupación por el escaneo de iris: aseguran que no es conveniente entregar nuestros datos biométricos
En distintos rincones de la ciudad han aparecido largas filas de personas que buscan una compensación económica a cambio del escaneo de su iris, en forma de criptomonedas. Quienes asisten, con la necesidad de tener el dinero rápidamente, las venden a individuos que se encuentran en esas mismas filas y compran y pagan en efectivo, ofreciendo hasta 30 mil pesos por transacción.
Se descubrió que esta convocatoria es iniciativa de WorldCoin, una compañía radicada en Islas Caimán que se presenta a sí misma como una organización sin fines de lucro. Según su sitio web oficial, su objetivo es “crear instituciones de gobernanza y de economía digital global más inclusivas y equitativas”. En ese marco, la empresa realiza un escaneo facial y del iris de las personas para generar una Identidad Digital única a nivel mundial (World ID), la cual les permitiría acceder a una moneda digital (World Coin) a través de una aplicación (World App). La empresa asegura que ya posee casi 3 millones de usuarios únicos de más de 120 países, entre ellos, Argentina.
Esta organización está siendo investigada por la Agencia de Acceso a la Información Pública, luego de analizar las denuncias recibidas sobre posibles vulneraciones a la Ley de Protección de Datos Personales. Entre otras cuestiones, la AAIP solicitó explicaciones sobre el funcionamiento de la empresa, qué categorías de datos se procesan y con qué fines, cómo se garantiza el cumplimiento de los principios relativos al correcto tratamiento de datos personales y cuáles son los plazos de conservación de los mismos. También se le requirió que especifique las medidas técnicas y organizativas que aplica para garantizar la confidencialidad y seguridad de esos datos.
Federico Álvarez Larrondo, abogado y catedrático de la Facultad de Derecho de la UNMDP, en conversación con el sistema de Medios Públicos de la Universidad comentó: “En los hechos estamos hablando de datos biométricos, que, dentro de lo que es la regulación de los datos personales, son los más sensibles. En primer lugar, porque nos identifican y nos hacen distintos a todos. Esto empezó con las huellas dactilares, luego con eso empezamos a abrir nuestros teléfonos celulares y hasta nuestras casas en algunos casos. Pero hoy el avance de la IA permite que aparezcan otros datos biométricos, por ejemplo, la forma de caminar, la voz, y entre esos uno de los que aparece y es uno de los más apetecidos, es el iris del ojo”.
El iris es un dato que no cambia a lo largo de la vida, desde los 2 años queda casi permanente y es prácticamente imposible que haya una alteración del mismo. Los errores en la identificación son uno en 10 millones, por lo tanto, es uno de los datos biométricos más seguros. “El reglamento de protección de datos personales de la Unión Europea, que es uno de los más avanzados a nivel global, lo pone dentro, expresamente, como dato sensible. Y nosotros en Argentina el año pasado lo hemos incorporado como dato sensible, es decir tenemos una regulación similar a la que tiene Europa. La idea es que es irremplazable, a ver yo me puedo olvidar la clave del homebanking y pedir que me den una de reemplazo. Ahora cuando a mí me roban un dato biométrico este es irremplazable, yo no puedo sacar un ojo y ponerme otro para poder seguir viviendo”, explicó Álvarez Larrondo.
“Acá hay algo muy interesante, yo estoy hablando de ciencia ficción, pero la verdad es que la ciencia ficción es ficción de la ciencia. Cuando se hace una película que hoy parece futurista es porque los científicos ya están trabajando en esto. Piensen ustedes que la inteligencia artificial recibe ese nombre en el año 1956, y está explotando hoy casi 60 años después. Entonces cuando vos miras ese escenario, en realidad el tema de los datos biométricos que parece una película ya no empieza a parecer tan extraño. Si yo con un ojo abro una cuenta bancaria y puedo acceder al dinero que tengo en algún banco y demás, empezamos a ver todos los escenarios distópicos que antes parecían imposibles como algo natural”, agregó el abogado.
¿Qué es WorldCoin?
WorldCoin es parte del grupo de compañías de Samuel Altman, creador de OpenAI, empresa que inició como ONG y es conocida por ser la que contiene a ChatGPT, la aplicación de chatbot de inteligencia artificial. Los proyectos en conjunto forman parte de una idea global de Altman: “Él está llevando adelante aquel sueño que tenía como adolescente y que corporizó en el año 2015 cuando creó Open IA. Desde el inicio quería generar una inteligencia artificial general. Tenemos distintos estadios en el desarrollo de la inteligencia artificial y la general es que una máquina haga lo mismo que nosotros. Eso que parecía imposible de alcanzar, ya hoy los científicos hablan de que para 2032 sea una realidad”, desarrolló Álvarez Larrondo.
“¿Qué es lo que dice World Coin? Dice que en un futuro es muy probable que la mayoría de nosotros no tengamos trabajo. Entonces todo el sistema que estaba pensado con una lógica en la cual yo me levantaba a la mañana, me iba a trabajar, con eso ganaba el sustento y con eso compraba, se termina. ¿Se termina y qué hacemos con la humanidad? Algo que se viene trabajando hace mucho tiempo con algunas pruebas, que es la renta básica universal”, agregó el abogado.
La noción de común acuerdo siempre fue que los estados van a ser los responsables de pagar aquella renta. “El futuro iba hacia esa lógica. La idea de WorldCoin es que la empresa va a ser quién te va a pagar la renta esta empresa a través de criptomonedas, y la va a pagar a nivel global”, dijo.
“Esto viene a romper lo que se tenía concebido: la existencia de un estado moderno, que había límites, que había fronteras, que había derechos. Esto es a nivel global, es una empresa que le impone a todos los mismos términos y condiciones no importa en donde estes, y que te dice que, en un futuro, mediante el iris de tu ojo, te va a pagar. Así como te pago hoy para que vos le dieras el iris, en el futuro te va a pagar todos los meses poniendo el ojo y verificando que vos vas a comprar una sola vez por mes”, explicó Álvarez Larrondo.
En suma, la idea general es que, mediante el dato del iris, una vez por mes en el futuro los individuos van a poder cobrar renta básica universal de la empresa. “O también vas a poder votar desafíos a nivel global porque con tu iris vas a asegurar que vas a votar una sola vez. Se van a preguntar cosas tales como: ¿Ponemos fin a la política de calentamiento global? Y vamos a votar todos a nivel global y se dice: bueno la mayor parte de la humanidad dijo tal cosa”, comentó.
Sobre los motivos de estos escaneos, Álvarez Larrondo afirmó: “Esto es, sobre todo para control social. Yo digo: hay que seguir a esta persona que tiene este iris, te busco con las cámaras que están en la calle y automáticamente te identifico y puedo saber dónde estás en cada momento. Eso que antes era futuro y de películas distópicas, hoy es realidad”.
“La empresa ya lleva 3 millones de iris registrados a nivel global. Y van a ser cada vez más. Va a llegar un momento donde van a tener más poder que el presidente. El poder que empiezan a tener estas empresas es descomunal, por eso es que dicen que la renta básica universal la van a pagar ellos. Estamos en un cambio de época. Lo vamos a vivir en las próximas décadas va a ser una revolución de los que se ha construido en los últimos dos siglos. El cambio va a ser tan drástico que lo que antes nos parecía natural, va a pasar a ser antiguo”, remarcó el abogado.
¿Qué sucede con los datos entregados?
La empresa ofrece entre un catálogo de tres opciones. La primera de ellas es dejar los datos biométricos registrados en la base de datos. Esto incluye rostro, iris y un dato más, que en este caso quedan ahí, y por lo tanto cada vez que haya una actualización de los algoritmos las personas deberían volver a registrarse. “En ese caso siempre confiando que la empresa haga lo que dice, porque no hay nadie que lo audite”, aclaró Álvarez Larrondo. La segunda opción es entregar los datos y permitir que los guarden, pero no que lo puedan utilizar para entrenar inteligencias artificiales. La tercera es dar pleno derecho y que puedan utilizarlos de por vida.
“¿Cuál es la idea de esta empresa? Mañana venden los datos a un banco y el banco no tiene por qué saber quién soy yo, lo único que va a hacer el banco es ver que cuando yo pongo el iris automáticamente estoy validado. Es una idea de tercerización. Como muchas empresas no tienen esa tecnología como propia por el costo que implica, sería como la nube, tercerizamos toda la nube y que haya alguien que se encargue. La ventaja es que se unifica todo, pero para que esta sea la ventaja vos tenes que tener sistemas de contención y seguridad que tienen que estar recontra validados. Eso hoy no sucede”, explicó el abogado.
Los datos recolectados en Argentina ni siquiera se recopilan en el propio país, sino que se almacenan en la central más cercana, ubicada en Brasil. A nivel global, hay 6 datasets donde se van copiando los datos. “Entonces yo para conocer dónde están mis datos tendría que ir a Brasil a investigar para poder acceder a más información”, dijo Álvarez Larrondo.
“Es una preocupación porque los estados empiezan a no tener poder. No sabemos dónde están guardados los datos, con qué medidas de seguridad, que pasa si hay filtración. Las pautas de términos y condiciones dicen que los pueden transferir a terceros para mejorar el servicio, o reubicarlos. Por ejemplo, acá son las tres de la tarde y en China las tres de la mañana, donde hay menos demanda de los servidores, entonces los envían para allá. Ahora, ¿estos datos se replicaron? ¿Están copiados varias veces? Dentro de los términos y condiciones esta la opción para pedir que se eliminen los datos. Si yo pido que los eliminen y lo hacen solo del dataset de Brasil, ¿cómo sé que no siguen en China? ¿estoy seguro de que los eliminaron?”, alertó el abogado.
¿La entrega de los datos es consciente?
Otro elemento que resaltó Álvarez Larrondo es con qué grado de información decide toda esa gente entregar sus datos. “Ahora lo que se abre son estos escenarios de manipulación. A ese problema va atado que todos creemos que nos están pagando, pero para la empresa en realidad, más allá del costo de inversión y tecnológico, en los hechos en realidad te están pagando con nada. Porque esta criptomoneda, es un token que crean ellos y que no sabes cuánto va a valer en el futuro o si va a ser un gran negocio tenerlo. Por eso mucha gente va y lo vende de inmediato”.
Lo que no se conoce es que un dato biométrico, según las leyes y los ordenamientos, es un dato sensible y se exige que, para compartirlo, debe haber absoluto consentimiento. “La verdad que ese consentimiento, a mi modo de ver, está viciado. Porque hay un incentivo, que hoy son de 30 a 50 dólares, según fluctúa la criptomoneda, en realidad yo no lo estoy dando porque quiero dar mi dato y entiendo realmente para que lo doy. Sino que voy detrás de un pago sin comprender”, explicó.
“Lo que es claro cuando uno empieza a mirarlo con ojo crítico, es que todavía no hay una comprensión acabada e que es lo que está sucediendo realmente, de la utilidad que va a tener, o qué es lo que están recopilando. Tiene que ser una decisión voluntaria de todo aquel que quiera utilizarlo. Porqué tal vez yo estoy convencido de que este es el camino, y está bárbaro. En tanto y cuanto sea una acción libre. Hablamos tanto de libertad en estos tiempos, tiene que ser una decisión libre e informada”, remarcó Álvarez Larrondo.
Según el catedrático, las personas comparten sus datos por la necesidad de un ingreso de dinero rápido sin conocer los riesgos. “Vamos a suponer que WorldCoin tiene las mejores medidas de seguridad para que no se le filtren los datos. Sus bases y condiciones dicen expresamente que se los puede pasar a otros con los que tenga convenios. Ahí vos ya estas ampliando el riesgo. Vos acá estas jugando con un elemento que es la necesidad”.
¿Cómo es la legislación vigente?
En cada país la legislación es diferente. En China, aunque existen herramientas de reconocimiento facial y es por ello que existen muchas denuncias de persecución a minorías, es raro ver una empresa de este tipo. De Rusia no existe información pública, y en Europa y Estados Unidos son temas de preocupación, donde los pasos en materia legislativa se van dando detrás de las innovaciones tecnológicas. En Argentina sucede lo mismo que en estos últimos. “El problema es que no existen regulaciones específicas para esto y, además, vos podes hacer la ley más alucinante pero después la cuestión es cómo la llevas a la aplicación práctica. ”, compartió Álvarez Larrondo.
“Lo que aparece la década pasada, desde 2010 aproximadamente, es que todo se vuelve virtual. Las empresas también son virtuales. ¿Qué hacen las empresas? Utilizan viejas estructuras, como los términos y condiciones, y accediendo a ellos renuncias a ir a la justicia y si tenes un problema tenes que ir a un tribunal arbitral, que no sabes quién lo va a crear, ni a que intereses va a responder”, explicó el abogado. En el caso de que hubiera que presentar un reclamo judicial, tendrías que acudir donde está radicada la empresa, que por lo general son islas conocidas como paraísos fiscales. En este caso las Islas Caimán”, dijo y agregó: “Pero vos vas a recurrir a la justicia que tenes más cerca. Entonces le vas a pedir a un poder judicial tradicional e histórico, que tal vez tenga gente capaz y que se agiorno y el juez o la jueza sea un experto espectacular y te saca una sentencia fantástica, pero ¿cómo se aplica la medida?”.
La réplica que puede existir a todo esto, es que constantemente estamos entregando nuestros datos, incluso datos biométricos a los dispositivos móviles, tales como las huellas digitales con la que se desbloquean los mismos, o se accede a aplicaciones bancarias. “Nadie se preocupa porque estos son los nuevos tiempos. Bueno, entonces también sepamos con que vamos a lidiar, que riesgos y que tenemos que crear para poder ponerle freno a estas cosas. Esta buenísimo el desarrollo y la tecnología. Pero hay que acompañarla con los cortafuegos, con medidas que cuando a vos te pase algo no te quedes viendo para donde salir”, explicó Álvarez Larrondo.
“Que haya un protocolo. Nuestro país hizo junto a Uruguay un protocolo en el 2021, que establece que antes de lanzar un proyecto como este, tendrías que hacer, aunque no obligatoriamente, un estudio de impacto tecnológico. Tenes que ver cómo va a impactar en la privacidad, socialmente, si va a generar caos, si no le estás entregando, tal vez, una herramienta de control a un tercer país. Es decir, tenes que mirarlo con una mirada estatal, pero estatal en cuanto a políticas de Estado, no de burocracia”, dijo el abogado. Con conocimiento de los riesgos, la idea es poder sopesar si esto es recomendable.
“Acá no hay nada de eso, estas empresas están acostumbradas a trabajar por sobre los Estados en ese mundo virtual donde no hay límites. Rompe con todas las seguridades que tenías, por más precarias que fueran, que te daban los Estados. Tenes cada vez corporaciones más fuertes, más concentradas, y eso también es un problema. Porque vamos a pensar que Samuel Altman es un tipazo, pero mañana vienen los accionistas de la empresa y dicen vendemos. Y se lo venden al maligno en la tierra y el maligno en la tierra dice: señores, yo con esto hago lo que quiero. Y te cambian los términos y condiciones. ¿A quién le vamos a reclamar?”, reflexionó Álvarez Larrondo.
Para concluir, el catedrático de la UNMDP enunció: “Yo creo que lo que hay que hacer es paralizar de inmediato la recopilación de datos. Si vos no tenes un estudio de impacto previo no podes avanzar. Eso sería un buen antecedente para lo que vendrá después. Paremos la pelota, sentate con nosotros, no que desde la autoridad estatal tengamos que estar corriéndote para ver a dónde estás. No haces nada hasta que nosotros podamos verificar. Porque a parte esto no es urgente, no es algo que sea de vida o muerte. Explícame primero que proyecciones tenes y que vas a hacer con esto, con los términos y condiciones duros, no en términos marketineros. Una vez que pasó toda esa validación, si te damos el ok tenes que hacer una campaña de información donde a todos nos digan: estos son los riesgos. Después si yo creo que ese riesgo vale 50 WorldCoin o 25 WorldCoin, bueno dale para adelante siempre y cuando no sea un peligro para el Estado, no como estructura sino como sociedad”.