Hace unas semanas contamos el fenómeno que ha estado provocando Worldcoin en España con su proyecto de intercambiar el iris (datos biométricos) por criptomonedas. Una cuestionada práctica en donde se han visto involucrados menores y que ha llegado a tocar el ítem sobre la vulnerabilidad de la protección de datos. Una razón de sobra para que la Agencia Española de Protección de Datos (AEPD) frene en esta jornada el proyecto en nuestro país. Tras indagar en este proyecto de IA, y recurrir a expertos que evidencian los “peligros” de esta actividad, hemos querido llegar hasta las personas dirigidas por Sam Altman en Europa para que respondan a la preocupación social que está causando su polémica iniciativa que ya ha escaneado los ojos de casi el 1% de la población española.
elEconomista.es ha conversado con Ricardo Macieira, Regional Manager para Europa de Head of Product en Tools for Humanity (TFH), empresa que está desarrollando el proyecto y que es propiedad de la Fundación Worldcoin, con el fin de conocer la situación legal de la compañía de Altman en la región, el tratamiento que están aplicando para las regulaciones de protección de datos, los objetivos del trueque de iris por criptomonedas, presencia de menores en el proyecto y de saber si verdaderamente los datos biométricos de las personas que han accedido al escaneo de iris no se compartirán con terceros o desarrolladores externos.
Pregunta: ¿Worldcoin está domiciliada en Europa?
Respuesta: Tools for Humanity (TFH), que es la empresa que está desarrollando el proyecto y que es propiedad de la Fundación Wolrdcoin (Worldcoin Foundation, es una sociedad sin ánimo de lucro constituida bajo esta estructura legal para funcionar como una organización autónoma descentralizada ‘DAO), está registrada en Alemania. Tenemos sede en San Francisco (Estados Unidos) y Berlín.
Desde esta ciudad europea trabajamos con las entidades reguladoras mediante el Reglamento General de Protección de Datos (RGPD), regulación garantista y unitaria en la Unión Europea, que aplica el concepto llamado ‘One Stop Shop’ a todas las compañías con el fin de proteger los datos.
P: ¿Cuál es el objetivo del proyecto?
R: Para nosotros es importante aclarar que no estamos comprando datos biométricos a las personas. Worldcoin ha nacido de la necesidad de distinguir un humano de un ‘bot’. Esto parece algo sencillo, pero no lo es. Las alternativas como las que ha hecho Twitter para detectar esto no han sido las mejores, porque tienes que pagar con una cuenta bancaria.
A nosotros no nos parecía justo que haya que pagar por esta comprobación. Cuando analizamos las tecnologías, la que resultaba más inclusiva eran los datos biométricos, por eso construimos ‘Orb’. Lo que hace este hardware es verificar si la persona que está al frente es humano. En segundo lugar, identificar si es un humano real, si no es un cartel y, en tercer lugar, recoger algunas imágenes para generar un código que es el ‘Iris Code’, que es una interpretación numérica de estas imágenes. Por defecto, las imágenes que ha generado este código se borran, no se guardan. Luego este código pasa a nuestra base de datos encriptados, con ello comparamos si ese código ya existe o si hay otro igual.
El punto clave del proyecto es comprobar que eres humano sin tener que compartir datos. Queremos comprobar la humanidad de forma anónima. Para que una persona tenga acceso al Wold ID no requiere añadir nombre, email o teléfono. Si quiere se puede saltar todos esos pasos, porque nosotros no queremos saber quién es, solo queremos saber si es un humano único. Y ese es el poder de Worldcoin, una forma de prueba de humanidad inclusiva que cualquier persona puede usar.
P: ¿Por qué intercambian criptomonedas por iris?
R: Para nosotros es importante que un proyecto como este no se quede en las manos de una persona, entidad o empresa. Por eso diseñamos esta iniciativa a través de la fundación Worldcoin, por ser una organización autónoma descentralizada (DAO), en la cual las personas registradas, mediante Blockchain o Worldcoin token, puedan tener propiedad en nuestro proyecto.
Por eso estamos creando una red de humanos únicos y, al mismo tiempo, estamos dando propiedad de esta red a las personas que forman parte del proyecto. Esto es un concepto poderoso y discutible, pero creemos que es el futuro de cómo las personas se van a poder gestionar.
P: Además de ser una prueba de “humanidad” para actividades en línea, ¿existe otro objetivo para la recopilación de nuestros datos que no sepamos?
R: Nosotros somos muy transparentes. Queremos crear una red de humanos verificados porque creemos que es importante, sobre todo, este año donde más del 50% de países democráticos van a tener elecciones y distinguir humanos de ‘bots’, en este contexto, es muy importante. Es por eso la importancia del proyecto.
La persona tiene completo control de sus datos que quiera compartir. Si ingresó sus datos, en tres clics puede borrarlos. Queremos aclarar que este proyecto ha sido diseñado con enfoque hacia la privacidad. La persona está empoderada de sus datos y que lo puede hacer de forma anónima. Es la forma más privada para hacerlo.
P: A partir de varias denuncias realizadas en España (recogidas por la Agencia Española de Protección de Datos) sobre la presencia de menores en las colas de Worldcoin, ¿han realizado la práctica de escaneo de iris con este perfil de usuario (menores de 16 años) en España u otros países?
R: Quiero ser muy claro. Nosotros no permitimos que una persona se dé de alta en el proyecto si es menor. Tenemos carteles en nuestros estands que piden que las personas sean mayores de 18 años. Cuando el usuario se da de alta en la aplicación tiene que confirmar y verificar que es mayor de edad. Nuestros equipos saben que esto no puede ocurrir y en algunas ubicaciones estamos haciendo una revisión de identidad para garantizas si son mayores. Por eso, queremos trabajar con las entidades reguladoras oficiales para aclarar las denuncias.
P: Sin embargo, ha habido presencia de menores en vuestros stands. Más allá de los carteles informativos, ¿cómo controlan a vuestros equipos para que no apliquen la práctica en menores?
R: Pudo haber habido un error humano, porque son personas las que trabajan en los stands. Estamos trabajando para garantizar que eso no pase. Los equipos que trabajan con nosotros son operadores que forman parte de empresas locales que contribuyen para la economía porque generan mucho empleo. Estas personas están teniendo un entrenamiento muy intensivo para garantizar el proyecto. Si algo así pasa tendremos que hablar con el operador para que no vuelva a pasar. Por su parte, la persona afectada, o los padres, pueden contactar con nosotros y puede borrar los datos inmediatamente.
P: Pese a que no exista una regulación sobre escanear el iris en España, se establece que la edad de consentimiento para el uso de los datos personales es a partir de los 16 años, ¿qué harán con los datos biométricos de menores que hayan escaneado?
R: Es importante aclarar que nosotros no estamos recogiendo datos. Las personas que se dan de alta tienen completo control sobre sus datos. Además, tenemos todos los procesos que señalan que los menores de edad no se pueden dar de alta. Puede que hayan estado en las colas, pero no se podrán dar de alta. Es algo que estamos trabajando con nuestros equipos para que no ocurra.
P: En esta “democratización” de escanear el iris de las personas por criptomonedas, ¿no consideran un “abuso” o falta de “ética” el aplicar la práctica de trueque a jóvenes vulnerables que desconocen el sistema y/o a personas de pocos recursos?
R: Primero que todo, quiero clarificar que Worldcoin no discrimina a personas por su clase social. Si una persona se quiere apuntar al proyecto lo puede hacer. El segundo punto, me parece que están generalizando a las personas que se están dando de alta. No me parece justo. Los que podemos hacer una vez más, porque es un proyecto, es educar a las personas sobre lo que pasa y garantizar una completa información.
Ahora tenemos un sistema de cita previa para que una persona tenga tiempo para pensar si se quiere dar de alta. Queremos garantizar que la persona esté completamente informada para que se sume al proyecto.
P: Hablamos de jóvenes que, en su mayoría, su intención no sea la de conseguir una prueba de humanidad, sino más bien dinero…
R: Sí, pero otra vez creo que se han generalizado. Tenemos desarrolladores que están construyendo la tecnología para hacer proyectos que también se han dado de alta. Por eso, decir que es un solo perfil es muy limitativo. Además, hay muchas personas interesadas en el proyecto. Somos la app más bajada de España en los últimos días y decir que solamente es un segmento poblacional que está contando no me parece realista ni justo. Al final lo que estamos haciendo es dar propiedad en el proyecto. Lo que haces con esta propiedad es tu decisión y nosotros tenemos que respetar la decisión de las personas.
P: ¿Son conscientes de los peligros que plantean los expertos y la propia AEPD sobre la recopilación de datos biométricos? ¿Qué garantías nos dan sobre vuestra actividad?
R: Cumplimos con todas las reglas. Las personas tienen que estar informadas sobre los datos biométricos y nosotros tenemos que cumplir con todas las regulaciones. Por eso estamos trabajando con la agencia regulatoria alemana exactamente para garantizar que el proceso es seguro y que estamos cumpliendo con todo.
Cumplimos con todas las regulaciones de protección de datos de Europa y de los países donde trabajamos. Siempre decimos que la puerta está abierta para los reguladores.
P: ¿Cómo enfrentan las declaraciones de su propio CEO sobre los “miedos” de sus creaciones de IA?
R: Esta empresa se creó para enderezar algunos peligros. Queremos que las personas que se unan al proyecto tengan un control sobre el mismo y eso es muy importante en la forma que ha sido desdeñado. Worldcoin existe para garantizar que hay herramientas que permitan distinguir humanos de bots.
P: ¿Creen que cuando entren en juego las regulaciones de la IA enfocadas a vuestra práctica su negocio desaparecerá?
R: Ya hay regulaciones.
P: En lo que refiere a la práctica de escanear el iris, no.
R: Existe regulación y protección de datos biométricos y cumplimos con eso. Para la innovación hay que hablar con los reguladores. Eso es lo que estamos haciendo, porque al final las regulaciones también están para la tecnología, con el fin de garantizar que todo lo que se desarrolla sea de la forma segura para los usuarios.
P: Sobre el trueque del iris por criptomonedas, ¿qué pasaría si todos los “beneficiados” deciden vender sus coins simultáneamente? ¿Existe un control sobre esto para que no se desplome el valor de las criptomonedas entregadas a los usuarios?
R: No estamos regalando criptomonedas por datos biométricos. Paradójicamente lo que estamos haciendo es dar propiedad en un proyecto y al final lo que la persona decide hacer con su propiedad es su decisión. Nosotros no estamos aquí para controlarlo. Lo que la persona haga es completamente su decisión y después el mercado se va adaptando. No soy economista, no puedo decir lo que va a ocurrir.
P: ¿Se desentienden entonces de lo que pueda ocurrir con las criptomonedas?
R: Lo que queremos es construir protocolos para este proyecto y que haya personas que contribuyan en él y puedan ayudar a direccionar el proyecto. Esperamos que las personas que reciban estos tokens se mantengan con nosotros y ayuden a construir y a transformar esta red en algo más relevante.
P: ¿Es posible que los datos biométricos se puedan llegar a compartir con terceros como los propios desarrolladores, ingenieros de la criptomoneda? ¿Se explica eso a las personas que acceden a escanear su iris?
R: Para desarrollar la tecnología de IA, tenemos que trabajar con empresas para ayudar a mejorar este sistema. Pero al final el usuario tiene completo poder sobre la toma de decisión. Si yo no quiero compartir mis datos, puedo pedir en cualquier momento que los borren.