¿Tu cara es propiedad de un gobierno extranjero? La verificación biométrica y de edad en internet

¿Sabes qué ocurre realmente cuando escaneas tu rostro para acceder a una plataforma? El caso de Persona, utilizado por LinkedIn, OpenAI, Roblox y muchos otros servicios, nos obliga a repensar nuestra privacidad.

José M. Alarcón
José M. Alarcón
Gallego de Vigo, amante de la tecnología, la música y la lectura. Ingeniero industrial y empresario. Autor artículos y libros desde 1996. YouTuber. Inversor.
¿Tu cara es propiedad de un gobierno extranjero? La verificación biométrica y de edad en internet

Una reciente investigación técnica (ver enlace al final) ha revelado cómo OpenAI y la plataforma de identidad Persona han construido una infraestructura de vigilancia masiva conectada directamente con agencias gubernamentales. Lo que empezó como una simple verificación de edad o identidad para usar ChatGPT (y que ahora usan muchas otras plataformas como LinkedIn, Discord, Coursera, o Roblox), parece haberse convertido en un sistema que genera informes de actividad sospechosa para el gobierno de los Estados Unidos.

El análisis fue realizado por un grupo de investigadores de seguridad y periodistas independientes, aunque actúan bajo los seudónimos vmfunc, MDL y Dziurwa y no se sabe realmente quiénes son. Pero el informe que han publicado parece sólido y bien fundamentado.

Para entender todo esto, déjame antes que te presente dos conceptos:

  • KYC (Know Your Customer), que es el proceso que usan las entidades financieras (y los exchanges de criptomonedas) para verificar quién eres
  • SAR (Suspicious Activity Reports), informes que estas empresas envían a las autoridades financieras cuando detectan algo "raro" en un usuario.

Todo comenzó de forma casi accidental. El objetivo inicial de vmfunc era mucho más simple: estaba buscando una forma de saltarse la verificación de edad en una plataforma llamada k-id, basándose en trabajos previos de otra investigadora conocida como eva.

Al investigar la infraestructura de Persona (el proveedor de KYC que utiliza k-id) mediante el mítico buscador Shodan, localizaron una dirección IP específica en Google Cloud. Lo que encontraron allí fue el detonante de todo: un certificado SSL con el nombre de host openai-watchlistdb.withpersona.com.

Al tirar de ese hilo, descubrieron que no se trataba de una simple validación de identidad, sino de una base de datos de listas de vigilancia ("watchlistdb") vinculada a OpenAI. La investigación escaló rápidamente cuando hallaron un endpoint gubernamental de Persona con la seguridad mal configurada, lo que les permitió descargar sin autenticación 53 megabytes de mapas de código fuente (source maps). Estos archivos contenían el código original en TypeScript, revelando por primera vez las tripas de este sistema de vigilancia de identidad y sus conexiones con agencias federales.

Nota: Persona, de todos modos, tiene hace tiempo sospechas sobrevolándola por sus conexiones con Peter Thiel, fundador de uno de sus financiadores y de la empresa de análisis de datos Palantir, cuyo objetivo principal precisamente son las tecnologías de vigilancia gubernamental.

¿Qué descubrieron sobre el sistema biométrico?

A partir de la información obtenida y e código fuente de los sourcemaps localizaron bases de datos de listas de vigilancia dedicadas exclusivamente a usuarios de OpenAI.

Al parecer, el sistema realiza hasta 269 comprobaciones automáticas cada vez que subes un selfie (o peor, tu DNI), incluyendo análisis de biometría facial. Tu cara se compara mediante algoritmos con bases de datos de personas políticamente expuestas (políticos o sus familiares) y criminales. La plataforma tiene capacidad para enviar datos directamente al FinCEN ( Financial Crimes Enforcement Network, la agencia de control de delitos financieros de EEUU) y al FINTRAC en Canadá.

Descubrieron también funciones de detección de entidades "sospechosas" basadas en rasgos faciales, sin que se explique qué criterios se usan para marcar a alguien como "peligroso".

Además, se ha detectado que el sistema bloquea por defecto a ciudadanos de países como Ucrania, a pesar de no estar bajo sanciones internacionales, simplemente por una configuración de política interna 😒

Tienes todos los detalles de la investigación en un (largo) informe aquí: "the watchers: how openai, the US government, and persona built an identity surveillance machine that files reports on you to the feds" (quítale el sonido a la pestaña para no escuchar la tediosa melodía ochentera, salvo que te guste, claro).

Al día siguiente de publicar lo anterior, el CEO de Persona, Rick Song, se puso en contacto con los investigadores para abordar las vulnerabilidades y aclarar malentendidos sin recurrir a amenazas legales iniciales. Todo el intercambio está publicado aquí. Lo más importante, es que sobre la base de datos de OpenAI, afirmó que es un despliegue aislado y sin biometría, negando rotundamente el envío de datos de usuarios de ChatGPT a agencias gubernamentales como FinCEN. De todos modos pese a la colaboración parcial, nueve de las dieciocho preguntas clave sobre privacidad, cumplimiento de la ley BIPA y criterios de "entidades sospechosas" siguen sin respuesta por parte de la empresa.

La falta de transparencia

Lo más grave de este hallazgo, para mí no es solo la vigilancia en sí, sino la falta de transparencia. Los usuarios aceptamos los términos de servicio para acceder a servicios aparentemente inocuos, sin saber que nuestra información biométrica podría ser almacenada hasta durante tres años y compartida con redes de inteligencia internacional.

Sin ir más lejos yo soy consciente de haber utilizado este servicio en particular para verificarme en LinkedIn con mi DNI, confiando en que la empresa en la que delegaban esto sería de confianza. Grave error, que en mi caso es mucho más grave por ser precisamente yo un promotor de la privacidad y de dar solo los datos estrictamente necesarios y solo confiar en proveedores o empresas a priori "serias".

En cuanto a lo de verificar tu edad usando vídeo y mostrando tu cara en varios ángulos, la biometría tiene un problema fundamental que las contraseñas no tienen: si te roban la clave, la cambias. Si te roban la cara, estás expuesto para siempre. Estamos normalizando el intercambio de nuestra información biológica por un poco de conveniencia tecnológica, olvidando que una vez que el algoritmo te etiqueta, no hay botón de apelación ni humano al que reclamar. Al final, debemos pensar también que el verdadero producto no es el servicio que usas, sino el mapa detallado de quién eres y con quién te relacionas, y que les entregas sin pensar.

La barrera entre una herramienta tecnológica y un agente de vigilancia estatal se ha vuelto invisible. La próxima vez que una aplicación te pida un selfie o similar para "verificar tu humanidad", recuerda que podrías estar alimentando un sistema de puntuación social algorítmico del que no hay forma de escapar ni pedir revisión humana.

La comodidad tiene un precio, y ese precio es nuestra privacidad. ¿Estamos dispuestos a pagarlo?

Sígueme: