¡Mierda! Tu identidad anónima en Internet ahora puede ser desenmascarada por $1 😳
No por el FBI. Por cualquiera con acceso a Claude o ChatGPT y a algunos de tus comentarios en Reddit. ETH Zurich y Anthropic acaban de publicar un artículo llamado “Desanonimización online a gran escala con LLMs” y los resultados son la investigación sobre privacidad más alarmante que he leído este año. Construyeron un canal automatizado que toma tus publicaciones anónimas, extrae señales de identidad, busca en la web y descubre quién eres. No necesita investigador humano. Totalmente autónomo. Funciona en Hacker News, Reddit, LinkedIn e incluso transcripciones de entrevistas redactadas. Así de malos son los números. En Hacker News los usuarios: 67% se identificó correctamente. Cuando el sistema hacía una suposición, acertaba el 90% de las veces. En Reddit, académicos publican bajo seudónimos: 52%. Sobre los científicos cuyas transcripciones de entrevistas fueron redactadas explícitamente por motivos de privacidad: 9 de 33 aún fueron desenmascarados. El pipeline funciona en cuatro pasos denominados ESRC. Extrae señales de identidad de tus publicaciones mediante LLM. Busque candidatos compatibles utilizando incrustaciones en cientos de miles de perfiles. Razona sobre los mejores candidatos con modelos como GPT-5.2. Calibra la confianza para que, cuando adivine, casi nunca se equivoque. ¿El método clásico de desanonimización del famoso ataque al Premio Netflix? Casi 0 % de recuperación en todas las pruebas. Los LLM no solo mejoraron las técnicas antiguas, sino que las hicieron parecer juguetes. Cuando escalaron para dividir temporalmente los perfiles de Reddit, haciendo coincidir las publicaciones antiguas de un usuario con las más nuevas a lo largo de un año completo, el flujo de trabajo alcanzó un 67 % de recuperación con una precisión del 90 % y un 38 % de recuperación con una precisión del 99 %. Lo que significa que ni siquiera un año de cambios de intereses y conversaciones diferentes fue suficiente para ocultarlo. Mayor capacidad de razonamiento = mejor desanonimización. Un alto esfuerzo de razonamiento duplicó la capacidad de recuperación, alcanzando una precisión del 99 % en algunas pruebas. A medida que los modelos de frontera se vuelven más inteligentes, este ataque se fortalece automáticamente. Cada actualización del modelo implica una reducción de la privacidad. Lo que hace que sea casi imposible defenderse: el pipeline se divide en subtareas que parecen inofensivas. Resuma un perfil. Computar incrustaciones. Clasificar candidatos. Ninguna llamada a la API indica claramente que se está desanonimizando. Los propios investigadores se muestran pesimistas respecto a que las medidas de seguridad o los límites de velocidad puedan detenerlo. Su conclusión es contundente: «Los usuarios que publican bajo nombres de usuario persistentes deben asumir que los adversarios pueden vincular sus cuentas a identidades reales». Y extrapola. Las proyecciones log-lineales sugieren una recuperación de aproximadamente el 35% con una precisión del 90% incluso con un millón de candidatos. Cada cuenta descartable. Cada publicación anónima en el foro. Cada comentario de "nadie me relacionará con esto". Ahora todo son microdatos consultables. Y ejecutar el agente completo en un objetivo cuesta menos que un café. El anonimato práctico en internet acaba de desaparecer. El periódico lo liquidó con matemáticas.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¡Mierda! Tu identidad anónima en Internet ahora puede ser desenmascarada por $1 😳
No por el FBI. Por cualquiera con acceso a Claude o ChatGPT y a algunos de tus comentarios en Reddit.
ETH Zurich y Anthropic acaban de publicar un artículo llamado “Desanonimización online a gran escala con LLMs” y los resultados son la investigación sobre privacidad más alarmante que he leído este año.
Construyeron un canal automatizado que toma tus publicaciones anónimas, extrae señales de identidad, busca en la web y descubre quién eres.
No necesita investigador humano. Totalmente autónomo. Funciona en Hacker News, Reddit, LinkedIn e incluso transcripciones de entrevistas redactadas.
Así de malos son los números.
En Hacker News los usuarios: 67% se identificó correctamente.
Cuando el sistema hacía una suposición, acertaba el 90% de las veces.
En Reddit, académicos publican bajo seudónimos: 52%.
Sobre los científicos cuyas transcripciones de entrevistas fueron redactadas explícitamente por motivos de privacidad: 9 de 33 aún fueron desenmascarados.
El pipeline funciona en cuatro pasos denominados ESRC. Extrae señales de identidad de tus publicaciones mediante LLM.
Busque candidatos compatibles utilizando incrustaciones en cientos de miles de perfiles.
Razona sobre los mejores candidatos con modelos como GPT-5.2. Calibra la confianza para que, cuando adivine, casi nunca se equivoque.
¿El método clásico de desanonimización del famoso ataque al Premio Netflix? Casi 0 % de recuperación en todas las pruebas.
Los LLM no solo mejoraron las técnicas antiguas, sino que las hicieron parecer juguetes.
Cuando escalaron para dividir temporalmente los perfiles de Reddit, haciendo coincidir las publicaciones antiguas de un usuario con las más nuevas a lo largo de un año completo, el flujo de trabajo alcanzó un 67 % de recuperación con una precisión del 90 % y un 38 % de recuperación con una precisión del 99 %.
Lo que significa que ni siquiera un año de cambios de intereses y conversaciones diferentes fue suficiente para ocultarlo.
Mayor capacidad de razonamiento = mejor desanonimización. Un alto esfuerzo de razonamiento duplicó la capacidad de recuperación, alcanzando una precisión del 99 % en algunas pruebas. A medida que los modelos de frontera se vuelven más inteligentes, este ataque se fortalece automáticamente.
Cada actualización del modelo implica una reducción de la privacidad.
Lo que hace que sea casi imposible defenderse: el pipeline se divide en subtareas que parecen inofensivas. Resuma un perfil.
Computar incrustaciones. Clasificar candidatos. Ninguna llamada a la API indica claramente que se está desanonimizando. Los propios investigadores se muestran pesimistas respecto a que las medidas de seguridad o los límites de velocidad puedan detenerlo.
Su conclusión es contundente: «Los usuarios que publican bajo nombres de usuario persistentes deben asumir que los adversarios pueden vincular sus cuentas a identidades reales». Y extrapola.
Las proyecciones log-lineales sugieren una recuperación de aproximadamente el 35% con una precisión del 90% incluso con un millón de candidatos.
Cada cuenta descartable. Cada publicación anónima en el foro. Cada comentario de "nadie me relacionará con esto".
Ahora todo son microdatos consultables. Y ejecutar el agente completo en un objetivo cuesta menos que un café.
El anonimato práctico en internet acaba de desaparecer. El periódico lo liquidó con matemáticas.