¿Está Twitter infectado de bots y cuentas falsas?

El movimiento reciente del hombre más rico del mundo para adquirir la piedra angular de las redes sociales Big Tech, Twitter, parece haber expuesto un problema de larga data que se retuerce silenciosamente debajo de la superficie aparentemente austera de la compañía: enjambres de bots que se hacen pasar por usuarios humanos auténticos.

A medida que Elon Musk emprende el proceso de diligencia debida sobre la adquisición, que no se esperaba que se cerrara oficialmente hasta octubre, han surgido obstáculos potencialmente fatales. 

El 13 de mayo, Musk anunció en Twitter que el acuerdo estaba temporalmente en suspenso «a la espera de detalles que respalden el cálculo de que las cuentas de spam/falsas representan menos del 5% de los usuarios». 

En el tuit, Musk citó un artículo de Reuters del 2 de mayo que hace referencia a presentaciones recientes de Twitter que afirman que solo el 5 por ciento o menos de todos los «usuarios activos diarios monetizables» (mDAU) eran cuentas falsas.

En los estados financieros del primer trimestre de 2022 de Twitter del 28 de abril, la compañía manifestó a los accionistas y al público que la plataforma promedió 229 millones de mDAU, un aumento interanual del 15,9 por ciento.

El 15 de mayo, Elon respondió a un video publicado por un usuario que catalogaba una larga lista de seguidores en una determinada cuenta que tenía características de ser cuentas de bot en lugar de cuentas humanas: “Exactamente. Todavía tengo que ver *cualquier* análisis que tenga falsos/spam/duplicados en <5%”, dijo.

El mismo día, Musk fue un paso más allá con una situación que se convirtió rápidamente en una pesadilla de relaciones públicas para la Junta Directiva de Twitter cuando tuiteó que «Existe la posibilidad de que sea más del 90% de los usuarios activos diarios, que es la métrica que importa» a los anunciantes… Es muy extraño que los tweets más populares de todos los tiempos solo hayan gustado a ~2% de los usuarios activos diarios».

¿Cuánto es demasiados?

Las afirmaciones de Musk parecen contener el agua. También el 15 de mayo, la firma de investigación de audiencia SparkToro publicó los resultados de un análisis de dos días que utilizó el aprendizaje automático para seleccionar 44.058 cuentas públicas de Twitter de un grupo potencial de 130 millones de perfiles activos.

La firma hizo una distinción entre las cuentas de bots que brindan un servicio, como las que vuelven a publicar los hallazgos de los restaurantes o agregan artículos específicos de la industria en tweets estilo feed, y las «cuentas falsas o de spam».

Se describió a este último grupo como involucrado en actividades tales como “propaganda y desinformación a quienes intentan vender productos, inducir clics en sitios web, impulsar intentos de phishing o malware, manipular acciones o criptomonedas y (quizás lo peor) acosar o intimidar a los usuarios de la plataforma”.

ARTÍCULOS SOBRE UNA RED DE BOTS:

El equipo descubrió que de los 44.058 perfiles activos, 8.555 “tienen una superposición de características altamente correlacionadas con cuentas falsas/spam”, lo que representa un 19,42%, casi 4 veces lo que Twitter representa en sus presentaciones reglamentarias.

Además, el informe utilizó el mismo modelo de análisis que usó para medir la cuenta del expresidente Donald Trump, antes de que Silicon Valley lo amordazara después del muy dudoso Capitol Riot del 6 de enero de 2021, en los 93,4 millones de seguidores personales de Musk en Twitter, y descubrió que solo 26,8 millones son cuentas activas.

SparkToro concluyó que «en total, es poco probable que el 70,23% de los seguidores de @ElonMusk sean usuarios auténticos y activos que vean sus tuits».

Sin embargo, la firma notó que encontraron los resultados «no sorprendentes», porque en su experiencia, las cuentas muy grandes y aquellas que generan una gran cantidad de cobertura de prensa tienden a tener más cuentas falsas y spam.

El perfil de Musk recomendado a nuevos usuarios por el algoritmo de Twitter también es una causa de la alta proporción de falsificaciones, dijeron.

Además, según un artículo de Newsweek del 17 de mayo , SparkToro concluyó además que el 49,3 por ciento de todos los usuarios que siguen la cuenta oficial @POTUS del presidente Joe Biden también cumplen con sus criterios para cuentas falsas y spam.

Ya no es un problema marginal

En el pasado, se consideraba que la noción de que Twitter es realmente un enjambre hirviente de cuentas falsas estaba entre una teoría de la conspiración y estaba aislada de ciertos aspectos marginales y relativamente intrascendentes de la plataforma. 

Por ejemplo, en un caso en septiembre del año pasado, los investigadores de seguridad descubrieron que el Partido Comunista Chino había desplegado una red de bots que buscaba influir en la opinión sobre temas que preocupan a pocos en Occidente, como el inversionista de GETTR, Guo Wengui.

Además, los investigadores descubrieron en agosto que muchas de las cuentas de bots del PCCh usaban fotos de perfil generadas por el sistema StyleGAN AI, que crea rostros humanos de aspecto auténtico utilizando una técnica de dibujo de píxeles.

Sin embargo, fue fácil captar el mensaje porque la deficiencia de StyleGAN es que pinta los ojos de todo lo que crea en el mismo eje horizontal.

Pero, ¿qué tan común es el Twitter sintético, en realidad?

En junio de 2020, la empresa de seguridad y antivirus Norton emitió un aviso titulado ¿Qué es un bot de Twitter y cómo detectar uno?, que describía las cuentas de bots, o «zombies», como «programadas para realizar tareas que se asemejan a las de los usuarios de Twitter cotidianos, como dar me gusta», twittear y seguir a otros usuarios: su propósito es twittear y retuitear contenido para objetivos específicos a gran escala”.

“Los bots de Twitter también pueden diseñarse con fines maliciosos de intimidación y manipulación de la plataforma, como difundir campañas de noticias falsas, enviar correo no deseado, violar la privacidad de los demás y usar marionetas”, agregó el aviso.

Norton emitió una lista de verificación del comportamiento típico de los bots que puede alertar a los usuarios humanos de que la persona con la que están interactuando es falsa, que incluye:

  • Tweets con un estrecho margen de tiempo entre sí
  • Respuestas cortas que parecen estar automatizadas
  • Cuentas con fecha de creación reciente
  • Perfiles con asas que incluyen una cadena de números
  • Faltan fotos de perfil, biografías y descripciones.
  • Usuarios que siguen muchas cuentas, pero tienen pocos seguidores

Mientras tanto, en 2018, Duo Security publicó un informe titulado Don’t @ Me que utilizó el aprendizaje automático para descubrir una red de bots de 15.000 cuentas que impulsaba una estafa de criptomonedas.

En particular, Duo descubrió que la botnet en realidad evolucionó con el tiempo para evadir la detección por parte de los moderadores de Twitter.

Comando y control

Investigadores de la Universidad de Cal Poly Pomona publicaron un documento técnico en su sitio web que demuestra cómo Twitter puede usarse adicionalmente como un centro de comando y control para emitir comandos a botnets externos que realizan actividades como ataques de denegación de servicio.

Los autores dijeron que el propósito del ejercicio era: «Al demostrar cómo un botmaster podría realizar dicha comunicación utilizando las redes sociales en línea, nuestro trabajo proporciona la base para detectar y prevenir las actividades emergentes de botnets».

El equipo afirmó que Twitter cumplió bien el propósito porque puede emitir comandos «con baja latencia y una tasa de transmisión casi perfecta».

En el prototipo se desarrolló un sistema para generar «mensajes de portada plausibles basados ​​en una longitud de tweet requerida determinada por un mapa de codificación que se ha construido en base a la estructura de los mensajes secretos».

También implementó un marco para generar automáticamente nuevos nombres de cuenta.

El sistema fue desarrollado e implementado utilizando la API oficial de Twitter, que forma parte de la plataforma Twitter for Business de la empresa, y la biblioteca Twitter4J.

Correo no deseado sucio

En 2018, un investigador de F-Secure se topó con una botnet de 22.000 miembros después de presenciar una serie de «me gusta» sospechosos en un corto período de tiempo en un tweet que acababa de hacer.

El analista descubrió que las descripciones de perfil de las cuentas curiosas a las que les había gustado su publicación tenían frases sospechosas como «te encanta» y «te estoy esperando», además de varias URL acortadas de aspecto sospechoso.

Después de que un colega implementara una VPN para enmascarar su ubicación, al cambiar su ubicación a Finlandia, la URL los llevó a un sitio llamado «Dirty Tinder».

«Al verificar más, noté que algunas de las cuentas seguían o estaban siendo seguidas por otras cuentas con rasgos similares, así que decidí escribir un script para ‘rastrear’ esta red mediante programación, para ver qué tan grande es». dijo el investigador Andrew Patel.

Patel descubrió que «las cuentas descubiertas parecían estar formando ‘grupos’ independientes (a través de relaciones de seguimiento/amigo)». 

“Esto no es lo que esperarías de un gráfico de interacción social normal”, señaló.

Lo que fue especialmente notable sobre la experiencia de Patel fue que muchas de las cuentas de botnet se habían creado hacía seis u ocho años, a menudo parecían tener diferentes intereses, y tuiteaban y les gustaban temas totalmente diferentes en diferentes momentos.

Foto del avatar
Mundo Libre Diario
Por favor, activa JavaScript en tu navegador para completar este formulario.
Consent

COMENTARIOS

guest
0 Comentarios
Más antiguo
Más reciente
Feedbacks en línea
Ver todos los comentarios