«¡Satisface a Mauricio!», «caricia significativa» y otras frases insólitas viralizadas en Twitter abrieron un debate sobre los bots en campaña

0
10
“Satisface a Mauricio” y “Caricia significativa de Hurlingham! son dos de las frases que compartió esta cuenta en Twitter que, por otras publicaciones realizadas e indicios, parecería ser un bot.
“Satisface a Mauricio” y “Caricia significativa de Hurlingham! son dos de las frases que compartió esta cuenta en Twitter que, por otras publicaciones realizadas e indicios, parecería ser un bot.

«Satisface a Mauricio«; «caricia significativa» y «gran apretón proveniente de Hurlingham» fueron algunas de las frases sin sentido que circularon ayer por Twitter junto al hashtag #YoVotoMM, que fue tendencia número 1 en Argentina durante varias horas. Una de esas frases (Satisface a Mauricio) también estuvo en el top five.

¿De dónde salieron? ¿Quién las produjo? Las frases comenzaron a ser publicadas por cuentas que parecerían ser bots, es decir, usuarios automatizados que generalmente se programan con el objetivo de instalar una tendencia, difundir noticias falsas o realizar ataques y hostigamientos.

Esas frases fueron luego replicadas por muchos otros usuarios, humanos, que identificaron esos comentarios sin sentido. Esto ayudó a viralizar el tema, y aportó también a reforzar las tendencias en Twitter. Así fue que en medio de los mensajes de apoyo de los votantes que se sumaron a una campaña a la que había convocado el gobierno nacional, aparecieron tuits dedicados a reírse o analizar las extrañas frases aparentemente producidas por los robots.

Las publicaciones estuvieron acompañadas por el hashtag #YoVotoMM que ayer también fue utilizado por votantes para expresar su apoyo al presidente.
Las publicaciones estuvieron acompañadas por el hashtag #YoVotoMM que ayer también fue utilizado por votantes para expresar su apoyo al presidente.

Qué son los bots

Son cuentas automatizadas que publican contenido en redes sociales, en este caso particular en Twitter. Cuando actúan de manera conjunta se habla de granjas de bots. Se pueden usar para varios propósitos: a veces se utilizan para sumar seguidores, en otras ocasiones pueden emplearse para que publiquen automáticamente links de algún sitio web, pero el gran problema es cuando su función es la de distribuir información falsa o instalar un tema para que sea tendencia y así afectar «la conversación» que debería darse de manera espontánea y natural, tal como se menciona en un artículo de Pew Research Center.

No hay que confundir bot con troll. El troll es un ser humano, cuyo principal propósito es también afectar la conversación, pero no está automatizado: es una persona. Y busca, principalmente, hostigar y acosar de manera violenta. Cuando el accionar es conjunto, también se habla de granja o ejército de trolls.

En esta cuenta se ven publicaciones con frases extrañas o con errores como “la pérdida de la subamina de 34 años”, así como una serie de tuits que salieron en el mismo horario y en al menos dos idiomas.
En esta cuenta se ven publicaciones con frases extrañas o con errores como “la pérdida de la subamina de 34 años”, así como una serie de tuits que salieron en el mismo horario y en al menos dos idiomas.

Cómo detectar un bot

Existen algunos indicios que pueden ayudar a identificar un bot, tal como se menciona en un artículo de la empresa de ciberseguridad Symantec:

1. Se puede identificar una acción conjunta de bots cuando se ve que un mismo contenido es publicado por varias cuentas a la vez.

2. En ocasiones tuitean sobre un mismo tema o simplemente retuitean contenido de otras cuentas.

3. El perfil puede tener una fecha de creación muy reciente, contener nombres con letras y números, o no utilizar foto de perfil.

En el fenómeno registrado anoche se observó un comportamiento similar:  los mensajes se publicaban en varios idiomas y en la misma franja horaria. La gramática y la forma de estructurar las oraciones también eran indicios de que se trataban de bots.

Acá se ven otros ejemplos de publicaciones con fallas en la redacción que dan el indicio de que esas cuentas pueden ser bots.
Acá se ven otros ejemplos de publicaciones con fallas en la redacción que dan el indicio de que esas cuentas pueden ser bots.

La usuaria Malena Rey parece haber encontrado la raíz de los mensajes rídiculos que circularon anoche. Lo explica así en su cuenta de Twitter (@malerey_).

 

Existen además algunas herramientas que se pueden utilizar para analizar si una cuenta es un bot o no. Una de ellas es Botometer, una aplicación desarrollada por la University Network Science Institute de Indiana (IUNI) y el Centro de Investigación de CNetS. Allí hay que pegar el tuit del usuario y se puede ver si es un bot o no. Es una herramienta muy popular, a la que se atribuye un 86% de precisión y que ha sido utilizada en investigaciones como la del Pew Research Center. El sistema califica las chances de que una cuenta sea bot de 0 a 5; cuanto más alto es el número, mayores son las probabilidades de que se trate de un bot. Aquí se probó con dos de las cuentas que compartieron algunas frases extrañas ayer.

Botometer es una herramienta que ayuda a identificar bots en Twitter.
Botometer es una herramienta que ayuda a identificar bots en Twitter.

Botcheck.me es una extensión de Chrome desarrollada por dos estudiantes de la Universidad de California, Berkeley. Ambas son herramientas basadas en API de Twitter. De todos modos, desde la red social resaltan que ellos son los que cuentan con los mecanismos más precisos para identificar bots, ya que para eso utilizan una combinación de procesos automatizados y un grupo de personas especialmente dedicadas a esto. Por eso, recomiendan a los usuarios denunciar cada vez que encuentren contenido que parezca haber sido producido por bots, o que parezca spam o que de algún modo infrinja las normas de Twitter.

Se puede denunciar un tuit en particular o el perfil del usuario.
Se puede denunciar un tuit en particular o el perfil del usuario.

¿Entonces qué pasó?

Hay dos teorías. Una apunta a una granja de bots contratada por Cambiemos o personas afines al partido que comenzaron a tuitear contenido sin sentido a raíz de un error de programación. La otra es que se trató de una campaña orquestada por grupos afines al kirchnerismo con el fin de ridiculizar al oficialismo, que había convocado a sus seguidores a participar de la campaña varios días antes. Lo que sí queda claro es que los esfuerzos que hace Twitter para combatir este tipo de prácticas todavía son insuficientes.

«Me parece raro que los tuits todavía estén ahí porque cuando hay un error en bots es muy fácil borrar todo rápidamente. Por otra parte, quiero decir que hace cuatro años, los dos partidos usaron bots. Eso es importante recordarlo», destacó Pablo Fernández, director de Innovación Editorial en Chequeado, en diálogo con Infobae.

Infobae se contactó con Twitter para que ofrezca más información sobre este tema. La red social no respondió puntualmente sobre este caso, sólo se limitó a recordar las acciones que viene llevando adelante en relación a las cuentas automatizadas.

«En específico sobre el tema de los bots, desde mayo de 2018, el sistema de Twitter identifica y desafía a más de 9 millones de cuentas potencialmente maliciosas por semana, a diferencia de los 6.4 millones de cuentas que se identificaban en diciembre de 2017. Es importante subrayar que estos esfuerzos son globales y no están definidos por una temporalidad. Uno de los logros es que gracias a la tecnología y a la mejora de procesos que se realizó durante el año pasado, ahora se remueve 214% más de cuentas por violaciones a nuestra política de spam año contra año», dijeron desde Twitter.

Desde el oficialismo negaron que ellos hayan estado involucrados en esto, tal como se puede ver en la siguiente publicación que se hizo en, desde la cuenta de Juntos por el Cambio:

Cómo se organizan los ataques en las granjas de bots

Pablo Fernández lideró una extensa investigación de Chequeado sobre el funcionamiento de las granjas de bots. En ese texto explicó que lo primero que se hace es definir una estrategia que puede ser positiva (por ejemplo posicionar un candidato o sus ideas) o negativa, que consistiría en un ataque dirigido a una persona o partido, por ejemplo.

«Se compran las cuentas posibles que se quieren usar con valores que empiezan en USD 3 por mil cuentas. Hay sitios en Rusia que venden estas cuentas. ¿Un ejemplo? BuyAccs.com. La cuenta relacionada con una dirección de mail de Gmail, menos «sospechosa» para Twitter, vale 100 veces más que la que usa una cuenta rusa», explica en el artículo.

Luego se define un perfil de usuario de esa cuenta, el nombre y en algunos casos, para hacerlo más creíble se le puede añadir una foto, etc. El paso siguiente es establecer cómo se comportará en la red social. Como se vio, algunos se dedican a tuitear con recurrencia sobre un mismo tema, en tanto que otros principalmente retuitean contenido.

«Podrían ser bots o humanos imitando el comportamiento de bots. Es muy fácil crear un bot que escriba mal, y eso pudo haber sido creado por un sector o el otro. Incluso podría haber sido una persona afín al macrismo que quiso ayudar y se equivocó», detalló Fernández.

Y amplió: «En su momento había apps que permitían crear tuits automáticos sin costo y, también, con un poco de conocimiento en programación alcanza. Hace dos años había granjas con más de 2000 bots con sofisticación media (foto de perfil, una bio y fotos que parecen reales) que costaban menos de 100 mil pesos.

Cabe recordar que en la campaña presidencial de Estados Unidos de 2016 se llevó adelante en Twitter una campaña para afectar las elecciones. Se usaron miles de cuentas para distribuir desinformación. Según una investigación realizada por Twitter, se emplearon 3.841 cuentas afiliadas a IRA, una agencia rusa responsable de haber orquestado la campaña de desinformación; también identificaron unas 770 cuentas «potencialmente originarias de Irán», como parte de este entramado.

La campaña dirigió propaganda tanto a liberales y conservadores, dentro del espectro político y se abocó en diseminar información en particular sobre temas que despertaban mayor descontento en ambos lados de la grieta. Más de 10 millones de tuits, 2 millones de imágenes, GIF, videos y transmisiones de Periscope estuvieron vinculadas a esta campaña.

SEGUÍ LEYENDO:

No creas todo lo que ves: las noticias falsas que circulan por las redes y cómo evitar caer en la trampa antes de las PASO

Cómo operan los bots y los ejércitos de trolls en Twitter durante las campañas electorales

 Qué son las «granjas de trolls» de Rusia y cómo pueden afectar en las próximas elecciones en América Latina