Ad verba per numeros


Thursday, May 13, 2021, 05:06 PM

El otro día @LordoLordor se preguntaba lo siguiente...

La pregunta es muy interesante y me animé a preparar un hilo.

Para ello, como no podía ser de otro, modo acudí a la literatura disponible así que en los próximos tuits haré referencia a artículos y aprovecharé para mencionar aquellos autores (y autoras) que tengan cuenta en Twitter.

Por supuesto, lo que ofrezco aquí es mi interpretación de esa literatura, interpretación que puede ser incorrecta.

Por eso recomiendo a quien tenga interés que busque cada estudio y lo lea (e interprete) por su cuenta (y si quiere contacte con los autores respectivos).

Para responder a la pregunta de @LordoLordor trataré de cubrir varias cuestiones por separado (y no necesariamente en este orden): uso de bots, exposición a desinformación, predisposición a creérsela y tendencia a difundirla.

Espero que al final la diatriba le sirva de algo...

Antes de proseguir tengo que advertir que este (como tantos otros temas) es un poco, no sé, un poco ¡como un toro!

Bueno, tal vez no como un toro, pero sí como un elefante...

El elefante es el problema al que nos enfrentamos: distintos actores hacen uso de bots y difunden desinformación con fines políticos.

Distintos grupos de investigación estudian el problema en contextos diferentes (distintos países, distintas campañas electorales, etc.), con premisas diferentes (qué se entiende por bot o por desinformación), ...

... técnicas diferentes (cómo se detectan esos bots, p.ej.), en plataformas diferentes (no es lo mismo Twitter que Facebook que WhatsApp, p.ej.) y con metodologías para conseguir los datos diferentes.

Por todo ello, la literatura científica nos dice que los bots nos comen (o no), que nos influyen (o no), que difundimos mucha desinformación (o no), etc.

Mientras tanto, la prensa se hace eco de esa investigación que es a veces contradictoria y la opinión pública intenta hacerse una composición de lugar sabiendo que hay un elefante pero sin saber muy bien cómo hay que tratar con él.

Ni que decir tiene esta preocupación de la opinión pública no es única de España.

Quienes usan medios sociales afirman que encuentran desinformación ocasionalmente y que la desinformación pinta negativamente a otras comunidades.

Este tipo de opiniones acerca del aumento de la polarización causada por los medios sociales son más frecuentes (y extremas) entre quienes consideran los medios sociales como fuentes importantes de información política.

People in Emerging Economies Worry Social Media Causes Divisions But Also Recognize Its Benefits

Alguien podría decirme "Pero Dani, el estudio se hizo entre usuarios de medios sociales de Colombia, Filipinas, India, Jordania, Kenia, Líbano, México, Sudáfrica, Túnez, Venezuela y Vietnam, ¡¿cómo lo extrapolas a España?!"

Pues del mismo modo que extrapolamos estudios hechos en EE.UU., ¿no? 😉

Ese problema, el suponer que los estudios hechos en un país muy concreto son generalizables a cualquier otro en cualquier circunstancia, si os parece lo dejamos para otro momento...

Aunque desde el minuto uno se advirtió del problema de la desinformación política en medios sociales (p.ej. hace 10 años con @takis_metaxas y @enimust...

ojs.aaai.org/index.php/ICWS…

... el "pánico" sobre las "fake news" llegó de verdad a la opinión pública con las Elecciones presidenciales de EE.UU. de 2016.

Dos artículos especialmente citados al respecto son los siguientes.

"Social Media and Fake News in the 2016 Election" por @HuntAllcott y Matthew Gentzkow.

"Fake news on Twitter during the 2016 U.S. presidential election" por @grinbergnir y otros.

science.sciencemag.org/content/363/64…

Fake news on Twitter during the 2016 U.S. presidential election

En ellos se muestra que tendemos a creer los titulares que se ajustan a nuestra ideología (¡hola, sesgo de confirmación!), que esa tendencia es mayor cuanto más segregada ideológicamente esté nuestra red social (¡hola, cámaras de eco 👋!)...

...y que aquellas personas más interesadas en la política, de más edad y conservadoras (¡ajá!) tienen mayor probabilidad de llegar a ese tipo de desinformación.

*Pero*, el artículo de @grinbergnir también señala que el 1% de usuarios suponen el 80% de "exposiciones" a "fake news", que el 0,1% de usuarios son responsables de la distribución del 80% de las mismas...

...y que la inmensa mayoría de personas se informan a través de medios convencionales.

Así, podría hacerse la lectura de que las "fake news" son un problema menor pues, en realidad, poca gente se ve expuesta y aún menos gente las difunde.

La cuestión es que esos no son los únicos estudios realizados durante esas elecciones y otros estudios ofrecen perspectivas diferentes...

Tomemos, p.ej., "Selective Exposure to Misinformation: Evidence from the consumption of fake news during the 2016 U.S. presidential campaign" por @andyguess, @BrendanNyhan y @JasonReifler

about.fb.com/wp-content/upl…

Encontraron que aproximadamente 1/4 parte de los ciudadanos de EE.UU. visitaron algún sitio de noticias falsas durante la campaña electoral y que esa proporción aumentaba enormemente entre los seguidores de Trump (hasta un 40%).

¿Cómo puede un estudio afirmar que el 1% de usuarios suponen el 80% de exposiciones a noticias falsas y otro que el 25% han visitado algún sitio así?

En primer lugar, las afirmaciones son diferentes y difícilmente comparables. En segundo lugar, en un estudio se observó Twitter, en el otro se trabajó con encuestas y el historial de visitas web de los encuestados.

Dicho de otro modo, están mirando al elefante desde distintos ángulos...

¿Hay algún estudio similar en el contexto europeo?

Lo hay: "Measuring the reach of “fake news” and online disinformation in Europe" por @dragz, @AlessioCornia, @gravesmatter y @rasmus_kleis que estudió el problema en Francia e Italia.

Measuring the reach of "fake news" and online disinformation in Europe

La respuesta que nos dan no es la que nos gusta (fácil e inmediata), es un "depende"...

Por un lado, los sitios que publican noticias falsas son muchos menos populares que los sitios de noticias convencionales (¡eso es bueno!).

Por otro, las interacciones en Facebook con ambos tipos de sitios no son tan diferentes (eso no es bueno).

Así, en Francia algunos sitios de noticias falsas generan tantas (a veces más) interacciones que medios convencionales ...

... y en Italia mientras que algunos sitios de noticias falsas estaban muy por debajo (en términos de interacciones) que los medios convencionales otros conseguían más que la propia RAI.

¿En qué situación nos deja esto? Existen sitios web que difunden desinformación y la exposición a la misma no es fácil de medir.

Es relativamente sencillo en Twitter, no es tan sencillo en Facebook y es imposible si los enlaces se difunden por otros medios (p.ej. WhatsApp, correo, etc.) o si las personas van directamente a ese sitio web.

En el caso mejor tendríamos una exposición marginal.

En el caso peor tendríamos grupos ideológicos en los que una parte muy sustancial no se informa sino que se "desinforma" y sitios web destinados a desinformar que tienen mayor difusión que medios convencionales.

La situación real estará en algún punto intermedio y ese punto intermedio depende del país y del momento.

Como nos gusta decir a los académicos "more work is needed".

Llegados a este punto alguien podría decir "Bueno, pero verse expuesto a desinformación no implica necesariamente creerla y mucho menos difundirla".

En efecto; veamos, pues, cómo se ha investigado la posibilidad de que quienes consumen desinformación la acepten.

Voy a empezar con tres artículos que servirían para cimentar la superioridad moral de algún tuitero ;)

Por favor, no se tome esto como una crítica a los mismos. Me limito a recordar el ya mencionado sesgo de confirmación y cómo aplica también a la forma en que aceptamos resultados de investigación.

El primero es "Belief in Fake News is Associated with Delusionality, Dogmatism, Religious Fundamentalism, and Reduced Analytic Thinking" por @MichaelBronst19, @GordPennycook, Adam Bear, @DG_Rand y Tyrone D. Cannon.

doi.org/10.1016/j.jarm…

El título ya lo dice todo: la creencia en las "fake news" correlaciona positivamente con rasgos como las ideaciones delirantes, el dogmatismo y el fundamentalismo religioso...

... mientras que la creencia en las noticias "reales" correlaciona con pensamiento analítico y una mentalidad abierta (¡hola, superioridad moral!)

También es cierto, que la mentalidad abierta *sin* pensamiento analítico lleva a desconfiar de cualquier noticia (falsa o legítima) 😰

Por otro lado tenemos "Who Falls for Online Political Manipulation? The case of the Russian Interference Campaign in the 2016 US Presidential Election" por Adam Badawy, @KristinaLerman y @emilio__ferrara.

doi.org/10.1145/330856…

De ese artículo voy a quedarme con la Tabla 6 y una de las conclusiones: la ideología era el mejor predictor para saber quién iba a difundir desinformación (en este caso publicada por "troles rusos";).

Image

De esa tabla podemos concluir que solo el 0,06% de los usuarios liberales en Twitter difundieron bulos frente al 3,8% de los usuarios conservadores (¡hola, superioridad moral!)

El último artículo en esta tanda es "Lazy, not biased: Susceptibility to partisan fake news is better explained by lack of reasoning than by motivated reasoning" por @GordPennycook y @DG_Rand.

doi.org/10.1016/j.cogn…

De nuevo el título es muy jugoso y las conclusiones pueden leerse de manera demoledora: "people fall for fake news because they fail to think; not because they think in a motivated or identity-protective way".

La gente que se cree las "fake news" es porque no piensa. ¿Y qué gente es la que más comparte "fake news"? ¡Zasca! (¡Hola, superioridad moral!)

Alguien podría gritar ahora mismo "¡Un momento, un momento, un momeeeento! ¿No estás confundiendo ahí dos cosas? No es lo mismo creer lo que dicen las "fake news" que compartirlas, ¿verdad?"

Efectivamente, no podemos asumir sin más que si alguien comparte desinformación es porque la crea, tal vez tenga otros motivos. ¿Se ha investigado algo a este respecto?

Pozí... Pero advierto, distintos estudios enfocados de distinta forma dan lugar a diferentes explicaciones...

Comencemos con "Why do people share fake news? A sociotechnical model of media effects" por @alicetiara.

Why Do People Share Fake News? A Sociotechnical Model of Media Effects

La conclusión principal: la gente comparte desinformación que refuerza sus creencias previas así como para señalar su identidad y pertenencia a un grupo de afines ideológicamente.

El artículo "Partisan Polarization Is the Primary Psychological Motivation behind Political Fake News Sharing on Twitter" de @anjabechmann, @M_B_Petersen y otros proporciona resultados complementarios al anterior y muy interesantes.

Partisan Polarization Is the Primary Psychological Motivation behind Political Fake News Sharing on Twitter

No existe una incapacidad para discernir si la información es cierta o no.

Es decir, la desinformación no se difunde porque no se sabe que es falsa, se difunde a pesar de que se sabe que lo es si es "útil" para atacar al rival político.

Así, "To the partisan mind, fake news is the extreme end of a news source continuum where the news sources differ in how well they cater to partisan goals."

La desinformación tan solo es el extremo final de un continuo informativo donde la única diferencia entre las fuentes es lo bien que sirven a los objetivos partidistas.

Este estudio es compatible con el de @grinbergnir y otros: el 75% de los enlaces a desinformación son compartidos por un 1% de los usuarios y los seguidores de Trump tenían una predisposición mucho mayor a difundir desinformación.

El último artículo que quiero comentar sobre difusión de desinformación es "Do Tabloids Poison the Well of Social Media? Explaining Democratically Dysfunctional News Sharing" por @andrew_chadwick, @prof_vaccari y @Ben_OLoughlin.

Do tabloids poison the well of social media? Explaining democratically dysfunctional news sharing

Su estudio muestra que 2/3 de quienes respondieron a su encuesta en el Reino Unido reconocían haber difundido "noticias problemáticas". Esto confirma la conclusión del artículo anterior: la gente sabe que está difundiendo desinformación.

Más preocupante es el hecho de que no hay relación entre el tipo de noticia que se comparte (legítima, falsa o tabloide) y verse desmentido por otro usuario. Es decir, no parece haber desincentivos para difundir desinformación.

Y he dejado para el final el peliagudo asunto de los bots... Voy a dar por hecho que quien lee esto sabe lo que son y que, seguramente, opina que son "malos". Y lo doy por hecho extrapolando un estudio de @pewresearch 😋

Social Media Bots Draw Public's Attention and Concern

Según dicho estudio 2/3 de los estadounidenses han oído hablar de bots en medios sociales y un 80% de esas personas consideran que tienen propósitos "nefarios".

En otro estudio, también de @pewresearch, parece que no es necesario preocuparse tanto por los bots. Sí, puede ser que el 66% de los tweets apuntando a sitios web más populares no los hayan publicado seres humanos pero no tienen un sesgo político aparente.

Twitter Bots: An Analysis of the Links Automated Accounts Share

"¡Pues a mi me dijeron que en Twitter nos comían los bots!" Seguramente a raíz de estudios como el siguiente: "The spread of low-credibility content by social bots" por la buena gente de @OSoMe_IU.

The spread of low-credibility content by social bots

En ese artículo se señala que los bots juegan un papel desproporcionado difundiendo información poco creíble, que unas pocas cuentas automatizadas son responsables de la mayor parte del tráfico generado, ...

... que contribuyen a viralizar ese contenido, entre otros modos, mencionando y respondiendo a cuentas de usuarios (humanos) influyentes y con muchos seguidores con el objetivo de conseguir ser retuiteados.

¿Con qué nos quedamos? ¿Estamos mirando al elefante desde ángulos diferentes?

En este caso el problema es más complicado si cabe: es muy difícil saber si una cuenta es o no un bot.

En otro artículo, también de @OSoMe_IU, "Asymmetrical perceptions of partisan political bots" se evaluó la capacidad de humanos para diferenciar bots de usuarios reales y se encontraron con que...

Asymmetrical perceptions of partisan political bots

... los usuarios republicanos tendían a confundir a bots conservadores con humanos, mientras que los usuarios demócratas tendían a confundir a humanos conservadores con bots. ¯\_(ツ)_/¯

Si los seres humanos no somos capaces de diferenciar en Twitter a una persona de ideología contraria de un bot, ¿qué esperanza tenemos de que lo haga un clasificador automático?

Pues de acuerdo a @OuzhouAdi y @JonasKaiser muy pocas 😰

En su estudio "The False positive problem of automatic bot detection in social science research" se centran en una herramienta concreta, Botometer, que se ha usado en múltiples estudios y señalan multitud de debilidades.

The False positive problem of automatic bot detection in social science research

De hecho, si yo fuera de los que dramatiza podría decir que es posible que la mayor parte de informes que se han publicado hasta ahora sobre bots en Twitter y su influencia pueden ser falsos (¡hola, ironía!)

Lo cual nos lleva a parte de la pregunta original de @LordoLordor, ¿tenemos números sobre uso de bots por ideología? Pues algo hay...

El artículo "Twitter social bots: The 2019 Spanish general election data" (publicado por investigadores que no parecen tener cuenta en Twitter 😬) está asociado con un preprint que expone la siguiente tabla:

doi.org/10.1016/j.dib.…

Spotting political social bots in Twitter: A use case of the 2019 Spanish general election

Image

Si prestamos atención a la diagonal (cuentas que muy probablemente han sido bien clasificadas de acuerdo a la ideología de sus tuits) tenemos que los principales partidos en España usan bots ...

... y que el que más usaría sería (glups) Unidas Podemos seguidos de VOX, Ciudadanos, PSOE y en último lugar el Partido Popular.

¿Podemos aceptar esos números sin más? Pues probablemente no.

En primer lugar se usó Botometer que, ahora mismo, ha sido puesto en tela de juicio.

En segundo lugar sería preciso replicar el estudio en distintos momentos pero para ello necesitaríamos un método de detección de bots mejor que los disponibles.

Así pues, ¿qué orientación ideológica tiende más a difundir bulos?

Si encuentras razonable extrapolar lo observado en EE.UU. en los últimos años a cualquier otro sitio pues entonces podría decirse que son las posiciones más a la derecha que no lo harían por credulidad sino para atacar al rival.

Pero ojo, no vayamos a confundir correlación con causalidad, ¿vale?

Image

Por lo que respecta a los bots, ¿quién sabe?

Después de todo no somos capaces de diferenciar a ciencia cierta un bot de un humano.

Quien tenga interés en estos temas puede seguir, además de las cuentas que ya he ido mencionando, las siguientes: @Briony_Swire @chrisjvargo @davidlazer @dfreelon @hugoreasoning @j_a_tucker ...

... @Jonathan_Nagler @Ldfriedl @PatFerrucci @ralphschroeder @Sacha_Altay @sgonzalezbailon @so_proksch

Además de seguir a @BarriPdmx, @congosto y @SoyMmadrigal, por supuesto.

Si después de esta chapa aún tienes ganas de más puedes echarle un ojo a los recursos que tengo aquí:

app.milanote.com/1JGuAm1wwOXb6e…

O ya incluso ver esta conferencia mía.

👋




Next