Los primeros tres «nodos» de la red de teoría de la conspiración conocida como QAnon surgieron en 2018. Sus fundadores Tracy Diaz, Paul Furber y Coleman Rogers descubrieron cómo sacar provecho de la promoción de las publicaciones de «Q», una figura misteriosa que afirmaba tener información privilegiada sobre un arresto masivo, realizado con la bendición de Donald Trump, que atrapó a Hillary Clinton y otros por dirigir una red de pedófilos. Interpretaron, analizaron y amplificaron las crípticas divagaciones de Q sobre un culto satánico masivo de tráfico sexual de niños y consumo de sangre dirigido por prominentes demócratas, entre otras historias dudosas, en YouTube, Reddit, Facebook, Instagram, 8chan y otros medios de comunicación social. Durante varios años, acumularon cientos de millones de «seguidores», «me gusta» y «compartidos», extendiendo su alcance hacia el exterior. Cada nuevo seguidor se convirtió en un nodo más de la red.
QAnon es ahora una fuerza de disrupción firmemente arraigada y en rápido crecimiento en el panorama de la información estadounidense. El presidente Trump, quizás el promotor más influyente de QAnon, hasta agosto había retuiteado o mencionado 129 cuentas de Twitter diferentes asociadas con QAnon, según el grupo de investigación sin fines de lucro Media Matters for America. QAnon distribuye teorías de conspiración y otras formas de desinformación y fomenta la violencia. En el episodio «Pizzagate» en 2016, un hombre irrumpió en Cosmic Pizza en Washington, DC, disparando un rifle de asalto AR-15, para rescatar a niños esclavos sexuales (solo para encontrar personas comiendo pizza). Los creyentes de QAnon han cometido al menos dos asesinatos y el secuestro de un niño, prendieron fuego a un incendio forestal en California, bloquearon un puente junto a la presa Hoover, ocuparon una planta de cemento en Tucson, Arizona y conspiraron para asesinar a Joe Biden. Un hombre que ahora enfrenta cargos por planear el secuestro de la gobernadora de Michigan, Gretchen Whitmer, publicó teorías de conspiración de QAnon en su página de Facebook.
Los esfuerzos de la industria tecnológica para contener QAnon no han logrado frenar su propagación. El FBI declaró a QAnon una organización terrorista en mayo de 2019, incluso cuando Facebook siguió siendo uno de los principales facilitadores de la red. La propia investigación interna de la compañía, cuyos resultados se filtraron en agosto, identificó a más de tres millones de miembros y seguidores en su plataforma, aunque el número real podría ser sustancialmente mayor. Sin embargo, Facebook tardó hasta el 6 de octubre en prohibir todos los grupos y páginas de QAnon, así como las cuentas asociadas a QAnon de Instagram propiedad de Facebook. Además, la prohibición no afecta a los perfiles individuales de Facebook que trafican en publicaciones relacionadas con QAnon, una laguna enorme que seguramente dejará la plataforma abierta a la desinformación de QAnon.
Twitter afirma haber suspendido aproximadamente 7 mil cuentas no asociadas a QA al invocar violaciones de las reglas estándar, como la distribución de spam. Estas medidas, dice un vocero, «han reducido las impresiones en los tweets relacionados con QAnon en más del 50 por ciento».
«En general, la tecnología ha hecho más para ayudar a quienes brindan esta información errónea que a quienes intentan defenderse de ella», dice Travis Trammell, un teniente coronel del ejército en servicio activo que a principios de este año recibió un doctorado en ciencias e ingeniería de Stanford. «No puedo pensar en nada que haya tenido un impacto tan nefasto en los Estados Unidos».
El presidente Trump quizás sea el promotor más influyente de QAnon. Hasta agosto, había retuiteado o mencionado 129 cuentas relacionadas a la agrupación
Neil Johnson, físico de la Universidad George Washington, está de acuerdo. «Este es un problema que es más grande que las personas en estas comunidades, y más grande que cualquier esfuerzo de una plataforma para controlarlo», dice. «Es un gran desafío y absolutamente se requiere nueva ciencia para enfrentarlo».
Johnson y Trammel son parte de un grupo de científicos que están a la vanguardia de los esfuerzos para mapear QAnon y comprender cómo funciona. La explosión de desinformación que ha trastornado la vida estadounidense y ahora amenaza sus instituciones democráticas ha dado lugar a una nueva rama de la ciencia llamada «infodemiología». Inspirada en la epidemiología, el estudio de cómo las enfermedades se propagan a través de una población, la infodemiología busca comprender cómo la desinformación y las teorías de la conspiración se propagan como una enfermedad a través de una democracia libre como la de Estados Unidos, con el objetivo final de comprender cómo detener su propagación. Si las grandes tecnologías no pueden detener a QAnon, quizás los científicos puedan hacerlo.
Un mapa del campo de batalla
Nadie sabe qué tan grande es realmente QAnon, o, en el lenguaje de los analistas de redes, cuántos nodos y «bordes» o conexiones entre nodos abarca la red. Solo Díaz tiene 353.000 seguidores y suscriptores en Twitter y YouTube. David Hayes, ex paramédico y ahora promotor de QAnon a tiempo completo, tiene 800.000 seguidores y suscriptores combinados. Setenta candidatos al Congreso son nodos de QAnon. Más de 93.000 usuarios de Twitter mencionan a QAnon en sus perfiles, y muchas veces ese número difunde sus mensajes en la plataforma. El nodo más influyente de la red, por supuesto, es el presidente Trump.
Como punto de partida, los científicos están reuniendo datos sobre QAnon y formas efectivas de analizarlos. Una herramienta prometedora son las visualizaciones de datos compiladas por investigadores como Erin Gallagher, una experta independiente en redes sociales. Casi desde los primeros días de QAnon, Gallagher ha estado entrenando una variedad de herramientas de software sobre la actividad de los miembros en Facebook y Twitter, ayudando a iluminar la anatomía en línea del grupo y descubriendo una variedad de conocimientos. «Es difícil librar una batalla si no puedes mirar un mapa del campo de batalla», dice.
El movimiento está atrayendo a muchos de sus miembros del movimiento antivacunas y, más recientemente, de seguidores que creen que las «élites» conspiraron para causar la pandemia actual.
Gallagher quiere decir eso casi literalmente. Su especialidad es producir «mapas de red» de QAnon, representaciones visuales de qué cuentas de redes sociales están difundiendo la información errónea y hacia dónde fluye. Ahí es donde entran los nodos y los bordes, proporcionando un medio de representar visualmente la propagación de información incorrecta entre las cuentas en línea.
Los resultados han ayudado a Gallagher y sus colaboradores a descubrir una serie de características de QAnon. Si bien las denuncias de pedofilia y tráfico de personas siguen siendo el corazón de la fantasía de QAnon, el movimiento está atrayendo a muchos de sus miembros del movimiento antivacunas y, más recientemente, de seguidores que creen que las «élites» conspiraron para causar la pandemia actual. «Un gran tema entre las personas que pasan por estos agujeros de conejo es que se inclinan a desconfiar de las autoridades», dice Gallagher. QAnon parece dejar espacio para todos ellos, agrega.
Están surgiendo muchas otras herramientas para ayudar en la batalla. Una especie de motor de búsqueda llamado «Hoaxy» detecta nuevas afirmaciones de fuentes de baja credibilidad que parecen estar ganando popularidad y rastrea su difusión. También permite a cualquier persona eliminar afirmaciones dudosas en sus propios feeds de Twitter. «Podemos observar las tendencias de las nuevas narrativas en tiempo real», dice Filippo Menczer, profesor de informática en la Universidad de Indiana, donde dirige el Observatorio de Redes Sociales (OSoMe) de la escuela. Menczer y sus colegas de OSoMe también están rastreando a QAnon y otras comunidades orientadas a la conspiración y la desinformación; están desarrollando una serie de herramientas de software y aplicaciones disponibles para ayudar a cualquiera a recopilar datos sobre estos grupos.
Menczer ha utilizado los datos de estas herramientas para armar una anatomía de una publicación o tweet popular típico de QAnon. Por lo general, está relacionado con un tema de actualidad controvertido, como la violencia de los manifestantes o el uso de máscaras; agrega un elemento de verdad; está enmarcado en una afirmación que hará enojar a la gente; y se ajusta a las creencias e ilusiones existentes de la comunidad.
La solución obvia para la propagación de QAnon es eliminar las cuentas que difunden sus tonterías y otra información errónea potencialmente peligrosa, en otras palabras, eliminar los nodos de la red. Pero eso no está sucediendo, dice Menczer, como testigo de la falta de voluntad de Facebook para eliminar perfiles relacionados con QAnon además de la prohibición de grupos y páginas, que los expertos esperan tendrá un efecto limitado. Facebook y la mayoría de las otras plataformas siguen siendo lentas para eliminar a alguien por compartir información falsa, delirante o incluso peligrosa. Etiquetar publicaciones como tales no ayuda, porque los creyentes ven esa censura como parte de la conspiración.
Un enfoque más factible podría ser reducir los bordes de la red o las conexiones, dice Menczer. Para hacer eso, Facebook, Twitter y otras plataformas de redes sociales podrían no facilitar tanto el intercambio de publicaciones, de modo que el pensamiento conspirativo no se propague tan rápido o ampliamente, dando a las personas espacio para escuchar opiniones más fundamentadas y pensar más las cosas.
La prohibición de Facebook de grupos y páginas da un paso en esa dirección, al privar a los miembros de algunos de sus canales establecidos para compartir en la plataforma. Pero les deja libres para encontrar a otros, que es exactamente lo que sucedió cuando Facebook promulgó una prohibición más estricta en agosto contra 3.000 grupos y páginas específicos de QAnon. Una forma potencialmente más efectiva sería lograr que las plataformas oculten las «métricas de participación», que muestran un recuento destacado de me gusta, retweets y reposts e indican de un vistazo qué publicaciones son más populares. «Ver esas métricas altas hace que las personas sean más propensas a creer una narrativa falsa y más propensas a compartirla», dice Menczer.
Otro paso para eliminar los bordes de la red sería lograr que las plataformas reduzcan sus mecanismos para llamar la atención de los usuarios sobre cuentas y publicaciones que coincidan con sus intereses. Esos consejos son útiles para aquellos a quienes les gusta intercambiar publicaciones o tweets sobre gatos, cocina francesa o crianza de los hijos, pero dejan a quienes hacen clic en la propaganda de QAnon cada vez más profundamente inmersos en la comunidad y menos expuestos a un pensamiento más abierto. «Cuanto más comparten, más creíbles les parecen estas ideas», dice Menczer sobre estos grupos.
El placer de pertenecer
Contrarrestar la atracción de QAnon requiere comprender la naturaleza de esa atracción, sostiene Jennifer Kavanagh, profesora de ciencias políticas en la escuela de posgrado Pardee RAND en Santa Mónica, California, y directora del Programa de Estrategia, Doctrina y Recursos de RAND. En otras palabras, ¿qué obtienen los miembros de QAnon al unirse?
Una cosa que obtienen es la dopamina, la sustancia química del placer del cerebro. Los estudios cerebrales han demostrado que cuando las personas ven información que confirma su creencia en algo que no es cierto, reciben una gran dosis de dopamina. QAnon también proporciona una forma sencilla de ver un mundo que de otro modo sería desconcertante y confiere una rápida aceptación en una comunidad. «Las teorías de conspiración dan sentido al mundo «, dice Kavanagh. «Y proporcionan ese sentimiento de pertenencia a un grupo con sólo creer lo que el grupo cree «.
Para ampliar esos beneficios, QAnon trafica con afirmaciones que tienden a evocar fuertes reacciones emocionales en cualquiera que esté dispuesto a creerlas. Esclavizar a niños, pedofilia, extraños rituales anticristianos y un vasto imperio oculto de gente rica y poderosa que maneja los hilos: estos son crímenes y amenazas que golpean profundamente las mentes que están abiertas a aceptarlos como hechos.
Comprender cuán gratificantes y resonantes pueden ser las afirmaciones disparatadas de QAnon para los seguidores deja en claro que es una causa perdida para combatir la propagación del movimiento con hechos. Los hechos no reemplazan los poderosos sentimientos y el sentido de comunidad que proporcionan las teorías de la conspiración. En cambio, una mejor estrategia es ofrecer narrativas alternativas que también pueden generar beneficios emocionales, pero que se entrelazan en torno a la verdad en lugar de la ilusión y empujan a las personas a comportarse de manera productiva y benigna en lugar de atacar con odio, disrupción y violencia.
Los científicos están tratando de crear narrativas basadas en la verdad y con resonancia emocional para combatir el engaño y la información errónea, pero tienen un largo camino por recorrer, dice Kavanagh. Incluso una narrativa ganadora será difícil de vender si proviene de científicos y otros tipos de establecimientos de los que los partidarios de QAnon han llegado a desconfiar.
“Superpropagadores” y cuarentenas
Las vagas similitudes entre la difusión de la creencia de QAnon y la propagación de enfermedades infecciosas son la inspiración detrás del enfoque de Trammell para frenar el movimiento. En su investigación en Stanford, tomó prestados modelos matemáticos de epidemiólogos para calcular cómo las diferentes condiciones aceleran o ralentizan la propagación de la infección en una población.
El trabajo de Trammell ha demostrado, por ejemplo, que QAnon tiene «superpropagadores», personas que se conectan ampliamente en línea, atrayendo un gran número de seguidores. Pero los superpropagadores en línea tienen mucho más alcance que sus contrapartes de enfermedades del mundo real porque no tienen que limitar su contagiosidad a aquellos que están físicamente cerca. Como resultado, Trammell propone que las plataformas de redes sociales consideren «poner en cuarentena» o aislar algunas de las partes más activas de QAnon y otras comunidades de teoría de la conspiración, para que los miembros en cuarentena puedan continuar comunicándose entre sí pero no puedan llegar al exterior para «infectar» a los que no están en cuarentena.
Las medidas preventivas pueden ser más eficaces que tratar de «curar» a quienes ya han sucumbido a las teorías de la conspiración. «Una vez que las ideas se apoderan de alguien, extraerlas es extremadamente difícil», dice Trammell. En cambio, aboga por apuntar los mayores esfuerzos a los que no son QAnoners, para que aquellos que son más vulnerables al pensamiento conspirativo puedan evitar la infección si se exponen. Por ejemplo, las plataformas de redes sociales podrían emitir advertencias sobre ciertas narrativas falsas que atraen a la gente, una técnica que él llama teorías de conspiración «prebunking» y que es aproximadamente análoga a la vacunación.
Al igual que con las vacunas reales, el mensaje previo a la combustión debe diseñarse y probarse cuidadosamente para evitar efectos secundarios. Uno de esos posibles efectos secundarios es que cuando las personas siguen escuchando advertencias sobre la mala información, pueden volverse tan escépticas de las afirmaciones fácticas legítimas de fuentes confiables como lo son de los teóricos de la conspiración.
Independientemente de las estrategias que se adopten para combatir QAnon, es probable que fracasen si se limitan solo a algunas de las principales plataformas de redes sociales. Eso es lo que le preocupa al físico Johnson de la Universidad George Washington. La especialidad de Johnson es desentrañar los mecanismos detrás de los sistemas caóticos y complejos, una técnica que ha aplicado a fenómenos tan desalentadores como la superconductividad y los patrones eléctricos en el cerebro. Pero en los últimos años se ha centrado más en desentrañar los patrones ocultos en la difusión en línea de QAnon y otros movimientos extremistas, analizándolos en términos de conceptos físicos como multiversos, transiciones de fase y ondas de choque. «La complejidad de estas comunidades las hace difíciles de controlar», dice. «Es su ventaja clave».
Esa complejidad proviene en parte de las muchas plataformas en línea que utilizan QAnon y otros grupos terroristas y teóricos de la conspiración. La actividad de QAnon ha florecido en diferentes momentos en Reddit, 4chan, 8chan, 8kun, Twitter, Instagram, Facebook y muchos otros medios. Eso crea lo que él llama un multiverso de seguidores de QAnon, con la comunidad de cada plataforma desarrollando sus propios seguidores y patrones de comportamiento. Peor aún, cada comunidad cambia con el tiempo, y los miembros saltan entre ellos, a veces individualmente y a veces en masa, desafiando los esfuerzos de cualquier plataforma para controlarlos». Como los autos que intentan sortear el tráfico, los miembros cambian de plataforma para sortear nuevas restricciones, llevándose seguidores con ellos», dice Johnson. Esa es exactamente la razón por la que es probable que la prohibición de Facebook de grupos y páginas sea poco más que un obstáculo en el camino hacia flujos cada vez más amplios de información errónea de QAnon.
QAnon tiene «superpropagadores», personas que se conectan ampliamente en línea, atrayendo un gran número de seguidores. Tienen mucho más alcance que sus contrapartes de enfermedades del mundo real porque no tienen que limitar su contagiosidad a aquellos que están físicamente cerca.
Debido a que QAnon está tan descentralizado, perseguir a miembros individuales es «como tratar de encontrar la molécula en una olla de agua que hace hervir el agua», dice Johnson. Lo que importa es el comportamiento del colectivo, que es una fuerza de QAnon y otros movimientos de teoría de la conspiración. Pero es una fuerza que podría convertirse en una línea de ataque. Cuando el agua está a punto de hervir, se forman pequeñas burbujas a lo largo de los lados y el fondo de una olla. Rompiendo esas burbujas, tal vez cien por olla, es posible evitar que el agua hierva. Del mismo modo, una estrategia eficaz para contener QAnon podría ser apuntar a pequeños grupos específicos de miembros de QAnon cuyos comportamientos se influyen estrechamente entre sí y cuya actividad amenaza con desencadenar un comportamiento potencialmente más peligroso en la comunidad en general.
Cómo romper exactamente las «burbujas» de QAnon es un tema de la investigación actual de Johnson. Los miembros de QAnon en un grupo tienden a concentrarse en sus actitudes compartidas hacia ciertas cosas que creen que están sucediendo en el mundo, ya sean elementos particulares de una teoría de la conspiración o ciertos eventos noticiosos recientes. Al mismo tiempo, tienden a ignorar temas en los que pueden estar en desacuerdo, ya sea religión, política, salud u otros. Eso puede crear una oportunidad para abrir una brecha entre estos miembros. «Si podemos llamar la atención sobre los puntos de posible desacuerdo, es posible que podamos separarlos para que su comportamiento se vuelva menos correlacionado», dice Johnson. «Es básicamente lo opuesto a la resolución de conflictos».
Otra investigación sugiere que si cambia las opiniones de un tercio de una comunidad, es probable que el resto de la comunidad lo siga. Sembrando discordia en los grupos correctos de miembros, podría ser posible derribar a QAnon.
Un desafío continuo
Ningún científico afirma tener todavía una solución lista para usar para el problema de QAnon y otras comunidades en línea preocupantes. Parte de la razón por la que el progreso es más lento de lo que debería ser es que los científicos no pueden obtener todos los datos que necesitan para analizar completamente el comportamiento en línea de estas comunidades, porque las plataformas se niegan a compartirlo todo. «Hasta ahora hemos estado muy insatisfechos con algunas de las plataformas que retienen datos», dice Menczer. «Es un rompecabezas muy grande y no tenemos acceso a todas las piezas».
La mayoría de los científicos señalan directamente a Facebook como el mayor infractor cuando se trata de restringir el acceso a los datos. Pero algunos señalan que la compañía se ha estado moviendo en la dirección de proporcionar más datos, aunque lentamente, y algunas plataformas, como Twitter, se han mostrado relativamente comunicativas. Twitter dice que ha estado configurando nuevas herramientas destinadas específicamente a ayudar a los investigadores académicos a recopilar y analizar datos sobre el tráfico de la plataforma.
Los expertos esperaban que el Covid-19 ayudaría a las personas a tener una mejor apreciación de la importancia de los hechos: «Pero solo hemos visto que el pensamiento de la teoría de la conspiración sigue empeorando», reconocen.
Incluso con mejores datos, el desafío seguirá siendo empinado, porque los científicos apuntan a un objetivo en movimiento. «El comportamiento en línea cambia más rápido que la velocidad habitual a la que los científicos entienden las cosas, y luego los responsables políticos pueden aprobar una ley», dice Menczer. «Es probable que las cosas que hemos descubierto hasta ahora solo tenga pequeños efectos».
La experiencia del COVID-19, y la desinformación en torno a él, ha sido una decepción para los infodemiólogos. «Esperábamos que el COVID-19 ayudaría a las personas a tener una mejor apreciación de la importancia de los hechos», dice Kavanagh. «Pero solo hemos visto que el pensamiento de la teoría de la conspiración sigue empeorando. Y no creo que hayamos tocado fondo todavía».
Los infodemiólogos pueden tener que seguir el ejemplo de sus hermanos epidemiólogos y establecer metas modestas y alcanzables. «Los epidemiólogos generalmente saben que no pueden eliminar una enfermedad», dice Trammell. «Pero buscan formas de frenar la propagación a niveles sostenibles. Deberíamos poder llegar a un nivel manejable de desinformación».
Publicado en colaboración con Newsweek.
También te podría interesar: Teoría conspirativa pre electoral: ¿Biden posee una isla cerca de la de Epstein?