Únete a la lucha contra las noticias falsas. Es imprescindible tu ayuda 1

Únete a la lucha contra las noticias falsas. Es imprescindible tu ayuda

✅ En este artículo conocerás cómo las fake news, los bulos o las noticias falsas está rompiendo el diálogo social y atentando contra nuestra democracia. Pero si te necesitas descubrir muchas más claves prácticas para acabar con ellas, no te pierdas los retos formativos de Diseño Social EN+


📲 En realidad, fenómenos de manipulación masiva como las fake news, las burbujas informativas, la posverdad… que tanto nos aterran y preocupan, no han nacido con las redes sociales. Ni con los bots ni con los trolls de internet. Ya existían.

💜 Es como el machismo o la homofobia. Eran mucho peor antes solo que ahora, somos conscientes del grave problema.

❌ Aun así, es esencial aprender sobre ellas porque modelan nuestra realidad e impiden el diálogo social.

Únete a la lucha contra las noticias falsas. Es imprescindible tu ayuda 2

El panorama de los medios ha cambiado más allá del reconocimiento. En los primeros días de Internet, muchos celebraron el eclipse de las instituciones de control como los periódicos y las emisoras. Pero permitir que las personas elijan sus propias fuentes de noticias no impulsó la participación cívica: cargó la confianza y creó condiciones fértiles para la desinformación digital. Este problema se ha visto exacerbado por la regulación ligera y la negativa de las empresas de redes sociales a abordar los bots. Pero el aprendizaje automático, que se utiliza junto con la verificación de datos humanos, podría ayudarnos a ganar esta batalla. 

Las redes sociales se han convertido en armas. Los gobiernos autoritarios de todo el mundo controlan ejércitos de bots y cuentas falsas. ¿Su propósito? La mayoría de las veces, es para acosar a los periodistas y sembrar dudas sobre el trabajo de los disidentes.

Pero no son solo los dictadores los que usan armas digitales; las democracias tampoco son inmunes. En las elecciones presidenciales de 2016 en los Estados Unidos, el equipo de Donald Trump creó miles de cuentas de redes sociales falsas para impulsar sus puntos de conversación preferidos. 

Y al otro lado del Atlántico, la campaña británica para abandonar la UE desplegó tácticas similares. Tanto Trump como los partidarios del Brexit aprovecharon la ola de desinformación hasta la victoria.

Pero los esfuerzos por engañar y engañar no se tratan solo de tecnología. Debajo del torrente de noticias falsas y la manipulación hay una compleja red de problemas sociales, económicos y políticos. 

Esto significa que el problema real no son las redes sociales en sí mismas, que pueden ser una fuerza para el bien, sino el mal uso de las redes sociales. El problema real, entonces, es cómo podemos detener el uso indebido de las herramientas digitales. El primer paso es descubrir por qué las redes sociales son tan disfuncionales

En este artículo hablaremos de:

  • por qué los bots no son tan inteligentes como podría pensar; 
  • cómo las noticias falsas capitalizan el deseo de las personas de pensar profundamente; y 
  • por qué la libertad de expresión ilimitada no es la respuesta a los problemas de las redes sociales.

Las grandes transformaciones sociales han provocado mucha infelicidad y descontento y estamos en una era de populismo, ira y violencia política. Y en este contexto la teoría no está muy bien considerada. Los teóricos son vistos como especuladores y su tarea se considera inútil, y mientras dejamos que las noticias falsas y los hechos alternativos se extiendan. La reputación de los académicos es muy baja en épocas populistas. Necesitamos poner fin a estos ataques a las universidades, a los académicos y a los expertos. Tenemos que desarrollar una cultura del respeto por el conocimiento.

Frase de Rosi Braidotti sobre las noticias falsas
Únete a la lucha contra las noticias falsas. Es imprescindible tu ayuda 3

La confianza en las instituciones democráticas

La confianza en las instituciones democráticas está en su punto más bajo. Una encuesta de Gallup de 2018 encontró que, durante las últimas cuatro décadas y media, la cantidad de estadounidenses que confían en el Congreso se desplomó del 43 al 11 por ciento. La confianza en los bancos se redujo a la mitad, y solo 38 de cada 100 personas dicen que confían en congregaciones religiosas, frente a los 65 a principios de la década de 1970. 

Pero el problema no se limita a Estados Unidos. Se han registrado tendencias similares en Brasil, Italia, España, Sudáfrica… países que siempre hemos considerado democráticos. Entonces, ¿qué está pasando? ¿Por qué los ciudadanos se han vuelto tan desconfiados de sus instituciones democráticas? Bueno, todo se reduce a cómo usamos los medios para comprender la realidad. 

Internet ha cambiado el panorama de los medios más allá del reconocimiento. Antes de la era digital, la información fluía en una sola dirección. Una persona hablaba y muchos escuchaban en silencio. Piense en presentadores de televisión o columnistas de periódicos, personas que se dirigieron a miles de oyentes y lectores. Periodistas y presentadores de noticias respetados se esforzaron por ser objetivos. Antes de que una vista fuera transmitida o publicada, tenía que ser examinada. Por supuesto, los conspiradores eran libres de escribir al New York Times, pero el periódico también tenía libertad para decidir si publicar o no esas cartas. 

Este modelo supuso que millones de ciudadanos recibieran su información de las mismas fuentes. Esto ayudó a generar consenso sobre lo que era real y verdadero y, como resultado, generó confianza. 

Pero en los últimos años, las cosas han cambiado. La información ahora se comparte a través de lo que se llama el paradigma de “muchos a muchos”. Ya no tiene que persuadir a nadie para que imprima o difunda sus opiniones. En la web, usted es su propio editor y cualquiera puede leer lo que publica. 

Los pioneros de Internet esperaban una época dorada de libertad de expresión y participación cívica. Pero lo que no previeron fue que el panorama sería controlado por unas pocas corporaciones gigantes de redes sociales, cada una menos responsable que las emisoras de la vieja escuela.

Existe poca o ninguna regulación en el mundo de las redes sociales, por lo que se ha convertido en un caldo de cultivo para la desinformación. Y en este lío turbio de algoritmos fáciles de jugar, es difícil distinguir los hechos de la ficción.

Una encuesta de 2018 en el Reino Unido, por ejemplo, encontró que el 64 por ciento de los británicos luchaba por diferenciar entre noticias reales y falsas. No es de extrañar, entonces, que la confianza esté en su punto más bajo: en este entorno, a menudo es imposible saber en quién confiar.

Detrás de cada fake news hay un interés ideológico o comercial

“AGENTE DEL FBI SOSPECHOSO DE LAS FILTRACIOENS DDE CORREO ELECTRÓNICO E HILLARY HA SIDO ENCONTRADO MUERTO EN APARENTE ASESINATO-SUICIDIO” 

A principios de noviembre de 2016, este sensacional titular, impreso en mayúsculas, apareció en un sitio web llamado Denver Guardian , que se anunciaba como “la fuente de noticias más antigua de Colorado”. La historia implicó a la candidata presidencial demócrata, Hillary Clinton.

En poco tiempo, miles de bots y miles de usuarios reales estaban haciendo clic para leerlo y compartirlo. La historia fue compartida por más de 100 páginas de Facebook cada minuto. Solo había un problema: la revelación era falsa. 

Nada de la historia de Denver Guardian era cierto. El artículo había sido escrito por Jestin Coler, un empresario de California. Era el propietario del sitio web y el único propósito de su publicación era generar clics en los anuncios. Coler se dio cuenta de que la forma más fácil de atraer tráfico era difundir informes falsos sobre la contienda presidencial en curso.

Fue un negocio rentable. En el período previo a las elecciones de noviembre, las noticias basura le aportaron a Coler entre $ 10,000 y $ 30,000 al mes. 

“La gente quería escuchar esto”, declaró Coler más tarde. Admitió abiertamente que había inventado cada detalle de esa historia. Todo era ficción: la ciudad que mencionó, la gente, el sheriff, el agente del FBI. Una vez que escribió el artículo, según confesó el propio Coler, su equipo de redes sociales lo colocó en foros pro-Trump. En cuestión de horas, se estaba extendiendo como un incendio forestal. 

Los motivos de Coler eran puramente comerciales y eso lo diferenciaba de las personas que habían llevado a cabo campañas de desinformación más conocidas. Pero su historia viral alimentó un ataque digital más amplio a la verdad. Esa ofensiva involucró anuncios falsos en Facebook, pagados por el gobierno ruso, así como historias falsas vendidas por adolescentes en Moldavia y “grupos de acción política” vinculados al campo de Trump.

Y cada país podemos encontrar casos similares: 

Sin embargo, Coler tenía razón: la gente quiere escuchar estas historias. ¿Por qué? Bueno, muchos todavía anhelan el tipo de noticias que alguna vez publicaron las emisoras de confianza. Es por eso que el Denver Guardian enfatizó su estatus como la fuente de noticias más antigua de Colorado. 

La gente también quiere llegar a la raíz de las cosas. El periodismo de investigación examinado y verificado se utiliza para responder a esta necesidad. Pero a medida que se desvaneció, los vendedores ambulantes de desinformación, que no tienen reparos en fingir la procedencia de las noticias o disfrazar la especulación salvaje como pensamiento crítico, pasaron a primer plano. 

Únete a la lucha contra las noticias falsas. Es imprescindible tu ayuda 4
Lista de algunas webs que se hacen pasar por medios de información y son difusoras de bulos, aportada por Julio Montes (@Montesjulio), en el #LabAPM sobre “Comunicación política y desinformación”


Teorías de la conspiración

No hay nada nuevo en las teorías de la conspiración. La gente siempre ha tratado de cuestionar a quienes los gobiernan. En todas las sociedades, ha habido oscuros rumores de complots, escándalos y encubrimientos. Pero en las últimas décadas, algo cambió.

En el pasado, las conspiraciones se difundieron lentamente; los rumores sobre las malas acciones de reyes y presidentes, imposibles de confirmar, rara vez aparecían en las noticias de la noche. Pero el mundo de las redes sociales es diferente. En línea, las conspiraciones se propagan más rápido y llegan más lejos. 

Podríamos hablar de Plandemia, pero tomemos el ejemplo de QAnon, una teoría de la conspiración asociada con la extrema derecha en los Estados Unidos. Sus partidarios afirman que hay una camarilla de funcionarios gubernamentales no electos conocidos como el “estado profundo” que, supuestamente, está trabajando contra Donald Trump

Los conspiracionistas también creen que un patriota anónimo llamado “Q” se ha infiltrado en esta camarilla. Este apodo es una referencia al nivel más alto de autorización de seguridad disponible para los funcionarios estadounidenses. Las publicaciones firmadas por Q aparecen ocasionalmente en foros como 4chan (similar a ForoCoches en España). Q ha afirmado, por ejemplo, que los políticos liberales estaban dirigiendo una red de sexo infantil desde el sótano de una pizzería.

Las afirmaciones de Q se difundieron rápidamente. Grupos coordinados de activistas de extrema derecha los recogen y los siembran en sitios más grandes, como Reddit y Twitter. Lo hacen con la ayuda de los “bots” de las redes sociales, un software que automatiza tareas como compartir contenido. Los bots engañan a los algoritmos para impulsar publicaciones cuya popularidad parece genuina. Después de un tiempo, la gente común comienza a darse cuenta de la conspiración. Esto se convierte en una historia para los medios tradicionales, que amplifica las cosas aún más. 

El problema es que estas conspiraciones corroen las normas democráticas. Según el relato de QAnon, los liberales están comprometidos con nada menos que subvertir los valores estadounidenses. Si acepta esta idea, por supuesto, pensaría que no tienen derecho a gobernar el país, incluso si ganan las elecciones. 

Entonces, ¿por qué las empresas de redes sociales como Facebook y Twitter no detienen estas conspiraciones? Bueno, no creen que sea su papel monitorear el habla de sus usuarios. Y, en cualquier caso, la gente tiene derecho a la libertad de expresión, ¿no es así?

Las empresas de redes sociales también han tardado en detener el uso de bots que impulsan las teorías de la conspiración. ¿El resultado? Un entorno que puede ser aprovechado por conspiradores marginales. Y, como veremos en el próximo bloque, los principales actores políticos también están aprendiendo a beneficiarse de ella. 

El primer caso conocido de bots que interfieren en el proceso político

A finales de 2013, los ucranianos salieron a las calles para protestar contra el presidente prorruso del país, Viktor Yanukovych. El gobierno ruso, que veía a Yanukovych como un aliado de larga data, respondió con una ofensiva en línea. Miles de cuentas de redes sociales y bots operados por Rusia inundaron la web. Difunden desinformación dirigida contra los manifestantes. Posteriormente se utilizaría una estrategia similar contra Estados Unidos en las elecciones presidenciales de 2016.

En ese momento, muchos espectadores creían estar presenciando el nacimiento de la propaganda computacional. Pero aunque el gobierno ruso pudo haber dominado el oscuro arte de la subversión digital, no fue el primer actor político en implementar estas tácticas. 

En 2010, los votantes de Massachusetts acudieron a las urnas para elegir un nuevo senador. Había dos nombres en la boleta: Scott Brown, el candidato republicano, y Martha Coakley, demócrata. 

Coakley era un claro favorito. Massachusetts había sido un bastión liberal durante décadas. Ted Kennedy, el senador demócrata cuya repentina muerte había desencadenado la contienda, había representado al estado desde 1962. De repente, sin embargo, la popularidad de Brown comenzó a aumentar. 

Y fue entonces cuando los científicos informáticos de la Wesleyan University notaron algo extraño. Las cuentas de Twitter de aspecto sospechoso parecían estar involucradas en un ataque coordinado contra Coakley. ¿La acusación? Que el candidato demócrata era anticatólico, una acusación seria en un estado como Massachusetts. 

Estas cuentas no tenían datos biográficos ni seguidores entre sí, y solo publicaban sobre Coakley. La atacaron a intervalos regulares de 10 segundos. Estaba claro que se trataba de bots, pero ¿quién los conducía? 

Los investigadores finalmente rastrearon las cuentas hasta un grupo de activistas conservadores conocedores de la tecnología con sede en Ohio, un estado que está a kilómetros de Massachusetts. Pero las personas falsas creadas por esos activistas fueron diseñadas para parecer lugareños preocupados. Una mirada superficial le hubiera dicho que los ataques provenían de personas comunes en el propio estado de Coakley, no de bots impulsados ​​por políticos transfronterizos. 

Es preocupante que esta apuesta valió la pena. Los bots generaron tanto ruido que los principales medios como National Catholic Register y National Review se dieron cuenta de los rumores de que Coakley era anticatólico. Las historias que publicaron apuntaban a la actividad de los bots en Twitter.

Los periodistas confundieron el trabajo de los bots con un movimiento de base genuino. Los medios que publicaron estas historias sin saberlo amplificaron un escándalo fabricado. Brown se enfadó. Coakley perdió la carrera.

Los bots son tontos pero efectivos

Cada vez que inicie sesión en Twitter y vea publicaciones populares, es probable que encuentre cuentas de bot. Están ocupados dando me gusta, compartiendo y comentando el contenido de otros usuarios. No es difícil detectar los mensajes producidos por este tipo de software. Ya sea spam o vitriolo político, los bots suelen “escribir” una prosa confusa con una sintaxis inestable. Sus publicaciones están cronometradas con precisión y vienen en ráfagas similares a máquinas.

En otras palabras, su bot promedio no es muy sofisticado. Entonces, ¿por qué tantos periodistas dicen que los bots han “conquistado la democracia”? Una respuesta es que es más fácil centrarse en los bots que hacer la pregunta más inquietante:

¿Por qué es tan fácil piratear la democracia con herramientas tan simples? Volveremos a este último problema, pero primero, echemos un vistazo más de cerca a estos bots.

Tómese un momento para retroceder a la contienda presidencial de 2016 entre Hillary Clinton y Donald Trump. 

Hubo mucho entusiasmo en torno al papel que jugaron los bots en esa elección. Cambridge Analytica, la consultora política que asesoró la campaña de Trump, prometió lanzar todo un ejército de ellos. La compañía afirmó que sus robots inteligentes apuntarían a grupos demográficos clave con puntos de conversación a favor de Trump y en contra de Clinton enfocados en láser. Para lograr esto, Cambridge Analytica iba a aprovechar lo que se llama datos “psicográficos”, es decir, perfiles detallados recopilados de las páginas de redes sociales de los votantes.

Esta herramienta es extremadamente sofisticada. Pero toda la evidencia que tenemos sugiere que nunca se usó. Sin embargo, el campo de Trump llevó a cabo una campaña digital extraordinariamente eficaz. Y eso subraya el punto más importante aquí. Cuando se trata de propaganda computacional, no es necesario ser inteligente para ganar. 

Tómelo del Proyecto de propaganda computacional de la Universidad de Oxford. Su investigación ha visto la misma historia desarrollarse una y otra vez. Desde la ofensiva digital de Rusia contra Ucrania en 2013 hasta el referéndum del Brexit y la campaña presidencial de Trump en 2016, la gran mayoría de los bots que se han utilizado para difundir desinformación han sido muy simples. Todo lo que podían hacer, de hecho, era compartir contenido, difundir enlaces y trollear a la gente. Estos bots no eran funcionalmente conversacionales. No poseían inteligencia artificial. 

Pero lo poco que pudieron hacer fue suficiente para abrumar a sus objetivos. Sus cascadas de repetitivos puntos de conversación fueron tan prolíficas que los oponentes se vieron abrumados, incapaces de responder rápida o eficazmente.

Únete a la lucha contra las noticias falsas. Es imprescindible tu ayuda 5

¿Quién debería legislar contra las fakes news?

Como hemos aprendido, no se necesita tecnología sofisticada para piratear la opinión pública. Ya sea que ejecute una campaña política o simplemente ofrezca noticias basura, todo lo que necesita para abrumar los algoritmos de las redes sociales son bots rudimentarios y titulares en los que se puede hacer clic. 

Esto nos devuelve a la inquietante pregunta que planteamos: ¿Por qué la democracia es tan vulnerable a las simples herramientas de piratería? Se puede encontrar una respuesta en la forma en que se regulan las empresas de redes sociales. En la vida pública, estas corporaciones ocupan ahora el puesto que antes ocupaban los periódicos y las emisoras. Pero las reglas que rigen su trabajo son mucho más suaves. 

Tomemos como ejemplo la Comisión Federal de Elecciones. Este organismo regulador hace cumplir la ley sobre el financiamiento de campañas políticas. En 2006, la Comisión decidió que las campañas en línea no eran su responsabilidad. Para ser justos, hicieron una excepción con los anuncios políticos. Pero el aumento de las noticias falsas virales y la desinformación digital impulsada por bots nunca estaría en el radar de la Comisión Electoral de Estados Unidos. 

Entonces esa herramienta reguladora está fuera. ¿Si hay algo más que pueda usar el gobierno federal? Bueno, existe la Sección 230 de la Ley de Decencia en las Comunicaciones. Este estatuto, aprobado en 1995, otorga a las corporaciones de Internet el derecho a censurar el discurso dañino. También los exime de cualquier responsabilidad si se equivocan. 

Las empresas de medios sociales en Estados Unidos usan la Sección 230. Les ayuda a justificar decisiones para eliminar el discurso de odio obvio o violento, como las diatribas neonazis antisemitas. Pero las corporaciones también tratan esta ley como una licencia para ignorar contenido político problemático como la desinformación. Como lo ven los ejecutivos de estas empresas, el estatuto confirma su propia opinión de que no les corresponde actuar como “árbitros de la verdad”. De hecho, la Sección 230 otorga a estas empresas el poder de arbitrar contenido, pero rara vez lo utilizan. ¿Por qué? Una posible explicación es que entra en conflicto con el espíritu libertario de Silicon Valley

Pero incluso si empresas como Facebook y Twitter usaran este poder, limpiar sus plataformas sería una tarea abrumadora. Estos sitios crecieron extremadamente rápido y sin mucha consideración por el diseño ético. Para evitar un uso indebido en el futuro, tendría que atornillar arreglos ad hoc en una estructura que no se creó para acomodarlos. Como lo expresó un empleado de Facebook en una entrevista con el autor, el gigante de las redes sociales es como un avión que ha sido lanzado al vuelo a pesar de estar a medio construir.

“Las corporaciones multimillonarias, los gobiernos irresponsables y los inversores en tecnología son los principales culpables del aumento de la propaganda computacional”.

¿Sería suficiente con prohibir los bots?

Hagamos una pregunta final. ¿Podríamos simplemente prohibir los bots? En 2018, la senadora estadounidense Dianne Feinstein intentó hacer precisamente eso al proponer la “Ley de Responsabilidad y Divulgación de Bot”. 

Pero el proyecto de ley se estancó en el Congreso. Es difícil implementar medidas anti-bot sin también violar el derecho constitucional a la libertad de expresión. Y hay mas. Puede legislar contra los bots, pero eso no resolverá el otro problema de la desinformación: los humanos difunden noticias falsas con la misma eficacia que los bots. El “50 Cent Army” chino, por ejemplo, es una tropa coordinada de cuentas humanas responsables de inundar la web con propaganda progubernamental. Sus actividades no estarían cubiertas por leyes anti-bot. 

Así que podríamos estar mejor con un enfoque diferente. Quizás nuestro objetivo no deberían ser los propios robots; en su lugar, tal vez deberíamos pensar más en la información y en cómo fluye. 

Imagina un bot que usa el aprendizaje automático. Este programa aprendería de las conversaciones con personas en las redes sociales. Mejoraría constantemente al hablar con humanos reales. 

Ahora imagine que este programa comenzó a conversar con alguien y lo convenció de que compartiera un artículo que despreciaba el calentamiento global. Esa conversación por sí sola generaría muchos datos. El bot luego analizaría los datos para averiguar qué tácticas funcionaron y cuáles no. Y este análisis informaría el comportamiento futuro del bot. 

Bastante pesadilla, ¿verdad? Claro, pero esta no es una calle de un solo sentido. El aprendizaje automático también se puede implementar para combatir la desinformación digital. Tómelo de los investigadores del Observatorio de Redes Sociales de la Universidad de Indiana que construyeron el “Botómetro”.

El Botometer utiliza el aprendizaje automático para clasificar las cuentas de Twitter como humanas o bot. Lo hace analizando más de mil características de una cuenta determinada. El software analiza sus amigos, el patrón de actividad, el idioma y el tono de las publicaciones. Al final de este análisis, el Botometer proporciona una “puntuación de bot” general. Les dice a los usuarios si están interactuando con un humano o un bot, destacando de inmediato una de las fuentes de desinformación más comunes. 

Pero los algoritmos de aprendizaje automático como el Botometer probablemente no sean suficientes por sí solos. La mayoría de los expertos predicen la aparición de modelos regulatorios híbridos o “cyborg”. Por ejemplo, los humanos podrían verificar las historias y podrían emplearse sistemas automatizados para identificar rápidamente a los bots que difunden noticias falsas. 

Algunas tareas, al parecer, son demasiado importantes como para confiarlas a los algoritmos y la inteligencia artificial. TOMEMOS ACCIÓN CÍVICA DESDE CADA HOGAR CONTRA LAS FAKE NEWS

Únete a la lucha contra las noticias falsas. Es imprescindible tu ayuda 6