¿Vives un ecosistema de información peligrosa y poco fiable? Test para saber si sufres Infocalipsis 1

¿Vives un ecosistema de información peligrosa y poco fiable? Test para saber si sufres Infocalipsis

✅ Para descubrir más herramientas contra en este caos de mentiras y manipulación mediática, te recomendamos los retos formativos de Comunicación Social EN+. Sin publicidad y con información más actualizada y más organizada para que te sea más fácil de leer y consultar.


“Si todo el mundo siempre miente, el efecto no es que usted crea las mentiras, sino más bien que nadie crea ya en nada más”

Hannah Arendt

Infocalipsis

Hay un video de YouTube del presidente Obama sentado en una silla de caoba en la Oficina Oval. Está mirando directamente a la cámara. Su proclamación es solemne. «La forma en que avancemos en la Era de la Información será la diferencia entre sobrevivir o convertirnos en una distopía jodida».

Excepto que Obama nunca dijo eso en realidad.  Entonces, ¿qué estaba pasando? Bueno, era video es un deepfake sorprendentemente sofisticado que cada día es más popular. Sus creadores utilizaron inteligencia artificial para manipular la realidad a fin de producir un mundo nuevo completamente creíble y completamente irreal.

¿Vives un ecosistema de información peligrosa y poco fiable? Test para saber si sufres Infocalipsis 2

La calidad de los deepfakes está mejorando drásticamente. Con el tiempo, será casi imposible distinguir el contenido falso del real. Actores maliciosos de todo el mundo pescarán en estas aguas turbias, estafando, degradando y explotando a personas, empresas y democracias. Debemos empezar a protegernos de la desinformación o corremos el riesgo de convertirnos en víctimas del Infocalipsis.

Ya vivimos en lo que Nina Schick llama el «Infocalipsis«, un ecosistema de información peligrosa y poco fiable que no podemos distinguir de la información real. Los deepfakes solo agravarán el problema. Es esencial que nos protejamos de los peligros que plantean los deepfakes y el Infocalypse, antes de que sea demasiado tarde. Para ayudaros, hoy compartiremos con vosotros parte del contenido formativo de diseñosocial.com sobre fake news y posverdad.

No olvides clickar en la rueda inferior derecha para pasar los subtítulos a español

La manipulación de fotos, videos y audio es más fácil gracias a la IA

En el siglo XIX, los humanos inventaron la fotografía. Por primera vez, pudimos capturar un trozo de realidad real y aparentemente incontrovertible. Pero muy pronto, quedó claro que la «realidad» no solo podía capturarse, sino también manipularse. 

Al principio, alterar las fotos fue un proceso laborioso. Sin embargo, con el tiempo se volvió más sencillo. Ahora, cualquiera puede hacerlo, simplemente descargue una aplicación gratuita (por cierto, no esta mal recordar que cuando algo es gratis en internet, tú eres el producto que están vendiendo). Como resultado, nos hemos acostumbrado a la idea de que las fotos se pueden alterar y sabemos que debemos estar atentos a cualquier retoque o edición

¿Pero no son diferentes el audio y el video? Seguramente no se pueden fingir de manera convincente, ¿verdad? Pues no, de hecho, los nuevos desarrollos en inteligencia artificial confirman todo lo contrario.

La IA, o inteligencia artificial, es un software que procesa información a través del aprendizaje profundo. Permite que la IA tome decisiones de forma autónoma, en función de lo que «ha aprendido» después de procesar grandes cantidades de datos. El término «deepfake» se deriva de este «aprendizaje profundo» más, por razones obvias, la palabra «fake«.

Los primeros deepfakes mostraron cómo la IA puede cambiar la cara de una persona por un video existente. Fueron publicados en el sitio web Reddit por un usuario anónimo. En poco tiempo, estaban atrayendo una atención preocupante. A finales de 2017, una periodista llamada Samantha Cole publicó un artículo titulado «La falsa pornografía asistida por IA está aquí, y todos estamos jodidos». Su historia advirtió sobre un foro de Reddit lleno de pornografía deepfake. Su fundador usó IA para intercambiar las caras de las celebridades de Hollywood por los cuerpos de las estrellas del porno.

El porno deepfake no es consensual, es profundamente vergonzoso y degradante. Y no importa lo rico que sea, no hay nada que pueda hacer para borrarlo de Internet. Incluso Scarlett Johansson, la actriz mejor pagada de Hollywood, no pudo proteger su propio rostro.

El foro de pornografía falsa en Reddit finalmente fue eliminado. Pero su creador compartió el código que había usado para hacer los deepfakes. Ahora, hay un conjunto completo de herramientas y software gratuitos, abierto a cualquiera que quiera producir sus propios deepfakes. 

Suena horrible, ¿no? Pero todo esto es solo la punta del iceberg. La tecnología Deepfake continúa mejorando. Pronto, puede resultar literalmente imposible saber cuándo una imagen, un video o un clip de audio es falso. Esta tecnología ya nos está conduciendo por un camino oscuro de desinformación y error.

¿Vives un ecosistema de información peligrosa y poco fiable? Test para saber si sufres Infocalipsis 3

Rusia es el maestro de la guerra de desinformación

La gente tiende a utilizar los términos «información falsa» y «desinformación» indistintamente. Pero hay una diferencia importante. La información falsa es algo que simplemente está mal, mientras que la desinformación tiene la intención de engañar a la gente. 

Varios países participan en campañas de desinformación. Pero el amo indiscutible de este tipo de guerra es Rusia.

Operación Infektion

Una de las campañas de desinformación soviéticas más dañinas ocurrió en la década de 1980, en el apogeo de la epidemia del SIDA. Se conoció como «Operación Infektion» y comenzó con un artículo publicado en un oscuro periódico indio patrocinado por los soviéticos llamado Patriot. El artículo acusó al ejército estadounidense de liberar el virus del SIDA como arma biológica. Los estadounidenses, alegó el Patriot, querían matar a hombres negros y homosexuales.

Había una pizca de verdad en la desinformación de los rusos: Estados Unidos tenía anteriormente un programa de armas biológicas. Pero ya estaba en declive durante la década de 1960, y para la de 1970, el Pentágono se centró más en defenderse de las armas biológicas que en crearlas. 

Esa verdad no impidió que la afirmación del SIDA se volviera viral. Después de generalizarse particularmente en Asia y África, atravesó periódicos de todo el mundo, difundido en 80 países diferentes por la prensa.

La historia empañó la reputación mundial de Estados Unidos, pero también dividió al país desde adentro. Los soviéticos intentaron explotar las tensiones raciales, por lo que apuntaron específicamente a la comunidad afroamericana. Dada la historia de los Estados Unidos, a muchas personas les resultó fácil creer que su gobierno realmente quería asesinarlos. 

Proyecto Lakhta

La siguiente gran campaña de desinformación del Kremlin se produjo en 2016. Su propósito era dividir al país y poner a los votantes en contra de Hillary Clinton. ¿Su nombre en clave? «Proyecto Lakhta». La operación involucró a rusos que se hacían pasar por estadounidenses en las redes sociales. Estos ciudadanos estadounidenses falsos crearon comunidades basadas en identidades políticas. 

Las comunidades se gestionaron con cuidado. Cumplieron un propósito: polarizar a los estadounidenses y dejarlos indefensos frente a la estrategia de ataque de Rusia. Todas las señales dicen que este enfoque funcionó. 

La interferencia rusa en la política estadounidense es ahora un tema partidista, con un lado demasiado paranoico acerca de la amenaza y el otro negando que exista. 

Eventualmente, los deepfakes podrían hacer que las tácticas rusas sean aún más potentes, divisivas y peligrosas. La Unión Soviética tardó años en promover la «Operación Infektion» en los periódicos. Pero, en la era digital, los deepfakes pueden difundir desinformación altamente creíble en muy poco tiempo.

¿Vives un ecosistema de información peligrosa y poco fiable? Test para saber si sufres Infocalipsis 4

El Infocalipsis está amenazando a las democracias

Las democracias de todo el mundo están experimentando una crisis de confianza. Una encuesta global de 2018 reveló cifras impactantes: el 64% de las personas que vivían en democracias sentían que su gobierno «rara vez» o «nunca» actuó en interés del público. Pero hay otra sorpresa del mismo estudio. En los países no democráticos, ese número fue mucho más bajo: solo el 41 por ciento.

Esta crisis de confianza tiene a su figura más representativa y estudiada: el presidente de Estados Unidos, Donald Trump. Trump miente más continua y descaradamente que cualquier otro político de las democracias occidentales. Eso es un hecho objetivo, no una declaración partidista. Según una base de datos creada por el Washington Post, Trump hizo más de 18.000 afirmaciones falsas y engañosas en solo tres años, desde enero de 2017 hasta enero de 2020. Esto es un promedio de 15 mentiras por día. Todo un logo.

Dividendo del mentiroso

Pero Trump no solo contamina el discurso público con mentiras. Da un paso más. El presidente diluye toda la idea de verdad. Es un maestro del llamado «dividendo del mentiroso«. Esta es una táctica en la que alguien descarta todo lo que no le gusta como «falso», incluso si es cierto. Es fácil de identificar esta técnica ya que Trump suele etiqueta públicamente todas las críticas como «noticias falsas».

Pero, ¿qué tiene que ver Trump con los deepfakes? Bueno, a medida que esta tecnología se vuelva más prominente, el «dividendo del mentiroso» estará disponible para todos. ¿La gente está circulando un video que te hace quedar mal? Bueno, debe ser falso.

¿Vives un ecosistema de información peligrosa y poco fiable? Test para saber si sufres Infocalipsis 5

Es decir, la técnica de las deepfakes no sólo sirve para crear vídeos falsos. Además, es utilizada para poner en duda, criticar o deslegitimar a los vídeos que sí son verdaderos o reales. Lo que la hace doblemente peligrosa.

Si duda de que Trump (u otro político) utilizará deepfakes para avanzar en su agenda, piénselo dos veces. Ya ha explotado en el pasado los cheapfakes, que son imágenes, clips de audio o videos mal contextualizados o mal editados. ¿Por qué no usar las deepfakes si fuera necesario?

En 2018, por ejemplo, la Casa Blanca retuiteó un video manipulado originalmente distribuido por el sitio web de extrema derecha InfoWars. El video hizo que pareciera como si el corresponsal de CNN en la Casa Blanca, Jim Acosta, hubiera agredido físicamente a un pasante de la Casa Blanca. La realidad era mucho más benigna, y la oficina de prensa presidencial lo sabía. Pero Acosta aún fue despojado de su acceso a la Casa Blanca, con esa mentira como justificación.

No hay duda de que las mentirás nos transforman en países más divididos y peligrosos. Normalizan la polarización, la desconfianza y el engaño. Parece que las democracias se dirigen a un punto de inflexión aterrador. 

¿Vives un ecosistema de información peligrosa y poco fiable? Test para saber si sufres Infocalipsis 6

El Infocalipsis también tiene consecuencias mortales y aterradoras

El Infocalipsis es un problema para todo el mundo, no solo para Occidente. Si la mala información y la desinformación son perjudiciales para las democracias fuertes, piense en lo que podrían hacer en países donde la libertad de expresión es limitada y el estado de derecho es inexistente. 

En 2019, la organización de derechos humanos Witness preguntó a periodistas y activistas de Brasil, Sudáfrica y Malasia cómo se sentían sobre la amenaza de los deepfakes. Sus respuestas fueron sorprendentemente similares; todos estuvieron de acuerdo en que sus propios gobiernos eran mucho más peligrosos que los estados extranjeros. 

En India, los deepfakes ya se han utilizado como herramienta contra la oposición política. Tomemos el caso de Rana Ayyub, periodista de investigación y feroz crítica del partido gobernante de India, BJP. 

En 2018, se publicaron en línea una serie de tweets falsos. Todos parecían provenir de Rana y decían cosas como «Odio la India», «Odio a los indios» y «Amo Pakistán», el adversario político de la India desde hace mucho tiempo. Rana rápidamente aseguró a sus seguidores que los tweets eran falsos. Pero el daño no había más que empezado. El día después de que esas falsificaciones aparecieron en Twitter, un video porno falso con Rana también comenzó a circular en línea. Incluso fue compartido por la página de fans de las redes sociales del partido gobernante. El teléfono de Rana explotó con mensajes privados espeluznantes y degradantes. Pero los atacantes no se detuvieron ahí. Su número de teléfono personal se publicó en línea. Y las personas que lo compartieron ilustraron sus mensajes con el porno deepfake. Rana recibió cientos de amenazas de muerte y violación. Todavía no está claro quién lanzó ese video deepfake de Rana. Pero funcionó. Rana dejó de escribir; ella había sido silenciada. 

En Myanmar, la mala información y la desinformación han matado a personas. En 2014, un monje budista ultranacionalista difundió una mentira de que el propietario musulmán de una tienda de té en un pueblo llamado Mandalay había violado a una empleada budista. En respuesta, turbas enfurecidas irrumpieron en Mandalay, destruyendo coches y saqueando tiendas.

Los extremistas utilizaron Facebook para amplificar su mensaje de odio y promover amenazas contra la población musulmana del país. Finalmente, la animosidad alcanzó un punto de ebullición. En 2015, el estado de Rakhine en Myanmar inició una campaña a gran escala de limpieza étnica contra el pueblo musulmán rohingya. Para cuando Facebook finalmente comenzó a prohibir a los extremistas en línea, 25.000 rohingya habían sido asesinados y otros 700.000 habían huido del país.

¿Vives un ecosistema de información peligrosa y poco fiable? Test para saber si sufres Infocalipsis 7

Las deepfakes también estafarán a empresas e individuos

En 2016, un grupo de estafadores robó con éxito 50 millones de euros de varios magnates y líderes empresariales de todo el mundo. Los criminales usaron personas falsas. Uno de ellos se hizo pasar por el ministro de Defensa francés, Jean-Yves Le Drian. La tecnología era sorprendentemente simple: una máscara de silicona con la imagen de Le Drian. 

Un estafador se puso la máscara y se sentó detrás de un escritorio. Una bandera francesa colgaba al fondo. Luego, él y sus compinches hicieron una serie de videollamadas a personas adineradas, pidiéndoles que financiaran misiones secretas del gobierno francés. Una vez que sabías que era una estafa y te fijabas más atentamente, el estafador se veía completamente ridículo. La máscara era anormalmente pálida y sus ojos parecían agujeros negros. Aun así, la trama tuvo éxito. Millones de euros terminaron en las cuentas bancarias de los estafadores

Ahora imagina cuánto más podrían haber obtenido los criminales si hubieran usado deepfakes de calidad en su lugar.

Hoy en día, el fraude de audio es una de las técnicas más comunes que se utilizan para robar información personal. Los deepfakes solo empeorarán las cosas. En marzo de 2019, el Wall Street Journal informó que los estafadores defraudaron a una empresa energética británica por 250.000 euros. ¿Su técnica? Audio deepfake que imitaba la voz del director ejecutivo de la empresa. 

El director ejecutivo había pronunciado decenas de discursos, todos disponibles en Internet. Todo lo que los estafadores tenían que hacer era recopilar ese contenido y usarlo para entrenar a la IA.

Los deepfakes no solo son peligrosos para las empresas, las personas también están en riesgo. Ya hemos visto cómo la pornografía deepfake, por ejemplo, se puede utilizar para acosar, degradar y amenazar. En algunos países, la misma tecnología podría potencialmente causar aún más daño. 

Finalmente, los deepfakes también permiten a los teóricos de la conspiración. ¿Recuerdas Pizzagate? Esa extraña conspiración afirmó que una camarilla de pedófilos de élite operaba desde el sótano de una pizzería en Washington, DC. Curiosamente, el grupo ficticio de pedófilos supuestamente incluía a Hillary Clinton y Barack Obama. Imagina la transcendencia de la noticia si hubieran contado con un vídeo deepfake de alguno de ellos.

Desinformación sobre la pandemia de COVID-19

La pandemia de COVID-19 ha provocado conmociones en todo el mundo. Ha costado innumerables vidas, ha devastado economías y ha transformado drásticamente nuestras rutinas diarias. Pero la enfermedad no solo ha afectado a las personas. También ha afectado a nuestro ecosistema de información.

Un país que ha estado explotando la pandemia para difundir desinformación es, lo adivinaste, Rusia. Al igual que hizo con el sida y la «Operación Infektion», Rusia también ha promovido una conspiración global sobre el nuevo coronavirus. 

Podemos encontrar dos teorías circulando libremente por internet. Que el COVID-19 fue creado por el gobierno de los Estados Unidos como un arma biológica contra China. Y también, que el virus es en realidad un arma biológica china. Sí, estas narrativas son exactamente opuestos entre sí. Pero Moscú los está utilizando a propósito para explotar las crecientes tensiones políticas entre Estados Unidos y China.

Desafortunadamente, Rusia no es la única nación que está explotando la pandemia de COVID-19. China también ha estado adoptando tácticas de desinformación al estilo ruso.

Al comienzo de la pandemia, China censuró cualquier discusión sobre la enfermedad. Los médicos, los denunciantes e incluso los ciudadanos comunes fueron silenciados. El Partido Comunista Chino también censuró las palabras clave relacionadas con los brotes en las redes sociales. 

Una vez que la pandemia llegó a otros países, China se centró en el control de daños. El propósito de Beijing era mejorar su imagen en el exterior. Informes triunfantes pero tremendamente exagerados describían lo bien que estaba manejando el país la crisis. El gobierno también intentó negar que el virus se hubiera originado en China.

Mientras tanto, en Estados Unidos, Trump estaba difundiendo desinformación sobre la pandemia a su manera. En febrero de 2020, alrededor del comienzo de la pandemia, Trump minimizó el riesgo del virus. Acusó a los demócratas de politizar la enfermedad. Este era, dijo, el «nuevo engaño» de sus oponentes: un intento de difamar su nombre.

Pero a mediados de marzo, la cantidad de casos de coronavirus en los EE.UU. Había alcanzado los 10.000 y la economía se estaba hundiendo en una recesión. El 17 de marzo, Trump dio un giro de 180 grados. Contradijo todo lo que había estado diciendo antes y se jactó: «Sentí que esto era una pandemia mucho antes de que se llamara pandemia». 

A lo largo de la crisis, Trump ha difundido información errónea en sus conferencias de prensa. En una pandemia, la información precisa es esencial. La mala información y la desinformación pueden literalmente costar vidas. Pero ¿cómo encontrar la verdad? Cuando hay tantas narrativas conflictivas por ahí, puede ser muy difícil de decir. 

¿Vives un ecosistema de información peligrosa y poco fiable? Test para saber si sufres Infocalipsis 8

La lucha contra el Infocalipsis implicará un enfoque reactivo y proactivo

Está claro que el Infocalipsis presenta un peligro inminente para las sociedades de todo el mundo. Pero, ¿qué podemos hacer cada uno de nosotros para combatirlo? Bueno, podemos empezar reconociendo cuán grave es el problema. Ya ha dado un primer paso al leer este artículo aunque ya sabes, si quieres información más organizada y de calidad, puedes acceder a los retos formativos de diseñosocial.com (que además, podrás leer sin la molesta publicidad).

Para luchar contra las amenazas que plantean los deepfakes y el Infocalipsis, tenemos que ir más allá, mucho más. Necesitamos encontrar un lenguaje común y acordar la terminología. La buena noticia es que la sociedad en su conjunto al menos se está familiarizando con los términos «fake news», «posverdad», «desinformación» y «deepfakes» » 

Cuando los deepfakes se conviertan en algo común, será más importante que nunca apoyar el periodismo creíble. Y los servicios de verificación de datos serán cruciales. En los Estados Unidos, estos incluyen Politifact, Snopes y AP Fact Check. En Europa, están Fullfact, Reality Check de la BBC y Agence France Presse Fact Check. La organización Maldita.es ha creado un sitio específico –en este enlace– para ordenar y explicar la información que van generando sobre el coronavirus y DESMENTIR BULOS. Es importante que cualquier posible desinformación que nos llegue a nuestro teléfono móvil sea verificado antes de compartirlo con nuestros amigos y seres queridos. En este enlace podemos encontrar un buscador de bulos.

También existen herramientas sencillas basadas en computadoras portátiles que pueden protegerlo de la desinformación y el error. NewsGuard, por ejemplo, es un complemento de navegador que le indica si un sitio web es confiable. 

Si quieres estar preparado para la avalancha de deepfakes, debes aprender a reconocer el contenido falso. Puede comenzar explorando lo que ya está disponible. Por ejemplo, visita el sitio web thispersondoesnotexist.com. Utiliza IA para generar rostros humanos que en realidad no existen. Es asombrosamente difícil saber que son falsos, pero esto es a lo que nos enfrentamos en el Infocalipsis.

Por lo tanto, ya puede hacer bastante para asegurarte de que la información que consume sea verdadera. Pero simplemente defenderse del Infocalypse no es suficiente. También debemos combatirlo de forma proactiva. Afortunadamente, algunos países ya han ganado batallas contra los ciberataques y la guerra de información.

Tomemos como ejemplo a Estonia, un pequeño estado ex soviético en el Báltico. En 2007, Rusia llevó a cabo una serie de ataques cibernéticos contra el gobierno, los medios de comunicación y la infraestructura bancaria de Estonia. 

En lugar de ceder ante este ataque, Estonia adoptó un enfoque proactivo. Primero lanzó un sistema de alerta temprana, que alertaba a los ciudadanos sobre los ataques de desinformación rusos. A continuación, reunió a un grupo de voluntarios, expertos en TI y comunicaciones. Ayudaron a las personas a prepararse para los ciberataques y a responder a ellos. Y finalmente, el país construyó sistemas de ciberdefensa robustos y de múltiples niveles.

Depende de nosotros decidir si queremos o no vivir en un mundo donde lo real y lo falso están irremediablemente entrelazados. Si no lo hacemos, entonces debemos trabajar juntos para defenderse de la amenaza de los deepfakes y el Infocalpyse.

¿Vives un ecosistema de información peligrosa y poco fiable? Test para saber si sufres Infocalipsis 9