• Skip to primary navigation
  • Skip to main content
  • Skip to footer

muhimu

Historias que merecen ser compartidas

  • LO MÁS LEÍDO
  • DESARROLLO PERSONAL
    • Salud y Psicología
    • Arte y Cultura
    • Educación y Formación
    • Crecimiento Personal
    • Diversidad
    • Historias Inspiradoras
    • Familia y Hogar
  • FINANZAS E INVERSIÓN
    • Finanzas e Inversión
    • Políticia y Economía
    • Ciencia y Tecnología
    • Pensamiento Crítico
    • Soft-skills Profesionales
  • UN MUNDO MEJOR
    • Feminismo + LGBTi+
    • Sostenibilidad
    • Innovación Social
    • Cooperación
    • Noticias Internacionales
    • Violencia y Conflictos
You are here: Home / Pensamiento Crítico / ¿Vives un ecosistema de información poco fiable? Test para saber si sufres Infocalipsis

¿Vives un ecosistema de información poco fiable? Test para saber si sufres Infocalipsis

06/12/2020 by María Hidalgo

Mere­ce ser compartido:

Actua­li­za­do el Tues­day, 25 January, 2022

✅ Para des­cu­brir más herra­mien­tas con­tra en este caos de men­ti­ras y mani­pu­la­ción mediá­ti­ca, te reco­men­da­mos los retos for­ma­ti­vos de Comu­ni­ca­ción Social EN+. Sin publi­ci­dad y con infor­ma­ción más actua­li­za­da y más orga­ni­za­da para que te sea más fácil de leer y consultar.


“Si todo el mun­do siem­pre mien­te, el ver­da­de­ro peli­gro no es que usted crea las men­ti­ras, sino que ya nadie crea en nada”

Han­nah Arendt

__ ¿Qué des­cu­bri­rás en este post? __

  • Info­ca­lip­sis
  • La mani­pu­la­ción de fotos, videos y audio es más fácil gra­cias a la IA
  • Rusia es el maes­tro de la gue­rra de desinformación
    • Ope­ra­ción Infektion
    • Pro­yec­to Lakhta
  • El Info­ca­lip­sis está ame­na­zan­do a las democracias 
    • Divi­den­do del mentiroso
  • El Info­ca­lip­sis tam­bién tie­ne con­se­cuen­cias mor­ta­les y aterradoras
  • Las deep­fa­kes tam­bién esta­fa­rán a empre­sas e individuos
  • Des­in­for­ma­ción sobre la pan­de­mia de COVID-19
  • La lucha con­tra el Info­ca­lip­sis impli­ca­rá un enfo­que reac­ti­vo y proactivo

Infocalipsis

Hay un video de You­Tu­be del pre­si­den­te Oba­ma sen­ta­do en una silla de cao­ba en la Ofi­ci­na Oval. Está miran­do direc­ta­men­te a la cáma­ra. Su pro­cla­ma­ción es solem­ne. “La for­ma en que avan­ce­mos en la Era de la Infor­ma­ción será la dife­ren­cia entre sobre­vi­vir o con­ver­tir­nos en una dis­to­pía jodida”.

Excep­to que Oba­ma nun­ca dijo eso en reali­dad.  Enton­ces, ¿qué esta­ba pasan­do? Bueno, era video es un deep­fa­ke sor­pren­den­te­men­te sofis­ti­ca­do que cada día es más popu­lar. Sus crea­do­res uti­li­za­ron inte­li­gen­cia arti­fi­cial para mani­pu­lar la reali­dad a fin de pro­du­cir un mun­do nue­vo com­ple­ta­men­te creí­ble y com­ple­ta­men­te irreal.

¿Vives un ecosistema de información poco fiable? Test para saber si sufres Infocalipsis 1

La cali­dad de los deep­fa­kes está mejo­ran­do drás­ti­ca­men­te. Con el tiem­po, será casi impo­si­ble dis­tin­guir el con­te­ni­do fal­so del real. Acto­res mali­cio­sos de todo el mun­do pes­ca­rán en estas aguas tur­bias, esta­fan­do, degra­dan­do y explo­tan­do a per­so­nas, empre­sas y demo­cra­cias. Debe­mos empe­zar a pro­te­ger­nos de la des­in­for­ma­ción o corre­mos el ries­go de con­ver­tir­nos en víc­ti­mas del Infocalipsis.

Ya vivi­mos en lo que Nina Schick lla­ma el “Info­ca­lip­sis”, un eco­sis­te­ma de infor­ma­ción peli­gro­sa y poco fia­ble que no pode­mos dis­tin­guir de la infor­ma­ción real. Los deep­fa­kes solo agra­va­rán el pro­ble­ma. Es esen­cial que nos pro­te­ja­mos de los peli­gros que plan­tean los deep­fa­kes y el Info­caly­pse, antes de que sea dema­sia­do tar­de. Para ayu­da­ros, hoy com­par­ti­re­mos con voso­tros par­te del con­te­ni­do for­ma­ti­vo de diseñosocial.com sobre fake news y posverdad.

No olvi­des clic­kar en la rue­da infe­rior dere­cha para pasar los sub­tí­tu­los a español

La manipulación de fotos, videos y audio es más fácil gracias a la IA

En el siglo XIX, los huma­nos inven­ta­ron la foto­gra­fía. Por pri­me­ra vez, pudi­mos cap­tu­rar un tro­zo de reali­dad real y apa­ren­te­men­te incon­tro­ver­ti­ble. Pero muy pron­to, que­dó cla­ro que la “reali­dad” no solo podía cap­tu­rar­se, sino tam­bién manipularse. 

Al prin­ci­pio, alte­rar las fotos fue un pro­ce­so labo­rio­so. Sin embar­go, con el tiem­po se vol­vió más sen­ci­llo. Aho­ra, cual­quie­ra pue­de hacer­lo, sim­ple­men­te des­car­gue una apli­ca­ción gra­tui­ta (por cier­to, no esta mal recor­dar que cuan­do algo es gra­tis en inter­net, tú eres el pro­duc­to que están ven­dien­do). Como resul­ta­do, nos hemos acos­tum­bra­do a la idea de que las fotos se pue­den alte­rar y sabe­mos que debe­mos estar aten­tos a cual­quier reto­que o edi­ción. 

¿Pero no son dife­ren­tes el audio y el video? Segu­ra­men­te no se pue­den fin­gir de mane­ra con­vin­cen­te, ¿ver­dad? Pues no, de hecho, los nue­vos desa­rro­llos en inte­li­gen­cia arti­fi­cial con­fir­man todo lo contrario.

La IA, o inte­li­gen­cia arti­fi­cial, es un soft­wa­re que pro­ce­sa infor­ma­ción a tra­vés del apren­di­za­je pro­fun­do. Per­mi­te que la IA tome deci­sio­nes de for­ma autó­no­ma, en fun­ción de lo que “ha apren­di­do” des­pués de pro­ce­sar gran­des can­ti­da­des de datos. El tér­mino “deep­fa­ke” se deri­va de este “apren­di­za­je pro­fun­do” más, por razo­nes obvias, la pala­bra “fake”.

Los pri­me­ros deep­fa­kes mos­tra­ron cómo la IA pue­de cam­biar la cara de una per­so­na por un video exis­ten­te. Fue­ron publi­ca­dos en el sitio web Red­dit por un usua­rio anó­ni­mo. En poco tiem­po, esta­ban atra­yen­do una aten­ción preo­cu­pan­te. A fina­les de 2017, una perio­dis­ta lla­ma­da Samantha Cole publi­có un artícu­lo titu­la­do “La fal­sa por­no­gra­fía asis­ti­da por IA está aquí, y todos esta­mos jodi­dos”. Su his­to­ria advir­tió sobre un foro de Red­dit lleno de por­no­gra­fía deep­fa­ke. Su fun­da­dor usó IA para inter­cam­biar las caras de las cele­bri­da­des de Holly­wood por los cuer­pos de las estre­llas del porno.

El porno deep­fa­ke no es con­sen­sual, es pro­fun­da­men­te ver­gon­zo­so y degra­dan­te. Y no impor­ta lo rico que sea, no hay nada que pue­da hacer para borrar­lo de Inter­net. Inclu­so Scar­lett Johans­son, la actriz mejor paga­da de Holly­wood, no pudo pro­te­ger su pro­pio rostro.

El foro de por­no­gra­fía fal­sa en Red­dit final­men­te fue eli­mi­na­do. Pero su crea­dor com­par­tió el códi­go que había usa­do para hacer los deep­fa­kes. Aho­ra, hay un con­jun­to com­ple­to de herra­mien­tas y soft­wa­re gra­tui­tos, abier­to a cual­quie­ra que quie­ra pro­du­cir sus pro­pios deepfakes. 

Sue­na horri­ble, ¿no? Pero todo esto es solo la pun­ta del ice­berg. La tec­no­lo­gía Deep­fa­ke con­ti­núa mejo­ran­do. Pron­to, pue­de resul­tar lite­ral­men­te impo­si­ble saber cuán­do una ima­gen, un video o un clip de audio es fal­so. Esta tec­no­lo­gía ya nos está con­du­cien­do por un camino oscu­ro de des­in­for­ma­ción y error.

¿Vives un ecosistema de información poco fiable? Test para saber si sufres Infocalipsis 2

Rusia es el maestro de la guerra de desinformación

La gen­te tien­de a uti­li­zar los tér­mi­nos “infor­ma­ción fal­sa” y “des­in­for­ma­ción” indis­tin­ta­men­te. Pero hay una dife­ren­cia impor­tan­te. La infor­ma­ción fal­sa es algo que sim­ple­men­te está mal, mien­tras que la des­in­for­ma­ción tie­ne la inten­ción de enga­ñar a la gente. 

Varios paí­ses par­ti­ci­pan en cam­pa­ñas de des­in­for­ma­ción. Pero el amo indis­cu­ti­ble de este tipo de gue­rra es Rusia.

Operación Infektion

Una de las cam­pa­ñas de des­in­for­ma­ción sovié­ti­cas más dañi­nas ocu­rrió en la déca­da de 1980, en el apo­geo de la epi­de­mia del SIDA. Se cono­ció como “Ope­ra­ción Infek­tion” y comen­zó con un artícu­lo publi­ca­do en un oscu­ro perió­di­co indio patro­ci­na­do por los sovié­ti­cos lla­ma­do Patriot. El artícu­lo acu­só al ejér­ci­to esta­dou­ni­den­se de libe­rar el virus del SIDA como arma bio­ló­gi­ca. Los esta­dou­ni­den­ses, ale­gó el Patriot, que­rían matar a hom­bres negros y homosexuales.

Había una piz­ca de ver­dad en la des­in­for­ma­ción de los rusos: Esta­dos Uni­dos tenía ante­rior­men­te un pro­gra­ma de armas bio­ló­gi­cas. Pero ya esta­ba en decli­ve duran­te la déca­da de 1960, y para la de 1970, el Pen­tá­gono se cen­tró más en defen­der­se de las armas bio­ló­gi­cas que en crearlas. 

Esa ver­dad no impi­dió que la afir­ma­ción del SIDA se vol­vie­ra viral. Des­pués de gene­ra­li­zar­se par­ti­cu­lar­men­te en Asia y Áfri­ca, atra­ve­só perió­di­cos de todo el mun­do, difun­di­do en 80 paí­ses dife­ren­tes por la prensa.

La his­to­ria empa­ñó la repu­tación mun­dial de Esta­dos Uni­dos, pero tam­bién divi­dió al país des­de aden­tro. Los sovié­ti­cos inten­ta­ron explo­tar las ten­sio­nes racia­les, por lo que apun­ta­ron espe­cí­fi­ca­men­te a la comu­ni­dad afro­ame­ri­ca­na. Dada la his­to­ria de los Esta­dos Uni­dos, a muchas per­so­nas les resul­tó fácil creer que su gobierno real­men­te que­ría asesinarlos. 

Proyecto Lakhta

La siguien­te gran cam­pa­ña de des­in­for­ma­ción del Krem­lin se pro­du­jo en 2016. Su pro­pó­si­to era divi­dir al país y poner a los votan­tes en con­tra de Hillary Clin­ton. ¿Su nom­bre en cla­ve? “Pro­yec­to Lakh­ta”. La ope­ra­ción invo­lu­cró a rusos que se hacían pasar por esta­dou­ni­den­ses en las redes socia­les. Estos ciu­da­da­nos esta­dou­ni­den­ses fal­sos crea­ron comu­ni­da­des basa­das en iden­ti­da­des políticas. 

Las comu­ni­da­des se ges­tio­na­ron con cui­da­do. Cum­plie­ron un pro­pó­si­to: pola­ri­zar a los esta­dou­ni­den­ses y dejar­los inde­fen­sos fren­te a la estra­te­gia de ata­que de Rusia. Todas las seña­les dicen que este enfo­que funcionó. 

La inter­fe­ren­cia rusa en la polí­ti­ca esta­dou­ni­den­se es aho­ra un tema par­ti­dis­ta, con un lado dema­sia­do para­noi­co acer­ca de la ame­na­za y el otro negan­do que exista. 

Even­tual­men­te, los deep­fa­kes podrían hacer que las tác­ti­cas rusas sean aún más poten­tes, divi­si­vas y peli­gro­sas. La Unión Sovié­ti­ca tar­dó años en pro­mo­ver la “Ope­ra­ción Infek­tion” en los perió­di­cos. Pero, en la era digi­tal, los deep­fa­kes pue­den difun­dir des­in­for­ma­ción alta­men­te creí­ble en muy poco tiempo.

¿Vives un ecosistema de información poco fiable? Test para saber si sufres Infocalipsis 3

El Infocalipsis está amenazando a las democracias 

Las demo­cra­cias de todo el mun­do están expe­ri­men­tan­do una cri­sis de con­fian­za. Una encues­ta glo­bal de 2018 reve­ló cifras impac­tan­tes: el 64% de las per­so­nas que vivían en demo­cra­cias sen­tían que su gobierno “rara vez” o “nun­ca” actuó en inte­rés del públi­co. Pero hay otra sor­pre­sa del mis­mo estu­dio. En los paí­ses no demo­crá­ti­cos, ese núme­ro fue mucho más bajo: solo el 41 por ciento.

Esta cri­sis de con­fian­za tie­ne a su figu­ra más repre­sen­ta­ti­va y estu­dia­da: el pre­si­den­te de Esta­dos Uni­dos, Donald Trump. Trump mien­te más con­ti­nua y des­ca­ra­da­men­te que cual­quier otro polí­ti­co de las demo­cra­cias occi­den­ta­les. Eso es un hecho obje­ti­vo, no una decla­ra­ción par­ti­dis­ta. Según una base de datos crea­da por el Washing­ton Post, Trump hizo más de 18.000 afir­ma­cio­nes fal­sas y enga­ño­sas en solo tres años, des­de enero de 2017 has­ta enero de 2020. Esto es un pro­me­dio de 15 men­ti­ras por día. Todo un logo.

Dividendo del mentiroso

Pero Trump no solo con­ta­mi­na el dis­cur­so públi­co con men­ti­ras. Da un paso más. El pre­si­den­te dilu­ye toda la idea de ver­dad. Es un maes­tro del lla­ma­do “divi­den­do del men­ti­ro­so”. Esta es una tác­ti­ca en la que alguien des­car­ta todo lo que no le gus­ta como “fal­so”, inclu­so si es cier­to. Es fácil de iden­ti­fi­car esta téc­ni­ca ya que Trump sue­le eti­que­ta públi­ca­men­te todas las crí­ti­cas como “noti­cias falsas”.

Pero, ¿qué tie­ne que ver Trump con los deep­fa­kes? Bueno, a medi­da que esta tec­no­lo­gía se vuel­va más pro­mi­nen­te, el “divi­den­do del men­ti­ro­so” esta­rá dis­po­ni­ble para todos. ¿La gen­te está cir­cu­lan­do un video que te hace que­dar mal? Bueno, debe ser fal­so.

¿Vives un ecosistema de información poco fiable? Test para saber si sufres Infocalipsis 4
¿Vives un eco­sis­te­ma de infor­ma­ción poco fia­ble? Test para saber si sufres Info­ca­lip­sis 9

Es decir, la téc­ni­ca de las deep­fa­kes no sólo sir­ve para crear vídeos fal­sos. Ade­más, es uti­li­za­da para poner en duda, cri­ti­car o des­le­gi­ti­mar a los vídeos que sí son ver­da­de­ros o reales. Lo que la hace doble­men­te peligrosa.

Si duda de que Trump (u otro polí­ti­co) uti­li­za­rá deep­fa­kes para avan­zar en su agen­da, pién­se­lo dos veces. Ya ha explo­ta­do en el pasa­do los cheap­fa­kes, que son imá­ge­nes, clips de audio o videos mal con­tex­tua­li­za­dos o mal edi­ta­dos. ¿Por qué no usar las deep­fa­kes si fue­ra necesario?

En 2018, por ejem­plo, la Casa Blan­ca retui­teó un video mani­pu­la­do ori­gi­nal­men­te dis­tri­bui­do por el sitio web de extre­ma dere­cha Info­Wars. El video hizo que pare­cie­ra como si el corres­pon­sal de CNN en la Casa Blan­ca, Jim Acos­ta, hubie­ra agre­di­do físi­ca­men­te a un pasan­te de la Casa Blan­ca. La reali­dad era mucho más benig­na, y la ofi­ci­na de pren­sa pre­si­den­cial lo sabía. Pero Acos­ta aún fue des­po­ja­do de su acce­so a la Casa Blan­ca, con esa men­ti­ra como justificación.

No hay duda de que las men­ti­rás nos trans­for­man en paí­ses más divi­di­dos y peli­gro­sos. Nor­ma­li­zan la pola­ri­za­ción, la des­con­fian­za y el enga­ño. Pare­ce que las demo­cra­cias se diri­gen a un pun­to de infle­xión aterrador. 

¿Vives un ecosistema de información poco fiable? Test para saber si sufres Infocalipsis 5

El Infocalipsis también tiene consecuencias mortales y aterradoras

El Info­ca­lip­sis es un pro­ble­ma para todo el mun­do, no solo para Occi­den­te. Si la mala infor­ma­ción y la des­in­for­ma­ción son per­ju­di­cia­les para las demo­cra­cias fuer­tes, pien­se en lo que podrían hacer en paí­ses don­de la liber­tad de expre­sión es limi­ta­da y el esta­do de dere­cho es inexistente. 

En 2019, la orga­ni­za­ción de dere­chos huma­nos Wit­ness pre­gun­tó a perio­dis­tas y acti­vis­tas de Bra­sil, Sudá­fri­ca y Mala­sia cómo se sen­tían sobre la ame­na­za de los deep­fa­kes. Sus res­pues­tas fue­ron sor­pren­den­te­men­te simi­la­res; todos estu­vie­ron de acuer­do en que sus pro­pios gobier­nos eran mucho más peli­gro­sos que los esta­dos extranjeros. 

En India, los deep­fa­kes ya se han uti­li­za­do como herra­mien­ta con­tra la opo­si­ción polí­ti­ca. Tome­mos el caso de Rana Ayyub, perio­dis­ta de inves­ti­ga­ción y feroz crí­ti­ca del par­ti­do gober­nan­te de India, BJP. 

En 2018, se publi­ca­ron en línea una serie de tweets fal­sos. Todos pare­cían pro­ve­nir de Rana y decían cosas como “Odio la India”, “Odio a los indios” y “Amo Pakis­tán”, el adver­sa­rio polí­ti­co de la India des­de hace mucho tiem­po. Rana rápi­da­men­te ase­gu­ró a sus segui­do­res que los tweets eran fal­sos. Pero el daño no había más que empe­za­do. El día des­pués de que esas fal­si­fi­ca­cio­nes apa­re­cie­ron en Twit­ter, un video porno fal­so con Rana tam­bién comen­zó a cir­cu­lar en línea. Inclu­so fue com­par­ti­do por la pági­na de fans de las redes socia­les del par­ti­do gober­nan­te. El telé­fono de Rana explo­tó con men­sa­jes pri­va­dos espe­luz­nan­tes y degra­dan­tes. Pero los ata­can­tes no se detu­vie­ron ahí. Su núme­ro de telé­fono per­so­nal se publi­có en línea. Y las per­so­nas que lo com­par­tie­ron ilus­tra­ron sus men­sa­jes con el porno deep­fa­ke. Rana reci­bió cien­tos de ame­na­zas de muer­te y vio­la­ción. Toda­vía no está cla­ro quién lan­zó ese video deep­fa­ke de Rana. Pero fun­cio­nó. Rana dejó de escri­bir; ella había sido silenciada. 

En Myan­mar, la mala infor­ma­ción y la des­in­for­ma­ción han mata­do a per­so­nas. En 2014, un mon­je budis­ta ultra­na­cio­na­lis­ta difun­dió una men­ti­ra de que el pro­pie­ta­rio musul­mán de una tien­da de té en un pue­blo lla­ma­do Man­da­lay había vio­la­do a una emplea­da budis­ta. En res­pues­ta, tur­bas enfu­re­ci­das irrum­pie­ron en Man­da­lay, des­tru­yen­do coches y saquean­do tiendas.

Los extre­mis­tas uti­li­za­ron Face­book para ampli­fi­car su men­sa­je de odio y pro­mo­ver ame­na­zas con­tra la pobla­ción musul­ma­na del país. Final­men­te, la ani­mo­si­dad alcan­zó un pun­to de ebu­lli­ción. En 2015, el esta­do de Rakhi­ne en Myan­mar ini­ció una cam­pa­ña a gran esca­la de lim­pie­za étni­ca con­tra el pue­blo musul­mán rohing­ya. Para cuan­do Face­book final­men­te comen­zó a prohi­bir a los extre­mis­tas en línea, 25.000 rohing­ya habían sido ase­si­na­dos y otros 700.000 habían hui­do del país.

¿Vives un ecosistema de información poco fiable? Test para saber si sufres Infocalipsis 6

Las deepfakes también estafarán a empresas e individuos

En 2016, un gru­po de esta­fa­do­res robó con éxi­to 50 millo­nes de euros de varios mag­na­tes y líde­res empre­sa­ria­les de todo el mun­do. Los cri­mi­na­les usa­ron per­so­nas fal­sas. Uno de ellos se hizo pasar por el minis­tro de Defen­sa fran­cés, Jean-Yves Le Drian. La tec­no­lo­gía era sor­pren­den­te­men­te sim­ple: una más­ca­ra de sili­co­na con la ima­gen de Le Drian. 

Un esta­fa­dor se puso la más­ca­ra y se sen­tó detrás de un escri­to­rio. Una ban­de­ra fran­ce­sa col­ga­ba al fon­do. Lue­go, él y sus com­pin­ches hicie­ron una serie de video­lla­ma­das a per­so­nas adi­ne­ra­das, pidién­do­les que finan­cia­ran misio­nes secre­tas del gobierno fran­cés. Una vez que sabías que era una esta­fa y te fija­bas más aten­ta­men­te, el esta­fa­dor se veía com­ple­ta­men­te ridícu­lo. La más­ca­ra era anor­mal­men­te páli­da y sus ojos pare­cían agu­je­ros negros. Aun así, la tra­ma tuvo éxi­to. Millo­nes de euros ter­mi­na­ron en las cuen­tas ban­ca­rias de los esta­fa­do­res. 

Aho­ra ima­gi­na cuán­to más podrían haber obte­ni­do los cri­mi­na­les si hubie­ran usa­do deep­fa­kes de cali­dad en su lugar.

Hoy en día, el frau­de de audio es una de las téc­ni­cas más comu­nes que se uti­li­zan para robar infor­ma­ción per­so­nal. Los deep­fa­kes solo empeo­ra­rán las cosas. En mar­zo de 2019, el Wall Street Jour­nal infor­mó que los esta­fa­do­res defrau­da­ron a una empre­sa ener­gé­ti­ca bri­tá­ni­ca por 250.000 euros. ¿Su téc­ni­ca? Audio deep­fa­ke que imi­ta­ba la voz del direc­tor eje­cu­ti­vo de la empresa. 

El direc­tor eje­cu­ti­vo había pro­nun­cia­do dece­nas de dis­cur­sos, todos dis­po­ni­bles en Inter­net. Todo lo que los esta­fa­do­res tenían que hacer era reco­pi­lar ese con­te­ni­do y usar­lo para entre­nar a la IA.

Los deep­fa­kes no solo son peli­gro­sos para las empre­sas, las per­so­nas tam­bién están en ries­go. Ya hemos vis­to cómo la por­no­gra­fía deep­fa­ke, por ejem­plo, se pue­de uti­li­zar para aco­sar, degra­dar y ame­na­zar. En algu­nos paí­ses, la mis­ma tec­no­lo­gía podría poten­cial­men­te cau­sar aún más daño. 

Final­men­te, los deep­fa­kes tam­bién per­mi­ten a los teó­ri­cos de la cons­pi­ra­ción. ¿Recuer­das Piz­za­ga­te? Esa extra­ña cons­pi­ra­ción afir­mó que una cama­ri­lla de pedó­fi­los de éli­te ope­ra­ba des­de el sótano de una piz­ze­ría en Washing­ton, DC. Curio­sa­men­te, el gru­po fic­ti­cio de pedó­fi­los supues­ta­men­te incluía a Hillary Clin­ton y Barack Oba­ma. Ima­gi­na la trans­cen­den­cia de la noti­cia si hubie­ran con­ta­do con un vídeo deep­fa­ke de alguno de ellos.

Desinformación sobre la pandemia de COVID-19

La pan­de­mia de COVID-19 ha pro­vo­ca­do con­mo­cio­nes en todo el mun­do. Ha cos­ta­do innu­me­ra­bles vidas, ha devas­ta­do eco­no­mías y ha trans­for­ma­do drás­ti­ca­men­te nues­tras ruti­nas dia­rias. Pero la enfer­me­dad no solo ha afec­ta­do a las per­so­nas. Tam­bién ha afec­ta­do a nues­tro eco­sis­te­ma de información.

Un país que ha esta­do explo­tan­do la pan­de­mia para difun­dir des­in­for­ma­ción es, lo adi­vi­nas­te, Rusia. Al igual que hizo con el sida y la “Ope­ra­ción Infek­tion”, Rusia tam­bién ha pro­mo­vi­do una cons­pi­ra­ción glo­bal sobre el nue­vo coronavirus. 

Pode­mos encon­trar dos teo­rías cir­cu­lan­do libre­men­te por inter­net. Que el COVID-19 fue crea­do por el gobierno de los Esta­dos Uni­dos como un arma bio­ló­gi­ca con­tra Chi­na. Y tam­bién, que el virus es en reali­dad un arma bio­ló­gi­ca chi­na. Sí, estas narra­ti­vas son exac­ta­men­te opues­tos entre sí. Pero Mos­cú los está uti­li­zan­do a pro­pó­si­to para explo­tar las cre­cien­tes ten­sio­nes polí­ti­cas entre Esta­dos Uni­dos y China.

Des­afor­tu­na­da­men­te, Rusia no es la úni­ca nación que está explo­tan­do la pan­de­mia de COVID-19. Chi­na tam­bién ha esta­do adop­tan­do tác­ti­cas de des­in­for­ma­ción al esti­lo ruso.

Al comien­zo de la pan­de­mia, Chi­na cen­su­ró cual­quier dis­cu­sión sobre la enfer­me­dad. Los médi­cos, los denun­cian­tes e inclu­so los ciu­da­da­nos comu­nes fue­ron silen­cia­dos. El Par­ti­do Comu­nis­ta Chino tam­bién cen­su­ró las pala­bras cla­ve rela­cio­na­das con los bro­tes en las redes socia­les. 

Una vez que la pan­de­mia lle­gó a otros paí­ses, Chi­na se cen­tró en el con­trol de daños. El pro­pó­si­to de Bei­jing era mejo­rar su ima­gen en el exte­rior. Infor­mes triun­fan­tes pero tre­men­da­men­te exa­ge­ra­dos des­cri­bían lo bien que esta­ba mane­jan­do el país la cri­sis. El gobierno tam­bién inten­tó negar que el virus se hubie­ra ori­gi­na­do en China.

Mien­tras tan­to, en Esta­dos Uni­dos, Trump esta­ba difun­dien­do des­in­for­ma­ción sobre la pan­de­mia a su mane­ra. En febre­ro de 2020, alre­de­dor del comien­zo de la pan­de­mia, Trump mini­mi­zó el ries­go del virus. Acu­só a los demó­cra­tas de poli­ti­zar la enfer­me­dad. Este era, dijo, el “nue­vo enga­ño” de sus opo­nen­tes: un inten­to de difa­mar su nombre.

Pero a media­dos de mar­zo, la can­ti­dad de casos de coro­na­vi­rus en los EE.UU. Había alcan­za­do los 10.000 y la eco­no­mía se esta­ba hun­dien­do en una rece­sión. El 17 de mar­zo, Trump dio un giro de 180 gra­dos. Con­tra­di­jo todo lo que había esta­do dicien­do antes y se jac­tó: “Sen­tí que esto era una pan­de­mia mucho antes de que se lla­ma­ra pandemia”. 

A lo lar­go de la cri­sis, Trump ha difun­di­do infor­ma­ción erró­nea en sus con­fe­ren­cias de pren­sa. En una pan­de­mia, la infor­ma­ción pre­ci­sa es esen­cial. La mala infor­ma­ción y la des­in­for­ma­ción pue­den lite­ral­men­te cos­tar vidas. Pero ¿cómo encon­trar la ver­dad? Cuan­do hay tan­tas narra­ti­vas con­flic­ti­vas por ahí, pue­de ser muy difí­cil de decir. 

¿Vives un ecosistema de información poco fiable? Test para saber si sufres Infocalipsis 7

La lucha contra el Infocalipsis implicará un enfoque reactivo y proactivo

Está cla­ro que el Info­ca­lip­sis pre­sen­ta un peli­gro inmi­nen­te para las socie­da­des de todo el mun­do. Pero, ¿qué pode­mos hacer cada uno de noso­tros para com­ba­tir­lo? Bueno, pode­mos empe­zar reco­no­cien­do cuán gra­ve es el pro­ble­ma. Ya ha dado un pri­mer paso al leer este artícu­lo aun­que ya sabes, si quie­res infor­ma­ción más orga­ni­za­da y de cali­dad, pue­des acce­der a los retos for­ma­ti­vos de diseñosocial.com (que ade­más, podrás leer sin la moles­ta publicidad).

Para luchar con­tra las ame­na­zas que plan­tean los deep­fa­kes y el Info­ca­lip­sis, tene­mos que ir más allá, mucho más. Nece­si­ta­mos encon­trar un len­gua­je común y acor­dar la ter­mi­no­lo­gía. La bue­na noti­cia es que la socie­dad en su con­jun­to al menos se está fami­lia­ri­zan­do con los tér­mi­nos “fake news”, “pos­ver­dad”, “des­in­for­ma­ción” y “deep­fa­kes” . ” 

Cuan­do los deep­fa­kes se con­vier­tan en algo común, será más impor­tan­te que nun­ca apo­yar el perio­dis­mo creí­ble. Y los ser­vi­cios de veri­fi­ca­ción de datos serán cru­cia­les. En los Esta­dos Uni­dos, estos inclu­yen Poli­ti­fact, Sno­pes y AP Fact Check. En Euro­pa, están Full­fact, Reality Check de la BBC y Agen­ce Fran­ce Pres­se Fact Check. La orga­ni­za­ción Maldita.es ha crea­do un sitio espe­cí­fi­co –en este enla­ce– para orde­nar y expli­car la infor­ma­ción que van gene­ran­do sobre el coro­na­vi­rus y DESMENTIR BULOS. Es impor­tan­te que cual­quier posi­ble des­in­for­ma­ción que nos lle­gue a nues­tro telé­fono móvil sea veri­fi­ca­do antes de com­par­tir­lo con nues­tros ami­gos y seres que­ri­dos. En este enla­ce pode­mos encon­trar un bus­ca­dor de bulos.

Tam­bién exis­ten herra­mien­tas sen­ci­llas basa­das en compu­tado­ras por­tá­ti­les que pue­den pro­te­ger­lo de la des­in­for­ma­ción y el error. News­Guard, por ejem­plo, es un com­ple­men­to de nave­ga­dor que le indi­ca si un sitio web es confiable. 

Si quie­res estar pre­pa­ra­do para la ava­lan­cha de deep­fa­kes, debes apren­der a reco­no­cer el con­te­ni­do fal­so. Pue­de comen­zar explo­ran­do lo que ya está dis­po­ni­ble. Por ejem­plo, visi­ta el sitio web thispersondoesnotexist.com. Uti­li­za IA para gene­rar ros­tros huma­nos que en reali­dad no exis­ten. Es asom­bro­sa­men­te difí­cil saber que son fal­sos, pero esto es a lo que nos enfren­ta­mos en el Infocalipsis.

Por lo tan­to, ya pue­de hacer bas­tan­te para ase­gu­rar­te de que la infor­ma­ción que con­su­me sea ver­da­de­ra. Pero sim­ple­men­te defen­der­se del Info­caly­pse no es sufi­cien­te. Tam­bién debe­mos com­ba­tir­lo de for­ma proac­ti­va. Afor­tu­na­da­men­te, algu­nos paí­ses ya han gana­do bata­llas con­tra los ciber­ata­ques y la gue­rra de información.

Tome­mos como ejem­plo a Esto­nia, un peque­ño esta­do ex sovié­ti­co en el Bál­ti­co. En 2007, Rusia lle­vó a cabo una serie de ata­ques ciber­né­ti­cos con­tra el gobierno, los medios de comu­ni­ca­ción y la infra­es­truc­tu­ra ban­ca­ria de Estonia. 

En lugar de ceder ante este ata­que, Esto­nia adop­tó un enfo­que proac­ti­vo. Pri­me­ro lan­zó un sis­te­ma de aler­ta tem­pra­na, que aler­ta­ba a los ciu­da­da­nos sobre los ata­ques de des­in­for­ma­ción rusos. A con­ti­nua­ción, reu­nió a un gru­po de volun­ta­rios, exper­tos en TI y comu­ni­ca­cio­nes. Ayu­da­ron a las per­so­nas a pre­pa­rar­se para los ciber­ata­ques y a res­pon­der a ellos. Y final­men­te, el país cons­tru­yó sis­te­mas de ciber­de­fen­sa robus­tos y de múl­ti­ples niveles.

Depen­de de noso­tros deci­dir si que­re­mos o no vivir en un mun­do don­de lo real y lo fal­so están irre­me­dia­ble­men­te entre­la­za­dos. Si no lo hace­mos, enton­ces debe­mos tra­ba­jar jun­tos para defen­der­se de la ame­na­za de los deep­fa­kes y el Infocalpyse.

¿Vives un ecosistema de información poco fiable? Test para saber si sufres Infocalipsis 8

Mere­ce ser compartido:

Filed Under: Pensamiento Crítico

¿TENEMOS LO QUE BUSCAS? ¡PRUEBA!

Footer

¿Tenemos lo que estás buscando?

RECOMENDADO

Muchas de las mara­vi­llo­sas ilus­tra­cio­nes que encon­tra­rás en muhi­mu per­te­ne­cen a la ins­pi­ra­do­ra web de info­gra­fis­tas PICTOLINE.COM

Si ade­más de estas emo­cio­nan­tes his­to­rias quie­res seguir apren­dien­do, apues­ta por la for­ma­ción onli­ne de cali­dad y dis­fru­ta de un mes gra­tis de los cur­sos de PLATZI con este códi­go pro­mo­cio­nal de descuento.

NO OLVIDES COMPARTIR

Publi­ca­mos noti­cias de refle­xión que hacen de este mun­do un lugar mejor pero TE NECESITAMOS.

¡Ayú­da­nos com­par­tien­do esta noti­cia entre tus ami­gos y tus redes sociales!

:::::::::::::::::::::::::

Con­tac­to para Publi­ci­dad y Promocionados:

Click para con­tac­to por email

INNOVACIÓN SOCIAL

Esta guía te hará reír, refle­xio­nar, cues­tio­nar, avan­zar, regre­sar, cre­cer, con­ta­giar… pero sobre todo, te hará sen­tir incó­mo­da. Te remo­ve­rá del asien­to. Si le das la opor­tu­ni­dad, se trans­for­ma­rá en una herra­mien­ta esen­cial de comu­ni­ca­ción efi­caz y transformadora:

Cur­so de Inno­va­ción Social

Desde aquí puedes acceder a juegos de apuestas.
Y recuerda: ¡juega con responsabilidad y solo si eres mayor de edad!

Copyright © 2022 · Genesis Sample on Genesis Framework · WordPress · Log in · María Hidalgo Rudilla & Diseño Social · Email: contacto[x]muhimu.es

  • LO MÁS COMPARTIDO
  • facebook
  • instagram
  • linkedin
  • | SUSCRIPCIÓN GRATUITA |