Como sucede con
todos estos términos nuevos sobre los peligros o novedades de Internet que se
ponen de moda, en el mejor de los casos se termina metiendo mucha cosa distinta
en la misma bolsa (p.ej. cyberbulling)
y, en el peor, se dan por sentadas cosas que carecen de evidencia científica o
que ya han sido refutadas por la amplia mayoría de la academia (p.ej. nativos
digitales).
Algo similar
sucede con esto de las “fake news”, o su mucho menos sensual pero adecuado
nombre en castellano: “noticias falsas”. Dado que el tema es muy amplio, a modo
de acotar el alcance del artículo, no voy a discutir la creación del contenido
falso sino su difusión/sharing.
En la presente
nota intentaré argumentar por qué creo que el enfoque con el que se aborda esta
temática es problemático. Más específicamente, porqué concebir a esto como un
fenómeno único y “novedoso”, así como verlo como un “ataque de los fascistas”
(o capitalistas, comunistas, o el “istas” del enemigo que uno prefiera) y
responsabilidad de “bots” y algoritmos termina por incrementar su potencial
daño.
Antes que nada,
porque ha sido la primera reacción que despierta en general este argumento,
quiero aclarar lo siguiente: no estoy negando aquí el peligro o potencial daño de
“las fake news”, ni tampoco que Internet y las redes sociales amplifican la
problemática. Pero, como intentaré argumentar, creo que para reducir su daño la
clave se encuentra en identificar bien qué es lo que hay dentro de esta bolsa, así
como en diferenciar el papel que juegan las tecnologías digitales del que
jugamos los seres humanos.
Separando la paja del trigo… del maíz y de la
avena
En primer lugar,
es fundamental aclarar algo: las noticias falsas son tan antiguas como las
noticias mismas. En su “historia
violenta de las fake news” J. Soll nos recuerda a los libelos de sangre
como los poco simpáticos antecesores de las noticias falsas actuales, y nos
señala que las noticias “objetivas” son un invento relativamente nuevo en la
historia del hombre (siglo XX, y permítanme dudar un poco de su objetividad).
Es más, la propaganda política es aún anterior, y ni los faraones dejaban
dibujitos de sus derrotas ni Julio Cesar fue un narrador objetivo en su Commentarii
de Bello Gallico.
En segundo lugar,
es importante diferenciar entre la calidad o tipo de contenido compartido y la
finalidad de quien lo comparte. Si bien existen diversos marcos conceptuales y
modelos teóricos para abordar el tema (por ej. ver reporte de la Comisión
Europea sobre “Information
Disorder”), voy a intentar enfocar la temática de la manera más
general y con los términos más coloquiales posibles.
A grandes rasgos
y sin ánimos de exhaustividad, el tipo de noticias que se catalogan dentro de
la idea de “noticias falsas” [1]
involucra una deficiencia en la calidad del contenido que puede referir tanto
a: contenidos de tipo sátira o parodia mal identificados como tal (p.ej. ver el
maravilloso caso de la defensa
de Warner en el FIFA-gate), contenidos falsos (que proponen
información empíricamente incorrecta o errónea), contenidos de conclusiones engañosas (donde
hay una ausencia de conexión lógica entre lo que se propone y la información
que lo sustenta), contenido de contexto falso (contenidos veraces acompañados
de datos de contexto falsos o incorrectos).
Por otro lado, es
relevante considerar la intencionalidad del emisor o repetidor del link o
noticia: si se difunde creyendo en la veracidad del contenido, o si se difunde conociendo
deliberadamente la existencia de información falsa o de baja calidad.
Es cierto que el
segundo escenario es problemático y “jodido” pero, como describí hace un par de
párrafos tampoco es nuevo. Las campañas políticas de desinformación no las
inventó Trump ni Bolsonaro. ¿Acaso en 1933 o en 1973 teníamos políticos más
honestos y mejor calidad de información que en 2018? Permítanme dudarlo.
Lo novedoso del compartir contenido falso en forma
intencional en las redes
No obstante,
existe suficiente evidencia que determinados actores han utilizado en forma
ilegal –o pseudo legal- información personal disponible en redes sociales para
individualizar (tailorizar) mensajes personalizados a través de campañas de
micro-marketing político (ver caso
Cambdrigde Analytica y su vínculo con Steve Bannon).
Desde un punto de
vista lógico el micro-marketing y las fake news no deberían ser tratados como
uno solo: pueden encontrarse combinados
como por su cuenta[2]. Que Bannon haya abusado de un sistema con una
enorme falencia en sus controles no hace al centro del asunto de las noticias
falsas, sino a lo endeble del sistema de controles puesto en práctica por
Facebook. El uso de noticias falsas en estas campañas es otra cuestión.
Sin embargo, a mi
entender resulta mucho más problemático el caso donde el usuario comparte o
difunde contenido falso creyendo que el contenido del mismo es veraz. Este
usuario no sólo contribuye a la expansión de las acciones de los Bannon del mundo,
sino que tiende a quejarse de las “fake news”…pero sólo cuando vienen del bando
contrario.
Quienes viven en redes de cristal no deberían
andar tirando piedras
El imaginario
popular de estos días asume que el problema de las fake news radica en un
escaso número de escasos personajes poderosos que utilizan la desinformación
para controlar el destino de usuarios que, sin poder ni responsabilidad alguna,
solo comparten información veraz. El problema es que unos honestos creen que
esos “poderosos” son los fascistas de derecha, mientras que los otros honestos
culpan a los comunistas de izquierda. Nadie asume su responsabilidad en el
fenómeno.
Nótese que en
ningún momento hablé de la idea de emisión “involuntaria” de contenido falso,
pues no evaluar la veracidad de la información que uno comparte no lo exime a
uno de las consecuencias de sus actos. Tal como expresé en una nota
anterior en este blog, considero que existe un nivel de
responsabilidad individual (o epistémica) sobre
difundir información sin chequear su veracidad.
A modo de
ejemplo, lejos de la visión apocalíptica de que los seguidores de Bolsonaro
están inundando las redes sociales brasileras de noticias falsas, algunos estudios
recientes señalan que las responsabilidades son más compartidas de
lo que parecen (aunque con ciertas diferencias en el estilo de compartir
contenido chatarra).
Sin embargo, y
siendo esto lo central, es que las noticias falsas se difunden más lejos, más
rápido, con mayor profundidad y más diversamente que las noticias veraces,
según comprobó un estudio bastante potente sobre noticias falsas en Twitter entre
2006 y 2017 publicado por Vosoughi,
Roy y Aral (2018) en Science.
Utilizando fact-checkers externos y cerca de 126 mil “historias” tweeteadas por
cerca de 3 millones de usuarios, más de 4.5 millones de veces, estos autores
encontraron que las noticias falsas tenían un 70% más de probabilidad de ser
retwiteadas que las noticias verdaderas.
Aún más
problemático para la democracia es el hecho de que este fenómeno parece ser más
pronunciado para las noticias políticas en comparación a las referidas a
terrorismo, desastres naturales, leyendas urbanas, entre otras. Vosoughi et al.
(2018) reconocen el impacto de Internet y las redes sociales en estos
fenómenos, en su rol de facilitar la difusión rápida de información y la
generación de “fenómenos de cascada” de información. Tanto para contenidos
verídicos como falsos, estos fenómenos de cascada afectan la escala y velocidad
de los fenómenos.
Sin embargo, otro
de los hallazgos más relevantes de este estudio es que, contrariamente a lo que
se asume, son los humanos -y no los bots o robots- los que ayudan a inclinar la
balanza hacia las noticias falsas: los robots difunden en igual proporción
contenidos falsos y veraces, los humanos tienen un sesgo claro hacia los primeros.
¿Por qué nos inclinamos hacia las noticias falsas?
Algunas
explicaciones sobre esta predominancia de las noticias falsas pueden referir al
sesgo hacia la novedad (propuesto como explicación por Vosoughi et al.), la
tendencia innata/sesgo humano a interactuar más con contenido
“moral”/moralizante y cómo los algoritmos de las redes sociales refuerzan esa
tendencia o, mi explicación preferida para el 99% de estos
fenómenos: esa tendencia humana al razonamiento motivado y preferir casi que
por defecto la información que confirma nuestros presupuestos. El sesgo de
confirmación o confirmation bias ha mostrado tener una muy mala correlación con
los tests de inteligencia y habilidades cognitivas (Stanovich,
West y Toplak, 2013), otro factor a tener bastante en cuenta: ni
creérselo ni “ser inteligentes” nos protege mucho. Para ponerlo en criollo,
como me dijo un estudiante durante una clase de metodología para no
investigadores: “Es mucho más fácil ver el slogan del de enfrente que el tuyo”.
Se vienen las elecciones acá: ¿Hay algo para
hacer?
¿Qué se puede
hacer para evitar caer en este fenómeno, más allá de apuntar el dedo hacia
Facebook, Twitter y Google? Primero es que sí, estas grandes corporaciones
tienen un peso y responsabilidades enormes y deben ejecutar más medidas de las
que toman actualmente para evitar desastres (p.ej. ver ejemplo de Facebook
y Birmania)[3].
Sin embargo,
volviendo sobre eso de los slogans de los otros, p.ej., Bakshy,
Messing y Adamic, 2015 señalan que en lo que hace a la exposición a
contenido ideológicamente diversos, las elecciones individuales pesan más que
los rankeos de contenido de los algoritmos de sitios como Facebook.
En este sentido,
un camino un poco más tedioso y complejo que pegarle a las máquinas es generar
las alfabetizaciones y competencias mediáticas, estadísticas e informacionales
necesarias para evaluar la veracidad de los contenidos en la web.
Quizás algo más
básico pero costo-eficiente, sería universalizar una serie de prácticas de chequeo
muy básicas que permitirían cortar la viralización o cascada de las noticias
falsas: chequear las fechas de la noticia, la reputación del o los/las autores,
el tipo de lenguaje o lo tajante/audaz de sus afirmaciones o claims, la calidad
del contenido audiovisual y sus fuentes, usar fact-checkers especializados
(p.ej. UYChek o La Diaria
Verifica), por nombras algunos.
Varios investigadores
han avanzado en estas recomendaciones para niños y adolescentes (p.ej. J.
Orlando para Australia, B. Sorj y
otro en Brasil) así como algunas propuestas de trabajo específico
sobre la temática en estas poblaciones (p.ej. el SHEG
en USA). Sin embargo, quizás debamos pensar en transformar estas
guías en campañas o estrategias más masivas enfocadas a toda la población.
Y, sobre todo,
dejar de hacer creer que las fake news son un tema de seguidores de Trump
/Bolsonaro, y empezar a ver que vienen de todos lados: muchísimas veces de
nosotros mismos cuando compartimos cosas sin siquiera dudar de la veracidad de
los contenidos porque nos caen simpáticos ideológicamente.
[1] Varias de las categorías utilizadas son parte de la clasificación
elaborada por C. Wardle en Fake News: it´s
complicated
[2] Aquí no me meteré en los problemas éticos
asociados al micromarketing, ni tampoco a las situaciones donde se ha violación
de la privacidad de los usuarios.
[3] Pero ojo con lo que pedimos, que nos lo pueden dar: Facebook
se encuentra diseñando algoritmos –opacos- que evalúan la credibilidad de los
usuarios en una escala del 0 al 1 (pequeño capítulo de Black Mirror,
no?).
Tomado de Razones y Personas. Esta obra está bajo una Licencia Creative Commons Atribución 3.0 No portada.