En 2014 la guerra es algo ajeno a
nuestro país. Afortunadamente Uruguay no ha visto un conflicto armado en
decenas de años y para muchos de nosotros –sobre todo los nacidos luego de
1984- no existen recuerdos personales sobre odios, muertes y violencias
cotidianas. Algo que tampoco es cercano, es que fuera del campo de batalla
tiende a suceder otro extraño fenómeno –una suerte de segunda guerra, las
guerras de por sí son extrañas- donde los propios parecen tener toda la
razón, mientras que el enemigo miente siempre: si uno está de un lado
tiende a ver sólo propaganda del otro, eso si uno tiene la suerte de
poder en acceder a esa información. Allí no mueren personas ni se mutilan seres
humanos, pero se destruye igualmente toda chance de paz y encontrar algún punto
en común.
Llevándolo hacia aspectos un poco
más cotidianos -y menos trágicos- muchos uruguayos miramos extrañadísimos como
en la Argentina las polarizaciones llevan a que la política se viva como un
partido de fútbol (más específicamente en la Ámsterdam, dentro de la barra
brava) y nos sorprendemos cuando al ver noticias de medios oficialistas
pareceríamos tener al mejor país del mundo enfrente, mientras que si son de
oposición podríamos creer que Corea del Sur no tuvo tan mala suerte en la
lotería global de vecinos.
Pero, descontando falsas nociones
de superioridad moral a las que no escapamos, sería necesario preguntarnos si
los uruguayos estamos tan alejados de este tipo de situaciones como creemos;
¿Cuán sesgadas están las noticias y opiniones a las que accedemos? ¿Tomamos en
cuenta realmente los argumentos de quienes piensan distintos a nosotros para
formar/ampliar nuestras perspectivas?
La conspiración de los medios
de comunicación…de uno mismo
En Marzo de 2011, Eli Praiser -un conocido activista de Internet- terminó de popularizar un término para describir lo que -a su parecer- se constituía como uno de los mayores e inadvertidos peligros vinculados al uso masivo de Internet: los filter bubbles o las burbujas de filtros. Este extraño concepto es bastante simple pero complejo al mismo tiempo y se encuentra detrás de prácticamente todo lo que hacemos en el Internet de hoy.
La idea central tras las burbujas de filtros es que gran parte de las webs en las que navegamos utilizan algoritmos para adivinar/seleccionar por nosotros qué tipo de información es la que preferiríamos ver o buscar. Simplemente basta con conocer algunos datos básicos sobre quiénes somos (edad, sexo, lugar de residencia) o tener algunos inputs sobre nuestras conductas (en qué cliqueamos “me gusta”, a las notas de quiénes entramos más) y el algoritmo logra predecir nuestras preferencias con asombrosa eficiencia.
En primera instancia, esto no tendría porqué ser negativo. Dadas las enormes cantidades de información a las que podemos acceder hoy, Google (por ejemplo) nos “ayuda” en la gestión de la misma, aprendiendo de nuestros propios hábitos para priorizar los resultados que cree estaríamos buscando. Sin embargo, el lado “oscuro” de estos métodos es que nos dirigen siempre hacia la información que nos agrada y/o es similar a lo que ya conocemos/creemos, creando verdaderas burbujas de conocimiento o percepción que -sin saberlo nosotros- nos presentan una versión personalizada pero sesgada de la información disponible. En otros términos, su búsqueda en Google es diferente a mí búsqueda en Google y su feed de Facebook es diferente a mi feed de Facebook, aunque utilicemos los mismos términos o tengamos los mismos amigos.
Eli Praiser sintetiza en muy pocas palabras cómo funciona este mecanismo de balcanización de la principal fuente de información para muchos, durante su charla de TedEx[1]: “Facebook estaba observando en qué links yo cliqueaba, y comenzó a notar que estaba haciendo clic en mayor medida en los links de mis amigos liberales que en los de los conservadores. Y sin consultarme sobre ello, Facebook decidió editarlos (quitarlos). Ellos desaparecieron.”
¿Qué implicancia tiene este
sesgo de confirmación en la vida cotidiana? A diferencia de lo que puede
suceder en un juzgado, donde el abogado defensor debe seleccionar adrede las
evidencias más favorecedoras a su defendido y el fiscal hacer prácticamente lo
contrario; o en una campaña política donde oficialismo y oposición entran en un
juego similar; la particularidad del sesgo confirmatorio refiere a una
tendencia no consciente del ser humano a seleccionar y acumular evidencia a
favor del caso o idea de su interés (Nickerson 1998:175). En palabras de
Nickerson (1975), es un sesgo involuntario en la selección de información sobre
un problema o asunto, que se incrementa cuanto mayor sea nuestro interés o
afecto sobre el mismo. Poniéndolo en términos del trabajo científico, es
descartar inconscientemente la evidencia que pueda refutar mi hipótesis de interés.
Este sesgo afecta el tipo de cadena de noticias que uno selecciona[4], los diarios que uno lee y quizás hasta el círculo de personas con las que uno tiende a discutir temas “sensibles”. Más allá de los mentirosos o algunos pocos que conscientemente manipulan sus fuentes para arribar a las conclusiones que más le agradan o convienen a su posición (similar a los persuaders en términos de Downs[5]), la mayoría de nosotros tendemos a hacer esto en forma inconsciente. Basta con leer las tapas de dos de los diarios de mayor circulación nacional (El País y La República) ante sucesos complejos como la imputabilidad, la legalización del aborto, el “asunto PLUNA” o el caso de presión/corrupción en ASSE[6] para notar que los lectores de cada uno de estos diarios tendrán una visión muy distinta de lo que sucedió aún sin quererlo (quizás no tan distinta como los lectores de La Nación y Perfil en Argentina, pero muy distinta al fin).
Más allá del ahorro en términos de recursos cognitivos (me evito tener que analizar uno a uno los temas a los que me enfrento o pensar cuáles asuntos o perspectivas son más relevantes/válidas; algo muy similar a lo planteado por Downs -1957:141- sobre el rol de la ideología) y sus consecuencias sobre las posibilidades de alcanzar versiones más imparciales de los asuntos sobre los que uno se informa, a mi parecer el mayor problema del sesgo de confirmación y las burbujas de filtros es que tienden a polarizar las opiniones y alejar toda posibilidad de diálogo entre visiones contrapuestas. Un fantástico pero terrible ejemplo de ello es el ya mencionado estudio de Gilad Lotan sobre el conflicto palestino-israelí, la guerra en las redes sociales y el arte de la propaganda personalizada.
Sin negar la relevancia de pararse y defender las creencias y convicciones propias, enfrentarse a información e ideas contrapuestas a las de uno (donde al menos algunas de ellas podrían llegar a ser -al menos- razonables), habilita la posibilidad de comprender mejor las preocupaciones y narrativas del otro, o aunque fuere, mejorar las argumentaciones de las ideas propias. Aunque pareciese menor, esto habilita a acercar a las dos partes a preocupaciones comunes o, al menos, comunicarse en un lenguaje similar; dejando así de lanzar tanto acusaciones y gritos al vacío como lugares comunes que solo ganan aplausos o logran convencer a los ya convencidos.
No hay porque ir hasta Medio Oriente…quizás temas tan delicados como la inseguridad, la baja en la edad de imputabilidad, el aborto y hasta las políticas públicas sobre la historia reciente, ameriten un mínimo intento de diálogo entre las 2, 3 u 8 partes en el asunto, para mínimamente intentar comprender todas las narrativas, no solo las de uno. Esto no quiere decir que haya que aceptar las opiniones de todos (en ciertos temas). [7]
A modo de cierre, un pequeño tip: en relación a las burbujas de información, Internet tiene una importante ventaja sobre el resto de la vida cotidiana. A diferencia del sesgo de confirmación o la ideología en el sentido de Downs, el filtro digital se puede “apagar”; basta con utilizar el modo incognito existente en la mayoría de los navegadores modernos.
PD: Si alguno quiere ir aún más
allá, es sencillo visualizar el impacto de estos filtros/burbujas: los invito a
realizar el ejercicio que propone Gilad Lotan en su artículo las
redes sociales y el arte de la propaganda personalizada. Desafortunadamente
Facebook ni Twitter ofrecen el servicio de Trends en Uruguay, pero el
funcionamiento de estas redes sociales es el mismo aquí que en el resto del
mundo por lo que el ejercicio es más que pertinente.
Referencias
Lotan, G. (2014) “Israel, Gaza, War & Data: social
networks and the art of personalizing propaganda”. Link disponible en: https://medium.com/i-data/israel-gaza-war-data-a54969aeb23e?_ga=1.18924414.778033838.1407211945
Praiser, E. (2011) “Beware online ‘filter bubbles’”. Link disponible en: http://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?quote=927
Nickerson, R. S. (1998). Confirmation bias: A
ubiquitous phenomenon in many guises. Review of general psychology, 2(2), 175.
Link disponible en: http://psy2.ucsd.edu/~mckenzie/nickersonConfirmationBias.pdf
IYENGAR, Shanto; HAHN, Kyu S. Red media, blue media:
Evidence of ideological selectivity in media use. Journal of Communication,
2009, vol. 59, no 1, p. 19-39.
Downs, A. (1957). An economic theory of political action in a democracy. The Journal of Political Economy,
135-150. Link disponible en: http://www.hec.unil.ch/ocadot/ECOPOdocs/cadot2.pdf
[1] Beware online "filter bubbles” http://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?quote=927
[2] Nickerson
(1998:176) sostiene que ideas similares a este fenómeno se remontan hasta al
menos 1924.
[3] Por
un mayor desarrollo de la temática dirigirse a Nickerson, R. S. (1998).
[4]
IYENGAR et.al. (2009). Estos autores
demuestran que la demanda de cadenas de noticias es afectada por la percepción
de la afinidad política o ideológica de las mismas (p.ej. en Estados Unidos los
liberales prefieren CNN y los conservadores Fox News.
[5] Downs, A. (1957). An economic theory of political action in a democracy. The Journal of Political Economy,
135-150. Link en: http://www.hec.unil.ch/ocadot/ECOPOdocs/cadot2.pdf
[6] Se
puede realizar una versión digital pero muy similar de este ejercicio buscando
la misma palabra clave en Google pero dentro de los sitios de cada periódico. P.ej.
https://www.google.com.uy/#q=pluna+site:http://www.lr21.com.uy/&safe=off&tbs=qdr:w
y https://www.google.com.uy/#q=pluna+site:http://www.elpais.com.uy/&safe=off&tbm=nws&tbs=qdr:w
[7] La
discusión de Patrick Strokes - IFL Science, sobre el problema de tomar todas
las opiniones como válidas -y su efecto sobre cuestiones como la vacunación y
salud pública- es excelente. En sus propias palabras, “no hay que confundir que
tu visión no sea tomada en serio con que no se te permita expresarla”
http://www.iflscience.com/brain/no-youre-not-entitled-your-opinion