¿Los de afuera son de palo? Conflictos, Internet y las burbujas de confort ideológicas

Desde hace varias semanas que me toca vivir de cerca uno de los conflictos armados que despertaron más sentimientos de indignación e impotencia en el mundo de los que yo recuerdo: la última escalada de violencia entre Hamás y el Estado de Israel. Este artículo no tiene que ver con este conflicto en sí, con ninguno de los bandos, ni los muertos ni las violaciones a los derechos humanos en ambas poblaciones civiles. Surge por otra arista del conflicto, a partir de una enorme preocupación personal por la polarización de las opiniones (en este caso de pro-israelíes y pro-palestinos) y en base a un excelente artículo sobre las redes sociales y el arte de la propaganda personalizada. El asunto es que, aún sin conflicto armado o redes sociales de por medio, los uruguayos -como la amplia mayoría de los seres humanos- tendemos a caer involuntariamente en nuestra propia propaganda personalizada en temas de política, ética y cualquier otro asunto “sensible”. Esto no sólo empobrece el debate, sino también limita nuestro contacto con ideas y opiniones distintas a las nuestras, lo que -creo- empobrece el pensamiento y la discusión en la sociedad toda.

En 2014 la guerra es algo ajeno a nuestro país. Afortunadamente Uruguay no ha visto un conflicto armado en decenas de años y para muchos de nosotros –sobre todo los nacidos luego de 1984- no existen recuerdos personales sobre odios, muertes y violencias cotidianas. Algo que tampoco es cercano, es que fuera del campo de batalla tiende a suceder otro extraño fenómeno –una suerte de segunda guerra, las guerras de por sí son extrañas- donde los propios parecen tener toda la razón, mientras que el enemigo miente siempre: si uno está de un lado tiende a ver sólo propaganda del otro, eso si uno tiene la suerte de poder en acceder a esa información. Allí no mueren personas ni se mutilan seres humanos, pero se destruye igualmente toda chance de paz y encontrar algún punto en común.

Llevándolo hacia aspectos un poco más cotidianos -y menos trágicos- muchos uruguayos miramos extrañadísimos como en la Argentina las polarizaciones llevan a que la política se viva como un partido de fútbol (más específicamente en la Ámsterdam, dentro de la barra brava) y nos sorprendemos cuando al ver noticias de medios oficialistas pareceríamos tener al mejor país del mundo enfrente, mientras que si son de oposición podríamos creer que Corea del Sur no tuvo tan mala suerte en la lotería global de vecinos.

Pero, descontando falsas nociones de superioridad moral a las que no escapamos, sería necesario preguntarnos si los uruguayos estamos tan alejados de este tipo de situaciones como creemos; ¿Cuán sesgadas están las noticias y opiniones a las que accedemos? ¿Tomamos en cuenta realmente los argumentos de quienes piensan distintos a nosotros para formar/ampliar nuestras perspectivas?

La conspiración de los medios de comunicación…de uno mismo

En Marzo de 2011, Eli Praiser -un conocido activista de Internet- terminó de popularizar un término para describir lo que -a su parecer- se constituía como uno de los mayores e inadvertidos peligros vinculados al uso masivo de Internet: los filter bubbles o las burbujas de filtros. Este extraño concepto es bastante simple pero complejo al mismo tiempo y se encuentra detrás de prácticamente todo lo que hacemos en el Internet de hoy.

La idea central tras las burbujas de filtros es que gran parte de las webs en las que navegamos utilizan algoritmos para adivinar/seleccionar por nosotros qué tipo de información es la que preferiríamos ver o buscar. Simplemente basta con conocer algunos datos básicos sobre quiénes somos (edad, sexo, lugar de residencia) o tener algunos inputs sobre nuestras conductas (en qué cliqueamos “me gusta”, a las notas de quiénes entramos más) y el algoritmo logra predecir nuestras preferencias con asombrosa eficiencia.


En primera instancia, esto no tendría porqué ser negativo. Dadas las enormes cantidades de información a las que podemos acceder hoy, Google (por ejemplo) nos “ayuda” en la gestión de la misma, aprendiendo de nuestros propios hábitos para priorizar los resultados que cree estaríamos buscando. Sin embargo, el lado “oscuro” de estos métodos es que nos dirigen siempre hacia la información que nos agrada y/o es similar a lo que ya conocemos/creemos, creando verdaderas burbujas de conocimiento o percepción que -sin saberlo nosotros- nos presentan una versión personalizada pero sesgada de la información disponible. En otros términos, su búsqueda en Google es diferente a mí búsqueda en Google y su feed de Facebook es diferente a mi feed de Facebook, aunque utilicemos los mismos términos o tengamos los mismos amigos.

Eli Praiser sintetiza en muy pocas palabras cómo funciona este mecanismo de balcanización de la principal fuente de información para muchos, durante su charla de TedEx[1]: “Facebook estaba observando en qué links yo cliqueaba, y comenzó a notar que estaba haciendo clic en mayor medida en los links de mis amigos liberales que en los de los conservadores. Y sin consultarme sobre ello, Facebook decidió editarlos (quitarlos). Ellos desaparecieron.” Sin embargo, Praiser quizás se haya quedado un poco corto sobre el alcance de estas burbujas y haya puesto demasiada responsabilidad en los algoritmos de las compañías de Internet. Sucede que las burbujas de filtros no son un fenómeno estrictamente tecnológico, sino que el mundo digital parece tomar prestadas y replicar algunas herramientas del mundo no-virtual. Con muchísima anterioridad a la World Wide Web[2], psicólogos sociales habían ya encontrado un curioso sesgo cognitivo vinculado a cómo el ser humano moderno interpreta y selecciona la información que consume: el confirmation bias (o sesgo de confirmación)[3].

¿Qué implicancia tiene este sesgo de confirmación en la vida cotidiana? A diferencia de lo que puede suceder en un juzgado, donde el abogado defensor debe seleccionar adrede las evidencias más favorecedoras a su defendido y el fiscal hacer prácticamente lo contrario; o en una campaña política donde oficialismo y oposición entran en un juego similar; la particularidad del sesgo confirmatorio refiere a una tendencia no consciente del ser humano a seleccionar y acumular evidencia a favor del caso o idea de su interés (Nickerson 1998:175). En palabras de Nickerson (1975), es un sesgo involuntario en la selección de información sobre un problema o asunto, que se incrementa cuanto mayor sea nuestro interés o afecto sobre el mismo. Poniéndolo en términos del trabajo científico, es descartar inconscientemente la evidencia que pueda refutar mi hipótesis de interés.

Este sesgo afecta el tipo de cadena de noticias que uno selecciona[4], los diarios que uno lee y quizás hasta el círculo de personas con las que uno tiende a discutir temas “sensibles”. Más allá de los mentirosos o algunos pocos que conscientemente manipulan sus fuentes para arribar a las conclusiones que más le agradan o convienen a su posición (similar a los persuaders en términos de Downs[5]), la mayoría de nosotros tendemos a hacer esto en forma inconsciente. Basta con leer las tapas de dos de los diarios de mayor circulación nacional (El País y La República) ante sucesos complejos como la imputabilidad, la legalización del aborto, el “asunto PLUNA” o el caso de presión/corrupción en ASSE[6] para notar que los lectores de cada uno de estos diarios tendrán una visión muy distinta de lo que sucedió aún sin quererlo (quizás no tan distinta como los lectores de La Nación y Perfil en Argentina, pero muy distinta al fin).

Más allá del ahorro en términos de recursos cognitivos (me evito tener que analizar uno a uno los temas a los que me enfrento o pensar cuáles asuntos o perspectivas son más relevantes/válidas; algo muy similar a lo planteado por Downs -1957:141- sobre el rol de la ideología) y sus consecuencias sobre las posibilidades de alcanzar versiones más imparciales de los asuntos sobre los que uno se informa, a mi parecer el mayor problema del sesgo de confirmación y las burbujas de filtros es que tienden a polarizar las opiniones y alejar toda posibilidad de diálogo entre visiones contrapuestas. Un fantástico pero terrible ejemplo de ello es el ya mencionado estudio de Gilad Lotan sobre el conflicto palestino-israelí, la guerra en las redes sociales y el arte de la propaganda personalizada.

Sin negar la relevancia de pararse y defender las creencias y convicciones propias, enfrentarse a información e ideas contrapuestas a las de uno (donde al menos algunas de ellas podrían llegar a ser -al menos- razonables), habilita la posibilidad de comprender mejor las preocupaciones y narrativas del otro, o aunque fuere, mejorar las argumentaciones de las ideas propias. Aunque pareciese menor, esto habilita a acercar a las dos partes a preocupaciones comunes o, al menos, comunicarse en un lenguaje similar; dejando así de lanzar tanto acusaciones y gritos al vacío como lugares comunes que solo ganan aplausos o logran convencer a los ya convencidos.

No hay porque ir hasta Medio Oriente…quizás temas tan delicados como la inseguridad, la baja en la edad de imputabilidad, el aborto y hasta las políticas públicas sobre la historia reciente, ameriten un mínimo intento de diálogo entre las 2, 3 u 8 partes en el asunto, para mínimamente intentar comprender todas las narrativas, no solo las de uno. Esto no quiere decir que haya que aceptar las opiniones de todos (en ciertos temas). [7]

A modo de cierre, un pequeño tip: en relación a las burbujas de información, Internet tiene una importante ventaja sobre el resto de la vida cotidiana. A diferencia del sesgo de confirmación o la ideología en el sentido de Downs, el filtro digital se puede “apagar”; basta con utilizar el modo incognito existente en la mayoría de los navegadores modernos.

PD: Si alguno quiere ir aún más allá, es sencillo visualizar el impacto de estos filtros/burbujas: los invito a realizar el ejercicio que propone Gilad Lotan en su artículo las redes sociales y el arte de la propaganda personalizada. Desafortunadamente Facebook ni Twitter ofrecen el servicio de Trends en Uruguay, pero el funcionamiento de estas redes sociales es el mismo aquí que en el resto del mundo por lo que el ejercicio es más que pertinente.

Referencias
Lotan, G. (2014) “Israel, Gaza, War & Data: social networks and the art of personalizing propaganda”. Link disponible en: https://medium.com/i-data/israel-gaza-war-data-a54969aeb23e?_ga=1.18924414.778033838.1407211945
Praiser, E. (2011) “Beware online ‘filter bubbles’”. Link disponible en: http://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?quote=927
Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of general psychology, 2(2), 175. Link disponible en: http://psy2.ucsd.edu/~mckenzie/nickersonConfirmationBias.pdf
IYENGAR, Shanto; HAHN, Kyu S. Red media, blue media: Evidence of ideological selectivity in media use. Journal of Communication, 2009, vol. 59, no 1, p. 19-39.
Downs, A. (1957). An economic theory of political action in a democracy. The Journal of Political Economy, 135-150. Link disponible en: http://www.hec.unil.ch/ocadot/ECOPOdocs/cadot2.pdf



[1] Beware online "filter bubbles” http://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?quote=927
[2] Nickerson (1998:176) sostiene que ideas similares a este fenómeno se remontan hasta al menos 1924.
[3] Por un mayor desarrollo de la temática dirigirse a Nickerson, R. S. (1998).
[4] IYENGAR et.al. (2009).  Estos autores demuestran que la demanda de cadenas de noticias es afectada por la percepción de la afinidad política o ideológica de las mismas (p.ej. en Estados Unidos los liberales prefieren CNN y los conservadores Fox News.
[5] Downs, A. (1957). An economic theory of political action in a democracy. The Journal of Political Economy, 135-150. Link en: http://www.hec.unil.ch/ocadot/ECOPOdocs/cadot2.pdf
[6] Se puede realizar una versión digital pero muy similar de este ejercicio buscando la misma palabra clave en Google pero dentro de los sitios de cada periódico. P.ej. https://www.google.com.uy/#q=pluna+site:http://www.lr21.com.uy/&safe=off&tbs=qdr:w y https://www.google.com.uy/#q=pluna+site:http://www.elpais.com.uy/&safe=off&tbm=nws&tbs=qdr:w
[7] La discusión de Patrick Strokes - IFL Science, sobre el problema de tomar todas las opiniones como válidas -y su efecto sobre cuestiones como la vacunación y salud pública- es excelente. En sus propias palabras, “no hay que confundir que tu visión no sea tomada en serio con que no se te permita expresarla” http://www.iflscience.com/brain/no-youre-not-entitled-your-opinion

Armarse un trencito-robot para el examen: ¿cómo evaluar en clase ahora que Chat-GPT “puede hacer de todo"?

Por Pablo de los Campos y Matías Dodel Fuente: Captura de pantalla de los autores usando Chat-GPT En el a...