¿Y si el Pang, Gran Hermano y nuestras ganas de molar en Twitter y Facebook escondiesen las claves de por las que nos estamos cargando la sociedad ideal que nos había prometido internet?

En el Pang (Mitchell/Capcom, 1989) los jugadores controlan a una pareja de exploradores que disparan a enormes burbujas de colores, haciéndolas cada vez más pequeñas hasta que se desintegran por completo.

Según la sinopsis del juego estas burbujas amenazan maravillas de la humanidad (el Taj Mahal, las pirámides de Egipto, etc) y nuestro objetivo es ir haciéndolas cada vez más pequeñas, aislarlas y acabar con ellas una a una. Las redes sociales se parecen cada vez más al Pang, pero nosotros no somos los jugadores. Estos podrían ser los lobbies, algunas facciones políticas, candidatos electorales, medios de comunicación, hackers, grupos terroristas o puro azar.
Nosotros somos las burbujas.

El filtro burbuja y los espacios seguros

En 2011 Eli Pariser publicó [amazon_textlink asin=’B01N6VIJ4S’ text=’El filtro burbuja‘ template=’ProductLink’ store=’rewisor-21′ marketplace=’ES’ link_id=’9bc07c30-9a00-11e7-aa85-c3db4a9e6889′], un libro sobre el poder de aislamiento social de los algoritmos de Facebook. En mayo de 2017, seis años más tarde, se publicó en español. En él Pariser narra cómo Facebook y Google ordenan los feeds gracias a unos algoritmos que analizan nuestro comportamiento para dar prioridad a unas noticias y quitársela a otras.

 

Por ejemplo, si tú eres de izquierdas y lees, likeas, comentas, buscas y/o compartes posts de izquierdas, los algoritmos entenderán que eso es lo que te mola y recibirás más posts como esos y menos de derechas, hasta que éstos prácticamente desaparezcan de tu vista. Si eres de derechas, lo mismo pero al revés. Si por el contrario te flipa #MyHyV o las carreras de drones pero no te importa la política, es probable que ni te enteres de lo que pasa más allá de Telecinco y los campos de vuelo.

Tu entorno digital reproduce un mundo a medida de tus opiniones, creencias y gustos en el que la diversidad no existe excepto como antagonista.

En el siglo XXI internet ha reemplazado a los kioscos (lo siento mucho, kiosqueros) y parte del problema es que los editores tradicionales, esas personas que se encargan de administrar la información en base a su relevancia, han sido reemplazados por algoritmos. Estos últimos no responden a un código ético o deontológico: simplemente te enseñan lo que te gusta ver y te dicen lo que te gusta oír. A simple vista el mundo (o su reflejo digital) se convierte un lugar ideal en el que todos están de acuerdo contigo, tus opiniones son mayoritarias y el resto de la humanidad comparte tus mismos gustos y disgustos.

El problema es que la realidad es muy diferente pero está, literalmente, escondida donde no la puedes ver.

El post-filtro: nosotros

Como tantas otras cosas, el libro de Pariser llegó tarde a nuestro idioma. Para cuando lo tradujeron Facebook llevaba años intentando solucionar el problema de su algoritmo con penas y glorias por igual.

En 2013, cuatro largos años antes de que El filtro burbuja llegue en español a las estanterías de España y Latinoamérica, Adam Mosseri entró en Facebook con la misión de enriquecer y mejorar la calidad de nuestros feeds.

Adam Mosseri en TechCrunch Disrupt
Fuente: TechCrunch

 

Combinando los datos con la experiencia de cientos de personas a las que Facebook pagaba por ir día tras día a sus oficinas de Menlo Park, el equipo de Mosseri buscaba entender mejor qué es lo que interesaba y lo que no a los usuarios. Descubrieron algunas cosas nuevas y confirmaron sospechas. Empezaron a valorar el tiempo que alguien pasaba leyendo una noticia, sin importar si la likeaba o no, y si el like llegaba antes o después de leer la noticia. ¿Eres de esos que comparten y likean el titular sin leer la noticia? Pues que sepas que ¡Facebook lo sabe!

La combinación de los datos recogidos con el feedback de las personas que acudían a Facebook junto a las encuestas realizadas en la propia red social ayudaron a reducir ese filtro burbuja provocado por su algoritmo. Lo que probablamente no esperaban era encontrarse con un filtro más impredecible, incontrolable e inteligente: el filtro humano.

El laberinto brillante o “el Gran Hermano Colegui”

Ken Hollings, escritor, locutor y especialista en teoría cultural, usó el término “laberinto brillante” como título para su libro sobre “sexo, muerte y diseño en el régimen digital.” Según Hollings vivimos en un régimen digital cuyo punto fuerte reside en que no parece una dictadura pero es virtualmente imposible no pertenecer a ella.

En este laberinto no entras por obligación sino por voluntad propia, entramos en él porque fuera estaríamos solos. “¿Cómo no vas a tener Facebook/Instagram/Twitter/móvil?”
Una vez dentro descubrimos que estamos es un reflejo de nosotros mismos y nos gusta tanto que, ¿para qué vamos a salir de él?

Es como si el Gran Hermano de Orwell se hubiese casado con la bruja de Hansel y Gretel y entre los dos hubiesen dado con la clave. En lugar de flagelarnos para que le obedezcamos, nos infla a caramelos para que no les queramos dejar nunca. Vivimos rodeados de una representación ideal de nosotros mismos y lo que pensamos, fortaleciendo la idea hasta convertirla en realidad.

Para vivir acorde a ese ideal negamos la entrada a todo lo que la amenaza o la pone en duda. La representación de esto son los espacios seguros o safe spaces. Pero no te los voy a explicar yo, que lo haga Cartman:

Zasca, unfollow y block: la mecánica del filtro humano

Mantener tus redes sociales libres de bullies, haters, machistas y racistas es natural, pero hay una línea muy fina entre hacer eso y aislarte de cualquier pensamiento u opinión que contradiga las tuyas. Cuando haces eso, tu aislamiento no es culpa del algoritmo sino tuya.

Analicemos el comportamiento en un hilo de Twitter en 3 pasos.

1 – Inicio:
Alguien hace un comentario sobre algo que le gusta, le disgusta, le inspira o le molesta. A veces surge de la necesidad de exponer un problema, o una injusticia real. Otras se trata tan solo de levantar polémica por llamar la atención. Construir otra pared en el propio laberinto que refleje lo que somos para que otros lo vean esperando que les guste para validar nuestra opinión.

2 – El O.Z. u ‘original zasca’

Cuando surgen las reacciones, da igual el post original, siempre habrá alguien que responda agresivamente. A esa persona no le basta con exponer un punto de vista diferente, necesita hacerlo humillando a quien se dirige. Se genera una discusión de patio de colegio en la que no importa responder con hechos sino con un ingenio humillante para que el resto se rían de la persona objetivo. No quiere conversar ni solucionar un problema, quiere quedar bien ante los demás dejando en mal lugar al otro. Quiere sacar brillo al laberinto.

3 – Ronda de zascas

Una vez uno ha soltado la primera mano todo son bofetones. Vienen más zascas en respuesta al Original Zasca y así hasta que nadie quiere conversar. El problema es que no se busca un consenso, se buscan likes y RTs. Es como una batalla de gallos pero sin rimas en las que lo importante es “destrozar el argumento contrario.”

Estos son los ingredientes de un aislamiento en el que no participa otro algoritmo que el humano. ¿Cuándo te has puesto del lado de alguien que te haya insultado nada más empezar la conversación? Yo soy un hombre heterosexual, aparentemente blanco y de clase media. Es normal que tenga comportamientos racistas, machistas y clasistas involuntarios. Si tú correspondes a esa descripción te ocurrirá lo mismo y ambos deberíamos comprometernos a cambiarlos. Eso es un hecho. Pero si cada vez que alguien se equivoca le das una hostia en la mano no esperes que te devuelva una sonrisa comprensiva. Lo más probable es que te la quiera devolver más fuerte.

La máquina imperfecta

El futurista alemán Gerd Leonhard ha dedicado los últimos años de su vida a anticipar la revolución digital y prepararse para ella. Su opinión sobre la inteligencia artificial y el ciborguismo es que debemos usar la tecnología, pero no convertirnos en ella. Las máquinas son perfectas, no conocen las mentiras piadosas y si cometen un error no vuelven a hacerlo jamás. Sus algoritmos las hacen funcionar así. Nosotros no y eso es lo que nos define como humanos. Él atribuye ese conjunto de comportamientos humanos a nuestros androrritmos, una palabra acuñada por él.

Fuente: Gerd Leonhard

En las redes sociales da la impresión de que la gente es perfecta. Como si todos hubieran nacido sabiéndolo todo, con un conocimiento y una comprensión absoluta del mundo. Los hechos no pueden ser más diferentes. No somos así, al contrario. Aprendemos cometiendo errores, pero si no somos capaces de perdonar esos errores o los castigamos con extrema dureza, perdemos la oportunidad de dialogar.

Cuando bloqueas a alguien de tu feed solo por decir algo con lo que no estás de acuerdo estás perdiendo diversidad de opinión y, lo que es peor, estás quitándosela también a la persona con la que idealmente deberías ponerte de acuerdo en el futuro. Porque la sociedad ideal no es una dividida por fronteras ideológicas sino una en la que todos tengamos derecho a expresarnos a pesar de no estar de acuerdo. Si perdemos el derecho a equivocarnos perderemos la oportunidad de aprender y si le negamos a otros el derecho a equivocarse les estaremos negando su libertad de expresión. Otra cosa muy diferente es la reiteración de una ofensa. Eso no es cometer un error, es ser un capullo.

El Gran Hermano Global

Volvamos al Pang. Al dividirse en dos, las burbujas no siguen adelante como si nada; con cada disparo siguen fraccionándose hasta disolverse.
Con nosotros pasa lo mismo.

La izquierda se pelea entre ella por ser más de izquierdas que el resto; algunas mujeres atacan a otras por no ser lo suficientemente feministas y algunos latinos señalan a otros por no ser lo suficientemente latinos. Aunque parezca que no, en la derecha pasa lo mismo solo que en menor medida. De la manera más contraintuitiva que hubiésemos podido imaginar, cuanto más interconectados estamos más tendemos a separarnos.

Los que probamos internet en sus orígenes pensamos que uniría el mundo y nos acercaría a los que están más lejos. Ahora parece que estamos más polarizados que nunca y lo peor es que nadie nos está llevando a ello, lo hacemos nosotros mismos.

En La aldea global, el sociólogo canadiense (y persona de referencia para Rewisor) Marshall McLuhan predijo las consecuencias de una sociedad constantemente informada y comunicada. Con la revolución tecnológica el mundo se ha visto reducido a un pequeño pueblo. En él asumimos como cierta información que nos llega del vecino (un “vecino” que puede estar a miles de kilómetros o cientos de años de distancia) sin valorar que es una información sesgada y rescatada de sus propias fuentes de información, que no tienen por qué se fiables.

La aldea global actual se parece más a la casa de Gran Hermano que a un pueblo. Somos un puñado de individuos forzados a compartir un espacio que se ha hecho pequeño y no queremos aceptar otras normas de convivencia que no sean las nuestras. Hacemos grupos más pequeños para defendernos y defender nuestras ideas y esos grupos se dividen en grupos más pequeños aún, en cuanto algunos miembros dejan de pensar como el resto. Vivimos constantemente vigilados por una audiencia que valora cada cosa que hacemos, cada respuesta que damos y nuestro valor social no depende de nuestros actos sino del valor que tengamos para la audiencia. El carácter, el carisma, y no los actos, determinan la calidad humana. El estrés por ser capaz de aguantar esa presión determina quien gana y quien pierde y lo único que vale es tu capacidad para ser una celebrity. Esa es la medida de la victoria.

Gran Hermano dura una cuantas semanas y la casa de Guadalix es un decorado que se cierra y se abre por temporadas. El mundo no funciona igual. Aquí tenemos que vivir hasta que el sol estalle o un loco tire la bomba. Si no nos aceptamos como somos, si no toleramos e incluimos a gente con opiniones y puntos de vista diferentes a los nuestros, no solo estamos condenados a no entendernos; corremos el riesgo de empezar a odiarnos. Por ese camino, el grupo más grande tendrá poder sobre el pequeño y solo su odio motivará sus decisiones. Nada impediría que ese grupo coloque a su loco en el poder y entonces no habrá nada que impida a ese loco pulsar el botón.
Para cuando el sol estalle solo existirá el eco de micro-grupos de gente echándose la culpa los unos a los otros.

¿Cómo lidiar con ello?

La revista Forbes publicó una lista de hacks para evitar los filtros. Por un lado recomienda acomodarse al desacuerdo. Es complicado a veces, sobre todo cuando hay gente que parece no querer escuchar, pero también sirve para ver hasta qué punto, a veces, nosotros somos los cabezotas.

Es importante también enriquecer tus opiniones con opiniones lejanas y diversas de gente que puede tener un punto de vista más cercano o al contrario, con más distancia. Discutir el racismo sin incluir en la conversación a una minoría, el feminismo con una mujer o el uso del velo islámico sin una musulmana no creo que dé muchos frutos y solo reforzará ideas preconcebidas.

La clave está en darse cuenta de que no todas las personas que piensan diferente nos odian por hacerlo, ni debemos despreciar sus opiniones por no ver lo que nosotros vemos. Si conseguimos relajarnos, escucharnos y respetarnos puede que superemos esta etapa sin matarnos los unos a los otros.