En una frase sencilla pero elocuente, E. O. Wilson resume cuál es el verdadero problema de la humanidad: “tenemos emociones paleolíticas, instituciones medievales y tecnología divina”.

Aunque ya sabemos que es normal (y engañoso) pensar que cualquier tiempo pasado fue mejor, también es cierto que vivimos tiempos… raros. Según datos de Statista pasamos más de 3 horas y media diarias mirando nuestros móviles y una cuarta parte de nuestra vida en entornos sociales artificiales (redes sociales, foros, etc).

Depresión, polarización y rabia

Un estudio publicado en el NCBI muestra que de 1991 a 2013, cuando nacieron las redes sociales, el índice de depresión en mujeres jóvenes norteamericanas subió de un 17% a un 21%. Desde entonces a 2017 ha alcanzado el 29%.

Charmaine de Heij, de la colección ‘Faux Zeitgeist’

Cada vez sentimos que el mundo está más polarizado; hay más discusiones y menos conversaciones, y todo esto se puso de manifiesto cuando en 2016 vimos cómo el referendum del Brexit y las elecciones americanas fueron manipuladas por agentes externos (ejem, Rusia).

Pero, ¿cómo hemos llegado a esto? Tristan Harris y el Center for Humane Design tienen la respuesta y ahora están trabajando para ayudar a todos a encontrar soluciones.

La degradación de la humanidad

Todo se podría reducir a un elemento común: la superación de la capacidad humana para gestionar la tecnología. Una externalidad del mercado de la atención que, en palabras de Harris, está degradando a la humanidad.

Desde hace aproximadamente 60 años la conversación sobre el impacto tecnológico ha estado protagonizada por el momento en el que las máquinas superen las capacidades humanas, algo que no sabemos cuándo ocurrirá. Sin embargo pocos se preocupan por un fenómeno más urgente: ¿qué pasaría si la tecnología superase las vulnerabilidades humanas?
Bueno, pues ya ha pasado.

Los humanos seguimos utilizando mecanismos paleolíticos para tomar decisiones, relacionarnos y lidiar con nuestros sentimiento y percepciones. Tristan Harris descubrió esto de niño, cuando empezó a practicar magia e ilusionismo. Esto le llevó a investigar sobre mitos, sectas, economía del comportamiento y, por último, tecnología persuasiva, en lo que se formó en Stanford.

Fue así como descubrió que casi todos, niños y adultos, escépticos o no, compartimos las mismas debilidades y puntos ciegos que nos hacen vulnerables, no solo para predecir nuestros comportamiento sino para manipularlo y que Silicon Valley había encontrado la manera ideal de lucrarse aprovechándose de este descubrimiento.

¿Cómo hemos llegado aquí y cómo retomamos el control?

Como diría Broncano: Pero ¡¿qué ha pachao?! Lo teníamos todo; un mundo conectado, creación de comunidades a escala global, inteligencias artificiales atentas y serviciales, una economía boyante y tecnología del futuro, sin embargo se utilizó como nunca se debió usar.

Tristan Harris lo resume en estos 3 apartados: sistemas sociales artificiales; inteligencias artificiales abrumadoras e incentivos extractivos.

Las personas pasamos más tiempo que nunca delante de pantallas que supuestamente nos conectan con personas pero nunca nos hemos sentido tan solas. La vanidad es premiada mediante breves interacciones con nuestras aplicaciones y dispositivos, sintiéndonos obligados a dar una imagen irreal de nosotros mismos.

La crispación social y las diferencias políticas no habían sido tan graves en años y es difícil participar en conversaciones en entornos digitales sin ser víctimas de insultos, troleos y/o amenazas de muerte.

Eso ha disparado los índices de depresión, sensación de aislamiento y soledad. En el CHT proponen crear sistemas sociales más humanos.

¿Qué pasaría si en lugar de notificaciones sobre el último post de una celebrity tu móvil te recordase un mensaje de ánimo enviado por alguien que te quiere en un momento malo? Puede sonar a vivir en una taza de Mr. Wonderful pero para gente que está realmente deprimida o pasando por un mal momento algo así puede marcar la diferencia entre un paso hacia la recuperación o el bajón.

Las inteligencias artificiales que nos rodean juegan un papel clave en esto. ¿Alguna vez has sentido que tu móvil te espiaba? ¿Has hablado de algo con alguien y te ha saltado un anuncio relacionado en la pantalla? No te rayes, nadie te espía, aparte de la app de La Liga claro… Pero la razón por la que no lo hacen es porque no lo necesitan. Ya hay un clon tuyo en su base de datos.

Tienes un muñeco voodoo digital en YouTube

Cada vez que pinchas en un vídeo, comentas, das un like o tan solo con mover el ratón, tu comportamiento es monitorizado. Los patrones de tu conducta en línea se comparan y analizan hasta crear un archivo de comportamientos que forman un alter ego digital.

Cuando YouTube quiere saber si ese vídeo te gustará, captará tu atención o te ofenderá, solo tiene que hacer que tu replica digital lo vea y, según su reacción, tú lo verás o no. No es ciencia ficción, es big data, inteligencia artificial y economía del comportamiento aplicada en favor de la economía de la atención.

Esas inteligencias artificiales incansables que trabajan para la economía extractiva de la atención y la publicidad son co-responsables de nuestro malestar generacional. De ahí la necesidad de hacer IAs más humanas y cambiar los incentivos de extractivos a regenerativos.

IAs y sistemas sociales humanos, incentivos regenerativos

Ok, tenemos la solución, pero ahora viene la pregunta del millón, nunca mejor dicho: ¿es rentable? ¿Cuál es el modelo de negocio de crear un mundo ideal? ¿Lo hay siquiera?

Es difícil combatir contra un modelo que lo da todo gratis a cambio de datos y lealtad. Pero como dice Tristan Harris, “tenemos aislamiento social gratuito, disminución de la atención gratuita, mayor inestabilidad social gratuita, (…) gratis es el modelo de negocio más caro que hayamos creado jamás.”

Las compañías están en el momento ideal para hacerse cargo del problema y empezar a competir por hacer realmente mejor la vida de sus usuarios. Si Tinder decide ayudar a sus usuarios a tener una vida en pareja mejor, en lugar de crearles la necesidad de seguir buscando citas compulsivamente, o si Twitter nos hiciera sentir mejor realmente, no enfadarnos y polarizarnos más, seguro que conseguiría más lealtad, y probablemente sea menos rabiosa.

Las palabras más recomendadas por YouTube en Estados Unidos son “desmontar, destrozar, aprende (en su expresión coloquial y peyorativa de ‘get schooled‘), o sea, cultura del ‘zasca’ en estado puro. Si en lugar de ese tipo de recomendaciones lo algoritmos nos ayudasen a encontrar información apaciguadora, veraz y valiosa, el entorno digital y por tanto nuestra calidad de vida mejoraría.

Es la hora del diseño ético

Es una palabra que usamos a menudo y forma parte de nuestras tendencias para 2019.Jef Raskin, creador del Macintosh dijo que un “interfaz es humano si atiende a las necesidades humanas y es respetuoso con sus fragilidades.” La mayoría de los que usamos a día de hoy se aprovechan de las últimas para convencernos de que son lo primero.

El CHT propone una hoja de ruta para analizar la ética de un producto y, en caso de necesitarla, cómo alcanzarla, haciéndose las preguntas adecuadas y tomando las decisiones necesarias.

La singularidad, la siguiente revolución industrial y otros escenarios de futuro están por llegar. La superación de nuestras fragilidades ya ha llegado. Si queremos actuar, el momento es ahora.