Hace poco más de 6 meses, esta y otras plataformas implementaron la función Sensitivity Screens, un plan de censura de imágenes y vídeos que representaran y promovieran la autolesión. Ahora, lo que al principio iban a ser vídeos e imágenes se ha extendido a ilustraciones, dibujos animados y memes.

Ian Russell, padre de Molly, una adolescente que con 14 años se suicidó, acusó directamente a la falta de regulación de plataformas como Instagram vinculándola abiertamente con el suicidio de su hija que, gracias a la propagación de contenido dañino, permitió que Molly entrara en una cámara de eco de hashtags, vídeos, imágenes y grupos que fomentaban la autolesión y la vinculaban con el suicidio.

Actualmente, conocemos bien como funcionan los algoritmos. Cuanto más ves algo los algoritmos más te recomendarán contenido relacionado con ello, poniéndonos en bandeja entrar en una espiral de contenido relacionado con, por ejemplo, nuestros mayores miedos, nuestras debilidades o, en otros casos, nuestros gustos.

Adam Mosseri, jefe de Instagram, atento a casos como el de Molly y en un intento por revertir este tipo de situaciones, ha decidido expandir esta censura a ilustraciones y memes.

A principios de año, Instagram invirtió en nuevas tecnologías capaces de eliminar más del doble de contenido: hasta un 77% de contenido dañino antes de ni siquiera ser denunciado.

“Queremos llevar esto a Europa, pero existen importantes consideraciones legales según la legislación de la UE, por lo que estamos trabajando con nuestro regulador europeo”, dice Adam Mosseri.

Uno de los principales problemas con los que la plataforma se ha encontrado es que, por un lado, censurar todo tipo de ilustraciones, dibujos, fotos o vídeos incluyen a las personas o grupos que intentan ayudar y difundir información sobre la salud mental para, precisamente, ayudar a aquellas personas que sufren ese tipo de problemas son eliminadas de inmediato.

En otras ocasiones, hay personas que utilizan las redes para compartir lo que les pasa y las usan como medio para buscar ayuda o para tratar de ayudar a otras personas.

Como otros muchos, se trata de un tema complejo. ¿Hasta qué punto es lo mejor censurar este tipo de contenidos que pueden dañar o en ocasiones ayudar a personas?, ¿son las redes sociales el lugar donde compartir los problemas?, ¿son los algoritmos los culpables de que hayamos llegado a esta situación o somos las personas que no hemos entendido cómo y para qué usamos internet?, ¿es la falta de regulación y responsabilidades lo que nos ha llevado hasta aquí?

El debate está servido.