Instagram ha asegurado hoy en un nuevo comunicado que la plataforma pondrá en marcha su filtro de cara a evitar que contenido relacionado con el suicidio o las autolesiones se publique en su plataforma. Han asegurado que la propia red social no se toma a la ligera los problemas que pueden llegar a estar vinculados con la salud mental, el suicidio y las autolesiones y por ese mismo motivo, comenzarán a implementar en la Unión Europea también su tecnología que rastrea este tipo de contenido autolesivo, al igual que ya lo hace en otros lugares del mundo de forma constante y proactiva.
Busca y encuentra
Esta nueva tecnología de búsqueda de contenido, incluye una serie de filtros con los que detecta las fotografías relacionadas con una serie de temas específicos para posteriormente proceder a eliminarlas. Funciona de forma que rastrea y elimina contenidos de forma proactiva en el momento en el que se relacionen con el suicidio y otros métodos de autolesión. Al ser detectados, estos contenidos son emitidos a un grupo de revisores, los cuales toman la decisión sobre cuál es el procedimiento a seguir tras su detección, el cual depende del contenido encontrado y puede suponer la eliminación del mismo, el contacto con asociaciones de ayuda e incluso avisar a los servicios de emergencia en casos extremos.
Entre los meses de abril y junio de este 2020, la compañía ahora parte de Facebook, pudo actuar sobre el 90% de los contenidos detectados en total por este filtro sin que nadie denunciara dicho contenido personalmente. A pesar de ello, el objetivo de Instagram es lograr que este porcentaje aumente hasta el 100%. Dado lo que suponen estas cifras, se ha decidido trasladar la efectividad de este sistema a la Unión Europea, lugar en el que se pondrá en marcha tanto en Instagram cómo en Facebook y permitirá a la comunidad reducir la visibilidad general de dicho contenido en apartados cómo ‘Explora’, además de eliminarlos si quebrantan las políticas de cualquiera de las dos plataformas.
Revisión humana
El paso final de este tipo de contenidos reside en los propios seres humanos, quienes deciden si dicho contenido es realmente perjudicial o no; por ese motivo se envían las publicaciones detectadas a los revisores para que puedan tomar la decisión final sobre qué se debe hacer. Al no existir por el momento este sistema en la Unión Europea, este trabajo resultaba poco eficiente y mucho más complicado, sin embargo, actualmente ya se está hablando con reguladores y gobiernos sobre la mejor forma de traer esta tecnología a la región, por lo que próximamente se atenderá a las consideraciones de privacidad y se pondrá en marcha este sistema de prevención.