Facebook es una máquina de contenido tóxico: la conclusión de un reporte publicado por la empresa

Figurines are seen in front of the Facebook logo in this illustration taken March 20, 2018. REUTERS/Dado Ruvic

Facebook publica reporte sobre contenido tóxico en su propia plataforma

Desde hace años, Facebook se ha convertido en el medio de comunicación más importante del mundo. Acaso reflejando la priorización de los intereses económicos de su fundador y sus socios y la poca importancia que desde el principio se dio a la privacidad, la plataforma ha virado en los últimos años hacia una especie de arma para desestabilizar procesos democráticos, atacar grupos sociales, étnicos o religiosos y, por decirlo pronto, polarizar y enfrentar a la sociedad. Facebook siempre fue un experimento social. Primero se trataba de permitir que los jóvenes universitarios pudieran obtener información de chicas con las que querían salir. Luego se trató de ofrecer a todo tipo de marcas, corporaciones e incluso gobiernos acceso a poblaciones (targets) para influir en su conducta, ofreciendo una panoplia incomparable de datos sumamente sensibles. Anunciarse en Facebook era acceder al poder de manipular psicológicamente a las personas.

Al tiempo que se acerca una nueva elección en Estados Unidos y que se ha producido un momento histórico de desobediencia civil, y tomando en cuenta el papel protagónico de Facebook en la elección pasada, no es sorpresa que la red social esté bajo serio escrutinio. En respuesta a esto, Facebook ha dado a conocer un documento titulado Community Standards Enforcement Report en el que, entre otras cosas, expone los resultados del segundo cuatrimestre del año en relación a sus logros en la detección de contenido que viola los “estándares de la comunidad”. 

Facebook presume que, durante ese periodo, su capacidad de detectar el contenido violatorio tuvo un importante incremento. Facebook dio a conocer que, en el caso de los llamados “discursos de odio” (hate speeches, contenido que promueve el odio o la violencia racial, sexual o de otro tipo), su algoritmo fue capaz de identificar el 94.5% de los cerca de veintidós millones de artículos con incitaciones de odio que fueron detectados. Esto significa que un millón de dichas publicaciones fueron denunciadas por los usuarios y posteriormente evaluadas efectivamente como “discursos de odio”. 

Un millón de artículos incitando al odiopuede parecernos mucho o poco, pero es importante notar que esto es obviamente sólo una fracción de lo que realmente sucede en Facebook, pues evidentemente existe mucho contenido que no es reportado y que tampoco es detectado por su algoritmo. Además, Facebook no ofrece información sobre cuánto tiempo esos veintidós millones de artículos estuvieron circulando, ni cuántas veces fueron compartidos. Claramente la empresa podría dar una cifra de vistas de contenido tóxico, pero esta cifra sería de cientos o hasta miles de millones de vistas, lo cual no sería muy halagador ni muy positivo para su imagen.

La misma red social señala en su reporte: “debido a que priorizamos eliminar contenido dañino por encima de medir ciertos efectos durante este tiempo, no pudimos calcular la prevalencia de contenido violento y gráfico, desnudos de adultos y actividad sexual”. Y en otra parte, la empresa acepta que centrar su atención en las publicaciones de odio propició que tomaran menos acciones “en contra de contenido de suicidios, daño autoinfligido y desnudez infantil”, tanto en Facebook como en Instagram, además de que en Instagram parece que no hubo tiempo de revisar publicaciones de “explotación sexual”. Una extraña confesión, sin duda.

Como comenta Chris Gilliard, doctor y profesor experto en privacidad digital, esto es como si una empresa de alimentos nos dijera: “Pasamos mucho tiempo asegurándonos de que no hay excremento de ratas en su comida, pero no pudimos revisar si contiene metales punzocortantes”.

Es cierto que Facebook no tiene la culpa de que exista tanto odio en el mundo, o al menos no toda. La red social podría argumentar que ellos son simplemente un medio de conexión entre las personas y no generan el contenido violento o incluso ilegal. Pero hay que recordar la frase más importante en la historia del análisis de los medios de comunicación: el medio es el mensaje. La misma plataforma determina o al menos inclina el tipo de contenido que se puede generar y los modos en los que se consume. Es evidente, por ejemplo, que una persona no haría los mismos comentarios racistas, misóginos o francamente ignorantes y violentos si tuviera que decírselos a alguien en la calle –y no a través de una pantalla– o si, por otro lado, no pasara todo el tiempo consumiendo contenido inane, más o menos inflamatorio, en su newsfeed

Facebook se ha convertido en una máquina de difusión de contenido tóxico; más aún, desde el principio capitalizó este modo de consumir y producir información que es tóxico, no sólo porque cumpla o no con un estándar comunitario, sino porque afecta la manera en la que nos relacionamos con la información y con el conocimiento. O, mejor dicho, siendo uno de los principales actores que determinan que ya no nos relacionamos con el conocimiento, sino sólo con la información.

Fuente: Pijamasurf