#MILGlobalUnderstanding

#RethinkingHumanHorizon

Actualidad En profundidad

El discurso del odio pone en la mira a las redes sociales, ¿pueden estas plataformas sobrevivir a los bulos y el encono?

Gerd Altmann en Pixabay
Hate speech en redes sociales Imagen de Gerd Altmann en Pixabay

El “Coronavirus” y “Black Lives Matter” (BLM), anglicismo que define al movimiento de origen estadounidense “Las Vidas Negras importan”, son los dos fenómenos que marcaron la vida de la humanidad en este 2020. Ambos tienen una estrecha relación con otras dos corrientes que circulan a la par por las redes sociales: La infodemia y el discurso del odio.

Tan es así que la ola de contenidos falsos y los que vienen cargados de emociones negativas e insultos son esos otros virus que dejaron de ser una simple alergia en el ciberespacio, para convertirse en las enfermedades que contaminan a las plataformas de medios sociales y la vida en sociedad. Al extremo que ya dejaron de ser asunto exclusivo de unas cuantas organizaciones de derechos civiles, sino que le ha explotado en la cara al mismo Mark Zuckerberg y sus pares.

El problema se ha tornado tan nocivo como evidente en la actualidad, que ahora son las grandes corporaciones, clientes VIP de las redes sociales, las que -según anunciaron sus voceros a fines de junio- retiraron temporalmente y/o amenazaron con un retiro definitivo de su inversión publicitaria en Facebook y Twitter debido al nulo control de parte de estas plataformas del creciente discurso del odio y la desinformación circulando en estas redes.

La iniciativa nace como respuesta a la campaña “Alto al odio por las ganancias” (o #StopHateforProfit en inglés),  organizada por grupos de derechos civiles, de origen estadounidense, como La Liga Antidifamación. Estas organizaciones acusan a Facebook de obtener ganancias millonarias, permitiendo la incitación a la violencia en su plataforma contra activistas del BLM, el discurso del odio contra otros grupos, o los negacionistas de sucesos como el Holocausto.

Tales cuestionamientos no son nuevos, puesto que además de estas entidades, desde hace un tiempo, figuras del mundo académico y otras del espectro mediático, como el humorista Sacha Baron Cohen, ironizaron sobre la actitud comercial que la compañía de Zuckerberg hubiera tenido con la propaganda nazi, si hubiera existido en la década 1930.

Mas, bajo el contexto del BLM, el racismo y la ola de la desinformación (o las mal llamadas “fake news”), compañías como Coca-Cola, Ford, Adidas, Hersheys Co. y Verizon Communications, respondieron positivamente al llamado #StopHateforProfit de parar durante julio la contratación publicitaria en Facebook e Instagram; y en algunos casos, Twitter. Por su parte, firmas como Unilever anunciaron que no invertirán en estas redes sociales durante todo el 2020, o incluso The North Face afirmó que parará su inversión en las mismas plataformas hasta que nuevo aviso.

Aunque tales compañías detuvieron sus inversiones publicitarias en las referidas plataformas de medios sociales dentro de Estados Unidos, varias de ellas manifestaron que replicarían la iniciativa en otras latitudes. En la actualidad, se han sumado a nivel global más de 500 compañías -entre medianas y grandes- a esta iniciativa.

El impacto y las reacciones de las redes sociales

Pero eso, ¿cuánto significa en términos de pérdida económica para Facebook o Twitter? Hasta fines de junio, esta acción de reclamo corporativo significó una caída del valor de las acciones bursátiles de Facebook en 8.3% y de Twitter en 7.4%. Aunque esto significa una pérdida millonaria para ambas firmas, el impacto es más fuerte en términos reputacionales que económicos.

Por ejemplo, Facebook, que sufre una caída mayor, recibe anualmente más de 70 mil millones de dólares en concepto publicitario; por lo que el retiro de sus principales anunciantes solo le ha significado 7.2 mil millones de dólares menos para la firma dirigida por Mark Zuckerberg, según Bloomberg.

Los portavoces de la compañía del muro azul han anunciado su preocupación por combatir la desinformación y el discurso del odio a nivel de sus plataformas, a través de distintas medidas de control, implementadas a partir de presiones y crisis coyunturales, como el escándalo de Cambridge Analytics y posteriores eventos.

Entre las principales acciones tomadas por Facebook destacan la asociación con una red de más de 60 organizaciones de Fact-Checking o verificación de contenidos falsos a nivel mundial, alianzas con grupos de derechos civiles y veedurías de medios como la Global Alliance for Responsible Media (GARM), además de otros expertos en el tema, a fin de ser más eficientes en el control de la desinformación y el discurso del odio.

Asimismo, la compañía ha implementado soluciones tecnológicas como el uso de ventanas emergentes (pop-up) o etiquetas para identificar contenidos falsos. Los principales efectos positivos se han visto en el control de los bulos durante el Covid-19, logrando reducir la visibilidad de algunos bulos, eliminando los que son dañino para la salud, y mostrando mensajes en el feed de noticias a quienes reaccionaron a estos contenidos alertándolos de su falsedad.

En cuanto a su política de control del discurso del odio o “hate speech”, Facebook anunció en mayo que estaba probando el uso de la inteligencia artificial para detectar en forma más eficaz memes u otros tipos de contenidos visuales que inciten a la violencia.

De igual forma, a fines de junio, Zuckerberg anunció en su cuenta de Facebook que introducirían controles como ampliar la categoría de contenidos restringidos por sembrar discordia hacia aquellos que alienten la descalificación o discriminación hacia “una raza específica, etnia, origen nacional, afiliación religiosa, casta, orientación sexual, identidad de género o estatus migratorio”; además de que anunció una medida similar a la de Twitter que es la de etiquetar, no prohibir, por ejemplo, los discursos políticos, que puedan violas sus protocolos de publicación, por ser de interés público; sin embargo, irán acompañados con una etiqueta que indique dicho contenido puede infringir las políticas de esta compañía.

Three weeks ago, I committed to reviewing our policies ahead of the 2020 elections. That work is ongoing, but today I…

Publiée par Mark Zuckerberg sur Vendredi 26 juin 2020
Anuncio de Mark Zuckerberg en su cuenta de Facebook

Tales anuncios contradicen la postura del mismo Zuckerberg, quien previamente ha defendido la libertad de expresión dentro de su plataforma; además de que a inicios de este mes se filtró un artículo de The Information, en donde el ejecutivo señaló a sus empleados que las políticas de su empresa respecto al control del discurso del odio no cambiarán, a pesar del boicot contra su marca, confiándose en que la mayor parte de sus ingresos provienen de empresas pequeñas y que tarde o temprano los anunciantes volverán, dado que se trata de un tema reputacional.

Por su parte, hace dos años Twitter anunció que controlaría el discurso del odio, las noticias falsas y teorías conspiratorias. A fines del año pasado, esta plataforma, anunció que prohibiría mundialmente propaganda electoral que tome posición sobre cuestiones como la inmigración, la atención médica, la seguridad nacional o el cambio climático; y en marzo de este año,ese control se incrementó con la medida que prohibía la circulación de mensajes que deshumanicen por edad, religión, discapacidad o enfermedad.

Sin embargo, el control de estas medidas pasa por procesos, como “modo lectura” hasta que el usuario elimine el contenido y si este comportamiento es reiterativo se elimina la cuenta. En el caso de amenazas violentas la plataforma suspende o elimina la cuenta.

La polémica, una fórmula del éxito de las redes sociales

Si bien las plataformas de redes sociales han pasado de no hacer nada a tomar algunas medidas para combatir la desinformación y el discurso del odio, lo cierto es que han sido insuficientes. En especial, en el caso del discurso del odio.

Por ejemplo, aunque los contenidos que Facebook etiquete tengan anuncios claros indicando que incumplen con sus políticas de publicación al incurrir en el “hate speech”, lo cierto es que los algoritmos son diseñados para mantener los contenidos relevantes o más comentados en la página de inicio y casi siempre, el odio es lo que más se viraliza.

En el caso de Twitter, su principal fortaleza: la brevedad de sus caracteres, es su debilidad. Puesto que, en base a un estudio realizado por la Universitat Oberta de Catalunya, de la mano de los profesores y expertos en ciencias de la información, Ferran Lalueza y Silvia Martínez, la limitación del número de caracteres hace que esta red social impulse una simplificación o tendencia al maniqueísmo, excluyendo los matices en un tema, lo que conduce a la polarización y enfrentamientos radicalizados.

Según el estudio realizado en el 2019 por Binny Mathew y su grupo de investigación a fin de medir la difusión del discurso del odio en las redes sociales las noticias difundidas por los usuarios denominados haters tienden a extenderse más rápido, más lejos y llegar a un lugar más amplio en comparación con las publicaciones de los usuarios normales. De igual forma, el experto en análisis del discurso del odio José María Perceval declaró para AIKA Educación que una noticia negativa es capaz de retuitearse 70% más veces que una positiva y el contenido de odio es, sin duda, negativo.

Por su parte, en una el crítico en tecnología Tristan Harris señaló en una entrevista que le realizaron en el portal Vox.com, que las plataformas de redes sociales están diseñadas para tomar más tiempo de los usuarios, porque su modelo de negocio publicitario y su cotización bursátil se sostienen en base a esto, y lo que genera más clics es la indignación, por lo que lo ponen en la parte superior.

Si de esto se trata el negocio, las soluciones que aplican las firmas de redes sociales para combatir el discurso del odio siempre les significarán un profundo dolor de muela; en ese caso, ¿serán siempre las más eficaces o priorizarán medidas cosméticas?