El miedo, más que el odio, alimenta el fanatismo en línea y la violencia en el mundo real

📷 Chuttersnap

ADAM G. KLEIN

Cuando un senador de EE. UU. Le preguntó al CEO de Facebook, Mark Zuckerberg, “¿Puede definir el discurso del odio? ”Fue sin duda la pregunta más importante que enfrentan las redes sociales: cómo identificar el extremismo dentro de sus comunidades.

Los crímenes de odio en el siglo XXI siguen un patrón familiar en el que una diatriba en línea se convierte en acciones violentas. Antes de abrir fuego en la sinagoga del Árbol de la Vida en Pittsburgh, el hombre armado acusado había expresado su voz en la red social de extrema derecha Gab sobre los migrantes hondureños que viajaban hacia la frontera de los EE. UU. Luego declaró: “ No puedo sentarme y ver cómo matan a mi gente. Al diablo tu óptica, voy a entrar ”. El patrón de los extremistas que descargan su intolerancia en línea ha sido una característica perturbadora de algunos crímenes de odio recientes . Pero la mayoría del odio en línea no es tan flagrante, o tan fácil de detectar.

ian-battaglia-783763-unsplash
📷 Ian Battaglia

Como encontré en mi estudio de 2017 sobre extremismo en redes sociales y blogs políticos , en lugar de fanatismo manifiesto, la mayoría del odio en línea se parece mucho al miedo. No se expresa en insultos raciales o convocatorias de confrontación, sino más bien en acusaciones infundadas de invasores hispanos que invaden el país, el crimen de negros sobre blancos o la ley Sharia que se infiltra en las ciudades estadounidenses. Los relatos histéricos como estos se han convertido en el vehículo preferido de los extremistas de hoy, y pueden ser más efectivos para provocar la violencia en el mundo real que los discursos de odio estereotipados.

La facilidad de propagación del miedo.

En Twitter, un meme popular que viaja recientemente muestra la ” Red de Terroristas Islámicos ” distribuida en un mapa de los Estados Unidos, mientras que una cuenta de Facebook llamada “America Under Attack” comparte un artículo con sus 17,000 seguidores sobre los “Hombres enojados y pandilleros”. ” Marchando hacia la frontera . Y en Gab , innumerables perfiles hablan de planes judíos para sabotear la cultura estadounidense, la soberanía y el presidente.

Si bien no son abiertamente antagónicas, estas notas son buenas para una audiencia que ha encontrado en las redes sociales un lugar donde pueden expresar abiertamente su intolerancia, siempre y cuando se coloreen dentro de las líneas. Pueden evitar la exposición que atrae el discurso de odio tradicional . Mientras que la reunión nacionalista blanca en Charlottesville era de alto perfil y reveladora, las redes sociales pueden ser anónimas y discretas, y por lo tanto liberadoras para los racistas no declarados. Eso presenta un gran desafío para plataformas como Facebook, Twitter y YouTube.

chuttersnap-413005-unsplash
📷 Chuttersnap

Luchando contra el odio

Por supuesto, esto no es solo un desafío para las empresas de medios sociales. El público en general se enfrenta a la compleja cuestión de cómo responder a las narrativas inflamatorias y prejuiciosas que están avivando los temores raciales y la hostilidad posterior. Sin embargo, las redes sociales tienen la capacidad única de reducir el volumen de intolerancia si determinan que un usuario ha infringido sus términos de servicio. Por ejemplo, en abril de 2018, Facebook eliminó dos páginasasociadas con el nacionalista blanco Richard Spencer. Unos meses más tarde, Twitter suspendió varias cuentas asociadas con el grupo de extrema derecha The Proud Boys por violar su política de ” prohibir a los grupos extremistas violentos “.

Sin embargo, algunos críticos argumentan que las redes no se están moviendo lo suficientemente rápido. Existe una creciente presión sobre estos sitios web para vigilar el extremismo que ha florecido en sus espacios o, de lo contrario, han sido vigilados ellos mismos . Una reciente encuesta de Huffpost / YouGov reveló que dos tercios de los estadounidenses querían que las redes sociales evitaran que los usuarios publicaran ” discursos de odio o contenido racista “.

En respuesta, Facebook ha intensificado sus esfuerzos contra el extremismo, informando en mayo que había eliminado ” 2,5 millones de discursos de odio “, más de un tercio de los cuales se identificó mediante inteligencia artificial, el resto por monitores humanos o marcados por los usuarios. Pero incluso cuando Zuckerberg prometió más acción en noviembre de 2018, la compañía reconoció que enseñar su tecnología para identificar el discurso del odio es extremadamente difícil debido a todos los contextos y matices que pueden alterar drásticamente estos significados.

jilbert-ebrahimi-33575-unsplash
📷 Jilbert Ebrahimi

Además, el consenso público sobre lo que realmente constituye el discurso del odio es, en el mejor de los casos, ambiguo. El libertario Cato Institute encontró un amplio desacuerdo entre los estadounidenses sobre el tipo de discurso que debería calificarse de odio, discurso ofensivo o crítica justa. Y así, estas discrepancias plantean la pregunta obvia: ¿Cómo puede un algoritmo identificar el discurso del odio si los humanos apenas podemos definirlo nosotros mismos?

El miedo enciende el fusible

La ambigüedad de lo que constituye el discurso del odio proporciona una amplia cobertura a los extremistas modernos para infundir ansiedades culturales en las redes populares. Esto presenta quizás el peligro más claro: cebar a la paranoia racial de la gente también puede ser extremadamente poderoso para estimular la hostilidad.

El difunto especialista en comunicación George Gerbner descubrió que, contrariamente a la creencia popular, la gran exposición a la violencia en los medios no hacía a las personas más violentas. Más bien, los hizo más temerosos de que otros les violen , lo que a menudo provoca desconfianza corrosiva y resentimiento cultural. Eso es precisamente lo que están aprovechando los racistas de hoy, y lo que las redes sociales deben aprender a detectar.

age-barros-455170-unsplash
📷 Age Barros

Las publicaciones que hablan de conspiraciones judías para destruir a Estados Unidos, o el crimen negro sobre blanco, no están pidiendo directamente la violencia, pero están ampliando las opiniones prejuiciosas que pueden incitar a los seguidores a actuar . Eso es precisamente lo que sucedió antes de los ataques mortales en una histórica iglesia negra en Charleston en 2015, y en la sinagoga de Pittsburgh el mes pasado.

Para las redes sociales, el desafío es doble. Primero deben decidir si continúan hospedando a racistas no violentos como Richard Spencer, quien ha pedido una “limpieza étnica pacífica” y permanece activo en Twitter . O, para el caso, el líder de la Nación del Islam Louis Farrakhan, quien recientemente comparó a los judíos con las termitas, y continúa publicando en su página de Facebook .

Cuando Twitter y Facebook permiten que estos perfiles permanezcan activos, las compañías prestan la credibilidad de sus comunidades en línea a estos provocadores de racismo o antisemitismo. Pero también indican que sus definiciones de odio pueden ser demasiado estrechas.

Aparentemente, el discurso de odio más peligroso ya no se transmite con insultos étnicos o retórica delirante sobre la supremacía blanca. Más bien, está en todas las redes sociales, a simple vista, con hashtags como #WhiteGenocide, #BlackCrimes, #MigrantInvasion y #AmericaUnderAttack. Crean una ilusión de amenaza inminente en la que los radicales prosperan, y a la que han respondido los inclinados por la violencia entre ellos.

*Referencia original: The Conversation.

jachan-devol-525036-unsplash
📷 Jachan Devol