Un vistazo al endurecimiento de Alemania frente al discurso de odio

geman-hatespeech-law
Foto de AC Almelor en Unsplash.

En el corazón del dilema sobre qué hacer con la plaga de comentarios acosadores y llenos de odio en línea están las preguntas sobre libre expresión, leyes locales y quién debe decidir qué puede decir quién.

Históricamente, las empresas de internet se han beneficiado de bien establecidos puertos seguros de responsabilidad por lo que expresan sus usuarios, un enfoque que ha ayudado a permitir que la web se vuelva el ambiente creativo e impactante que es ahora. Sin embargo, el discurso de odio y el acoso han florecido en línea, y los esfuerzos de plataformas globales como Facebook, YouTube y Twitter para responder han sido inconsistentes y en gran parte inútiles.

Recientemente, Alemania (con una población de casi 83 millones de personas) se impuso en la discusión global sobre este asunto e implementó una ley en 2018 con la intención de reducir el discurso de odio y la difamación en línea. La ley establece fuertes multas para empresas populares de medios sociales si no retiran contenido abiertamente ilegal dentro de las 24 horas de una notificación, y demás contenido ilegal en el término de siete días.

Algunos políticos elogiaron la Ley de Aplicación de la Red (NetzDG) como una medida importante para contener el discurso de odio, mientras otros se opusieron vehementemente. Fue ampliamente criticada por grupos de derechos digitales preocupados por amenazas a la libertad de expresión y eliminaciones generalizadas. En el extranjero, fue observada con alegría por Gobiernos que limitan la libertad de expresión. Rusia, Venezuela y Kenia están entre los países que rápidamente elaboraron sus propias versiones de la ley.

En Alemania, un año después de la implementación, la nueva ley no parece ser particularmente efectiva en resolver lo que debía resolver ni tan restrictiva como muchos pensaron. Sin embargo, sin más conocimiento del tipo de noticias que se envían y los métodos y lineamientos que las plataformas han adoptado para manejarlas es difícil evaluar el verdadero impacto.

NetzDG fue diseñada para que la carga de moderar el contenido y retirarlo rápidamente recayera en las empresas. La Oficina Federal de Justicia de Alemania puede multar a las empresas hasta con 50 millones de euros ($56.3 millones de dólares) si las plataformas no cumplen con las solicitudes de retiro válidas de parte de usuarios o autoridades. Después de que se aprobó la ley, Facebook y Twitter dijeron que contrataron moderadores adicionales en Alemania para revisar contenido marcado como problemático por usuarios o algoritmos.

Para cumplir con la ley, Facebook, Google+, YouTube y Twitter publicaron sendos informes en julio de 2018 y diciembre de 2018 que detallan cómo permitieron que los usuarios presentaran quejas y cómo abordaban esas quejas. Hasta ahora, la cantidad de contenido retirado del que dan cuenta las plataformas parece bajo comparada con la cantidad de quejas recibidas.

Twitter, por ejemplo, dijo que recibió 256 462 quejas entre julio y diciembre de 2018 y tomó acción solamente en el 9 % de los casos. Facebook dijo que vio 1048 quejas y retiró apenas el 35.2 % de contenido denunciado. No se sabe de qué se tratan esas quejas o por qué se rechazaron tantas. Los investigadores independientes no tienen acceso a datos sin procesar, y no hay un proceso estándar de denuncias entre plataformas. Los números están abiertos a interpretación desde cada ángulo.

“Si queremos entender mejor cómo toman decisiones las empresas sobre discurso en línea aceptable e inaceptable, necesitamos un conocimiento más detallado de determinaciones caso por caso”, escribieron investigadores de Alexander von Humboldt Institut für Internet und Gesellschaft de Alemania en reacción a las denuncias. Piden mayor transparencia y conocimiento para entender cuál ha sido el efecto de la ley: “¿Quiénes solicitan que se retire contenido y qué tan estratégicos es su uso de los sistemas de denuncia? ¿Cómo afectan el comportamiento del usuario los mecanismos para etiquetar?”.

Aunque se entiende que la mayoría de reglas de contenido de las plataformas se basan en términos de servicio, directrices comunitarias y políticas de otros usuarios, las plataformas comunican relativamente poco con relación a cómo aplican sus propias reglas sobre contenido prohibido.

En Alemania, hasta ahora no se materializa una oportunidad para librarse del debate polémico y politizado sobre contenido perjudicial con mayor conocimiento y mejores soluciones. Una mayor transparencia en torno a las fuentes del discurso de odio y violento en línea, quién denuncia y cómo lo toman los intermediarios sería un paso importante hacia entender cómo fomentar una internet más saludable para todos.

Eliminación de contenido bajo la Ley de Aplicación de la Red en Alemania

Lo que las plataformas denunciaron entre julio y diciembre de 2018

Informes de Transparencia de NetzDG de Facebook, Google y Twitter para julio a diciembre de 2018. Tabla inspirada por Eliminación de discurso de odio en línea en números de Kirsten Gollatz, Martin J. Riedl y Jens Pohlmann. En: Digital Society Blog, 2018

¿Cuál crees que es la mejor solución para contener el discurso de odio en línea?

  1. Políticas de moderación de contenidos | Hiperderecho

    […] Así mismo, en algunos países existen leyes que obligan a este tipo de empresas a ejercer ciertas políticas de moderación en diferentes casos, casi siempre respecto de actos que constituyen delitos, como las infracciones a los derechos de autor, la pornografía, etc. Por ejemplo, en Alemania existen leyes que obligan a redes sociales como Facebook a moderar contenido señalado como discurso del odi…. […]