Con las elecciones presidenciales de Estados Unidos a la vuelta de la esquina son cada vez más las redes sociales que han intensificado sus políticas de moderación de contenido para frenar la proliferación del odio. Este miércoles, TikTok ha anunciado que endurecerá su posición, prohibiendo mensajes de odio como el neonazismo y el supremacismo blanco, una amenaza creciente en todo el mundo.

Aunque la plataforma social china ya tenía políticas para bloquear la incitación del odio, ahora ha especificado con más detalle qué tipo de contenido entrará en esa categoría y, por lo tanto, será eliminado. Además del supremacismo blanco y el neonazismo, TikTok limitará mensajes racistas, machistas, antisemitas, islamófobos, homófobos o identitarios, la corriente ultranacionalista con la que se vinculó a Brenton Tarrant, el terrorista fascista que asesinó a 51 personas en un ataque a dos mezquitas de Christchurch, en Nueva Zelanda.

Como ha apuntado en un comunicado, TikTok no permitirá contenidos como la negación del Holocausto algo que también Facebook y Twitter prohibieron la semana pasada, la difusión de desinformación y estereotipos hirientes sobre comunidades religiosas como la judía o la musulmana y también perseguirá los ataques a la comunidad LGTBQ+, concretamente los mensajes que promuevan las llamadas teorías de conversión.

Odio camuflado

El anuncio se produce poco después de que TikTok se haya unido al Código de Conducta de la Comisión Europea (CE) para evitar la propagación de mensajes de odio, que también han encontrado en la plataforma una manera de normalizarse. En agosto, la Liga Antidifamación de EEUU informó que usuarios de TikTok utilizaban los códigos 2316 y 88 (iniciales de las frases Poder Blanco y Heil Hitler) para camuflar sus mensajes. Frenaremos la difusión de lenguaje y símbolos que puedan normalizar tanto el discurso como el comportamiento violento o que pueda incitar al odio, explican.

Aunque no se han dado casos concretos, la compañía ha asegurado que educará a sus equipos para entender los contextos y saber cómo aplicar la política de moderación sin eliminar contenido por error. Asimismo, TikTok quiere ser más transparente en la aplicación de esta regulación y comunicará por que se ha prohibido cierto contenido a los afectados, que podrán pedir una revisión.

Desde finales de 2019, TikTok ya pedía a sus moderadores eliminar "el contenido que representa el estereotipo de un grupo protegido o identificable", según explica Business Insider.