Online Hate Index

Anti Defamation League. 2018. “Online Hate Index.” ADL: 1-20.

*Esta es una síntesis anotada realizada por CIPMEX sobre el texto arriba referido*

Según la Liga Anti Difamación (ADL 2018), el 41% de los adultos en Estados Unidos ha experimentado algún tipo de acoso en línea y el 66% ha sido testigo de casos en los que estas prácticas se llevan a cabo. Ahora bien, el definir los factores que constituyen el discurso de odio en línea resulta una tarea difícil y da pie a muchas preguntas ya que teniendo sólo palabras en una pantalla y sin tener el contexto de la persona que las emite es muy difícil juzgar las acciones de un individuo. Sin embargo, en los esfuerzos por combatir el fenómeno, se han tratado de crear reglas y métodos para aplicar de manera general y para definir el discurso de odio por medio de internet. Un claro ejemplo de lo anterior es el Índice de Odio en Línea (OHI por sus siglas en inglés), una iniciativa de la ADL y de la Universidad de Berkeley en California. Estaría interesante conocer los porcentajes en otros países, sin embargo, este es un excelente primer paso. Por otro lado, la definición es extremadamente complicada porque tiene que ver con factores de todo tipo. De hecho, no puede ni siquiera haber una definición universal por los temas culturales y personales.

El OHI es una herramienta diseñada para detectar, por medio de indicadores, el discurso de odio en línea. El propósito de esta, es crear un instrumento para implementar en sitios de internet y así descubrir la dimensión del fenómeno para así combatirlo y reducirlo. Todo esto funciona a partir de la identificación de patrones y se hace posible gracias a la combinación de las ciencias sociales y de la tecnología. En el documento, los autores explican cómo conceptualizan el discurso de odio y cómo han ido creando el modelo. Por otra parte, estos señalan lo que hace falta para que su método sea lo más preciso y útil posible y muestran algunos de los resultados que han obtenido hasta ahora. Cabe mencionar que el OHI está apenas en su etapa inicial (ADL 2018). Se deberían de considerar indicadores diferentes dependiendo del país, edad, nivel socioeconómico, etc.

En el informe de la ADL (2018), se menciona que la tecnología se utiliza en este caso para que las computadoras puedan percibir los patrones por si mismas y se muestra un caso en específico en el que ya se implementó el modelo que es el caso de la plataforma Reddit[1]. Para esto, se descargaron aproximadamente 8,000 comentarios durante dos periodos que corresponden a momentos de mucha intensidad en el discurso de odio hacia las minorías; 1) un mes después de que Donald Trump se anunciara como candidato, y 2) en el contexto del tercer debate presidencial. Posteriormente, un grupo de personas clasificó manualmente (y de acuerdo con la definición de discurso de odio que ellos tomaron -“Comments containing speech aimed to terrorize, express prejudice and contempt toward, humiliate, degrade, abuse, threaten, ridicule, demean, and discriminate based on race, ethnicity, religion, sexual orientation, national origin, or gender…Also including pejoratives and group-based insults, that sometime comprise brief group epithets consisting of short, usually negative labels or lengthy narratives aboutan out group’s alleged negative behavior”­­­-) los comentarios para que se fueran construyendo los patrones en el sistema. De los 7,619 comentarios que se utilizaron, 7184 no eran de odio y 411 sí lo eran. Por otra parte, algunas de las palabras[2] que aparecieron en gran medida dentro de los comentarios de odio fueron: judío, mujer, negro, odio, blanco, país, cultura, nación, “fuck”, sociedad, inmigrante, raza, problema, viejo, personas, y necesidad. No se puede llegar a conclusiones nada más estudiando lo que pasa en Reddit, que además, no es la red más utilizada ni accesible. Por otra parte, resulta interesante el tema de codificar manualmente declaraciones en categorías ya que CIPMEX hace lo mismo en NVIVO en cada una de las investigaciones que se llevan a cabo. Otra reflexión es que además de que estamos hablando de algo difícil de definir, aquí también entra el rol del que escoge qué va en qué categoría, lo que podría causar sesgo.

Algunos otros descubrimientos que se hicieron con respecto al OHI en esta primera fase fueron: que al buscar una clase de discurso de odio te encuentras con discurso de odio de todas las clases, que es importante ponerle atención a los usos del lenguaje cuando se habla de odio, y que la lógica mal utilizada puede ser contraproducente al analizar este tipo de información. Otro punto importante que se menciona es que para que este modelo sea efectivo se debe de incorporar la perspectiva de las comunidades victimizadas. Finalmente, las conclusiones también se menciona que esta combinación de ciencias sociales con análisis cuantitativo puede llegar a ser sumamente útil si es bien desarrollada. En la próxima fase del proyecto, se tomará más en cuenta el lado de la población afectada y se perfeccionará la plataforma. Además, se harán más pruebas en casos que no sean el de Reddit (ADL 2018). En efecto, resulta BÁSICO conocer el punto de vista del afectado. Estaremos pendientes de los avances en el tema porque son los primeros pasos.

Pensando en una línea de investigación para México, se podría hacer un estudio sobre  qué consideran los mexicanos discurso de odio, si lo han vivido o no, etc. Resulta una gran idea hacer este tipo de plataformas y una en México serviría pero se necesita definir primero qué se tomaría como discurso de odio por medio de una investigación cualitativa. 

[1] Reddit es un sitio web de marcadores sociales y agregador de noticias donde los usuarios pueden añadir texto, imágenes, vídeos o enlaces. Otros usuarios pueden votar a favor o en contra del contenido, haciendo que aparezcan más o menos destacados.

[2] Todo el estudio se hizo en el idioma inglés.

Comentarios