La investigación, publicada en la revista 'Scientific Reports', se enfoca en el análisis comparativo de comunidades en Reddit dedicadas al odio contra hombres y mujeres. El estudio buscó identificar patrones de lenguaje y comportamiento comunes en estos grupos. El objetivo principal era determinar si la toxicidad de estos entornos digitales es independiente del género de la víctima. Se analizaron subreddits específicos que promovían visiones extremas sobre el género, incluyendo comunidades misándricas y misóginas.
La metodología incluyó el análisis lingüístico, la evaluación de la toxicidad del contenido y la detección de emociones expresadas en los textos. Se utilizó una herramienta computacional para limpiar el texto y un modelo de aprendizaje profundo para evaluar la toxicidad. Además, se emplearon algoritmos de aprendizaje automático para detectar emociones como tristeza, alegría, miedo e ira. El estudio buscó desentrañar las dinámicas internas de estos grupos y cómo se manifiestan las expresiones de odio.