Los investigadores desarrollan una herramienta para detectar el discurso de odio disfrazado en línea, mejorando la moderación del contenido.

Investigadores de la Universidad de Auckland han creado una herramienta para mejorar la moderación del contenido en línea detectando comentarios de odio encubiertos. La herramienta identifica tácticas como reemplazar letras con números o alterar palabras y ayuda a los filtros tradicionales a detectar toxicidad oculta. Este avance tiene por objeto proteger a los usuarios, especialmente a las audiencias más jóvenes, y garantizar entornos en línea más seguros mediante la mejora de la detección de contenidos nocivos. La evolución futura puede incluir un análisis más profundo del contexto.

November 26, 2024
5 Artículos

Lecturas adicionales