Estudos/Pesquisa

IA salvando humanos do impacto emocional do monitoramento do discurso de ódio

.

Uma equipa de investigadores da Universidade de Waterloo desenvolveu um novo método de aprendizagem automática que deteta discurso de ódio em plataformas de redes sociais com 88% de precisão, poupando aos funcionários centenas de horas de trabalho emocionalmente prejudicial.

O método, denominado Transformador de Discussão Multimodal (mDT), pode compreender a relação entre texto e imagens, bem como colocar comentários em um contexto mais amplo, ao contrário dos métodos anteriores de detecção de discurso de ódio. Isto é particularmente útil na redução de falsos positivos, que muitas vezes são sinalizados incorretamente como discurso de ódio devido à linguagem culturalmente sensível.

“Nós realmente esperamos que esta tecnologia possa ajudar a reduzir o custo emocional de ter humanos analisando manualmente o discurso de ódio”, disse Liam Hebert, estudante de doutorado em ciência da computação em Waterloo e primeiro autor do estudo. “Acreditamos que, ao adotarmos uma abordagem centrada na comunidade em nossas aplicações de IA, podemos ajudar a criar espaços online mais seguros para todos”.

Os investigadores têm vindo a construir modelos para analisar o significado das conversas humanas há muitos anos, mas estes modelos têm historicamente lutado para compreender as nuances das conversas ou declarações contextuais. Os modelos anteriores só conseguiram identificar o discurso de ódio com uma precisão de 74 por cento, abaixo do que a investigação de Waterloo conseguiu alcançar.

“O contexto é muito importante para compreender o discurso de ódio”, disse Hebert. “Por exemplo, o comentário ‘Isso é nojento!’ pode ser inócuo por si só, mas seu significado muda drasticamente se for em resposta a uma foto de pizza com abacaxi versus uma pessoa de um grupo marginalizado.

“Compreender essa distinção é fácil para os humanos, mas treinar um modelo para compreender as conexões contextuais em uma discussão, incluindo considerar as imagens e outros elementos multimídia dentro delas, é na verdade um problema muito difícil”.

Ao contrário dos esforços anteriores, a equipe de Waterloo construiu e treinou seu modelo em um conjunto de dados que consiste não apenas em comentários isolados de ódio, mas também no contexto desses comentários. O modelo foi treinado em 8.266 discussões do Reddit com 18.359 comentários rotulados de 850 comunidades.

“Mais de três bilhões de pessoas usam as redes sociais todos os dias”, disse Hebert. “O impacto destas plataformas de redes sociais atingiu níveis sem precedentes. Há uma enorme necessidade de detectar o discurso de ódio em grande escala para construir espaços onde todos sejam respeitados e seguros.”

A pesquisa, Multi-Modal Discussion Transformer: Integrating Text, Images and Graph Transformers to Detect Hate Speech on Social Media, foi publicada recentemente nos anais da Trigésima Oitava Conferência AAAI sobre Inteligência Artificial.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo