Ciência e Tecnologia

IA emocional não substitui a empatia

.

Em 2023, emocional A IA – tecnologia que pode sentir e interagir com as emoções humanas – se tornará uma das aplicações dominantes do aprendizado de máquina. Por exemplo, a Hume AI, fundada por Alan Cowen, ex-pesquisador do Google, está desenvolvendo ferramentas para medir emoções a partir de expressões verbais, faciais e vocais. A empresa sueca Smart Eyes adquiriu recentemente a Affectiva, spinoff do MIT Media Lab que desenvolveu a rede neural SoundNet, um algoritmo que classifica emoções como raiva de amostras de áudio em menos de 1,2 segundos. Até a plataforma de vídeo Zoom está apresentando o Zoom IQ, um recurso que em breve fornecerá aos usuários uma análise em tempo real de emoções e engajamento durante uma reunião virtual.

Em 2023, as empresas de tecnologia lançarão chatbots avançados que podem imitar de perto as emoções humanas para criar conexões mais empáticas com os usuários nos setores bancário, educacional e de saúde. O chatbot Xiaoice da Microsoft já é bem-sucedido na China, com usuários médios que conversaram com “ela” mais de 60 vezes em um mês. Ele também passou no teste de Turing, com os usuários falhando em reconhecê-lo como um bot por 10 minutos. A análise da Juniper Research Consultancy mostra que as interações de chatbot na área da saúde aumentarão quase 167% em relação a 2018, atingindo 2,8 bilhões de interações anuais em 2023. Isso liberará o tempo da equipe médica e potencialmente economizará cerca de US$ 3,7 bilhões para os sistemas de saúde em todo o mundo .

Em 2023, a IA emocional também se tornará comum nas escolas. Em Hong Kong, algumas escolas secundárias já utilizam um programa de inteligência artificial, desenvolvido pela Find Solutions AI, que mede micromovimentos dos músculos do rosto dos alunos e identifica um leque de emoções negativas e positivas. Os professores estão usando esse sistema para rastrear mudanças emocionais nos alunos, bem como sua motivação e foco, permitindo-lhes fazer intervenções precoces se um aluno estiver perdendo o interesse.

O problema é que a maioria da IA ​​emocional é baseada em ciência falha. Os algoritmos de IA emocional, mesmo quando treinados em grandes e diversos conjuntos de dados, reduzem as expressões faciais e tonais a uma emoção sem considerar o contexto social e cultural da pessoa e da situação. Embora, por exemplo, os algoritmos possam reconhecer e relatar que uma pessoa está chorando, nem sempre é possível deduzir com precisão o motivo e o significado por trás das lágrimas. Da mesma forma, um rosto carrancudo não implica necessariamente uma pessoa com raiva, mas essa é a conclusão que um algoritmo provavelmente chegará. Porque? Todos nós adaptamos nossas demonstrações emocionais de acordo com nossas normas sociais e culturais, de modo que nossas expressões nem sempre são um reflexo verdadeiro de nossos estados internos. Frequentemente, as pessoas fazem “trabalho emocional” para disfarçar suas emoções reais, e a forma como expressam suas emoções provavelmente é uma resposta aprendida, e não uma expressão espontânea. Por exemplo, as mulheres geralmente modificam suas emoções mais do que os homens, especialmente aquelas que têm valores negativos atribuídos a elas, como raiva, porque é esperado que o façam.

Como tal, as tecnologias de IA que fazem suposições sobre estados emocionais provavelmente exacerbarão as desigualdades raciais e de gênero em nossa sociedade. Por exemplo, um relatório da UNESCO de 2019 mostrou o impacto prejudicial do gênero das tecnologias de IA, com sistemas de assistente de voz “femininos” projetados de acordo com estereótipos de passividade emocional e servidão.

A IA de reconhecimento facial também pode perpetuar as desigualdades raciais. Análises de 400 jogos da NBA com dois programas populares de reconhecimento de emoções, Face e Face API da Microsoft, demonstraram atribuir mais emoções negativas em média aos jogadores negros, mesmo quando eles estavam sorrindo. Esses resultados reafirmam outras pesquisas que mostram que homens negros precisam projetar emoções mais positivas no ambiente de trabalho, pois são estereotipados como agressivos e ameaçadores.

As tecnologias de IA emocional se tornarão mais difundidas em 2023, mas, se não forem contestadas e examinadas, reforçarão preconceitos raciais e de gênero sistêmicos, replicarão e fortalecerão as desigualdades no mundo e prejudicarão ainda mais aqueles que já são marginalizados.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo