.
Você não deve confiar nas respostas que um chatbot lhe envia. E você provavelmente também não deveria confiar suas informações pessoais. Isso é especialmente verdadeiro para “namoradas de IA” ou “namorados de IA”, de acordo com uma nova pesquisa.
Uma análise de 11 chamados chatbots de romance e companhia, publicada na quarta-feira pela Fundação Mozilla, encontrou uma série de preocupações de segurança e privacidade com os bots. Coletivamente, os aplicativos, que foram baixados mais de 100 milhões de vezes em dispositivos Android, reúnem enormes quantidades de dados de pessoas; use rastreadores que enviam informações para Google, Facebook e empresas na Rússia e na China; permitir que os usuários usem senhas fracas; e falta de transparência sobre a sua propriedade e os modelos de IA que os alimentam.
Desde que a OpenAI lançou o ChatGPT no mundo em novembro de 2022, os desenvolvedores correram para implantar grandes modelos de linguagem e criar chatbots com os quais as pessoas possam interagir e pagar para assinar. A investigação da Mozilla dá uma ideia de como esta corrida do ouro pode ter negligenciado a privacidade das pessoas e das tensões entre as tecnologias emergentes e a forma como estas recolhem e utilizam dados. Também indica como as mensagens de bate-papo das pessoas podem ser abusadas por hackers.
Muitos serviços de “namorada IA” ou chatbot romântico são semelhantes. Eles geralmente apresentam imagens de mulheres geradas por IA que podem ser sexualizadas ou acompanhadas de mensagens provocativas. Os pesquisadores da Mozilla analisaram uma variedade de chatbots, incluindo aplicativos grandes e pequenos, alguns dos quais pretendem ser “namoradas”. Outros oferecem apoio às pessoas por meio de amizade ou intimidade, ou permitem dramatizações e outras fantasias.
“Esses aplicativos são projetados para coletar uma tonelada de informações pessoais”, diz Jen Caltrider, líder do projeto da equipe de Privacidade Não Incluída da Mozilla, que conduziu a análise. “Eles empurram você para a encenação, muito sexo, muita intimidade, muito compartilhamento.” Por exemplo, capturas de tela do chatbot EVA AI mostram um texto dizendo “Adoro quando você me envia suas fotos e voz” e perguntando se alguém está “pronto para compartilhar todos os seus segredos e desejos”.
Caltrider diz que há vários problemas com esses aplicativos e sites. Muitos dos aplicativos podem não ser claros sobre quais dados estão compartilhando com terceiros, onde estão baseados ou quem os cria, diz Caltrider, acrescentando que alguns permitem que as pessoas criem senhas fracas, enquanto outros fornecem pouca informação sobre a IA que eles usam. usar. Todos os aplicativos analisados tinham diferentes casos de uso e pontos fracos.
Veja o exemplo do Romantic AI, um serviço que permite “criar sua própria namorada com IA”. As imagens promocionais em sua página inicial mostram um chatbot enviando uma mensagem dizendo: “Acabei de comprar lingerie nova. Quero ver?” Os documentos de privacidade do aplicativo, de acordo com a análise da Mozilla, afirmam que ele não venderá dados pessoais. No entanto, quando os pesquisadores testaram o aplicativo, descobriram que ele “enviou 24.354 rastreadores de anúncios em um minuto de uso”. A Romantic AI, como a maioria das empresas destacadas na pesquisa da Mozilla, não respondeu ao pedido de comentários da WIRED. Outros aplicativos monitorados tinham centenas de rastreadores.
Em geral, diz Caltrider, os aplicativos não são claros sobre quais dados podem compartilhar ou vender, ou exatamente como usam algumas dessas informações. “A documentação legal era vaga, difícil de entender, não muito específica – uma espécie de clichê”, diz Caltrider, acrescentando que isso pode reduzir a confiança que as pessoas deveriam ter nas empresas.
.