.
Cpreocupações sobre as habilidades crescentes de chatbots treinados em grandes modelos de linguagem, como o GPT-4 da OpenAI, o Bard do Google e o Bing Chat da Microsoft, estão nas manchetes. Especialistas alertam para sua capacidade de espalhar desinformação em escala monumental, bem como para o risco existencial que seu desenvolvimento pode representar para a humanidade. Como se isso não fosse preocupante o suficiente, uma terceira área de preocupação se abriu – ilustrada pela recente proibição do ChatGPT na Itália por motivos de privacidade.
O regulador de dados italiano expressou preocupação com o modelo usado pelo proprietário do ChatGPT, OpenAI, e anunciou que investigaria se a empresa havia violado as rígidas leis europeias de proteção de dados.
Os chatbots podem ser úteis para tarefas pessoais e de trabalho, mas coletam grandes quantidades de dados. A IA também apresenta vários riscos de segurança, incluindo a capacidade de ajudar os criminosos a realizar ataques cibernéticos mais convincentes e eficazes.
Os chatbots são uma preocupação de privacidade maior do que os mecanismos de pesquisa?
A maioria das pessoas está ciente dos riscos à privacidade apresentados pelos mecanismos de pesquisa, como o Google, mas os especialistas acham que os chatbots podem consumir ainda mais dados. Sua natureza de conversação pode pegar as pessoas desprevenidas e incentivá-las a fornecer mais informações do que dariam em um mecanismo de busca. “O estilo humano pode desarmar os usuários”, adverte Ali Vaziri, diretor jurídico da equipe de dados e privacidade do escritório de advocacia Lewis Silkin.
Os chatbots normalmente coletam informações de texto, voz e dispositivo, bem como dados que podem revelar sua localização, como seu endereço IP. Como os mecanismos de pesquisa, os chatbots coletam dados como atividades de mídia social, que podem ser vinculados ao seu endereço de e-mail e número de telefone, diz o Dr. Lucian Tipi, reitor associado da Birmingham City University. “À medida que o processamento de dados melhora, também aumenta a necessidade de mais informações e qualquer coisa da web se torna um jogo justo.”
Embora as empresas por trás dos chatbots digam que seus dados são necessários para ajudar a melhorar os serviços, eles também podem ser usados para publicidade direcionada. Cada vez que você pede ajuda a um chatbot de IA, os microcálculos alimentam o algoritmo para traçar o perfil dos indivíduos, diz Jake Moore, consultor global de segurança cibernética da empresa de software ESET. “Esses identificadores são analisados e podem ser usados para nos direcionar com anúncios.”
Isso já está começando a acontecer. A Microsoft anunciou que está explorando a ideia de trazer anúncios para o Bing Chat. Também surgiu recentemente que a equipe da Microsoft pode ler as conversas do chatbot dos usuários e a empresa dos EUA atualizou sua política de privacidade para refletir isso.
A política de privacidade do ChatGPT “não parece abrir a porta para a exploração comercial de dados pessoais”, diz Ron Moscona, sócio do escritório de advocacia Dorsey & Whitney. A política “promete proteger os dados das pessoas” e não compartilhá-los com terceiros, diz ele.
No entanto, embora o Google também se comprometa a não compartilhar informações com terceiros, a política de privacidade mais ampla da empresa de tecnologia permite que ela use dados para veicular publicidade direcionada aos usuários.
Como você pode usar chatbots de forma privada e segura?
É difícil usar chatbots de forma privada e segura, mas existem maneiras de limitar a quantidade de dados que eles coletam. É uma boa ideia, por exemplo, usar uma VPN como ExpressVPN ou NordVPN para mascarar seu endereço IP.
Nesta fase, a tecnologia é muito nova e não refinada para garantir que seja privada e segura, diz Will Richmond-Coggan, especialista em dados, privacidade e IA do escritório de advocacia Freeths. Ele diz que “cuidado considerável” deve ser tomado antes de compartilhar qualquer dado – especialmente se a informação for sensível ou relacionada a negócios.
A natureza de um chatbot significa que ele sempre revelará informações sobre o usuário, independentemente de como o serviço é usado, diz Moscona. “Mesmo que você use um chatbot por meio de uma conta anônima ou VPN, o conteúdo que você fornece ao longo do tempo pode revelar informações suficientes para ser identificado ou rastreado.”
Mas as empresas de tecnologia que defendem seus produtos chatbot dizem que você pode usá-los com segurança. A Microsoft diz que seu Bing Chat é “cuidadoso sobre como usa seus dados” para fornecer uma boa experiência e “manter as políticas e proteções da pesquisa tradicional no Bing”.
A Microsoft protege a privacidade por meio de tecnologia como criptografia e apenas armazena e retém as informações pelo tempo necessário. A Microsoft também oferece controle sobre seus dados de pesquisa por meio do painel de privacidade da Microsoft.
O criador do ChatGPT, OpenAI, diz que treinou o modelo para recusar solicitações inadequadas. “Usamos nossas ferramentas de moderação para avisar ou bloquear certos tipos de conteúdo inseguro e sensível”, acrescenta um porta-voz.
Que tal usar chatbots para ajudar nas tarefas de trabalho?
Os chatbots podem ser úteis no trabalho, mas os especialistas aconselham que você proceda com cautela para evitar compartilhar demais e infringir regulamentos como a atualização da UE para o regulamento geral de proteção de dados (GDPR). É com isso em mente que empresas como JP Morgan e Amazon proibiram ou restringiram o uso do ChatGPT por funcionários.
O risco é tão grande que os próprios desenvolvedores desaconselham seu uso. “Não podemos excluir prompts específicos do seu histórico”, afirmam as perguntas frequentes do ChatGPT. “Por favor, não compartilhe nenhuma informação sensível em suas conversas.”
Usar ferramentas gratuitas de chatbot para fins comerciais “pode ser imprudente”, diz Moscona. “A versão gratuita do ChatGPT não oferece garantias claras e inequívocas sobre como protegerá a segurança dos chats ou a confidencialidade da entrada e saída gerada pelo chatbot. Embora os termos de uso reconheçam a propriedade do usuário e a política de privacidade prometa proteger as informações pessoais, eles são vagos sobre a segurança da informação.”
A Microsoft diz que o Bing pode ajudar nas tarefas de trabalho, mas “não recomendamos fornecer informações confidenciais da empresa a nenhum serviço ao consumidor”.
Se você precisar usar um, os especialistas recomendam cautela. “Siga as políticas de segurança da sua empresa e nunca compartilhe informações sigilosas ou confidenciais”, diz Nik Nicholas, CEO da empresa de consultoria de dados Covelent.
A Microsoft oferece um produto chamado Copilot para uso comercial, que adota as políticas de segurança, conformidade e privacidade mais rigorosas da empresa para seu produto corporativo Microsoft 365.
Como posso identificar malware, e-mails ou outro conteúdo malicioso gerado por agentes mal-intencionados ou IA?
À medida que os chatbots se tornam incorporados na Internet e nas mídias sociais, as chances de se tornar uma vítima de malware ou e-mails maliciosos aumentam. O Centro Nacional de Segurança Cibernética do Reino Unido (NCSC) alertou sobre os riscos dos chatbots de IA, dizendo que a tecnologia que os alimenta pode ser usada em ataques cibernéticos.
Especialistas dizem que o ChatGPT e seus concorrentes têm o potencial de permitir que pessoas mal-intencionadas construam operações de e-mail de phishing mais sofisticadas. Por exemplo, gerar e-mails em vários idiomas será simples – portanto, sinais indicadores de mensagens fraudulentas, como erros de gramática e ortografia, serão menos óbvios.
Com isso em mente, os especialistas aconselham mais vigilância do que nunca ao clicar em links ou baixar anexos de fontes desconhecidas. Como de costume, Nicholas aconselha, use software de segurança e mantenha-o atualizado para se proteger contra malware.
A linguagem pode ser impecável, mas o conteúdo do chatbot muitas vezes pode conter erros factuais ou informações desatualizadas – e isso pode ser um sinal de um remetente não humano. Ele também pode ter um estilo de escrita insípido e estereotipado – mas isso pode ajudar, em vez de atrapalhar, o bot de mau ator quando se trata de se passar por uma comunicação oficial.
Os serviços habilitados para IA estão surgindo rapidamente e, à medida que se desenvolvem, os riscos vão piorar. Especialistas dizem que o ChatGPT pode ser usado para ajudar os cibercriminosos a criar malware, e há preocupações sobre informações confidenciais inseridas em serviços habilitados para bate-papo que vazam na Internet. Outras formas de IA generativa – IA capaz de produzir conteúdo como voz, texto ou imagens – podem oferecer aos criminosos a chance de criar os chamados vídeos deepfake mais realistas, imitando um funcionário do banco pedindo uma senha, por exemplo.
Ironicamente, são os humanos que são melhores em identificar esses tipos de ameaças habilitadas por IA. “A melhor proteção contra malware e inteligência artificial mal-intencionada é a sua própria vigilância”, diz Richmond-Coggan.
.






