Ciência e Tecnologia

A IA generativa traz novos riscos para todos. Veja como você pode ficar seguro

.

Olho de mulher absorvendo dados digitais com movimento de velocidade futurista

Getty Images/Yuichiro Chino

Questões críticas ainda precisam ser abordadas sobre o uso de inteligência artificial (IA) generativa, portanto, empresas e consumidores interessados ​​em explorar a tecnologia devem estar atentos aos riscos potenciais.

Como ainda está em fase de experimentação, as empresas terão que descobrir as possíveis implicações de explorar a IA generativa, diz Alex Toh, diretor local da prática de tecnologia e propriedade intelectual da Baker McKenzie Wong & Leow.

Também: Como usar o novo Bing (e como ele é diferente do ChatGPT)

Perguntas importantes devem ser feitas sobre se tais explorações continuam a ser seguras, tanto legalmente quanto em termos de segurança, diz Toh, que é um Profissional de Privacidade de Informação Certificado pela Associação Internacional de Profissionais de Privacidade. Ele também é certificado como Profissional de Ética e Governança de IA pela Singapore Computer Society.

Em meio ao crescente interesse na IA generativa, o advogado de tecnologia tem respondido a perguntas frequentes de clientes sobre as implicações e políticas de direitos autorais que podem precisar implementar caso usem essas ferramentas.

Uma área importante de preocupação, que também é fortemente debatida em outras jurisdições, incluindo EUA, UE e Reino Unido, é a legitimidade de obter e usar dados disponíveis online para treinar modelos de IA. Outra área de debate é se trabalhos criativos gerados por modelos de IA, como poesia e pintura, são protegidos por direitos autorais, disse ele ao Strong The One.

Também: Como usar o DALL-E 2 para transformar suas visões criativas em arte gerada por IA

Existem riscos de violação de marca registrada e direitos autorais se os modelos generativos de IA criarem imagens semelhantes ao trabalho existente, principalmente quando são instruídos a replicar a arte de outra pessoa.

Toh diz que as organizações querem saber as considerações que precisam levar em conta se explorarem o uso de IA generativa, ou mesmo IA em geral, para que a implantação e o uso de tais ferramentas não levem a responsabilidades legais e riscos comerciais relacionados.

Ele diz que as organizações estão implementando políticas, processos e medidas de governança para reduzir os riscos que podem encontrar. Um cliente, por exemplo, perguntou sobre as responsabilidades que sua empresa poderia enfrentar se um produto gerador de IA oferecido não funcionasse bem.

Toh diz que as empresas que decidirem usar ferramentas como o ChatGPT para dar suporte ao atendimento ao cliente por meio de um chatbot automatizado, por exemplo, terão que avaliar sua capacidade de fornecer respostas que o público deseja.

Também: Como fazer com que o ChatGPT forneça fontes e citações

O advogado sugere que as empresas façam uma análise de risco para identificar os riscos potenciais e avaliar se eles podem ser gerenciados. Os humanos devem ser encarregados de tomar decisões antes que uma ação seja tomada e apenas deixados de fora se a organização determinar que a tecnologia está madura o suficiente e os riscos associados ao seu uso são baixos.

Essas avaliações devem incluir o uso de prompts, que é um fator chave na IA generativa. Toh observa que perguntas semelhantes podem ser formuladas de maneira diferente por diferentes usuários. Ele diz que as empresas correm o risco de manchar sua marca caso um sistema de chatbot decida responder de forma correspondente a um cliente agressivo.

Países, como Cingapura, criaram estruturas para orientar empresas de qualquer setor na adoção de IA, com o objetivo principal de criar um ecossistema confiável, diz Toh. Ele acrescenta que essas estruturas devem incluir princípios que as organizações possam adotar facilmente.

Em uma recente resposta parlamentar por escrito sobre estruturas regulatórias de IA, o Ministério das Comunicações e Informações de Cingapura apontou a necessidade de desenvolvimento e implantação “responsáveis”. Ele disse que essa abordagem garantiria um ambiente confiável e seguro no qual os benefícios da IA ​​podem ser colhidos.

Também: Este novo sistema de IA pode ler mentes com precisão cerca de metade do tempo

O ministério disse que lançou várias ferramentas para conduzir essa abordagem, incluindo um kit de ferramentas de teste conhecido como AI Verify para avaliar a implantação responsável de IA e o Model AI Governance Framework, que abrange questões éticas e de governança importantes na implantação de aplicativos de IA. O ministério disse que organizações como DBS Bank, Microsoft, HSBC e Visa adotaram a estrutura de governança.

A Comissão de Proteção de Dados Pessoais, que supervisiona a Lei de Proteção de Dados Pessoais de Cingapura, também está trabalhando em diretrizes consultivas para o uso de dados pessoais em sistemas de IA. Essas diretrizes serão divulgadas de acordo com a Lei dentro de um ano, de acordo com o ministério.

Também continuará monitorando os desenvolvimentos da IA ​​e revisando a abordagem regulatória do país, bem como sua eficácia para “manter a confiança e a segurança”.

Cuide do seu próprio uso de IA

Por enquanto, enquanto o cenário continua a evoluir, indivíduos e empresas devem estar atentos ao uso de ferramentas de IA.

As organizações precisarão de processos adequados para mitigar os riscos, enquanto o público em geral deve entender melhor a tecnologia e se familiarizar com ela. Cada nova tecnologia tem suas próprias nuances, diz Toh.

A Baker & McKenzie não permite o uso do ChatGPT em sua rede devido a preocupações com a confidencialidade do cliente. Embora as informações de identificação pessoal (PII) possam ser descartadas antes que os dados sejam alimentados em um modelo de treinamento de IA, ainda há dúvidas sobre se os detalhes do caso subjacente usados ​​em uma plataforma de aprendizado de máquina ou IA generativa podem ser consultados e extraídos. Essas incertezas significavam que proibir seu uso era necessário para proteger dados confidenciais.

Também: Como usar o ChatGPT para escrever código

O escritório de advocacia, no entanto, está ansioso para explorar o uso geral da IA ​​para melhor apoiar o trabalho de seus advogados. Uma unidade de aprendizado de IA dentro da empresa está trabalhando em pesquisas sobre possíveis iniciativas e como a IA pode ser aplicada na força de trabalho, diz Toh.

Questionado sobre como os consumidores devem garantir que seus dados estejam seguros com as empresas à medida que a adoção da IA ​​cresce, ele diz que geralmente há recurso legal em casos de violação, mas observa que é mais importante que os indivíduos se concentrem em como eles selecionam seu engajamento digital.

Os consumidores devem escolher marcas confiáveis ​​que investem na responsabilidade pelos dados de seus clientes e seu uso em implantações de IA. Apontando para a estrutura de IA de Cingapura, Toh diz que seus princípios básicos giram em torno de transparência e explicabilidade, que são essenciais para estabelecer a confiança do consumidor nos produtos que usam.

A capacidade do público de gerenciar seus próprios riscos provavelmente será essencial, especialmente porque as leis lutam para acompanhar o ritmo da tecnologia.

Também: IA generativa pode tornar alguns trabalhadores muito mais produtivos, de acordo com este estudo

A IA, por exemplo, está acelerando em “velocidade de dobra” sem regulamentação adequada, observa Cyrus Vance Jr., sócio da prática de litígio e aplicação do governo da Baker McKenzie na América do Norte, bem como investigações globais, conformidade e prática ética. Ele destaca a necessidade de a segurança pública acompanhar o desenvolvimento da tecnologia.

“Não regulamos a tecnologia na década de 1990 e [we’re] ainda não regulamentando hoje”, diz Vance, citando ChatGPT e AI como os exemplos mais recentes.

O aumento do interesse no ChatGPT desencadeou tensões na UE e no Reino Unido, principalmente do ponto de vista da privacidade, diz Paul Glass, chefe de segurança cibernética da Baker & McKenzie no Reino Unido e parte da equipe de proteção de dados do escritório de advocacia.

A UE e o Reino Unido estão debatendo atualmente como a tecnologia deve ser regulamentada, se novas leis são necessárias ou se as existentes devem ser expandidas, diz Glass.

Também: Esses especialistas estão correndo para proteger a IA de hackers

Ele também aponta para outros riscos associados, incluindo violações de direitos autorais e riscos cibernéticos, onde o ChatGPT já foi usado para criar malware.

Países como a China e os EUA também estão avaliando e buscando feedback público sobre as legislações que regem o uso da IA. O governo chinês divulgou no mês passado um novo projeto de regulamento que disse ser necessário para garantir o desenvolvimento seguro de tecnologias generativas de IA, incluindo o ChatGPT.

Ainda nesta semana, Geoffrey Hinton – muitas vezes chamado de ‘Padrinho da IA’ – disse que deixou seu cargo no Google para poder discutir mais livremente os riscos da tecnologia que ele mesmo ajudou a desenvolver. Hinton projetou algoritmos de aprendizado de máquina e contribuiu para a pesquisa de redes neurais.

Elaborando suas preocupações sobre IA, Hinton disse à BBC: “No momento, o que estamos vendo é coisas como GPT-4 eclipsa uma pessoa na quantidade de conhecimento geral que possui e a eclipsa de longe. Em termos de raciocínio , não é tão bom, mas já faz um raciocínio simples. E, dada a taxa de progresso, esperamos que as coisas melhorem rapidamente. Portanto, precisamos nos preocupar com isso.”

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo