.
A inteligência artificial passou rapidamente dos livros didáticos de ciência da computação para o mainstream, gerando delícias como a reprodução de vozes de celebridades e chatbots prontos para entreter conversas sinuosas.
Mas a tecnologia, que se refere a máquinas treinadas para executar tarefas inteligentes, também ameaça uma ruptura profunda: das normas sociais, de indústrias inteiras e da sorte das empresas tecnológicas. Tem um grande potencial para mudar tudo, desde o diagnóstico de pacientes até à previsão de padrões climáticos – mas também pode deixar milhões de pessoas sem trabalho ou mesmo ultrapassar a inteligência humana, dizem alguns especialistas.
Na semana passada, o Pew Research Center divulgou um inquérito no qual a maioria dos americanos – 52 por cento – afirmou sentir-se mais preocupada do que entusiasmada com o aumento da utilização da inteligência artificial, incluindo preocupações com a privacidade pessoal e o controlo humano sobre as novas tecnologias.
A proliferação este ano de modelos generativos de IA, como ChatGPT, Bard e Bing, todos disponíveis ao público, trouxe a inteligência artificial para o primeiro plano. Agora, governos da China ao Brasil e de Israel também estão a tentar descobrir como aproveitar o poder transformador da IA, ao mesmo tempo que controlam os seus piores excessos e elaboram regras para a sua utilização na vida quotidiana.
Alguns países, incluindo Israel e o Japão, responderam ao seu rápido crescimento clarificando os dados existentes, a privacidade e as proteções de direitos de autor – em ambos os casos, abrindo caminho para que conteúdos protegidos por direitos de autor sejam utilizados para treinar a IA. Outros, como os Emirados Árabes Unidos, emitiram proclamações vagas e abrangentes em torno da estratégia de IA, ou lançaram grupos de trabalho sobre as melhores práticas de IA, e publicaram projetos de legislação para revisão e deliberação públicas.
Outros ainda adotaram uma abordagem de esperar para ver, mesmo quando os líderes da indústria, incluindo a OpenAI, criadora do chatbot viral ChatGPT, apelaram à cooperação internacional em torno da regulamentação e da inspeção. Numa declaração em maio, o CEO da empresa e os seus dois cofundadores alertaram contra a “possibilidade de risco existencial” associado à superinteligência, uma entidade hipotética cujo intelecto excederia o desempenho cognitivo humano.
“Parar isso exigiria algo como um regime de vigilância global, e mesmo isso não tem garantia de funcionar”, afirmou o comunicado.
Ainda assim, existem poucas leis concretas em todo o mundo que visem especificamente a regulamentação da IA. Aqui estão algumas das maneiras pelas quais os legisladores de vários países estão tentando abordar as questões que cercam seu uso.
Brasil
O Brasil tem um projeto de lei de IA que é o culminar de três anos de projetos de lei propostos (e paralisados) sobre o assunto. O documento – que foi lançado no final do ano passado como parte de um relatório de 900 páginas da comissão do Senado sobre IA – descreve meticulosamente os direitos dos utilizadores que interagem com sistemas de IA e fornece directrizes para categorizar diferentes tipos de IA com base no risco que representam para a sociedade.
O foco da lei nos direitos dos usuários coloca sobre os fornecedores de IA o ônus de fornecer informações sobre seus produtos de IA aos usuários. Os usuários têm o direito de saber que estão interagindo com uma IA – mas também o direito a uma explicação sobre como uma IA tomou uma determinada decisão ou recomendação. Os utilizadores também podem contestar decisões de IA ou exigir intervenção humana, especialmente se a decisão de IA for suscetível de ter um impacto significativo sobre o utilizador, como sistemas relacionados com automóveis autónomos, contratação, avaliação de crédito ou identificação biométrica.
Os desenvolvedores de IA também são obrigados a realizar avaliações de risco antes de lançar um produto de IA no mercado. A classificação de risco mais elevada refere-se a quaisquer sistemas de IA que utilizem técnicas “subliminares” ou explorem os utilizadores de formas prejudiciais à sua saúde ou segurança; estes são totalmente proibidos. O projeto de lei sobre IA também descreve possíveis implementações de IA de “alto risco”, incluindo IA usada em cuidados de saúde, identificação biométrica e pontuação de crédito, entre outras aplicações. As avaliações de risco para produtos de IA de “alto risco” devem ser publicadas numa base de dados governamental.
Todos os desenvolvedores de IA são responsáveis pelos danos causados pelos seus sistemas de IA, embora os desenvolvedores de produtos de alto risco sejam responsabilizados por um padrão de responsabilidade ainda mais elevado.
China
A China publicou um projeto de regulamento para IA generativa e está buscando a opinião pública sobre as novas regras. Ao contrário da maioria dos outros países, porém, o projecto da China observa que a IA generativa deve reflectir “Valores Fundamentais Socialistas”.
Em sua iteração atual, o projeto de regulamentação diz que os desenvolvedores “são responsáveis” pelo resultado criado por sua IA, de acordo com uma tradução do documento do Projeto DigiChina da Universidade de Stanford. Existem também restrições à obtenção de dados de formação; os desenvolvedores são legalmente responsáveis se seus dados de treinamento infringirem a propriedade intelectual de outra pessoa. O regulamento também estipula que os serviços de IA devem ser concebidos para gerar apenas conteúdos “verdadeiros e precisos”.
Estas regras propostas baseiam-se na legislação existente relativa a deepfakes, algoritmos de recomendação e segurança de dados, dando à China uma vantagem sobre outros países que elaboram novas leis a partir do zero. O regulador da Internet do país também anunciou restrições à tecnologia de reconhecimento facial em agosto.
A China estabeleceu metas dramáticas para suas indústrias de tecnologia e IA: no “Plano de Desenvolvimento de Inteligência Artificial da Próxima Geração”, um ambicioso documento de 2017 publicado pelo governo chinês, os autores escrevem que até 2030, “as teorias, tecnologias e aplicações de IA da China deverão alcançar níveis de liderança mundial.”
União Europeia
Em junho, o Parlamento Europeu votou pela aprovação do que chamou de “Lei da IA”. Semelhante ao projeto de legislação do Brasil, a Lei de IA categoriza a IA de três maneiras: como risco inaceitável, alto e limitado.
Os sistemas de IA considerados inaceitáveis são aqueles considerados uma “ameaça” para a sociedade. (O Parlamento Europeu oferece “brinquedos ativados por voz que incentivam comportamentos perigosos em crianças” como um exemplo.) Esses tipos de sistemas são proibidos pela Lei de IA. A IA de alto risco precisa ser aprovada pelas autoridades europeias antes de ser lançada no mercado e também durante todo o ciclo de vida do produto. Estes incluem produtos de IA relacionados com a aplicação da lei, gestão de fronteiras e triagem de emprego, entre outros.
Os sistemas de IA considerados de risco limitado devem ser devidamente rotulados para que os utilizadores tomem decisões informadas sobre as suas interações com a IA. Caso contrário, estes produtos evitam principalmente o escrutínio regulamentar.
A lei ainda precisa de ser aprovada pelo Conselho Europeu, embora os legisladores parlamentares esperem que o processo seja concluído ainda este ano.
Israel
Em 2022, o Ministério da Inovação, Ciência e Tecnologia de Israel publicou um projeto de política sobre regulamentação da IA. Os autores do documento descrevem-no como uma “bússola moral e empresarial para qualquer empresa, organização ou órgão governamental envolvido no campo da inteligência artificial” e enfatizam o seu foco na “inovação responsável”.
O projecto de política de Israel diz que o desenvolvimento e a utilização da IA devem respeitar “o Estado de direito, os direitos fundamentais e os interesses públicos e, em particular, [maintain] dignidade humana e privacidade.” Em outro lugar, vagamente, afirma que “devem ser tomadas medidas razoáveis de acordo com conceitos profissionais aceitos” para garantir que os produtos de IA sejam seguros para uso.
De forma mais ampla, o projecto de política incentiva a auto-regulação e uma abordagem “suave” à intervenção governamental no desenvolvimento da IA. Em vez de propor legislação uniforme para todo o setor, o documento incentiva os reguladores específicos do setor a considerarem intervenções altamente personalizadas quando apropriado, e que o governo tente a compatibilidade com as melhores práticas globais de IA.
Itália
Em março, a Itália baniu brevemente o ChatGPT, alegando preocupações sobre como – e quanto – os dados dos usuários estavam sendo coletados pelo chatbot.
Desde então, a Itália destinou aproximadamente 33 milhões de dólares para apoiar trabalhadores em risco de serem deixados para trás pela transformação digital – incluindo, mas não se limitando, à IA. Cerca de um terço desse montante será utilizado para formar trabalhadores cujos empregos podem tornar-se obsoletos devido à automação. Os restantes fundos serão direcionados para o ensino de competências digitais a pessoas desempregadas ou economicamente inativas, na esperança de estimular a sua entrada no mercado de trabalho.
Japão
O Japão, tal como Israel, adoptou uma abordagem de “lei não vinculativa” para a regulamentação da IA: o país não tem regulamentos prescritivos que regem formas específicas de utilização da IA. Em vez disso, o Japão optou por esperar e ver como a IA se desenvolve, citando o desejo de evitar sufocar a inovação.
Por enquanto, os desenvolvedores de IA no Japão tiveram que confiar em leis adjacentes – como as relativas à proteção de dados – para servir como diretrizes. Por exemplo, em 2018, os legisladores japoneses revisaram a Lei de Direitos Autorais do país, permitindo que conteúdo protegido por direitos autorais fosse usado para análise de dados. Desde então, os legisladores esclareceram que a revisão também se aplica aos dados de formação em IA, abrindo caminho para que as empresas de IA treinem os seus algoritmos na propriedade intelectual de outras empresas. (Israel adotou a mesma abordagem.)
Emirados Árabes Unidos
A regulamentação não está na vanguarda da abordagem de todos os países à IA.
Na Estratégia Nacional para Inteligência Artificial dos Emirados Árabes Unidos, por exemplo, as ambições regulatórias do país recebem apenas alguns parágrafos. Em suma, um Conselho de Inteligência Artificial e Blockchain irá “revisar as abordagens nacionais para questões como gestão de dados, ética e segurança cibernética”, e observar e integrar as melhores práticas globais em IA.
O resto do documento de 46 páginas é dedicado a incentivar o desenvolvimento da IA nos EAU, atraindo talentos em IA e integrando a tecnologia em sectores-chave como a energia, o turismo e os cuidados de saúde. Esta estratégia, ostenta o resumo executivo do documento, alinha-se com os esforços dos EAU para se tornarem “o melhor país do mundo até 2071”.
.