Notícias Express

Legisladores da UE aprovam lei de inteligência artificial líder mundial

.

Os legisladores da União Europeia deram a aprovação final à lei de inteligência artificial do bloco de 27 países na quarta-feira, colocando as regras líderes mundiais no caminho certo para entrar em vigor ainda este ano.

Os legisladores do Parlamento Europeu votaram esmagadoramente a favor da lei da IA, cinco anos depois de os regulamentos terem sido propostos pela primeira vez. Espera-se que a lei da IA ​​sirva como um sinal global para outros governos que lutam para regulamentar a tecnologia em rápido desenvolvimento.

“A lei da IA ​​​​empurrou o futuro da IA ​​​​em uma direção centrada no ser humano, em uma direção onde os humanos controlam a tecnologia e onde a tecnologia nos ajuda a nos beneficiar de novas descobertas, crescimento econômico, progresso social e liberar o potencial humano”, disse Dragos Teodorache , um legislador romeno que foi um dos líderes das negociações parlamentares sobre o projeto de lei, antes da votação.

As grandes empresas tecnológicas têm geralmente apoiado a necessidade de regulamentar a IA, ao mesmo tempo que pressionam para garantir que quaisquer regras funcionem em seu benefício. Sam Altman, CEO da OpenAI, causou um pequeno rebuliço no ano passado quando sugeriu que o fabricante do ChatGPT poderia sair da Europa se não conseguisse cumprir a lei de IA – antes de voltar atrás para dizer que não havia planos de sair.

A Europa lança um gabinete de IA para servir como “ponto de referência global” em segurança, política e desenvolvimento

Aqui está uma olhada no primeiro conjunto abrangente de regras de IA do mundo:

Como funciona a lei da inteligência artificial?

Tal como muitos regulamentos da UE, a Lei da IA ​​foi inicialmente concebida como uma legislação de segurança do consumidor, com uma “abordagem baseada no risco” para produtos ou serviços que utilizam IA.

Quanto mais arriscada for uma aplicação de IA, mais escrutínio ela enfrentará. Espera-se que a grande maioria dos sistemas de IA sejam de baixo risco, como sistemas de recomendação de conteúdo ou filtros de spam. As empresas podem optar por seguir requisitos e códigos de conduta voluntários.

As utilizações de alto risco da IA, como em dispositivos médicos ou infraestruturas críticas, como redes de água ou eletricidade, enfrentam requisitos mais rigorosos, como a utilização de dados de alta qualidade e o fornecimento de informações claras aos utilizadores.

Algumas utilizações da IA ​​são proibidas porque são consideradas como representando um risco inaceitável, tais como sistemas de pontuação social que regem o comportamento das pessoas e alguns tipos de policiamento preditivo e sistemas de reconhecimento de emoções em escolas e locais de trabalho.

Outros usos proibidos incluem a digitalização de rostos pela polícia em locais públicos usando sistemas remotos de “reconhecimento biométrico” alimentados por inteligência artificial, exceto para crimes graves, como sequestro ou terrorismo.

E quanto à inteligência artificial generativa?

Os primeiros rascunhos da lei concentravam-se em sistemas de inteligência artificial que executam tarefas muito limitadas, como a digitalização de currículos e pedidos de emprego. O aumento vertiginoso de modelos de IA de uso geral, exemplificado pelo ChatGPT da OpenAI, faz com que os legisladores da UE se esforcem para acompanhar.

Eles adicionaram provisões para os chamados modelos generativos de IA, a tecnologia que alimenta chatbots alimentados por IA que podem produzir respostas, imagens e muito mais únicas e realistas.

Os desenvolvedores de modelos de IA de uso geral — desde startups europeias até OpenAI e Google — terão que fornecer um resumo detalhado do texto, imagens, vídeo e outros dados online usados ​​para treinar os sistemas, bem como seguir a lei de direitos autorais da UE.

Imagens, vídeos ou áudios falsos gerados artificialmente de pessoas, lugares ou eventos existentes devem ser classificados como manipulados artificialmente.

Há um exame adicional dos maiores e mais poderosos modelos de IA que representam “risco sistêmico”, que inclui o GPT4 da OpenAI – seu sistema mais avançado – e o Gemini do Google.

A União Europeia diz estar preocupada que estes poderosos sistemas de IA possam “causar incidentes graves ou ser utilizados indevidamente para lançar ataques cibernéticos de longo alcance”. Eles também temem que a IA generativa possa espalhar “preconceitos prejudiciais” em muitas aplicações, afetando muitas pessoas.

As empresas que fornecem estes sistemas terão de avaliar e mitigar os riscos; Comunicar quaisquer incidentes graves, tais como avarias que causem morte ou danos graves à saúde ou ao património; Implementar medidas de segurança cibernética; E revele quanta energia seus modelos usam.

As regras europeias afectam o resto do mundo?

Bruxelas propôs pela primeira vez regulamentos sobre IA em 2019, desempenhando um papel global familiar no reforço do escrutínio das indústrias emergentes, à medida que outros governos lutam para acompanhar.

Nos Estados Unidos, o Presidente Joe Biden assinou em Outubro uma ordem executiva abrangente sobre inteligência artificial, que deverá ser apoiada por legislação e acordos globais. Entretanto, legisladores de pelo menos sete estados dos EUA estão a preparar a sua própria legislação sobre IA.

O presidente chinês, Xi Jinping, propôs a sua Iniciativa Global de Governança da IA ​​para o uso justo e seguro da IA, e as autoridades emitiram “medidas temporárias” para governar a IA generativa, que se aplica a texto, imagens, áudio, vídeo e outros conteúdos criados para pessoas dentro China. .

Outros países, do Brasil ao Japão, bem como grupos globais como as Nações Unidas e o G7, estão a avançar no sentido de estabelecer barreiras de proteção para a inteligência artificial.

Veja como a Europa procura regular a IA à medida que as negociações surgem rapidamente

o que aconteceu depois disso?

Espera-se que a lei da IA ​​se torne lei oficial em maio ou junho, após algumas formalidades finais, incluindo a aprovação pelos estados membros da UE. As disposições entrarão em vigor em fases, sendo os países obrigados a proibir os sistemas de IA proibidos seis meses depois de as regras entrarem em vigor.

As regras para sistemas de IA de uso geral, como chatbots, começarão a ser aplicadas um ano após a entrada em vigor da lei. Em meados de 2026, todo o conjunto de regulamentos, incluindo requisitos para sistemas de alto risco, estará em vigor.

No que diz respeito à aplicação, cada país da UE criará o seu próprio órgão de supervisão da IA, onde os cidadãos poderão apresentar uma queixa se acreditarem que foram vítimas de uma violação de uma regra. Ao mesmo tempo, Bruxelas criará um Gabinete de Inteligência Artificial encarregado de aplicar e supervisionar sistemas de IA de uso geral.

As violações da lei de IA podem resultar em multas de até 35 milhões de euros (38 milhões de dólares), ou 7% da receita global de uma empresa.

O legislador italiano Brando Benevi, copresidente do trabalho do Parlamento sobre a lei, disse que esta não é a última palavra de Bruxelas sobre as regras de IA. Ele disse que pode haver mais legislação relacionada à IA após as eleições de verão, inclusive em áreas como a inteligência artificial no local de trabalho, que são parcialmente cobertas pela nova lei.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo