Ciência e Tecnologia

Lei da AI da UE: o mais recente código de rascunho para os modelos de IA, os pontas dos pontas dos pontas -é

.

Antes de um prazo de maio para bloquear orientações para os provedores de modelos de IA de uso geral (GPAI) sobre o cumprimento das disposições da Lei da UE que se aplicam à grande IA, a Terceiro rascunho do Código de Prática foi publicado na terça -feira. O código está em formulação desde o ano passado, e esse rascunho deve ser a última rodada de revisão antes que as diretrizes sejam finalizadas nos próximos meses.

UM site também foi lançado com o objetivo de aumentar a acessibilidade do código. O feedback por escrito sobre o rascunho mais recente deve ser enviado até 30 de março de 2025.

O livro de regras baseado em risco do bloco para IA inclui um subconjunto de obrigações que se aplicam apenas aos fabricantes de modelos de IA mais poderosos-cobrindo áreas como transparência, direitos autorais e mitigação de riscos. O código tem como objetivo ajudar os fabricantes de modelos GPAI a entender como cumprir as obrigações legais e evitar o risco de sanções para não conformidade. A IA Act Penalies por violações dos requisitos da GPAI, especificamente, poderia atingir até 3% do faturamento anual global.

Simplificado

A revisão mais recente do código é cobrada como tendo “uma estrutura mais simplificada com compromissos e medidas refinados” em comparação com as iterações anteriores, com base no feedback no segundo rascunho publicado em dezembro.

Feedback adicional, discussões e workshops do grupo de trabalho alimentarão o processo de transformar o terceiro rascunho em orientação final. E os especialistas dizem que esperam alcançar a maior “clareza e coerência” na versão final adotada do código.

O rascunho é dividido em um punhado de seções que cobrem compromissos de GPAIs, juntamente com orientações detalhadas para medidas de transparência e direitos autorais. Há também uma seção sobre obrigações de segurança que se aplicam aos modelos mais poderosos (com o chamado risco sistêmico, ou GPaisr).

Na transparência, a orientação inclui um exemplo de um formulário de documentação de modelo GPAIs, pode -se preencher para garantir que os implantadores a jusante de sua tecnologia tenham acesso a informações importantes para ajudar com sua própria conformidade.

Em outros lugares, a seção de direitos autorais provavelmente continua sendo a área mais imediatamente controversa para a grande IA.

O rascunho atual está repleto de termos como “melhores esforços”, “medidas razoáveis” e “medidas apropriadas” quando se trata de cumprir compromissos, como respeitar os requisitos de direitos ao rastejar a Web para adquirir dados para treinamento de modelos ou mitigando o risco de modelos que produzem saídas infratores de direitos autorais.

O uso dessa linguagem mediada sugere que os gigantes da mineração de dados podem sentir que têm bastante espaço para continuar a captar informações protegidas para treinar seus modelos e pedir perdão mais tarde-mas ainda está para se ver se o idioma é endurecido no rascunho final do código.

O idioma usado em uma iteração anterior do código – dizendo que os GPAIs devem fornecer um único ponto de contato e manuseio de reclamações para facilitar os apostadores de relevos para comunicar queixas “direta e rapidamente” – parece ter desaparecido. Agora, há apenas uma linha afirmando: “Os signatários designarão um ponto de contato para comunicação com os diretores afetados e fornecerão informações facilmente acessíveis sobre isso.”

O texto atual também sugere que os GPAIs podem se recusar a agir de acordo com as queixas de direitos autorais dos diretores, se eles “manifestamente infundados ou excessivos, em particular por causa de seu caráter repetitivo”. Ele sugere que as tentativas de criativos giram as escalas, usando ferramentas de IA para tentar detectar problemas de direitos autorais e automatizar reclamações de arquivamento contra a IA grande pode resultar em elas … simplesmente sendo ignoradas.

Quando se trata de segurança, os requisitos da Lei da AI da UE para avaliar e mitigar riscos sistêmicos já se aplicam apenas a um subconjunto dos modelos mais poderosos (aqueles treinados usando Um poder de computação total de mais de 10^25 flops) – mas este rascunho mais recente vê algumas medidas recomendadas anteriormente sendo reduzidas em resposta ao feedback.

Pressão dos EUA

Não mencionado na UE Comunicado de imprensa Sobre o último rascunho estão os ataques empolgantes à legislação européia em geral, e as regras do bloco para a IA especificamente, saindo do governo dos EUA liderado pelo presidente Donald Trump.

Na Cúpula de Ação de Paris AI no mês passado, o vice -presidente dos EUA, JD Vance, descartou a necessidade de regular para garantir que a IA seja a segurança aplicada – o governo de Trump estaria se inclinando para a “oportunidade da IA”. E ele alertou a Europa que a regulação excessiva poderia matar o ganso de ouro.

Desde então, o bloco se moveu para matar uma iniciativa de segurança da IA ​​- colocando a diretiva de responsabilidade da IA ​​no bloco de corte. Os legisladores da UE também seguiram um pacote de “omnibus” de reformas simplificadoras para as regras existentes que eles dizem ter como objetivo reduzir a burocracia e a burocracia para os negócios, com foco em áreas como relatórios de sustentabilidade. Mas com a Lei da IA ​​ainda em processo de implementação, há claramente a pressão sendo aplicada para diluir os requisitos.

Na Mobile World Congress, em Barcelona, ​​no início deste mês, o fabricante francês de modelo GPAI Mistral – um oponente particularmente alto da Lei da UE da AI durante as negociações para concluir a legislação em 2023 – com o fundador Arthur Mensh afirmou que está tendo dificuldades para encontrar soluções tecnológicas em conformidade com algumas das regras. Ele acrescentou que a empresa está “trabalhando com os reguladores para garantir que isso seja resolvido”.

Enquanto esse código GPAI está sendo elaborado por especialistas independentes, a Comissão Europeia – através do escritório da IA ​​que supervisiona a execução e outras atividades relacionadas à lei – é, paralelamente, produzindo algumas orientações de “esclarecimento” que também moldarão como a lei se aplica. Incluindo definições para GPais e suas responsabilidades.

Portanto, procure mais orientações, “no devido tempo”, do escritório da IA-que a Comissão diz que “esclarecerá … o escopo das regras”-pois isso poderia oferecer um caminho para os legisladores que perderão nervosos respondem ao lobby dos EUA para desregulamentar a IA.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo