Ciência e Tecnologia

O modelo de IA do Google enfrenta um inquérito sobre o uso de dados na UE • st

.

O principal regulador da União Europeia para privacidade de dados, a Comissão de Proteção de Dados da Irlanda (DPC), lançou uma investigação transfronteiriça sobre o modelo de IA do Google para verificar se ele está em conformidade com as regras do bloco.

A investigação faz parte de esforços mais amplos do DPC e seus pares na União Europeia (UE) e no Espaço Econômico Europeu (EEE) na regulamentação da coleta de dados pessoais de indivíduos da UE e do EEE em modelos de IA.

O DPC está preocupado se o Google cumpriu integralmente sua Avaliação de Impacto de Proteção de Dados (DPIA), uma avaliação que os reguladores da UE pedem que os controladores de dados realizem antes de ingerirem grandes quantidades de dados pessoais de forma sistêmica. Uma DPIA define o escopo, o contexto e os propósitos do processamento de dados e avalia se esse processamento pode resultar em um alto risco às liberdades e direitos dos indivíduos.

De acordo com o DPC: “Uma avaliação DPIA é um processo essencial para criar e demonstrar conformidade, o que garante que os controladores de dados identifiquem e mitiguem quaisquer riscos de proteção de dados decorrentes de um tipo de processamento que envolva alto risco.

“Ele busca garantir, entre outras coisas, que o processamento seja necessário e proporcional e que salvaguardas apropriadas estejam em vigor à luz dos riscos.”

As obrigações de fazer a avaliação estão sob a égide do Regulamento Geral de Proteção de Dados (GDPR), e a investigação está relacionada ao processamento de dados pessoais pelo Google no desenvolvimento de seu modelo fundamental de IA, o Pathways Language Model 2 (PaLM 2).

Um porta-voz do Google disse O registro: “Levamos a sério nossas obrigações sob o GDPR e trabalharemos construtivamente com o DPC para responder suas perguntas.”

O Google não está sozinho em ter suas ambições de IA sob escrutínio regulatório. Em agosto, a X concordou em suspender o processamento de dados pessoais de postagens de usuários da UE e do EEE para treinar sua IA Grok no contexto de um requerimento urgente do Tribunal Superior. Em junho, a Meta pausou seus planos de treinar modelos de IA em postagens do Facebook e Instagram de usuários da UE em resposta a uma solicitação do DPC irlandês.

Usar dados pessoais em prompts de treinamento e processamento é um potencial campo minado de privacidade para empresas de IA no que diz respeito à UE. No entanto, os modelos de IA serão de pouca utilidade para usuários da UE e do EEE sem esses dados. Por exemplo, o que pode ser culturalmente significativo nos EUA pode não se aplicar na Alemanha.

Como mostra este último inquérito, os reguladores da UE e do EEE estão monitorando de perto como os gigantes da tecnologia estão treinando seus modelos e usando dados dos cidadãos. ®

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo