technology

Google não quer que seus funcionários usem código Bard • Strong The One

.

IA em resumo O Google alertou seus próprios funcionários para não divulgar informações confidenciais ou usar o código gerado por seu chatbot AI, Bard.

A política não é surpreendente, já que a fábrica de chocolate também aconselhou os usuários a não incluir informações confidenciais em suas conversas com a Bard em um aviso de privacidade atualizado. Outras grandes empresas também alertaram seus funcionários contra o vazamento de documentos ou códigos proprietários e os proibiram de usar outros chatbots de IA.

O aviso interno do Google, no entanto, levanta preocupações de que as ferramentas de IA criadas por empresas privadas não sejam confiáveis ​​– especialmente se os próprios criadores não as usarem devido a riscos de privacidade e segurança.

Alertar seus próprios funcionários para não usar diretamente o código gerado pela Bard mina as alegações do Google de que seu chatbot pode ajudar os desenvolvedores a se tornarem mais produtivos. O dominador de pesquisa e anúncios contado Reuters seu banimento interno foi introduzido porque Bard pode produzir “sugestões de código indesejadas”. Os problemas podem levar a programas com bugs ou softwares complexos e inchados que custarão aos desenvolvedores mais tempo para consertar do que se eles não usassem IA para codificar.

Fabricante de IA de voz apoiada pela Microsoft é processada

A Nuance, uma desenvolvedora de software de reconhecimento de voz adquirida pela Microsoft, foi acusada de gravar e usar a voz das pessoas sem permissão em uma ação movida na semana passada.

Três pessoas processaram a empresa e a acusaram de violar a Lei de Invasão de Privacidade da Califórnia – que afirma que as empresas não podem grampear comunicações de consumidores ou gravar pessoas sem seu consentimento explícito por escrito. Os queixosos afirmam que a Nuance está gravando as vozes das pessoas em chamadas telefônicas com centrais de atendimento, que usam sua tecnologia para verificar quem ligou.

“A Nuance realiza seu exame de voz inteiramente no ‘fundo de cada compromisso’ ou telefonema”, afirmaram os queixosos. “Em outras palavras, a Nuance ouve a voz do consumidor silenciosamente no fundo de uma chamada e de tal forma que os consumidores provavelmente não perceberão que estão interagindo sem saber com uma empresa terceirizada. Essa captura de impressão de voz sub-reptícia, gravação, exame , e o processo de análise é um dos principais componentes do conjunto geral de segurança biométrica da Nuance.”

Eles argumentam que gravar as vozes das pessoas as expõe a riscos – elas podem ser identificadas ao discutir informações pessoais confidenciais – e significa que suas vozes podem ser clonadas para burlar os próprios recursos de segurança da Nuance.

“Se não forem controlados, os cidadãos da Califórnia correm o risco de ter suas vozes analisadas e extraídas de dados por terceiros para fazer várias determinações sobre seu estilo de vida, saúde, credibilidade, confiabilidade – e, acima de tudo, determinar se são de fato quem afirmam ser. ser”, argumentam os documentos do tribunal.

Strong The One pediu comentários à Nuance.

O Google não apóia a ideia de uma nova agência reguladora federal de IA

O laboratório DeepMind AI do Google não quer que o governo dos EUA crie uma agência focada exclusivamente na regulamentação da IA.

Em vez disso, acredita que o trabalho deve ser dividido entre diferentes departamentos, de acordo com um relatório de 33 páginas [PDF] obtido pelo Washington Post. O documento foi enviado em resposta a um pedido aberto de comentários públicos lançado pela Administração Nacional de Telecomunicações e Informação em abril.

A subsidiária de IA do Google pedia “uma abordagem multicamadas e com várias partes interessadas para a governança da IA” e apoiava uma “abordagem hub-and-spoke” – por meio da qual um órgão central como o NIST poderia supervisionar e orientar políticas e questões abordadas por várias agências com diferentes áreas de experiência.

“A IA apresentará questões únicas em serviços financeiros, assistência médica e outras indústrias regulamentadas e áreas de emissão que se beneficiarão da experiência de reguladores com experiência nesses setores – o que funciona melhor do que uma nova agência reguladora promulgando e implementando regras upstream que não são adaptável aos diversos contextos em que a IA é implantada”, afirma o documento.

A visão do Google DeepMind difere de outros empresas incluindo OpenAI e Microsoft, especialistas em políticas e legisladores que apoiam a ideia de construir uma agência focada em IA para lidar com a regulamentação.

Microsoft correu para lançar o novo Bing, apesar dos avisos da OpenAI

A OpenAI alertou a Microsoft sobre o lançamento de seu chatbot Bing com GPT-4 muito rapidamente, considerando que poderia gerar informações falsas e linguagem imprópria.

O Bing chocou os usuários com seu tom assustador e comportamento às vezes manipulador ou ameaçador quando foi lançado. Mais tarde, a Microsoft restringiu as conversas para evitar que o chatbot saísse dos trilhos. A OpenAI já havia instado o titã da tecnologia a conter o lançamento do produto para trabalhar em seus problemas.

Mas a Microsoft não pareceu ouvir e foi em frente de qualquer maneira, de acordo com para o Wall Street Journal. Esse não foi o único conflito entre os defensores da IA, no entanto. Meses antes do lançamento do Bing, a OpenAI lançou o ChatGPT, apesar das preocupações da Microsoft de que poderia roubar os holofotes de seu mecanismo de pesquisa na web com tecnologia AI.

A Microsoft tem uma participação de 49% na OpenAI e consegue acessar e implantar a tecnologia da startup à frente dos rivais. Ao contrário do GPT-3, no entanto, a Microsoft não tem direitos exclusivos para licenciar o GPT-4. Às vezes, isso pode tornar as coisas estranhas – a OpenAI geralmente corteja os mesmos clientes da Microsoft ou de outras empresas que competem diretamente com seu investidor.

Com o tempo, isso pode tornar o relacionamento deles difícil. “O que os coloca em rota de colisão é que ambos os lados precisam ganhar dinheiro”, disse Oren Etizoni, ex-CEO do Allen Institute for Artificial Intelligence. “O conflito é que ambos tentarão ganhar dinheiro com produtos semelhantes. ®

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo