technology

O boom da IA ​​​​pode não ter um resultado positivo, alerta órgão de fiscalização da concorrência do Reino Unido | Inteligência artificial (IA)

.

As pessoas não devem presumir um resultado positivo do boom da inteligência artificial, alertou o órgão de fiscalização da concorrência do Reino Unido, citando riscos que incluem a proliferação de informações falsas, fraudes e avaliações falsas, bem como preços elevados pela utilização da tecnologia.

A Autoridade da Concorrência e dos Mercados afirmou que as pessoas e as empresas poderiam beneficiar de uma nova geração de sistemas de IA, mas o domínio de intervenientes consolidados e o desrespeito da lei de protecção do consumidor representavam uma série de ameaças potenciais.

O CMA fez o alerta em uma revisão inicial dos modelos básicos, a tecnologia que sustenta as ferramentas de IA, como o chatbot ChatGPT, e geradores de imagens, como o Stable Diffusion.

O surgimento do ChatGPT, em particular, desencadeou um debate sobre o impacto da IA ​​generativa – um termo genérico para ferramentas que produzem resultados convincentes de texto, imagem e voz a partir de comandos humanos digitados – na economia, eliminando empregos de colarinho branco em áreas como como a lei, as TI e os meios de comunicação social, bem como o potencial de produção em massa de desinformação dirigida aos eleitores e aos consumidores.

A executiva-chefe da CMA, Sarah Cardell, disse que a velocidade com que a IA estava se tornando parte da vida cotidiana das pessoas e das empresas era “dramática”, com o potencial de tornar milhões de tarefas diárias mais fáceis, bem como de aumentar a produtividade – uma medida de economia eficiência, ou a quantidade de produção gerada por um trabalhador para cada hora trabalhada.

No entanto, Cardell alertou que as pessoas não devem presumir um resultado benéfico. “Não podemos considerar um futuro positivo garantido”, disse ela em comunicado. “Continua a existir um risco real de que a utilização da IA ​​se desenvolva de uma forma que mina a confiança do consumidor ou seja dominada por alguns intervenientes que exercem um poder de mercado que impede que todos os benefícios sejam sentidos em toda a economia.”

O CMA define modelos básicos como “grandes modelos gerais de aprendizado de máquina que são treinados em grandes quantidades de dados e podem ser adaptados a uma ampla gama de tarefas e operações”, incluindo alimentar chatbots, geradores de imagens e produtos de software de escritório 365 da Microsoft.

O cão de guarda estima que cerca de 160 modelos básicos foram lançados por uma série de empresas, incluindo Google, Meta, proprietária do Facebook, e Microsoft, bem como novas empresas de IA, como a OpenAI, desenvolvedora do ChatGPT, e a Stability AI, com sede no Reino Unido, que financiou o Stable Gerador de imagens de difusão.

A CMA acrescentou que muitas empresas já estavam presentes em dois ou mais aspectos-chave do ecossistema do modelo de IA, com grandes desenvolvedores de IA como Google, Microsoft e Amazon possuindo infraestrutura vital para produzir e distribuir modelos básicos, como centros de dados, servidores e repositórios de dados. , bem como presença em mercados como compras online, pesquisa e software.

O regulador também disse que monitoraria de perto o impacto dos investimentos de grandes empresas de tecnologia em desenvolvedores de IA, como a Microsoft na OpenAI e a Alphabet, controladora do Google, na Anthropic, com ambos os acordos incluindo o fornecimento de serviços de computação em nuvem – um recurso importante para o setor. .

É “essencial” que o mercado da IA ​​não caia nas mãos de um pequeno número de empresas, com uma potencial consequência a curto prazo de que os consumidores sejam expostos a níveis significativos de informações falsas, fraudes possibilitadas pela IA e avaliações falsas, afirma a CMA. disse.

A longo prazo, poderá permitir que as empresas que desenvolvam modelos de base ganhem ou consolidem posições de poder de mercado, e também resultará em empresas que cobrem preços elevados pela utilização da tecnologia.

pular a promoção do boletim informativo

O relatório afirma que a falta de acesso a elementos-chave para a construção de um modelo de IA, como dados e capacidade computacional, pode levar a preços elevados. Referindo-se a modelos de “código fechado”, como o GPT-4 da OpenAI, que sustenta o ChatGPT e não pode ser acessado ou ajustado por membros do público, o relatório diz que o desenvolvimento de modelos líderes pode ser limitado a um punhado de empresas.

“As restantes empresas desenvolveriam posições de força que lhes poderiam dar a capacidade e o incentivo para fornecer modelos apenas numa base de fonte fechada e para impor preços e condições injustas”, afirma o relatório.

A CMA acrescentou que a propriedade intelectual e os direitos de autor também são questões importantes. Autores, editores de notícias, incluindo o Guardian, e as indústrias criativas levantaram preocupações sobre o uso não creditado do seu material na construção de modelos de IA.

Como parte do relatório, a CMA propôs um conjunto de princípios para o desenvolvimento de modelos de IA. São eles: garantir que os desenvolvedores de modelos básicos tenham acesso a dados e poder computacional e que os primeiros desenvolvedores de IA não obtenham uma vantagem consolidada; modelos de “código fechado”, como o GPT-4 da OpenAI, e modelos de “código aberto” disponíveis publicamente, que podem ser adaptados por desenvolvedores externos, podem ser desenvolvidos; as empresas têm uma gama de opções para aceder a modelos de IA – incluindo o desenvolvimento dos seus próprios; os consumidores devem poder utilizar vários fornecedores de IA; nenhuma conduta anticompetitiva, como “agregar” modelos de IA em outros serviços; consumidores e empresas recebem informações claras sobre o uso e as limitações dos modelos de IA.

A CMA disse que publicaria uma atualização sobre os seus princípios e como foram recebidos em 2024. O governo do Reino Unido organizará uma cimeira global sobre segurança da IA ​​no início de novembro.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo