.
O chefe de inteligência artificial da Microsoft diz que a empresa continuará a acelerar seu trabalho em grandes modelos de IA, apesar das preocupações de alguns no campo de que a tecnologia está crescendo muito rápido e é imprevisível demais para ser segura.
“O potencial dessa tecnologia para realmente impulsionar a produtividade humana… para trazer crescimento econômico em todo o mundo é tão poderoso que seríamos tolos em deixar isso de lado”, disse Eric Boyd, vice-presidente corporativo da Microsoft AI Platforms à Strong The One. .
Em 2019, a gigante de software dos EUA investiu US$ 1 bilhão na startup de inteligência artificial OpenAI.
O dinheiro e o poder de computação da Microsoft – disponibilizados por meio de sua plataforma de computação em nuvem Azure – permitiram que a OpenAI criasse o GPT4, o “modelo de linguagem ampla” mais poderoso que o mundo já havia visto. Foi lançado ao público como o chatbot, ChatGPT.
A Microsoft foi rápida em incorporar o GPT4 e suas habilidades de conversação em seu mecanismo de busca Bing. Mas também está colocando a tecnologia em algo chamado Copilot – efetivamente um assistente digital virtual – em vários de seus produtos de software existentes, como processadores de texto e planilhas.
Sua visão de IA não é sobre aquisição planetária, explica Boyd, mas sobre mudar a relação entre pessoas e computadores.
“Isso realmente redefinirá as interfaces com as quais estamos acostumados, a maneira como você está acostumado a falar com uma máquina – o teclado, o mouse e tudo isso. Acho que se torna muito mais baseado em linguagem.”
Mas e as alegações de líderes no campo da IA de que grandes modelos de “IA generativa” (aqueles que podem criar texto, imagens ou outra saída) estão se desenvolvendo muito rápido e não são totalmente compreendidos?
“Especialistas na área chegaram lá com base em suas credenciais atuais”, disse Boyd.
“E, é claro, vamos ouvir e levar em consideração todos os comentários que eles têm. Mas acho que, quando você olha para o que esses modelos fazem, do que são capazes, sabe, essas preocupações parecem bastante longe do que realmente estamos trabalhando.”
As capacidades atuais de modelos de linguagem como o ChatGPT estão sendo exageradas, argumenta Boyd.
“As pessoas falam sobre como a IA assume o controle, mas ela não tem a capacidade de assumir o controle. Esses são modelos que produzem texto como saída”, disse ele.
Boyd disse que está mais preocupado com o potencial da IA de exacerbar os problemas sociais existentes.
“Como podemos garantir que esses modelos funcionem com segurança para os casos de uso em que estão?” ele meditou.
“Como trabalhamos para minimizar os preconceitos inerentes à sociedade e aqueles que aparecem nos modelos?”
Leia mais da Strong The One:
China corre o risco de ficar ainda mais atrás dos EUA na corrida da IA com regulamentação ‘pesada’
É assim que a IA pode mudar o futuro do jornalismo
Mas algumas das maiores preocupações de curto prazo sobre a IA não são sobre a segurança da tecnologia em si. Em vez disso, eles são mais sobre quanto dano a tecnologia poderia causar se aplicada às tarefas erradas, seja diagnosticar o câncer ou gerenciar o controle de tráfego aéreo. Ou sendo deliberadamente mal utilizado por atores desonestos.
Algumas dessas decisões cabem a eles, admite Boyd. Ele faz referência à decisão da Microsoft de não vender o software de reconhecimento facial desenvolvido por ela para agências de aplicação da lei. Mas o resto é para os reguladores.
Clique para assinar o Strong The One Daily onde quer que você obtenha seus podcasts
“Acho que, como sociedade, teremos que pensar em quais são os lugares em que essa tecnologia é apropriada e quais são os lugares em que temos preocupações sobre seu uso. Mas definitivamente achamos que há um lugar para regulamentação nesse setor. “
Sua parceria com a OpenAI deu à Microsoft um grande impulso na corrida para comercializar os avanços da IA. Mas a competição é intensa. O Google tem uma divisão de pesquisa de IA líder mundial trabalhando duro para levar produtos de IA também aos consumidores.
A Big Tech não parece ter qualquer intenção de desacelerar a corrida para desenvolver uma IA maior e melhor. Isso significa que a sociedade e nossos reguladores terão que acelerar o pensamento sobre como é a IA segura.
.