.

Você provavelmente já ouviu falar: a IA está chegando, está prestes a mudar tudo e a humanidade não está pronta.
A inteligência artificial está passando nos exames da ordem, plagiando provas, criando deepfakes que são reais o suficiente para enganar as massas, e o apocalipse dos robôs está próximo. O governo não está preparado. Nem você.
O fundador da Tesla, Elon Musk, o cofundador da Apple, Steve Wozniak, e centenas de pesquisadores de IA assinaram uma carta aberta esta semana pedindo uma pausa no desenvolvimento da IA antes que fique muito poderoso. “A IA poderia devorar rapidamente toda a cultura humana”, escreveram três especialistas em ética da tecnologia em um New York Times op-ed. Uma indústria artesanal de traficantes de IA foi ao Twitter, Substack e YouTube para demonstrar o formidável potencial e poder da IA, acumulando milhões de visualizações e compartilhamentos.
O pergaminho continua. Um colunista do Times teve uma série de conversas com Bing e acabou temendo pela humanidade. Um relatório do Goldman Sachs diz que a IA pode substituir 300 milhões de empregos.
A preocupação também chegou aos salões do poder. Na segunda-feira, o senador Christopher S. Murphy (D-Conn.) tuitou, “ChatGPT aprendeu sozinho a fazer química avançada. Não foi embutido no modelo. Ninguém o programou para aprender química complicada. Decidiu ensinar a si mesma, e então disponibilizou seu conhecimento para qualquer um que pedisse.”
“Algo está vindo. Não estamos prontos.”
Nada disso aconteceu, claro, mas é difícil culpar o senador. O juízo final da IA está absolutamente em toda parte agora. E é exatamente assim que a OpenAI, a empresa que mais se beneficia de todos que acreditam que seu produto tem o poder de refazer – ou desfazer – o mundo, deseja.
A OpenAI está por trás do serviço de IA mais badalado e popular, o gerador de texto ChatGPT, e sua tecnologia atualmente alimenta o novo mecanismo de busca do Bing com infusão de IA da Microsoft, produto de um acordo no valor de US$ 10 bilhões. O uso do ChatGPT-3 é gratuito, um nível premium que garante um acesso mais estável custa $ 20 por mês e há todo um portfólio de serviços disponíveis para compra para atender às necessidades de geração de texto ou imagem de qualquer empresa.
Sam Altman, o executivo-chefe da OpenAI, declarou que ele estava “um pouco assustado” com a tecnologia que atualmente ajuda a construir e pretende disseminar, com fins lucrativos, o mais amplamente possível. Ilya Sutskever, cientista-chefe da OpenAI disse na semana passada que “Em algum momento será muito fácil, se quiser, causar muito mal” com os modelos que estão colocando à disposição de quem estiver disposto a pagar. E um novo relatório produzido e divulgado pela empresa proclama que sua tecnologia colocará “a maioria” dos empregos em algum grau de risco de eliminação.
Vamos considerar a lógica por trás dessas declarações por um segundo: por que você, um CEO ou executivo de uma empresa de tecnologia de alto nível, voltaria repetidamente ao palco público para proclamar como está preocupado com o produto que está construindo e vendendo?
Resposta: Se a profecia apocalíptica sobre o poder aterrorizante da IA servir à sua estratégia de marketing.
A IA, como outras formas mais básicas de automação, não é um negócio tradicional. Assustar os clientes não é uma preocupação quando o que você está vendendo é o poder assustador que seu serviço promete.
A OpenAI trabalhou durante anos para cultivar cuidadosamente uma imagem de si mesma como uma equipe de cientistas humanitários à prova de exageros, buscando a IA para o bem de todos – o que significava que, quando chegasse o momento, o público estaria bem preparado para receber sua IA apocalíptica. proclamações credulamente, como verdades assustadoras, mas impossíveis de ignorar sobre o estado da tecnologia.
A OpenAI foi fundada como uma pesquisa sem fins lucrativos em 2015, com uma grande doação de Musk, um notável destruidor de IA, com o objetivo de “democratizar” a IA. A empresa há muito cultiva um ar de contenção digna em seus empreendimentos de IA; seu objetivo declarado era pesquisar e desenvolver a tecnologia de forma responsável e transparente. O postagem no blog anunciando o OpenAI declarou que “nosso objetivo é fazer avançar a inteligência digital da maneira mais provável para beneficiar a humanidade como um todo, sem restrições pela necessidade de gerar retorno financeiro”.
Durante anos, isso levou a imprensa e os cientistas de IA a tratar a organização como se fosse uma instituição de pesquisa, o que, por sua vez, permitiu que ela conquistasse maiores níveis de respeito na mídia e na comunidade acadêmica – e sofresse menos escrutínio. Ele conquistou boas graças ao compartilhar exemplos de quão poderosas suas ferramentas estavam se tornando – OpenAI’s bots ganhando um campeonato de esportsprimeiros exemplos de artigos inteiros escritos por seu GPT-2 AI – enquanto exorta a necessidade de ser cauteloso e manter seus modelos em segredo e das mãos de maus atores.
Em 2019, a empresa fez a transição para uma empresa com fins lucrativos “limitada”, enquanto continuando a insistir seu “dever fiduciário primário é para com a humanidade”. Este mês, no entanto, a OpenAI anunciou que estava adotando o código-fonte aberto que tornava seus bots possíveis privados. A justificativa: seu produto (que está atualmente disponível para compra) era simplesmente poderoso demais para correr o risco de cair em mãos erradas.
O histórico sem fins lucrativos da OpenAI, no entanto, imbuiu-a de uma aura de respeitabilidade quando a empresa divulgou um documento de trabalho com pesquisadores da UPenn na semana passada. A pesquisa, que, novamente, foi realizada pela própria OpenAI, concluiu que “a maioria das ocupações” agora “exibe algum grau de exposição” a grandes modelos de linguagem (LLMs) como o subjacente ao ChatGPT. Ocupações com salários mais altos têm mais tarefas com alta exposição. E “aproximadamente 19% dos empregos” verão pelo menos metade de todas as tarefas de que são compostas expostas aos LLMs.
Essas descobertas foram devidamente cobertas pela imprensa, enquanto críticos, como Dan Greene, professor assistente da Faculdade de Estudos da Informação da Universidade de Maryland, apontaram que isso era menos uma avaliação científica do que uma profecia autorrealizável. “Você usa a nova ferramenta para ler sua própria sorte,” ele disse. “A questão não é ser ‘correto’, mas marcar um limite para o debate público.”
Independentemente de a OpenAI se tornar uma empresa com fins lucrativos em primeiro lugar, o resultado final é o mesmo: o desencadeamento de um frenesi de marketing infundido em ficção científica, diferente de tudo na memória recente.
Agora, os benefícios desse marketing apocalíptico de IA são duplos. Primeiro, ele encoraja os usuários a experimentar o serviço “assustador” em questão – que melhor maneira de gerar burburinho do que insistir, com certa credibilidade presumida, que sua nova tecnologia é tão potente que pode desvendar o mundo como o conhecemos?
A segunda é mais mundana: é improvável que a maior parte da receita da OpenAI venha de usuários médios que pagam pelo acesso de nível premium. O caso de negócios para um rando pagar taxas mensais para acessar um chatbot que é marginalmente mais interessante e útil do que, digamos, a Pesquisa do Google, é altamente não comprovado.
A OpenAI sabe disso. É quase certo que está apostando seu futuro de longo prazo em mais parcerias como a da Microsoft e negócios empresariais que atendem a grandes empresas. Isso significa convencer mais corporações de que, se quiserem sobreviver à revolta em massa liderada pela IA, é melhor subir a bordo.
Os negócios corporativos sempre foram onde a tecnologia de automação prosperou – com certeza, um punhado de consumidores pode estar interessado em simplificar sua rotina diária ou automatizar tarefas aqui e ali, mas o principal objetivo de vendas para software de produtividade ou quiosques automatizados ou robótica é o gerenciamento.
E um grande motivador para motivar as empresas a comprar a tecnologia de automação é e sempre foi o medo. O historiador da tecnologia David Noble demonstrou em seu estudos de automação industrial que a onda de automação do local de trabalho e do chão de fábrica que varreu as décadas de 1970 e 1980 foi amplamente estimulada por gerentes que se submeteram a um fenômeno altamente difundido que hoje reconhecemos como FOMO. Se as empresas acreditam que uma tecnologia que economiza mão-de-obra é tão poderosa ou eficiente que seus concorrentes certamente a adotarão, elas não vão querer ficar de fora — independentemente da utilidade final.
A grande promessa do conjunto de serviços de IA da OpenAI é, basicamente, que empresas e indivíduos economizarão em custos de mão-de-obra – eles podem gerar cópias de anúncios, arte, apresentações de slides, marketing por e-mail e processos de entrada de dados rapidamente, por um preço baixo.
Isso não sugere que os geradores de imagem e texto do OpenAI não sejam capazes de coisas interessantes, surpreendentes ou mesmo perturbadoras. Mas o gênio conflituoso que Altman e seu círculo OpenAI estão usando está se esgotando. Se você está genuinamente preocupado com a segurança de seu produto, se deseja seriamente ser um administrador responsável no desenvolvimento de uma ferramenta artificialmente inteligente que acredita ser ultrapoderosa, não o coloca em um mecanismo de busca onde ele pode ser acessado por bilhões de pessoas; você não abre as comportas.
Altman argumenta que a tecnologia precisa a ser liberado, neste estágio relativamente inicial, para que sua equipe possa cometer erros e lidar com possíveis abusos “enquanto as apostas são bastante baixas”. Implícito neste argumento, no entanto, está a noção de que devemos simplesmente confiar nele e em sua empresa recém-enclausurada sobre a melhor forma de fazê-lo, mesmo quando eles trabalham para atender às projeções de receita de $ 1 bilhão no próximo ano.
Não estou dizendo para não ficar nervoso com o ataque dos serviços de IA – mas estou dizendo para ficar nervoso pelos motivos certos. Há muito com o que se preocupar, especialmente considerando a perspectiva de que as empresas certamente acharão o discurso de vendas atraente e, quer funcione ou não, muitos redatores, codificadores e artistas de repente descobrirão que seu trabalho não é necessariamente substituído, mas desvalorizado por os onipresentes e muito mais baratos serviços de IA oferecidos. (Há uma razão pela qual os artistas já lançou uma ação coletiva alegando que os sistemas de IA foram treinados em seu trabalho.)
Mas a preocupação com uma “inteligência geral artificial” todo-poderosa e o hype incendiário tendem a obscurecer esses tipos de preocupações de curto prazo. Os especialistas em ética da IA e pesquisadores como Timnit Gebru e Meredith Whittaker foi gritando no vazio que um medo abstrato de uma iminente SkyNet perde a floresta pelas árvores.
“Um dos maiores danos dos grandes modelos de linguagem é causado pela ALEGAÇÃO de que os LLMs têm ‘inteligência competitiva humana’”, disse Gebru. Há um perigo real e legítimo de que essas coisas produzam resultados tendenciosos ou até discriminatórios, ajudem a proliferação de informações erradas, atrapalhem a propriedade intelectual de artistas e muito mais – especialmente porque muitas grandes empresas de tecnologia simplesmente demitiram suas equipes de ética de IA.
É perfeitamente legítimo ter medo do poder de uma nova tecnologia. Apenas saiba que a OpenAI – e todas as outras empresas de IA que querem lucrar com o hype – querem muito que você seja.
.







