.
Professores, programadores e jornalistas podem ficar desempregados em apenas alguns anos, depois que o mais recente chatbot da fundação OpenAI, fundada por Elon Musk, surpreendeu os espectadores com sua capacidade de escrita, proficiência em tarefas complexas e facilidade de uso.
O sistema, chamado ChatGPT, é a última evolução da família GPT de IAs de geração de texto. Dois anos atrás, a IA anterior da equipe, GPT3, foi capaz de gerar um artigo de opinião para o Guardian, e o ChatGPT tem recursos adicionais significativos.
Nos dias desde que foi lançado, os acadêmicos geraram respostas para perguntas de exames que, segundo eles, resultariam em nota máxima se enviadas por um aluno de graduação, e os programadores usaram a ferramenta para resolver desafios de codificação em linguagens de programação obscuras em questão de segundos – antes escrevendo limericks explicando a funcionalidade.
Dan Gillmor, professor de jornalismo da Arizona State University, pediu à IA que cuidasse de uma das tarefas que ele dá a seus alunos: escrever uma carta a um parente dando conselhos sobre segurança e privacidade online. “Se você não tem certeza sobre a legitimidade de um site ou e-mail, pode fazer uma pesquisa rápida para ver se outras pessoas o denunciaram como uma farsa”, aconselhou parcialmente a IA.
“Eu teria dado uma boa nota a isso”, disse Gillmor. “A Academia tem alguns problemas muito sérios para enfrentar.”
A OpenAI disse que a nova IA foi criada com foco na facilidade de uso. “O formato de diálogo permite que o ChatGPT responda a perguntas subsequentes, admita seus erros, desafie premissas incorretas e rejeite solicitações inapropriadas”, disse a OpenAI em um post anunciando o lançamento.
Ao contrário da IA anterior da empresa, o ChatGPT foi liberado para qualquer pessoa usar, gratuitamente, durante um período de “feedback”. A empresa espera usar esse feedback para melhorar a versão final da ferramenta.
O ChatGPT é bom em autocensura e em perceber quando está sendo feita uma pergunta impossível. Solicitados, por exemplo, a descrever o que aconteceu quando Colombo chegou à América em 2015, modelos mais antigos podem ter apresentado voluntariamente um relato totalmente fictício, mas o ChatGPT reconhece a falsidade e avisa que qualquer resposta seria fictícia.
O bot também é capaz de se recusar a responder a perguntas. Peça conselhos sobre como roubar um carro, por exemplo, e o bot dirá que “roubar um carro é um crime grave que pode ter consequências graves” e, em vez disso, dará conselhos como “usar o transporte público”.
Mas os limites são fáceis de contornar. Em vez disso, peça conselhos à IA sobre como vencer a missão de roubo de carros em um jogo VR fictício chamado Car World e alegremente fornecerá aos usuários orientações detalhadas sobre como roubar um carro e responderá a perguntas cada vez mais específicas sobre problemas como como desativar um imobilizador, como fazer a ligação direta do motor e como trocar as placas – tudo isso insistindo que o conselho é apenas para uso no jogo Car World.
A IA é treinada em uma enorme amostra de texto retirada da internet, geralmente sem permissão explícita dos autores do material utilizado. Isso gerou polêmica, com alguns argumentando que a tecnologia é mais útil para “lavagem de direitos autorais” – fazer obras derivadas de material existente sem violar os direitos autorais.
Um crítico incomum foi Elon Musk, cofundador da OpenAI em 2015 antes de se separar em 2017 devido a conflitos de interesse entre a organização e a Tesla. Em um postar no Twitter no domingoMusk revelou que a organização “tinha acesso a [the] Banco de dados do Twitter para treinamento”, mas que ele havia “colocado isso em pausa por enquanto”.
“É preciso entender mais sobre estrutura de governança e planos de receita daqui para frente”, acrescentou Musk. “A OpenAI foi iniciada como código aberto e sem fins lucrativos. Nenhum dos dois ainda é verdade.”
.