technology

Prepare-se para conhecer os clones do Chat GPT

.

Prepare-se para conhecer os clones do Chat GPT

Edward Olive/Getty Images

O ChatGPT pode muito bem ser o algoritmo mais famoso e potencialmente valioso do momento, mas as técnicas de inteligência artificial usadas pelo OpenAI para fornecer sua inteligência não são únicas nem secretas. Projetos concorrentes e clones de código aberto podem em breve disponibilizar bots no estilo ChatGPT para qualquer pessoa copiar e reutilizar.

A Stability AI, uma startup que já desenvolveu uma tecnologia avançada de geração de imagens de código aberto, está trabalhando em um concorrente aberto do ChatGPT. “Faltam poucos meses para o lançamento”, diz Emad Mostaque, CEO da Stability. Várias startups concorrentes, incluindo Anthropic, Cohere e AI21, estão trabalhando em chatbots proprietários semelhantes ao bot da OpenAI.

A inundação iminente de chatbots sofisticados tornará a tecnologia mais abundante e visível para os consumidores, bem como mais acessível para empresas, desenvolvedores e pesquisadores de IA. Isso poderia acelerar a corrida para ganhar dinheiro com ferramentas de IA que geram imagens, código e texto.

Empresas estabelecidas como Microsoft e Slack estão incorporando o ChatGPT em seus produtos, e muitas startups estão se esforçando para criar uma nova API do ChatGPT para desenvolvedores. Mas a disponibilidade mais ampla da tecnologia também pode complicar os esforços para prever e mitigar os riscos que a acompanham.

A capacidade sedutora do ChatGPT de fornecer respostas convincentes a uma ampla gama de perguntas também faz com que às vezes invente fatos ou adote personas problemáticas. Ele pode ajudar com tarefas maliciosas, como produzir código de malware ou campanhas de spam e desinformação.

Como resultado, alguns pesquisadores pediram que a implantação de sistemas semelhantes ao ChatGPT seja retardada enquanto os riscos são avaliados. “Não há necessidade de interromper a pesquisa, mas certamente poderíamos regular a implantação generalizada”, diz Gary Marcus, especialista em IA que procurou chamar a atenção para riscos como a desinformação gerada pela IA. “Podemos, por exemplo, pedir estudos em 100.000 pessoas antes de liberar essas tecnologias para 100 milhões de pessoas.”

A disponibilidade mais ampla de sistemas estilo ChatGPT e o lançamento de versões de código aberto tornariam mais difícil limitar a pesquisa ou uma implantação mais ampla. E a competição entre empresas grandes e pequenas para adotar ou igualar o ChatGPT sugere pouco apetite para desacelerar, mas parece incentivar a proliferação da tecnologia.

Na semana passada, o LLaMA, um modelo de IA desenvolvido pela Meta – e semelhante ao que está no centro do ChatGPT – vazou online depois de ser compartilhado com alguns pesquisadores acadêmicos. O sistema pode ser usado como um bloco de construção na criação de um chatbot e seu lançamento despertou preocupação entre aqueles que temem que os sistemas de IA conhecidos como modelos de linguagem grande e os chatbots construídos sobre eles, como o ChatGPT, sejam usados ​​para gerar desinformação ou automatizar violações de segurança cibernética. Alguns especialistas argumentam que tais riscos podem ser exagerados, e outros sugerem que tornar a tecnologia mais transparente ajudará de fato os outros a se protegerem contra o uso indevido.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo