.
OpenAI compartilhou um primeiro vislumbre de uma nova ferramenta que gera vídeos instantaneamente a partir de apenas uma linha de texto.
Apelidada de Sora em homenagem à palavra japonesa para “céu”, a ferramenta da OpenAI marca o último salto em frente do inteligência artificial empresa, já que Google, Meta e a startup Runway ML trabalham em modelos semelhantes.
A empresa por trás do ChatGPT disse que o modelo de Sora entende como os objetos “existem no mundo físico” e pode “interpretar adereços com precisão e gerar personagens atraentes que expressam emoções vibrantes”.
Em exemplos postados em seu site, a OpenAI exibiu uma série de vídeos gerados por Sora “sem modificação”. Um clipe destacou uma mulher fotorrealista caminhando por uma rua chuvosa de Tóquio.
As instruções incluíam que ela “anda com confiança e casualmente”, que “a rua é úmida e reflexiva, criando um efeito de espelho das luzes coloridas” e que “muitos pedestres andam por aí”.
Outro, com a frase “vários mamutes peludos gigantes se aproximam caminhando por um prado nevado”, mostrava os animais extintos perto de uma cordilheira levantando neve em pó enquanto caminhavam.
Um vídeo gerado por IA também mostrou um dálmata caminhando ao longo de peitoris de janelas em Burano, Itália, enquanto outro levou o espectador a um “tour por uma galeria de arte com muitas belas obras de arte em diferentes estilos”.
Preocupações com direitos autorais e privacidade
Mas OpenAI’s A mais nova ferramenta foi recebida com ceticismo e preocupação de que pudesse ser mal utilizada.
Rachel Tobac, que é membro do conselho consultivo técnico da Agência de Segurança Cibernética e de Infraestrutura (CISA) dos EUA, postou no X que “precisamos discutir os riscos” do modelo de IA.
“Minha maior preocupação é como esse conteúdo pode ser usado para enganar, manipular, fazer phishing e confundir o público em geral”, disse ela.
Falta de Transparência
Outros também sinalizaram preocupações sobre direitos autorais e privacidade, com o CEO da empresa sem fins lucrativos de IA Fairly Trained Ed Newton-Rex acrescentando: “Você simplesmente não pode argumentar que esses modelos não competem ou não competirão com o conteúdo em que foram treinados. e os criadores humanos por trás desse conteúdo.
“Em que o modelo é treinado? Os provedores de dados de treinamento consentiram que seu trabalho fosse usado? A total falta de informações da OpenAI sobre isso não inspira confiança.”
Consulte Mais informação:
Biden falso gerado por IA diz às pessoas para não votarem
Sadiq Khan: Deepfake quase causou ‘distúrbio grave’
A OpenAI disse em um blog que está interagindo com artistas, legisladores e outros para garantir a segurança antes de lançar a nova ferramenta ao público.
“Estamos trabalhando com red teamers – especialistas em áreas como desinformação, conteúdo de ódio e preconceito – que testarão o modelo de forma adversa”, disse a empresa.
“Também estamos construindo ferramentas para ajudar a detectar conteúdo enganoso, como um classificador de detecção que pode dizer quando um vídeo foi gerado por Sora”.
OpenAI ‘não pode prever’ o uso de Sora
No entanto, a empresa admitiu que, apesar de extensas pesquisas e testes, “não podemos prever todas as formas benéficas como as pessoas utilizarão a nossa tecnologia, nem todas as formas como as pessoas irão abusar dela”.
“É por isso que acreditamos que aprender com o uso no mundo real é um componente crítico para criar e lançar sistemas de IA cada vez mais seguros ao longo do tempo”, acrescentaram.
O New York Times processou a OpenAI no final do ano passado, devido a alegações de que ela e seu maior investidor, a Microsoft, usaram ilegalmente os artigos do jornal para treinar e criar Bate-papoGPT.
A ação alega que o modelo de texto de IA agora compete com o jornal como fonte de informação confiável e ameaça a capacidade da organização de fornecer tal serviço.
No Dia dos Namorados, a OpenAI também compartilhou que havia encerrado as contas de cinco grupos afiliados ao estado que usavam os grandes modelos de linguagem da empresa para estabelecer as bases para campanhas de hackers.
Eles disseram que os grupos de ameaças – ligados à Rússia, Irã, Coreia do Norte e China – estavam usando as ferramentas da empresa para tarefas precursoras de hackers, como consultas de código aberto, tradução, busca de erros no código e execução de tarefas básicas de codificação.
.