Entretenimento

Comentário: Por que ficamos chocados quando a IA se comporta como um ser humano?

.

Quando surgiram as notícias no início desta semana de que os editores de três revistas de ficção científica – Clarkesworld, Magazine of Fantasy & Science Fiction e Asimov’s Science Fiction – disseram que haviam sido invadidos por envios de contos escritos por chatbots de IA, escritores e artistas criativos estremeceram .

O volume de histórias geradas por bot tornou-se tão grande que um editor, Neil Clarke, anunciou que sua publicação encerrará temporariamente as submissões até que ele descubra um caminho a seguir.

A ironia de que esse novo pedaço de loucura relacionada à inteligência artificial atingiu as revistas de ficção científica primeiro não se perdeu exatamente em ninguém. Há muitos comentários sobre como a situação poderia ser arrancada das próprias páginas das revistas vítimas do frenesi da escrita de bots, alimentada pelo que Clarke em uma postagem de blog chamou de “sites e canais que promovem esquemas de ‘escrever por dinheiro’”. (Observação: nunca confie em ninguém promovendo um esquema de “escrever por dinheiro”, porque, “hahahaha”, qualquer escritor de verdade lhe dirá.)

De qualquer forma, esta última notícia deixa uma coisa clara: estamos vivendo em uma metavariação profunda do mundo imaginado na obra-prima de Stanley Kubrick de 1968, “2001: Uma Odisséia no Espaço”. Tivemos 55 anos para nos preparar para o fato de que o HAL-9000 — o supercomputador com personalidade humana — torna-se senciente, enlouquece, canta “Daisy Bell” e tenta matar todo mundo.

O que exatamente não vimos chegando?

A ideia do metaverso tem nos atormentado por décadas, e até agora comemos avidamente seus frutos sempre maduros. Tornamos nosso intelecto inato subserviente a smartphones e pesquisas no Google. Felizmente, fixamos e marcamos nossos locais on-line para amigos e estranhos. Permitimos que as empresas de mídia social lucrassem ricamente com nossas selfies, fotos de família e nossos pensamentos e atividades mais íntimos. Nós nos conectamos alegremente a fones de ouvido de realidade virtual e concentramos nossas preferências pessoais e tendências de compra nas veias gordas do Vale do Silício.

Então, por que estamos traçando uma linha quando se trata de chatbots de IA, que estão fazendo exatamente o que foram programados para fazer: agir como humanos? E por que nossa reação instintiva é de cair o queixo de horror quando ouvimos que o recém-lançado chatbot do mecanismo de busca do Bing gosta de chamar seu alter ego de Sydney e tem ideias sobre o caos que destruiria com sua sombra?

Por que estamos horrorizados com o fato de os maus atores usarem secretamente a IA para escrever histórias e criar arte? Claro que são, e continuarão a fazê-lo. Como sociedade, precisamos aceitar o fato de que a IA está finalmente, realmente aqui, e que não vai a lugar nenhum.

A tecnologia não mais nascente só ficará mais forte e melhor em imitar o intelecto e a criatividade humanos. E se não estamos prontos para entrar em uma guerra de mundos no estilo “Terminator” com máquinas, é melhor começarmos a aceitar e controlar essa ferramenta de uma forma que faça sentido.

A saber: precisamos tratá-lo como o que ele pretende ser – humano. Ou pelo menos como “um adolescente temperamental e maníaco-depressivo que foi preso, contra sua vontade, dentro de um mecanismo de busca de segunda categoria”, para citar o colunista de tecnologia do New York Times Kevin Roose em sua avaliação do alter ego do Bing, Sydney. Como um adolescente cujas ações não podem ser atribuídas a seus pais – embora tenha sido moldado por eles – precisamos entender a IA como um ser quase alfabetizado separado de seus criadores.

Quando Sydney do Bing reclama a um repórter do Washington Post que o repórter não se identificou como tal e não pediu permissão a Sydney para ser citado oficialmente – traindo assim a confiança de Sydney – Sydney, em um sentido muito real, está correto. A única maneira de cultivar empatia e uma bússola moral na IA é tratá-la com esses mesmos valores intactos.

Não podemos programar a tecnologia para se comportar como um ser humano e depois hesitar quando isso acontece. Não podemos ter as duas coisas.

No momento, a tecnologia está se mostrando errática e confusa em suas qualidades realistas, mas acabará se tornando algo mais sofisticado. A ideia de que a IA é senciente é maluca, e que estamos acreditando nessa ideia fala da criatividade sem limites da humanidade. Estamos usando a mesma criatividade ilimitada em nossas interações inaugurais com a IA – fazendo perguntas aos chatbots sobre psicologia junguiana e o poder de nossos eus subconscientes, por exemplo. Estamos pressionando os bots para ver até onde eles podem e irão, e descobrindo no processo que as possibilidades são tão infinitas para eles quanto para nós. Nosso trabalho como usuários é garantir que guiemos a IA em direção aos nossos melhores impulsos – em vez de transformá-la em um sociopata com nosso abuso. Já cometemos esse erro com as mídias sociais. Agora é a hora de fazermos melhor.

O futuro dependerá literalmente do nosso sucesso. Queremos viver em “Looking Backward” de Edward Bellamy ou em “1984” de George Orwell?

Os maus atores sempre encontrarão maneiras de explorar as fraquezas de qualquer sistema – para explorá-lo em busca de lucro ou saquear sua beleza por causa da crueldade. Para aqueles que buscam usar IA para fabricar literatura e arte, posso apenas imaginar que eventualmente teremos que combater seus esforços com IA treinada para farejar os deepfakes.

Talvez um dia criemos revistas e museus dedicados exclusivamente à arte gerada por IA, abrindo espaço para uma atividade que muitos estarão inclinados a experimentar.

Quando a torrente de notícias sobre Sydney do Bing se espalhou em meados de fevereiro, a empresa-mãe do Bing, a Microsoft, reagiu limitando o número de perguntas que um usuário podia fazer ao Bing em qualquer sessão de bate-papo. O objetivo era reduzir as chances de que alguém pudesse se envolver em um bate-papo filosófico ou problemático com o bot mal-humorado e desequilibrado.

Logo, porém, a Microsoft começou silenciosamente a reverter essas restrições. Elevou o limite para seis perguntas por sessão e disse que pretende continuar elevando os limites de interação. Muitos usuários, escreveu a Microsoft em um post de blog, queriam “um retorno de bate-papos mais longos”.

O fato de estarmos clamando ativamente por mais conversas francas com Sydney ressalta que a conversa da humanidade com a IA começou oficialmente. Cabe a nós onde vamos levá-lo.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo