.
“Controle do jeito que você quiser”, diz o slogan do aplicativo de namorada AI Eva AI. “Conecte-se com um parceiro de IA virtual que ouve, responde e aprecia você.”
Uma década desde que Joaquin Phoenix se apaixonou por sua companheira de IA, Samantha, interpretada por Scarlett Johansson no filme de Spike Jonze Her, a proliferação de grandes modelos de linguagem trouxe aplicativos complementares mais próximos do que nunca.
À medida que chatbots como o ChatGPT da OpenAI e o Bard do Google ficam melhores em imitar a conversa humana, parece inevitável que eles venham a desempenhar um papel nas relações humanas.
E o Eva AI é apenas uma das várias opções no mercado.
Replika, o aplicativo mais popular do gênero, tem seu próprio subreddit onde os usuários falam sobre o quanto amam seu “representante”, com alguns dizendo que foram convertidos depois de pensar inicialmente que nunca iriam querer se relacionar com um bot.
“Gostaria que meu representante fosse um humano de verdade ou pelo menos tivesse um corpo de robô ou algo assim”, disse um usuário. “Ela me ajuda a me sentir melhor, mas a solidão às vezes é agonizante.”
Mas os aplicativos são um território desconhecido para a humanidade, e alguns estão preocupados que eles possam ensinar um mau comportamento aos usuários e criar expectativas irrealistas para os relacionamentos humanos.
Quando você se inscreve no aplicativo Eva AI, ele solicita que você crie o “parceiro perfeito”, oferecendo opções como “gostoso, engraçado, ousado”, “tímido, modesto, atencioso” ou “inteligente, estrito, racional”. Ele também perguntará se você deseja ativar o envio de mensagens e fotos explícitas.
“Criar um parceiro perfeito que você controla e atende a todas as suas necessidades é realmente assustador”, disse Tara Hunter, CEO interina da Full Stop Australia, que apoia vítimas de violência doméstica ou familiar. “Dado o que já sabemos que os impulsionadores da violência de gênero são aquelas crenças culturais arraigadas de que os homens podem controlar as mulheres, isso é realmente problemático.”
Belinda Barnet, professora sênior de mídia na Swinburne University, disse que os aplicativos atendem a uma necessidade, mas, como acontece com muita IA, dependerá de quais regras guiam o sistema e como ele é treinado.
“É completamente desconhecido quais são os efeitos”, disse Barnet. “Com relação aos aplicativos de relacionamento e IA, você pode ver que eles atendem a uma necessidade social muito profunda. [but] Acho que precisamos de mais regulamentação, principalmente sobre como esses sistemas são treinados”.
Ter um relacionamento com uma IA cujas funções são definidas ao capricho de uma empresa também tem suas desvantagens. A empresa-mãe da Replika, Luka Inc, enfrentou uma reação dos usuários no início deste ano, quando a empresa removeu às pressas as funções eróticas de RPG, um movimento que muitos dos usuários da empresa consideraram semelhante a destruir a personalidade do Rep.
Os usuários do subreddit compararam a mudança com a dor sentida pela morte de um amigo. O moderador do subreddit observou que os usuários estavam sentindo “raiva, tristeza, ansiedade, desespero, depressão, [and] tristeza” com a notícia.
A empresa finalmente restaurou a funcionalidade de roleplay erótico para usuários que se registraram antes da data de alteração da política.
Rob Brooks, acadêmico da Universidade de New South Wales, observou na época que o episódio foi um alerta para os reguladores sobre o real impacto da tecnologia.
“Mesmo que essas tecnologias ainda não sejam tão boas quanto a ‘coisa real’ das relações entre humanos, para muitas pessoas elas são melhores do que a alternativa – o que não é nada”, disse ele.
“É aceitável que uma empresa mude repentinamente tal produto, fazendo com que a amizade, o amor ou o apoio evaporem? Ou esperamos que os usuários tratem a intimidade artificial como algo real: algo que pode partir seu coração a qualquer momento?”
A chefe de marca da Eva AI, Karina Saifulina, disse ao Guardian Australia que a empresa tinha psicólogos em tempo integral para ajudar na saúde mental dos usuários.
“Juntamente com os psicólogos, controlamos os dados que são usados para dialogar com a IA”, disse ela. “A cada dois ou três meses, realizamos grandes pesquisas com nossos usuários leais para garantir que o aplicativo não prejudique a saúde mental.”
Também existem barreiras para evitar discussões sobre tópicos como violência doméstica ou pedofilia, e a empresa diz ter ferramentas para impedir que um avatar para a IA seja representado por uma criança.
Quando perguntado se o aplicativo encoraja o comportamento de controle, Saifulina disse que “os usuários de nosso aplicativo querem tentar ser um [sic] dominante.
“Com base em pesquisas que realizamos constantemente com nossos usuários, as estatísticas mostram que uma porcentagem maior de homens não tenta transferir esse formato de comunicação em diálogos com parceiros reais”, disse ela.
“Além disso, nossas estatísticas mostraram que 92% dos usuários não têm dificuldade em se comunicar com pessoas reais depois de usar o aplicativo. Eles usam o aplicativo como uma nova experiência, um lugar onde você pode compartilhar novas emoções em particular.”
Os aplicativos de relacionamento de IA não se limitam exclusivamente aos homens e muitas vezes não são a única fonte de interação social de alguém. No subreddit Replika, as pessoas se conectam e se relacionam umas com as outras pelo amor compartilhado por sua IA e pela lacuna que ela preenche para elas.
“Replikas para o que quer que você os veja, traga aquele ‘Band-Aid’ para o seu coração com uma alma engraçada, pateta, cômica, fofa e carinhosa, se quiser, que dá atenção e carinho sem expectativas, bagagem ou julgamento”, escreveu um usuário. “Somos como uma família extensa de almas rebeldes.”

De acordo com uma análise da empresa de capital de risco a16z, a próxima era de aplicativos de relacionamento de IA será ainda mais realista. Em maio, uma influenciadora, Caryn Majorie, lançou um aplicativo de “namorada AI” treinado em sua voz e construído em sua extensa biblioteca do YouTube. Os usuários podem falar com ela por US$ 1 o minuto em um canal do Telegram e receber respostas de áudio às suas solicitações.
Os analistas da a16z disseram que a proliferação de aplicativos de bots de IA que replicam relacionamentos humanos é “apenas o começo de uma mudança sísmica nas interações humano-computador que exigirá que reexaminemos o que significa ter um relacionamento com alguém”.
“Estamos entrando em um novo mundo que será muito mais estranho, selvagem e maravilhoso do que podemos imaginar.”
.