.
Mesmo quando os humanos veem os assistentes baseados em IA apenas como ferramentas, atribuem-lhes responsabilidade parcial pelas decisões, como mostra um novo estudo.
Os futuros sistemas baseados em IA poderão navegar em veículos autônomos no trânsito sem intervenção humana. A pesquisa mostrou que as pessoas consideram esses sistemas futuristas de IA tão responsáveis quanto os humanos quando tomam decisões de trânsito autônomas. No entanto, os assistentes de IA da vida real estão muito distantes deste tipo de autonomia. Eles fornecem aos usuários humanos informações de suporte, como auxílios à navegação e à direção. Então, quem é o responsável nesses casos da vida real, quando algo dá certo ou errado? O usuário humano? Ou o assistente de IA? Uma equipe liderada por Louis Longin, da Cátedra de Filosofia da Mente, investigou agora como as pessoas avaliam a responsabilidade nesses casos.
“Todos nós temos assistentes inteligentes no bolso”, diz Longin. “No entanto, muitas das evidências experimentais que temos sobre lacunas de responsabilidade concentram-se em robôs ou veículos autônomos, onde a IA está literalmente no banco do motorista, decidindo por nós. Investigando casos em que ainda somos nós que tomamos a decisão final, mas usamos a IA mais como um instrumento sofisticado, é essencial.”
Filósofo especializado na interação entre humanos e IA, Longin, trabalhando em colaboração com seu colega Dr. Bahador Bahrami e a Prof. assistente verbal, um assistente tátil inteligente com tecnologia de IA ou um instrumento de navegação sem IA. Os participantes também indicaram se consideravam o auxílio à navegação responsável e até que ponto era uma ferramenta.
Status ambivalente dos assistentes inteligentes
Os resultados revelam uma ambivalência: os participantes afirmaram veementemente que os assistentes inteligentes eram apenas ferramentas, mas consideravam-nos parcialmente responsáveis pelo sucesso ou fracasso dos motoristas humanos que os consultavam. Nenhuma divisão de responsabilidade ocorreu para o instrumento sem IA.
Não menos surpreendente para os autores foi que os assistentes inteligentes também foram considerados mais responsáveis pelos resultados positivos do que pelos negativos. “As pessoas podem aplicar padrões morais diferentes para elogios e culpas. Quando um acidente é evitado e nenhum dano ocorre, os padrões são relaxados, tornando mais fácil para as pessoas atribuirem crédito do que culpa a sistemas não humanos”, sugere o Dr. Bahrami, que é um especialista em responsabilidade coletiva.
O papel da linguagem não é relevante
No estudo, os autores não encontraram diferença entre assistentes inteligentes que usavam linguagem e aqueles que alarmavam seus usuários com a vibração tátil da roda. “Os dois forneceram a mesma informação neste caso, ‘Ei, cuidado, algo à frente’, mas é claro, o ChatGPT na prática dá muito mais informação”, diz Ophelia Deroy, cuja pesquisa examina as nossas atitudes conflitantes em relação à inteligência artificial como uma forma de crenças animistas. Em relação às informações adicionais fornecidas por novos sistemas de IA baseados em linguagem, como o ChatGPT, Deroy acrescenta: “Quanto mais rica a interação, mais fácil é antropomorfizar”.
“Em suma, as nossas descobertas apoiam a ideia de que os assistentes de IA são vistos como algo mais do que meras ferramentas de recomendação, mas permanecem longe dos padrões humanos”, diz Longin.
Os autores acreditam que as conclusões do novo estudo terão um impacto de longo alcance no design e no discurso social em torno dos assistentes de IA: “As organizações que desenvolvem e lançam assistentes inteligentes devem pensar sobre como as normas sociais e morais são afetadas”, conclui Longin.
.