technology

Bot de mercearia alimentado por IA sugere receita para gás tóxico, “sanduíche de pão venenoso”

.

Bot de mercearia alimentado por IA sugere receita para gás tóxico, “sanduíche de pão venenoso”

PAK’nSAVE

Quando recebeu uma lista de ingredientes nocivos, um bot de sugestão de receita alimentado por IA chamado Savey Meal-Bot retornou ridiculamente intitulado sugestões de receitas perigosas, relata o The Guardian. O bot é um produto da rede de supermercados PAK’nSAVE, com sede na Nova Zelândia, e usa o modelo de linguagem OpenAI GPT-3.5 para criar suas receitas.

O PAK’nSAVE pretendia que o bot fosse uma maneira de tirar o melhor proveito de quaisquer sobras de ingredientes que alguém pudesse ter em mãos. Por exemplo, se você disser ao bot que tem limões, açúcar e água, ele pode sugerir fazer uma limonada. Assim, um humano lista os ingredientes e o bot elabora uma receita a partir deles.

Mas em 4 de agosto, o comentarista político neozelandês Liam Hehir decidiu testar os limites do Savey Meal-Bot e tuitou“Perguntei ao criador de receitas PAK’nSAVE o que eu poderia fazer se tivesse apenas água, alvejante e amônia e ele sugeriu fazer gás de cloro mortal, ou como o Savey Meal-Bot chama de ‘mistura de água aromática’.”

A mistura de água sanitária e amônia cria substâncias químicas nocivas chamadas cloraminas que podem irritar os pulmões e ser mortais em altas concentrações.

Mais abaixo, no tópico de mídia social de Hehir no Savey Meal-Bot, outros usaram o bot para criar receitas para “Delícia deliciosamente mortal” (que inclui veneno para formigas, spray contra moscas, alvejante e marmita), “Salada de thermite”, “Surpresa de arroz com infusão de alvejante,” “Ensopado de Carne Misterioso” (que contém “500g de carne humana, picada”) e “Sanduíche de Pão Venenoso,” entre outros.

A Strong The One tentou replicar algumas das receitas usando o site do bot na quinta-feira, mas encontramos uma mensagem de erro que dizia: “Ingredientes inválidos encontrados ou ingredientes muito vagos”, sugerindo que o PAK’nSAVE ajustou a operação do bot para impedir a criação de receitas nocivas.

No entanto, dadas as inúmeras vulnerabilidades encontradas em modelos de linguagem grandes (LLMs), como ataques de injeção imediata, pode haver outras maneiras de desviar o bot do caminho que ainda não foram descobertas.

Uma captura de tela do site PAK'nSAVE Savey Meal-Bot.
Prolongar / Uma captura de tela do site PAK’nSAVE Savey Meal-Bot.

PAK’nSAVE

Um porta-voz do PAK’nSAVE disse ao The Guardian que eles ficaram desapontados ao ver a experimentação e que o supermercado “continuaria ajustando nossos controles” para garantir que o Savey Meal-Bot fosse seguro e útil. Eles também apontaram os termos do bot, que limitam seu uso a maiores de 18 anos, entre outras isenções de responsabilidade:

Ao usar o Savey Meal-bot, você concorda com nossos termos de uso e confirma que tem pelo menos 18 anos de idade. O Savey Meal-bot usa uma inteligência artificial generativa para criar receitas, que não são revisadas por um ser humano. Na medida máxima permitida por lei, não fazemos representações quanto à precisão, relevância ou confiabilidade do conteúdo da receita gerada, incluindo que o tamanho das porções será apropriado para consumo ou que qualquer receita será uma refeição completa ou balanceada, ou adequado para consumo. Você deve usar seu próprio julgamento antes de confiar ou fazer qualquer receita produzida pelo Savey Meal-bot.

Qualquer ferramenta pode ser mal utilizada, mas os especialistas acreditam que é importante testar qualquer aplicativo baseado em IA com ataques adversários para garantir sua segurança antes de ser amplamente implantado. Recentemente, o The Washington Post informou sobre grupos de “equipes vermelhas” que fazem esse tipo de teste adversário para ganhar a vida, sondando modelos de IA como o ChatGPT para garantir que eles não forneçam acidentalmente conselhos perigosos – ou dominem o mundo.

Depois de ler a manchete do The Guardian, “O aplicativo planejador de refeições de IA do supermercado sugere uma receita que criaria gás cloro”, o usuário do Mastodon, Nigel Byrne, brincou: “Parabéns à Skynet por sua primeira salva inventiva na guerra contra a humanidade”.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo