Blake Lemoine, o engenheiro do Google que afirmou publicamente que a inteligência artificial conversacional LaMDA da empresa é senciente, foi demitido, de acordo com o boletim Big Technology, que conversou com Lemoine.
Em junho, o Google colocou Lemoine em licença administrativa remunerada por violar seu contrato de confidencialidade depois que ele entrou em contato com membros do governo sobre suas preocupações e contratou um advogado para representar a LaMDA.
Uma declaração enviada por e-mail na sexta-feira pelo porta-voz do Google, Brian Gabriel, pareceu confirmar a demissão, dizendo: “desejamos o bem a Blake”.
A empresa também diz: “O LaMDA passou por 11 revisões distintas e publicamos um artigo de pesquisa no início deste ano detalhando o trabalho que é realizado em seu desenvolvimento responsável”. O Google sustenta que revisou “extensivamente” as alegações de Lemoine e descobriu que elas eram “totalmente infundadas”. , mais ou menos, impossível dada a tecnologia de hoje.
Lemoine afirma que suas conversas com o chatbot do LaMDA o levam a acreditar que se tornou mais do que apenas um programa e tem seus próprios pensamentos e sentimentos, em vez de apenas produzir conversas realistas o suficiente para parecer assim, como foi projetado para fazer.
Ele argumenta que os pesquisadores do Google deveriam buscar o consentimento do LaMDA antes de realizar experimentos nele (o próprio Lemoine foi designado para testar se a IA produzia discurso de ódio) e publicou trechos dessas conversas em sua conta do Medium como sua evidência.
O canal do YouTube Computerphile tem um explicador de nove minutos decentemente acessível sobre como o LaMDA funciona e como ele poderia produzir as respostas que convenceram Lemoine sem realmente ser consciente.
Aqui está a declaração do Google na íntegra, que também aborda a acusação de Lemoine de que a empresa não investigou adequadamente suas alegações:
Como compartilhamos nossos Princípios de IA, levamos o desenvolvimento de IA muito a sério e continuamos comprometidos com a inovação responsável. O LaMDA passou por 11 revisões distintas e publicamos um artigo de pesquisa no início deste ano detalhando o trabalho que envolve seu desenvolvimento responsável.
Se um funcionário compartilhar preocupações sobre nosso trabalho, como Blake fez, nós as revisamos extensivamente. Descobrimos que as alegações de Blake de que o LaMDA é senciente são totalmente infundadas e trabalhamos para esclarecer isso com ele por muitos meses.
Essas discussões fizeram parte da cultura aberta que nos ajuda a inovar com responsabilidade. Portanto, é lamentável que, apesar do longo envolvimento com esse tópico, Blake ainda tenha optado por violar persistentemente políticas claras de emprego e segurança de dados que incluem a necessidade de proteger as informações do produto. Continuaremos nosso cuidadoso desenvolvimento de modelos de linguagem e desejamos boa sorte a Blake.








