technology

Fei-Fei Li, pioneiro da IA: ‘Estou mais preocupado com os riscos que existem aqui e agora’ | Inteligência artificial (IA)

.

Fei-Fei Li é um pioneiro da inteligência artificial (IA) moderna. O seu trabalho forneceu um ingrediente crucial – big data – para os avanços da aprendizagem profunda que ocorreram no início da década de 2010. O novo livro de memórias de Li, Os mundos que vejo, conta sua história de como encontrou sua vocação na vanguarda da revolução da IA ​​e mapeia o desenvolvimento do campo por dentro. Li, 47 anos, é professora de ciência da computação na Universidade de Stanford, onde se especializou em visão computacional. Ela também é codiretora fundadora do Instituto de Inteligência Artificial Centrada no Ser Humano (HAI) de Stanford, que se concentra em pesquisa, educação e políticas de IA para melhorar a condição humana, e fundadora da organização sem fins lucrativos AI4ALL, que visa aumentar a diversidade de pessoas construindo sistemas de IA.

A IA promete transformar o mundo de maneiras que não parecem necessariamente para melhor: matando empregos, aumentando a desinformação e a vigilância e causando danos através de algoritmos tendenciosos. Você assume alguma responsabilidade pela forma como a IA está sendo usada?
Primeiro, para ser claro, a IA não “promete” nada. São as pessoas que são promissoras – ou não promissoras. IA é um software. É feito por pessoas, implantado por pessoas e governado por pessoas.

Em segundo lugar, é claro que não assumo responsabilidade pela forma como toda a IA está sendo usada. Deveria Maxwell assumir a responsabilidade pela forma como a eletricidade é usada porque desenvolveu um conjunto de equações para descrevê-la? Mas sou uma pessoa que tem voz e sinto que tenho a responsabilidade de levantar questões importantes – e foi por isso que criei o Stanford HAI. Não podemos fingir que a IA é apenas um monte de equações matemáticas e pronto. Eu vejo a IA como uma ferramenta. E, como outras ferramentas, nosso relacionamento com ela é confuso. As ferramentas são inventadas, em geral, para produzir resultados positivos, mas há consequências não intencionais e temos de compreender e mitigar bem os seus riscos.

Você nasceu na China, filho único de uma família de classe média que emigrou para os EUA quando tinha 15 anos. Você enfrentou circunstâncias econômicas perigosassua mãe estava com a saúde debilitada e você falava pouco inglês. Como você passou daí para a pesquisa de IA?
Você expôs todos os desafios, mas eu também tive muita sorte. Meus pais me apoiaram: independentemente da nossa situação financeira e do nosso status de imigrante, eles apoiaram aquele garoto nerd da ciência. Por causa disso, descobri física no ensino médio e estava determinado a me formar nela [at university]. Depois, também por sorte, recebi uma bolsa de estudos quase integral para estudar em Princeton. Lá encontrei fascínio por questões audaciosas sobre o que é inteligência e o que significa para uma máquina computacional ser inteligente. Isso me levou ao meu doutorado estudando IA e especificamente visão computacional.

A sua contribuição inovadora para o desenvolvimento da IA ​​contemporânea foi ImageNetque se concretizou pela primeira vez em 2009. Foi um enorme volume de dadosdefinido para treinar e testar a eficácia dos algoritmos de reconhecimento de objetos de IA: mais de 14m imagens, extraídas da web e rotuladas manualmente em mais de 20.000 categorias de substantivos graças aos trabalhadores coletivos. De onde veio a ideia e por que foi tão importante?
O ImageNet se afastou do pensamento anterior porque foi construído com base em uma quantidade muito grande de dados, que é exatamente o que a família de algoritmos de aprendizado profundo [which attempt to mimic the way the human brain signals, but had been dismissed by most as impractical] necessário.

O mundo conheceu o ImageNet em 2012, quando ele desenvolveu um algoritmo de rede neural de aprendizado profundo chamado AlexNet [developed by Geoffrey Hinton’s group at the University of Toronto]. Foi um divisor de águas para a IA porque a combinação deu às máquinas uma capacidade confiável de reconhecimento visual, na verdade, pela primeira vez. Hoje, quando você olha para o ChatGPT e os grandes avanços nos modelos de linguagem, eles também são construídos com base em uma grande quantidade de dados. A linhagem dessa abordagem é ImageNet.

Antes do ImageNet, criei um conjunto de dados muito menor. Mas a minha ideia de ampliar massivamente isso foi desencorajada pela maioria e inicialmente recebeu pouco interesse. Foi só quando [Hinton’s] grupo – que também tinha sido relativamente esquecido – começou a usá-lo quando a maré mudou.

Sua mãe inspirou você a pensar nas aplicações práticas da IA ​​no cuidado de pacientes. Aonde isso levou?
Cuidar da minha mãe tem sido a minha vida há décadas e uma coisa que percebi é que entre mim, as enfermeiras e os médicos não temos ajuda suficiente. Não há pares de olhos suficientes. Por exemplo, minha mãe é paciente cardio e você precisa estar atento à condição desses pacientes de forma contínua. Ela também é idosa e corre risco de cair. Um pilar da pesquisa do meu laboratório é aumentar o trabalho dos cuidadores humanos com câmeras inteligentes não invasivas e sensores inteligentes que usam IA para alertar e prever.

Até que ponto você se preocupa com o risco existencial dos sistemas de IA – que eles poderiam ganhar poderes imprevistos e destruir a humanidade – já que alguns líderes tecnológicos e pesquisadores de alto nível soaram o alarme sobree qual foi um grande foco do Reino Unido da semana passada Cúpula de Segurança de IA?
Respeito a preocupação existencial. Não estou dizendo que é bobagem e que nunca devemos nos preocupar com isso. Mas, em termos de urgência, estou mais preocupado em melhorar os riscos que existem aqui e agora.

Qual é a sua posição em relação à regulamentação da IA, que falta atualmente?
Os decisores políticos estão agora envolvidos em conversações, o que é bom. Mas há muita hipérbole e retórica extrema de ambos os lados. O que é importante é que sejamos matizados e atenciosos. Qual é o equilíbrio entre regulação e inovação? Estamos tentando regulamentar a escrita de um código de IA ou [downstream] onde a borracha encontra a estrada? Criamos uma agência separada ou recorremos às já existentes?

Os problemas de preconceito incorporados à tecnologia de IA foram bem documentados e o ImageNet não é exceção. Foi criticado pelo uso de termos classificatórios misóginos, racistas, capazes e julgadores, combinando imagens de pessoas com palavras como alcoólatra, pessoa má, garota de programa e pior. Como você se sentiu com o fato de seu sistema ter sido questionado e como você abordou isso?
O processo de fazer ciência é coletivo. É importante que continue a ser criticado e repetido e saúdo a discussão intelectual honesta. ImageNet é construído sobre a linguagem humana. Sua espinha dorsal é um grande banco de dados lexical de inglês chamado WordNet, criado há décadas. E a linguagem humana contém alguns termos injustos e severos. Apesar de termos tentado filtrar termos depreciativos, não fizemos o trabalho perfeito. E foi por isso que, por volta de 2017, voltamos e fizemos mais para desviá-lo.

Deveríamos nós, como alguns argumentaram, rejeitar simplesmente algumas tecnologias baseadas em IA – como o reconhecimento facial no policiamento – porque acaba por ser demasiado prejudicial?
Acho que precisamos de nuances, especialmente sobre como, especificamente, ele está sendo usado. Eu adoraria que a tecnologia de reconhecimento facial fosse usada para aumentar e melhorar o trabalho da polícia de maneira adequada. Mas sabemos que os algoritmos têm limitações – [racial] o preconceito tem sido um problema – e não devemos, intencionalmente ou não, prejudicar pessoas e especialmente grupos específicos. É um problema multissetorial.

A desinformação – a criação e difusão de notícias e imagens falsas – está no centro das atenções, especialmente durante a guerra Israel-Hamas. Poderia a IA, que se revelou surpreendentemente boa na criação de conteúdo falso, também ajudar a combatê-lo?
A desinformação é um problema profundo e penso que todos devemos preocupar-nos com isso. Acho que a IA como uma peça de tecnologia poderia ajudar. Uma área é a autenticação digital de conteúdo: sejam vídeos, imagens ou documentos escritos, podemos encontrar maneiras de autenticá-los usando IA? Ou maneiras de marcar conteúdo gerado por IA para que seja distinguível? A IA pode ser melhor em denunciar a desinformação do que os humanos no futuro.

Qual você acha que será o próximo avanço da IA?
Sou apaixonado por IA incorporada [AI-powered robots that can interact with and learn from a physical environment]. Ainda faltam alguns anos, mas é algo em que meu laboratório está trabalhando. Também estou ansioso pelos aplicativos desenvolvidos com base nos grandes modelos de linguagem de hoje, que podem realmente ser úteis para a vida e o trabalho das pessoas. Um exemplo pequeno, mas real, é o uso de tecnologia semelhante ao ChatGPT para ajudar os médicos a escrever resumos médicos, o que pode levar muito tempo e ser muito mecânico. Espero que todo o tempo economizado seja devolvido aos pacientes.

Alguns te chamaram de “madrinha” ou “mãe”da IA ​​– como você se sente sobre isso?
Minha verdadeira natureza nunca me daria tal título. Mas às vezes é preciso ter uma visão relativa, e temos tão poucos momentos em que as mulheres recebem crédito. Se eu contextualizar desta forma, estou bem com isso. Só que não quero que seja singular: deveríamos reconhecer mais mulheres pelas suas contribuições.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo