.

Cingapura identificou seis principais riscos associados à inteligência artificial (IA) generativa e propôs uma estrutura sobre como essas questões podem ser abordadas. Ela também estabeleceu uma fundação que procura explorar a comunidade de código aberto para desenvolver kits de ferramentas de teste que mitiguem os riscos da adoção da IA.
Alucinações, desinformação acelerada, desafios de direitos autorais e preconceitos incorporados estão entre os principais riscos da IA generativa descritos em um relatório divulgado pela Infocomm Media Development Authority (IMDA) de Cingapura. O documento de discussão detalha a estrutura do país para a adoção “confiável e responsável” da tecnologia emergente, incluindo padrões de divulgação e interoperabilidade global. O relatório foi desenvolvido em conjunto com a Aicadium, uma empresa de tecnologia de IA fundada pela empresa de investimentos estatal Temasek Holdings.
Também: O boom da IA de hoje amplificará os problemas sociais se não agirmos agora, diz especialista em ética da IA
A estrutura oferece uma visão de como os formuladores de políticas podem impulsionar a governança de IA existente para abordar “características únicas” e preocupações imediatas da IA generativa. Também discute o investimento necessário para garantir resultados de governança no longo prazo, disse a IMDA.
Ao identificar as alucinações como um risco chave, o relatório observou que – semelhante a todos os modelos de IA – os modelos de IA generativa cometem erros e estes são frequentemente vívidos e assumem a antropomorfização.
“Versões atuais e anteriores do ChatGPT são conhecidas por cometerem erros factuais. Esses modelos também têm um tempo mais desafiador ao realizar tarefas como lógica, matemática e bom senso”, observou o documento de discussão.
“Isso ocorre porque o ChatGPT é um modelo de como as pessoas usam a linguagem. Embora a linguagem muitas vezes reflita o mundo, esses sistemas ainda não têm um entendimento profundo sobre como o mundo funciona.”
Essas respostas falsas também podem ser enganosamente convincentes ou autênticas, acrescentou o relatório, apontando como os modelos de linguagem criaram respostas aparentemente legítimas, mas errôneas, a perguntas médicas, além de gerar códigos de software suscetíveis a vulnerabilidades.
Além disso, a disseminação de conteúdo falso é cada vez mais difícil de identificar devido a textos, imagens e vídeos convincentes, mas enganosos, que podem ser potencialmente gerados em escala usando IA generativa.
Também: Como usar o ChatGPT para escrever código
Os ataques de representação e reputação tornaram-se mais fáceis, incluindo ataques de engenharia social que usam deepfakes para obter acesso a indivíduos privilegiados.
A IA generativa também permite causar outros tipos de danos, em que agentes de ameaças com pouca ou nenhuma habilidade técnica podem gerar códigos maliciosos.
Também: Não seja enganado por aplicativos falsos do ChatGPT: veja o que procurar
Esses riscos emergentes podem exigir novas abordagens para a governança da IA generativa, de acordo com o documento de discussão.
A Ministra de Comunicações e Informações de Cingapura, Josephine Teo, observou que os líderes globais ainda estão explorando arquiteturas e abordagens alternativas de IA, com muitas pessoas alertando sobre os perigos da IA.
A IA oferece “inteligência semelhante à humana” em um nível potencialmente alto e a um custo significativamente reduzido, o que é especialmente valioso para países como Cingapura, onde o capital humano é um diferencial importante, disse Teo, que estava falando na cúpula Asia Tech x Singapore desta semana. .
O uso indevido de IA, no entanto, pode causar grandes danos, observou ela. “As grades de proteção são, portanto, necessárias para orientar as pessoas a usá-las com responsabilidade e para que os produtos de IA sejam ‘seguros para todos nós’ por design”, disse ela.
“Esperamos [the discussion paper] vai desencadear muitas conversas e aumentar a conscientização sobre as proteções necessárias”, acrescentou ela.
Também: 6 maneiras prejudiciais de usar o ChatGPT
Durante um diálogo a portas fechadas na cúpula, ela revelou que altos funcionários do governo também debateram os recentes avanços em IA, incluindo modelos generativos de IA, e consideraram como eles poderiam alimentar o crescimento econômico e impactar as sociedades.
As autoridades chegaram a um consenso de que a IA deve ser “apropriadamente” governada e usada para o bem da humanidade, disse Teo, que forneceu um resumo como presidente da discussão. Os participantes da reunião, que incluíam ministros, representavam nações como Alemanha, Japão, Tailândia e Holanda.
Os delegados também concordaram que uma maior colaboração e troca de informações sobre as políticas de governança de IA ajudariam a identificar bases comuns e levar a um melhor alinhamento entre as abordagens. Essa unidade levaria a estruturas de governança e padrões técnicos de IA sustentáveis e adequados ao propósito, disse Teo.
Os funcionários pediram maior interoperabilidade entre as estruturas de governança, que acreditam ser necessária para facilitar o desenvolvimento responsável e a adoção de tecnologias de IA globalmente.
Também houve reconhecimento de que a ética da IA deve ser infundida nos estágios iniciais da educação, enquanto os investimentos em requalificação devem ser priorizados.
Galvanizando a comunidade
Cingapura lançou uma fundação sem fins lucrativos para “aproveitar o poder coletivo” e as contribuições da comunidade global de código aberto para desenvolver ferramentas de teste de IA. O objetivo aqui é facilitar a adoção de IA responsável e promover as melhores práticas e padrões para IA.
Chamado AI Verify Foundation, ele definirá a direção estratégica e o roteiro de desenvolvimento do AI Verify, que foi apresentado no ano passado como uma estrutura e um kit de ferramentas de teste de governança. O kit de ferramentas de teste foi feito de código aberto.
Também: Este novo sistema de IA pode ler mentes com precisão cerca de metade do tempo
A safra atual de 60 membros da AI Verify Foundation inclui IBM, Salesforce, DBS, Singapore Airlines, Zoom, Hitachi e Standard Chartered.
A fundação opera como uma subsidiária integral da IMDA. Com as tecnologias de teste de IA ainda incipientes, a agência governamental de Cingapura disse que explorar as comunidades de código aberto e de pesquisa ajudaria a desenvolver ainda mais o segmento de mercado.
Teo disse: “Acreditamos que a IA é a próxima grande mudança desde a internet e o celular. Em meio a temores e preocupações muito reais sobre seu desenvolvimento, precisaremos direcionar ativamente a IA para usos benéficos e longe dos ruins. Isso é essencial para como Cingapura pensa em IA.”
Em seu discurso na cúpula, o vice-primeiro-ministro e ministro das Finanças de Cingapura, Lawrence Wong, reiterou ainda mais a importância de estabelecer confiança na IA, para que a tecnologia possa ter ampla aceitação.
“Já estamos usando o aprendizado de máquina para otimizar a tomada de decisões e a IA generativa irá além disso para criar conteúdo potencialmente novo e gerar novas ideias”, disse Wong. “No entanto, ainda há sérias preocupações. Usado de forma inadequada, [AI] pode perpetuar vieses perigosos na tomada de decisões. E com a última onda de IA, os riscos são ainda maiores à medida que a IA se torna mais íntima e humana”.
Além disso: a IA tem mais probabilidade de causar destruição mundial do que a mudança climática, de acordo com um especialista em IA
Esses desafios representam questões difíceis para reguladores, empresas e a sociedade em geral, disse ele. “Em que tipo de trabalho a IA deve ajudar? Quanto controle sobre a tomada de decisões uma IA deve ter e quais salvaguardas éticas devemos implementar para ajudar a orientar seu desenvolvimento?”
Wong acrescentou: “Nenhuma pessoa, organização ou mesmo país terá todas as respostas.
Em um painel de discussão, Alexandra van Huffelen, do Ministério do Interior e Relações do Reino da Holanda, reconheceu os benefícios potenciais da IA, mas expressou preocupação com seu impacto potencial, especialmente em meio a sinais mistos da indústria.
O Ministro da Digitalização observou que os participantes do mercado, como a OpenAI, divulgam os benefícios de seus produtos, mas ao mesmo tempo alertam que a IA tem o potencial de destruir a humanidade.
“Essa é uma história maluca para contar”, brincou van Huffelen, antes de perguntar a um colega palestrante da Microsoft como ele se sentia, já que sua empresa é um investidor na OpenAI, a ideia por trás do ChatGPT.
Também: Usei o ChatGPT para escrever a mesma rotina nesses 10 idiomas
Os cofundadores e CEO da OpenAI publicaram no mês passado uma nota conjunta no site da empresa, pedindo a regulamentação dos sistemas de IA de “superinteligência”. Eles falaram sobre a necessidade de uma autoridade global, como a Agência Internacional de Energia Atômica, para supervisionar o desenvolvimento da IA. Essa agência deve “inspecionar sistemas, exigir auditorias, testar a conformidade com os padrões de segurança, impor restrições aos graus de implantação e níveis de segurança”, entre outras responsabilidades, propuseram.
“Seria importante que tal agência se concentrasse na redução do risco existencial e não em questões que deveriam ser deixadas para países individuais, como definir o que uma IA deveria poder dizer”, observaram. “Em termos de possíveis vantagens e desvantagens, a superinteligência será mais poderosa do que outras tecnologias com as quais a humanidade teve de lidar no passado… Dada a possibilidade de risco existencial, não podemos apenas ser reativos. A energia nuclear é uma usado exemplo histórico de uma tecnologia com esta propriedade.”
Em resposta, o presidente da Microsoft na Ásia, Ahmed Mazhari, reconheceu que a reação de van Huffelen não era injustificada, observando que os mesmos proponentes que assinaram uma petição em março para interromper os desenvolvimentos de IA haviam investido no mês seguinte em seu próprio chatbot de IA.
Também: Os melhores chatbots AI: ChatGPT e alternativas para experimentar
Apontando para o dano social resultante da falta de supervisão das plataformas de mídia social, Mazhari disse que a indústria de tecnologia tem a responsabilidade de evitar a repetição dessa falha com a IA.
Ele observou que a discussão em andamento e o aumento da conscientização sobre a necessidade de regulamentações de IA, em particular nas áreas de IA generativa, foi um sinal positivo para uma tecnologia que chegou ao mercado há apenas seis meses.
Além disso, van Huffelen destacou a necessidade de as empresas de tecnologia agirem com responsabilidade, juntamente com a necessidade de regras a serem estabelecidas e de aplicação para garantir que as organizações cumpram esses regulamentos. Ela disse que ainda não foi testado se essa abordagem dupla pode ser alcançada em conjunto.
Ela também enfatizou a importância de estabelecer confiança, para que as pessoas queiram usar a tecnologia e garantir que os usuários tenham controle sobre o que fazem online, como fariam no mundo físico.
Também: Como funciona o ChatGPT?
O membro do painel Keith Strier, vice-presidente de iniciativas mundiais de IA da Nvidia, observou a complexidade da governança devido à ampla acessibilidade das ferramentas de IA. Essa disponibilidade geral significa que há mais oportunidades para criar produtos inseguros.
Strier sugeriu que os regulamentos deveriam ser parte da solução, mas não a única resposta, pois os padrões da indústria, as normas sociais e a educação são cruciais para garantir a adoção segura da IA.
.