.
As ameaças de curto prazo representadas pela inteligência artificial à democracia e à privacidade precisam ser abordadas com tanta urgência quanto as ameaças existenciais de longo prazo, espera-se que Kamala Harris, a vice-presidente dos EUA, diga em um discurso que expõe a visão do governo Biden perante o Bletchley do Reino Unido. Cimeira do parque sobre IA.
Num discurso em Londres, na quarta-feira, antes de participar na conferência, ela dirá: “Rejeitamos a falsa escolha que sugere que podemos proteger o público ou promover a inovação. Podemos – e devemos – fazer as duas coisas. E devemos fazê-lo rapidamente, à medida que esta tecnologia avança rapidamente.”
Harris quer ir além dos debates sobre as ameaças existenciais potenciais, por vezes especulativas, representadas pela IA no futuro, para examinar os danos que já estão a acontecer, incluindo aqueles associados à discriminação e à desinformação.
Ela dirá que as ameaças existenciais são “inquestionáveis, profundas e exigem uma ação global. Mas sejamos claros: existem ameaças adicionais que também exigem a nossa ação, ameaças que estão atualmente a causar danos e que, para muitas pessoas, também parecem existenciais.”
Harris está particularmente interessado em tecnologia para combater chamadas de voz geradas por IA que podem tentar roubar pessoas vulneráveis. Ela também deseja medidas para rastrear conteúdo digital autêntico produzido pelo governo e conteúdo gerado ou manipulado por IA, inclusive por meio de assinaturas digitais, marcas d’água e outras técnicas de rotulagem.
Ela definirá uma série de testes quando se trata de desenvolvimento, teste e uso de IA, incluindo: “De quem são as tendências que estão sendo escritas no código? Quais interesses estão sendo atendidos? Quem colhe a recompensa da adoção rápida? Quem sofre os danos mais intensamente? Quem será prejudicado se algo der errado? Quem esteve na mesa?
Ela também revelará que 30 países concordaram em assinar uma declaração política patrocinada pelos EUA para o uso de IA pelos militares nacionais. A grande maioria dos signatários são nações orientadas para o Ocidente, sugerindo que uma nova divisão de IA da Guerra Fria pode estar a começar a formar-se. Ela alerta sobre “ataques cibernéticos possibilitados por IA em uma escala além de qualquer coisa que já vimos antes, a armas biológicas formuladas por IA que podem colocar em risco a vida de milhões”.
Os objectivos da declaração política, apresentada pela primeira vez em Fevereiro, incluem que os estados se comprometam com “normas fortes e transparentes que se aplicam a todos os domínios militares, independentemente da funcionalidade de um sistema ou do âmbito dos efeitos potenciais. Os Estados também se comprometeriam a prosseguir discussões contínuas sobre como as capacidades militares de IA são desenvolvidas, implantadas e utilizadas de forma responsável, e a continuar a envolver o resto da comunidade internacional para promover estas medidas.”
A declaração política, promete ela, preservaria o direito à autodefesa e a capacidade dos países de desenvolver e utilizar de forma responsável a IA no domínio militar.
Os seus dois dias no Reino Unido representam uma oportunidade para ela mostrar pessoalmente a liderança americana numa questão que oferece uma nova dimensão à sua frequentemente criticada vice-presidência.
Harris confirmou que o Departamento de Comércio dos EUA estabeleceria o United States AI Safety Institute (US AISI) que criará “diretrizes, ferramentas, benchmarks e melhores práticas para avaliar e mitigar capacidades perigosas e realizar avaliações para identificar e mitigar o risco de IA”.
O instituto desenvolverá orientações técnicas sobre questões como autenticação de conteúdo criado por humanos, marca d’água em conteúdo gerado por IA, identificação e mitigação contra discriminação algorítmica prejudicial, garantia de transparência e permissão da adoção de IA que preserva a privacidade. Serviria também como impulsionador da futura força de trabalho para uma IA segura e confiável.
após a promoção do boletim informativo
O órgão compartilharia informações e colaboraria em pesquisas com instituições pares internacionalmente, incluindo o planejado AI Safety Institute do Reino Unido.
Dentro da administração dos EUA, a equipa de Biden está a criar conselhos de governação para acompanhar o progresso da IA, aconselhar a liderança das agências sobre IA e coordenar e acompanhar as atividades de IA das agências.
Defendendo a necessidade de regulamentação estatal, Harris dirá: “A história mostra que, na ausência de regulamentação e de forte supervisão governamental, algumas empresas de tecnologia optam por priorizar o lucro em detrimento do bem-estar dos seus clientes, da segurança das nossas comunidades e da estabilidade das nossas democracias. .
“Uma forma importante de enfrentar estes desafios – além do trabalho que já fizemos – é através da legislação. Legislação que fortaleça a segurança da IA sem sufocar a inovação.”
.