Ciência e Tecnologia

Os chatbots de IA estão invadindo seu governo local – e deixando todos nervosos

.

Os Estados Unidos A Agência de Proteção Ambiental bloqueou o acesso de seus funcionários ao ChatGPT, enquanto a equipe do Departamento de Estado dos EUA na Guiné o utilizou para redigir discursos e postagens nas redes sociais.

Maine proibiu os funcionários do poder executivo de usar inteligência artificial generativa durante o resto do ano, por preocupação com a segurança cibernética do estado. Na vizinha Vermont, funcionários do governo estão usando-o para aprender novas linguagens de programação e escrever códigos internos, de acordo com Josiah Raiche, diretor de inteligência artificial do estado.

A cidade de San Jose, Califórnia, escreveu 23 páginas de diretrizes sobre IA generativa e exige que os funcionários municipais preencham um formulário sempre que usarem uma ferramenta como ChatGPT, Bard ou Midjourney. A menos de uma hora de carro para norte, o governo do condado de Alameda realizou sessões para educar os funcionários sobre os riscos da IA ​​generativa – tais como a sua propensão para divulgar informações convincentes mas imprecisas – mas ainda não vê necessidade de uma política formal.

“Estamos mais preocupados com o que você pode fazer, não com o que não pode fazer”, diz Sybil Gurney, vice-diretora de informação do condado de Alameda. A equipe do condado está “realizando grande parte de seu trabalho escrito usando o ChatGPT”, acrescenta Gurney, e usou o Einstein GPT da Salesforce para simular usuários para testes de sistemas de TI.

A todos os níveis, os governos procuram formas de aproveitar a IA generativa. Autoridades estaduais e municipais disseram à Strong The One que acreditam que a tecnologia pode melhorar algumas das qualidades mais irritantes da burocracia, simplificando a papelada rotineira e melhorando a capacidade do público de acessar e compreender material governamental denso. Mas os governos – sujeitos a leis rigorosas de transparência, eleições e um sentido de responsabilidade cívica – também enfrentam um conjunto de desafios distintos dos do sector privado.

“Todo mundo se preocupa com a responsabilidade, mas ela atinge um nível diferente quando você é literalmente o governo”, diz Jim Loter, diretor interino de tecnologia da cidade de Seattle, que divulgou diretrizes preliminares de IA generativa para seus funcionários em abril. “As decisões que o governo toma podem afectar as pessoas de formas bastante profundas e… devemos ao nosso público ser equitativos e responsáveis ​​nas acções que tomamos e abertos sobre os métodos que informam as decisões.”

Os riscos para os funcionários do governo foram ilustrados no mês passado, quando um superintendente assistente em Mason City, Iowa, foi destacado nacionalmente por usar o ChatGPT como um passo inicial para determinar quais livros deveriam ser removidos das bibliotecas do distrito porque continham descrições de atos sexuais. . As remoções de livros foram exigidas por uma lei estadual recentemente promulgada.

Esse nível de escrutínio dos funcionários do governo provavelmente continuará. Nas suas políticas de IA generativa, as cidades de San Jose e Seattle e o estado de Washington alertaram os funcionários de que qualquer informação inserida como um aviso numa ferramenta de IA generativa fica automaticamente sujeita a divulgação ao abrigo das leis de registo público.

Essas informações também são ingeridas automaticamente nos bancos de dados corporativos usados ​​para treinar ferramentas generativas de IA e podem ser devolvidas a outra pessoa usando um modelo treinado no mesmo conjunto de dados. Na verdade, um grande estudo do Instituto Stanford para Inteligência Artificial Centrada no Ser Humano, publicado em novembro passado, sugere que quanto mais precisos forem os grandes modelos de linguagem, mais propensos eles serão a regurgitar blocos inteiros de conteúdo de seus conjuntos de treinamento.

Esse é um desafio particular para as agências de saúde e de justiça criminal.

Loter diz que os funcionários de Seattle consideraram usar IA generativa para resumir longos relatórios investigativos do Escritório de Responsabilidade Policial da cidade. Esses relatórios podem conter informações públicas, mas ainda confidenciais.

A equipe do Tribunal Superior do Condado de Maricopa, no Arizona, usa ferramentas generativas de IA para escrever código interno e gerar modelos de documentos. Eles ainda não o usaram para comunicações públicas, mas acreditam que tem potencial para tornar os documentos legais mais legíveis para não advogados, diz Aaron Judy, chefe de inovação e IA do tribunal. Os funcionários poderiam, teoricamente, inserir informações públicas sobre um processo judicial numa ferramenta de IA generativa para criar um comunicado de imprensa sem violar quaisquer políticas judiciais, mas, diz ela, “provavelmente ficariam nervosos”.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo