Estudos/Pesquisa

A IA deve ser melhor compreendida e gerenciada – alerta uma nova pesquisa

.

A Inteligência Artificial (IA) e os algoritmos podem e estão a ser usados ​​para radicalizar, polarizar e espalhar o racismo e a instabilidade política, afirma um académico da Universidade de Lancaster.

O professor de Segurança Internacional da Universidade de Lancaster, Joe Burton, argumenta que a IA e os algoritmos não são apenas ferramentas utilizadas pelas agências de segurança nacional para prevenir atividades maliciosas online, mas podem contribuir para a polarização, o radicalismo e a violência política – representando uma ameaça à segurança nacional.

Além disso, diz ele, os processos de titularização (apresentando a tecnologia como uma ameaça existencial) têm sido fundamentais na forma como a IA foi concebida e utilizada e nos resultados prejudiciais que gerou.

O artigo do professor Burton ‘Extremismo algorítmico? A securitização da Inteligência Artificial (IA) e seu impacto no radicalismo, na polarização e na violência política’ é publicado no livro de alto impacto da Elsevier Tecnologia na Sociedade Diário.

“A IA é frequentemente considerada uma ferramenta a ser usada para combater o extremismo violento”, diz o professor Burton. “Aqui está o outro lado do debate.”

O artigo analisa a forma como a IA foi securitizada ao longo da sua história e nas representações dos meios de comunicação social e da cultura popular, explorando exemplos modernos de IA com efeitos polarizadores e radicalizantes que contribuíram para a violência política.

O artigo cita a clássica série de filmes, O Exterminador do Futuro, que retratava um holocausto cometido por uma inteligência artificial “sofisticada e maligna”, fazendo mais do que qualquer coisa para enquadrar a consciência popular da Inteligência Artificial e o medo de que a consciência da máquina pudesse levar a consequências devastadoras para humanidade – neste caso, uma guerra nuclear e uma tentativa deliberada de exterminar uma espécie.

“Esta falta de confiança nas máquinas, os receios a elas associados e a sua associação com ameaças biológicas, nucleares e genéticas à humanidade contribuíram para um desejo por parte dos governos e agências de segurança nacionais de influenciar o desenvolvimento da tecnologia, de mitigar risco e (em alguns casos) aproveitar o seu potencial positivo”, escreve o Professor Burton.

O papel dos drones sofisticados, como os utilizados na guerra na Ucrânia, é, diz o professor Burton, agora capaz de total autonomia, incluindo funções como identificação e reconhecimento de alvos.

E, embora tenha havido um amplo e influente debate de campanha, inclusive na ONU, para proibir os “robôs assassinos” e para manter o ser humano informado quando se trata de tomada de decisões de vida ou morte, a aceleração e integração em drones armados, diz ele, continuou em ritmo acelerado.

Na segurança cibernética – a segurança de computadores e redes de computadores – a IA está a ser utilizada de forma importante, sendo a área mais prevalente a (des)informação e a guerra psicológica online.

As ações do governo de Putin contra os processos eleitorais dos EUA em 2016 e o ​​subsequente escândalo da Cambridge Analytica mostraram o potencial da IA ​​ser combinada com big data (incluindo redes sociais) para criar efeitos políticos centrados na polarização, no encorajamento de crenças radicais e na manipulação de grupos de identidade. . Demonstrou o poder e o potencial da IA ​​para dividir as sociedades.

E durante a pandemia, a IA foi vista como um elemento positivo no rastreamento e rastreamento do vírus, mas também gerou preocupações sobre a privacidade e os direitos humanos.

O artigo examina a própria tecnologia de IA, argumentando que existem problemas na concepção da IA, nos dados em que se baseia, na forma como é utilizada e nos seus resultados e impactos.

O artigo conclui com uma forte mensagem aos investigadores que trabalham em segurança cibernética e Relações Internacionais.

“A IA é certamente capaz de transformar as sociedades de forma positiva, mas também apresenta riscos que precisam de ser melhor compreendidos e geridos”, escreve o Professor Burton, especialista em conflitos cibernéticos e tecnologias emergentes e que faz parte da iniciativa Ciência de Segurança e Protecção da Universidade.

“Compreender os efeitos divisivos da tecnologia em todas as fases do seu desenvolvimento e utilização é claramente vital.

“Os estudiosos que trabalham em segurança cibernética e relações internacionais têm a oportunidade de incorporar estes factores na agenda emergente de investigação em IA e evitar tratar a IA como uma tecnologia politicamente neutra.

“Por outras palavras, a segurança dos sistemas de IA e a forma como são utilizados nas lutas geopolíticas internacionais não devem sobrepor-se às preocupações sobre os seus efeitos sociais.”

Sendo uma das poucas universidades cuja educação, investigação e formação são reconhecidas pelo Centro Nacional de Segurança Cibernética (NCSC) do Reino Unido, parte do GCHQ, Lancaster está a investir fortemente na próxima geração de líderes de segurança cibernética. Além de impulsionar o fluxo de competências e talentos na região, com base no seu mestrado certificado pelo NCSC com um novo curso de graduação em segurança cibernética, lançou um pioneiro Mestrado Executivo Cibernético em Educação Empresarial.

.

Source link

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo