.
Os avanços na inteligência artificial (IA) estão a perturbar muitos aspectos da vida moderna, e a indústria noticiosa não é excepção. Num ano com um número recorde de eleições em todo o mundo, tem havido uma reflexão considerável sobre o efeito potencial dos chamados “deepfakes” e outros conteúdos sintéticos nas democracias. Houve também novas perturbações nos modelos de negócio e na confiança que sustentam o jornalismo independente.
A maioria do público está apenas começando a formar opiniões sobre IA e notícias, mas na pesquisa Digital News Report deste ano, que produzimos no Instituto Reuters para o Estudo do Jornalismo da Universidade de Oxford, incluímos perguntas sobre o assunto em 28 mercados, apoiadas por com entrevistas aprofundadas no Reino Unido, EUA e México.
Nossas descobertas revelam um alto nível de ambivalência sobre o uso dessas tecnologias. Também oferece informações aos editores que procuram implementar as tecnologias sem diminuir ainda mais a confiança nas notícias, que diminuiu em muitos países nos últimos anos.
É importante ter em mente que o conhecimento da IA ainda é relativamente baixo, com cerca de metade da nossa amostra (49% a nível global e 56% no Reino Unido) tendo lido pouco ou nada sobre o assunto. No entanto, as preocupações sobre a exactidão da informação e o potencial de desinformação estão no topo da lista quando se fala com aqueles que estão mais bem informados.
Imagens e vídeos manipulados, por exemplo em torno da guerra em Gaza, são cada vez mais comuns nas redes sociais e já estão a causar confusão. Como disse um participante do sexo masculino: “Já vi muitos exemplos antes, e por vezes podem ser muito bons. Felizmente, eles ainda são muito fáceis de detectar, mas dentro de cinco anos serão indistinguíveis.”
Alguns participantes consideraram que o uso generalizado de tecnologias generativas de IA – aquelas que podem produzir conteúdo para os utilizadores em texto, imagens e vídeo – provavelmente tornaria mais difícil a identificação de desinformação, o que é especialmente preocupante quando se trata de assuntos importantes, como política e eleições.
Em 47 países, 59% dizem estar preocupados em poder dizer o que é real e falso na Internet, um aumento de três pontos percentuais em relação ao ano passado. Outros adotaram uma visão mais otimista, observando que estas tecnologias poderiam ser utilizadas para fornecer conteúdos mais relevantes e úteis.
Uso de IA pela indústria de notícias
A indústria de notícias está recorrendo à IA por dois motivos. Primeiro, eles esperam que a automatização de processos de bastidores, como transcrição, edição de texto e layout, reduza custos. Em segundo lugar, as tecnologias de IA poderiam ajudar a personalizar o conteúdo em si, tornando-o mais apelativo para o público.
No último ano, vimos empresas de comunicação social a implementar uma série de soluções de IA, com vários graus de supervisão humana, desde resumos e ilustrações gerados por IA até histórias escritas por robôs de IA e até leitores de notícias gerados por IA.
Como o público se sente sobre tudo isso? Em 28 mercados, os entrevistados da nossa pesquisa ficaram principalmente desconfortáveis com o uso de IA quando o conteúdo é criado principalmente por IA com alguma supervisão humana. Em contrapartida, há menos desconforto quando a IA é utilizada para ajudar jornalistas (humanos), por exemplo, na transcrição de entrevistas ou no resumo de materiais para investigação.
Aqui, os entrevistados se sentem mais confortáveis do que desconfortáveis. No entanto, vemos diferenças a nível de país, possivelmente ligadas a sugestões que as pessoas recebem dos meios de comunicação social. A cobertura da imprensa britânica sobre a IA, por exemplo, tem sido caracterizada como largamente negativa e sensacionalista, enquanto as narrativas dos meios de comunicação social dos EUA são moldadas pelo papel de liderança das empresas norte-americanas e pelas oportunidades de emprego e crescimento.
O conforto com a IA também está intimamente relacionado à importância e seriedade do assunto em discussão. As pessoas dizem que se sentem menos confortáveis com notícias geradas por IA sobre temas como política e crime, e mais confortáveis com notícias desportivas ou de entretenimento, assuntos onde os erros tendem a ter consequências menos graves.
“Os chatbots realmente não deveriam ser usados para notícias mais importantes, como guerra ou política, já que a potencial desinformação pode ser a razão pela qual alguém vota em um candidato em detrimento de outro”, disse-nos um homem de 20 anos no Reino Unido.
A nossa investigação também mostra que as pessoas que tendem a confiar nas notícias em geral têm maior probabilidade de se sentirem confortáveis com a utilização da IA, onde os humanos (jornalistas) permanecem no controlo, em comparação com aqueles que não o fazem. Isto ocorre porque aqueles que tendem a confiar nas notícias também tendem a ter maior fé na capacidade dos editores de usarem a IA de forma responsável.
As entrevistas que conduzimos mostram um padrão semelhante ao nível de meios de comunicação específicos: as pessoas que confiam em organizações noticiosas específicas, especialmente aquelas que descrevem como mais respeitáveis, também tendem a sentir-se mais confortáveis com a utilização da IA.
Por outro lado, os públicos que já são cépticos ou cínicos em relação às organizações noticiosas podem ver a sua confiança ainda mais minada pela implementação destas tecnologias.
Como disse uma mulher dos EUA: “Se qualquer organização de notícias fosse apanhada a utilizar imagens ou vídeos falsos de qualquer forma, deveria ser responsabilizada e eu perderia a confiança nela, mesmo que estivessem a ser transparentes quanto ao facto de o conteúdo ter sido criado com IA.”
Pensar cuidadosamente sobre quando a divulgação é necessária e como comunicá-la, especialmente nas fases iniciais, quando a IA ainda é estranha para muitas pessoas, será um elemento crucial para manter a confiança. Isto é particularmente verdade quando a IA é usada para criar novos conteúdos com os quais o público entrará em contato direto. Nossas entrevistas nos dizem que é disso que o público mais suspeita.
No geral, ainda estamos nas fases iniciais da utilização da IA pelos jornalistas, mas isto torna este um momento de risco máximo para as organizações noticiosas. Nossos dados mostram que o público ainda é profundamente ambivalente quanto ao uso dessas tecnologias, o que significa que os editores precisam ser extremamente cautelosos sobre onde e como as implantam.
Preocupações mais amplas com a inundação de conteúdo sintético nas plataformas online significam que marcas confiáveis que usam as tecnologias de forma responsável podem ser recompensadas. Mas se errar, essa confiança poderá ser facilmente perdida.
.








