.

Ainda sem as principais características necessárias para decifrar informações, a inteligência artificial (IA) não deve ser deixada sozinha para decidir qual conteúdo as pessoas devem ler.
A supervisão humana e as proteções são essenciais para garantir que o conteúdo certo seja enviado aos usuários, disse Arjun Narayan, chefe de confiança, segurança e experiência do cliente da SmartNews.
Também: Seis habilidades necessárias para se tornar um engenheiro de prompt de IA
A plataforma agregadora de notícias seleciona artigos de 3.000 fontes de notícias em todo o mundo, onde seus usuários passam em média 23 minutos por dia em seu aplicativo. Disponível para Android e iOS, o aplicativo já registrou mais de 50 milhões de downloads. Com sede em Tóquio, a SmartNews tem equipes no Japão e nos Estados Unidos, compostas por linguistas, analistas e formuladores de políticas.
A missão declarada da empresa, em meio à vasta quantidade de informações agora disponíveis on-line, é divulgar notícias confiáveis e relevantes para seus usuários. “As notícias devem ser confiáveis. Nossos algoritmos avaliam milhões de artigos, sinais e interações humanas para fornecer 0,01% das histórias que mais importam, agora”, lança SmartNews em seu site.
A plataforma usa tecnologias de aprendizado de máquina e processamento de linguagem natural para identificar e priorizar as notícias que os usuários desejam. Possui métricas para avaliar a confiabilidade e precisão das fontes de notícias.
Também: A adoção em massa de ferramentas de IA generativas está atrapalhando um fator muito importante, diz o MIT
Isso é crítico, pois as informações são cada vez mais consumidas pelas mídias sociais, onde a veracidade pode ser questionável, disse Narayan.
Seu mecanismo proprietário de IA alimenta um feed de notícias personalizado com base nas preferências pessoais dos usuários, como os tópicos que eles seguem. Ele também usa vários sistemas de aprendizado de máquina para analisar e avaliar artigos que foram indexados para determinar se o conteúdo está em conformidade com as políticas da empresa. Fontes não compatíveis são filtradas, disse ele.
Como o suporte ao cliente se reporta à sua equipe, ele acrescentou que o feedback do usuário pode ser rapidamente revisado e incorporado quando relevante.
Como muitas outras, a empresa atualmente está analisando a IA generativa e avaliando a melhor forma de usar a tecnologia emergente para aprimorar ainda mais a descoberta e a pesquisa de conteúdo. Narayan se recusou a fornecer detalhes sobre quais seriam esses novos recursos.
Ele enfatizou, porém, a importância de manter a supervisão humana em meio ao uso da IA, que ainda faltava em algumas áreas.
Também: Se você usa código gerado por IA, qual é a sua exposição de responsabilidade?
Modelos de linguagem grandes, por exemplo, não são eficientes no processamento de notícias recentes ou atuais, mas são executados com maior precisão e confiabilidade quando usados para analisar conteúdo perene, como DYI ou artigos de instruções.
Esses modelos de IA também se saem bem ao resumir grandes blocos de conteúdo e dar suporte a algumas funções, como aumentar a distribuição de conteúdo, observou ele. Sua equipe está avaliando a eficácia do uso de grandes modelos de linguagem para determinar se certas partes do conteúdo atendem às políticas editoriais da empresa. “Ainda é incipiente e nos primeiros dias”, disse ele. “O que aprendemos é [the level of] a exatidão ou a precisão dos modelos de IA é tão boa quanto os dados que você alimenta e treina.”
Os modelos de hoje em grande parte não são “conscientes” e carecem de compreensão contextual, disse Narayan. Esses problemas podem ser resolvidos com o tempo, à medida que mais conjuntos de dados e tipos de dados são inseridos no modelo, disse ele.
Igual esforço deve ser investido para garantir que os dados de treinamento sejam “tratados” e livres de viés ou normalizados quanto a inconsistências. Isso é especialmente importante para IA generativa, onde conjuntos de dados abertos são comumente usados para treinar o modelo de IA, observou ele. Ele descreveu isso como a parte “obscura” da indústria, que levará a questões relacionadas a violações de direitos autorais e propriedade intelectual.
Também: Uma questão espinhosa: quem é o dono do código, das imagens e das narrativas geradas pela IA?
“No momento, não há muita divulgação pública sobre que tipo de dados está entrando no modelo de IA”, disse ele. “Isso precisa mudar. Deve haver transparência sobre como eles são treinados e a lógica de decisão, porque esses modelos de IA moldarão nossas visões de mundo”.
Ele expressou preocupação com “alucinações”, onde a IA é capaz de gerar informações falsas, de modo que pessoas realistas são convencidas de que são verdadeiras.
Tais problemas enfatizam ainda mais a necessidade de alguma forma de governança que envolva humanos supervisionando o conteúdo que é enviado aos usuários, disse ele.
As organizações também precisam auditar o que sai de seus modelos de IA e implementar as proteções necessárias. Por exemplo, deve haver redes de segurança quando o sistema de IA for solicitado a fornecer instruções sobre como construir uma bomba ou escrever um artigo que plagie.
“A IA, no momento, não está em um estágio em que você pode deixá-la funcionar sozinha”, disse Narayan, acrescentando que sempre deve haver investimento em capacidades humanas e supervisão. “Você precisa de grades de proteção. Você não quer conteúdo que não seja revisado ou verificado.”
E em meio ao hype, é importante estar atento às limitações da IA generativa, cujos modelos ainda não são treinados para lidar com notícias de última hora e não funcionam bem com dados em tempo real.
Também: Quem é o dono do código? Se o ChatGPT ajuda você a escrever seu aplicativo, ele pertence a você?
O ponto em que a IA funcionou melhor foi no fortalecimento de seu mecanismo de recomendação, que o SmartNews usa para priorizar artigos considerados de maior interesse com base em certos sinais de fundo, como os padrões de leitura do usuário. Esses sistemas de IA estão em uso na última década, onde regras e algoritmos foram continuamente ajustados, explicou.
Embora ele não estivesse disposto a divulgar detalhes sobre como a IA generativa poderia ser incorporada, ele apontou seu potencial para facilitar a interação humana com as máquinas.
Qualquer pessoa, mesmo sem formação técnica, poderá obter as respostas de que precisa, desde que saiba fazer as perguntas certas. Eles então podem redirecionar as respostas para uso em suas atividades diárias, disse ele.
Algumas áreas da IA generativa, no entanto, permanecem cinzentas.
De acordo com Narayan, há discussões em andamento com os editores em sua plataforma de notícias sobre como os artigos escritos completamente por IA, bem como aqueles escritos por humanos, mas aprimorados com IA, devem ser gerenciados. E se regras fossem estabelecidas para tais artigos, como então seriam aplicadas?
Além disso, há questões sobre o nível de divulgação que deve ser aplicado às diferentes variações, para que os leitores saibam quando e como a IA é usada.
Também: A humanidade está realmente condenada? Considere o calcanhar de Aquiles da IA
Independentemente de como isso será tratado, o que permanece um mandato é a supervisão editorial. Novamente enfatizando a importância da transparência, Narayan disse que todo conteúdo ainda terá que atender às políticas editoriais da SmartNews sobre precisão e confiabilidade.
Ele expressou preocupação com as demissões em tecnologia que levaram à remoção da ética da IA e das equipes de confiança. “Eu vou te dizer agora, é tão importante continuar a ter [human] fiscalização e investimento em guarda-corpos de segurança. Se faltar diligência, vamos criar um monstro”, disse. “A automação é ótima [and allows] você dimensionar sistemas, mas nada chega perto da engenhosidade humana.”
.








