.
A recente decisão de Mark Zuckerberg de remover os verificadores de fatos das plataformas Meta – incluindo Facebook, Instagram e Threads – gerou um debate acalorado. Os críticos argumentam que isso pode prejudicar os esforços para combater a desinformação e manter a credibilidade nas plataformas de redes sociais.
No entanto, embora muita atenção seja dirigida a esta medida, surge um desafio muito mais profundo. A ascensão da inteligência artificial (IA) que processa e gera linguagem semelhante à humana, bem como da tecnologia que visa ler o cérebro humano, tem o potencial de remodelar não só o discurso online, mas também a nossa compreensão fundamental da verdade e da comunicação.
Os verificadores de factos desempenham há muito tempo um papel importante na redução da desinformação em diversas plataformas, especialmente sobre temas como política, saúde pública e alterações climáticas. Ao verificar as alegações e fornecer contexto, ajudaram as plataformas a manter um certo grau de responsabilidade.
Portanto, a decisão do Meta de substituí-los por notas dirigidas pela comunidade, semelhante à abordagem de Elon Musk no X (antigo Twitter), levantou preocupações compreensivelmente. Muitos especialistas consideram a decisão de remover os verificadores de factos como um retrocesso, argumentando que delegar a moderação de conteúdo aos utilizadores corre o risco de amplificar as câmaras de eco e permitir a propagação de falsidades não verificadas.
Leia mais: Meta está abandonando a verificação de fatos – isso não é um bom presságio para a luta contra a desinformação
Bilhões de pessoas em todo o mundo usam as diversas plataformas da Meta todos os meses, por isso exercem uma enorme influência. O afrouxamento das salvaguardas poderia exacerbar a polarização social e minar a confiança na comunicação digital.
Mas embora o debate sobre a verificação dos factos domine as manchetes, há um panorama mais amplo. Modelos avançados de IA, como ChatGPT da OpenAI ou Gemini do Google, representam avanços significativos na compreensão da linguagem natural. Esses sistemas podem gerar textos coerentes e contextualmente relevantes e responder a perguntas complexas. Eles podem até se envolver em conversas diferenciadas. E esta capacidade de replicar de forma convincente a comunicação humana introduz desafios sem precedentes.
O conteúdo gerado por IA confunde a linha entre a autoria humana e a autoria da máquina. Isto levanta questões éticas sobre autoria, originalidade e responsabilidade. As mesmas ferramentas que impulsionam inovações úteis também podem ser utilizadas como arma para produzir campanhas sofisticadas de desinformação ou manipular a opinião pública.
Estes riscos são agravados por outras tecnologias emergentes. Inspiradas na cognição humana, as redes neurais imitam a forma como o cérebro processa a linguagem. Esta intersecção entre IA e neurotecnologia destaca o potencial para compreender e explorar o pensamento humano.

Enviar EUA/Alamy
Implicações
A neurotecnologia é uma ferramenta que lê e interage com o cérebro. Seu objetivo é entender como pensamos. Assim como a IA, ela ultrapassa os limites do que as máquinas podem fazer. Os dois campos se sobrepõem de maneiras poderosas.
Por exemplo, a REMspace, uma startup da Califórnia, está construindo uma ferramenta que registra sonhos. Usando uma interface cérebro-computador, permite que as pessoas se comuniquem através de sonhos lúcidos. Embora isto pareça excitante, também levanta questões sobre a privacidade mental e o controlo sobre os nossos próprios pensamentos.
Entretanto, os investimentos da Meta em neurotecnologia, juntamente com os seus empreendimentos de IA, também são preocupantes. Várias outras empresas globais também estão explorando a neurotecnologia. Mas como serão usados os dados da atividade cerebral ou dos padrões linguísticos? E que salvaguardas impedirão o uso indevido?
Leia mais: O cérebro é o objeto mais complicado do universo. Esta é a história da busca dos cientistas para decodificá-lo – e ler a mente das pessoas
Se os sistemas de IA puderem prever ou simular pensamentos humanos através da linguagem, a fronteira entre a comunicação externa e a cognição interna começa a confundir-se. Estes avanços podem minar a confiança, expor as pessoas à exploração e remodelar a forma como pensamos sobre a comunicação e a privacidade.
A investigação sugere também que, embora este tipo de tecnologia possa melhorar a aprendizagem, também pode sufocar a criatividade e a autodisciplina, especialmente nas crianças.
A decisão da Meta de remover os verificadores de factos merece um exame minucioso, mas é apenas uma parte de um desafio muito maior. A IA e a neurotecnologia estão a forçar-nos a repensar a forma como usamos a linguagem, expressamos pensamentos e até compreendemos o mundo que nos rodeia. Como podemos garantir que estas ferramentas sirvam a humanidade em vez de a explorarem?
A falta de regras para gerir estas ferramentas é alarmante. Para proteger os direitos humanos fundamentais, precisamos de legislação forte e de cooperação entre diferentes indústrias e governos. Alcançar esse equilíbrio é crucial. O futuro da verdade e da confiança na comunicação depende da nossa capacidade de enfrentar estes desafios com vigilância e previsão.
.