quarta-feira, 18 de fevereiro de 2026

Evolução

 

“O tempora! O mores”! dirão alguns refractários a mudanças. Mas assim é o progresso, com os valores positivos e também alguns negativos, que se vão ultrapassando, naturalmente, na maravilhosa História Humana e do Mundo.

 

IA e a erosão da escrita

Para os media, este uso aberrante da IA generativa constitui uma ameaça mais devastadora do que a desintermediação operada pelas redes sociais ou pelos motores de busca.

RODRIGO ADÃO DA FONSECA

OBSERVADOR, 17 fev. 2026, 00:178

 

 Já não penso como pensava. Sinto-o com mais intensidade quando estou a ler. Antigamente era-me fácil mergulhar num livro ou num artigo longo. A minha mente deixava-se envolver pela narrativa (…) e eu passava horas a percorrer extensos trechos de prosa. Isso raramente acontece agora. Hoje, a minha concentração começa muitas vezes a dispersar-se ao fim de duas ou três páginas. Fico inquieto, perco o fio à meada, começo a procurar outra coisa para fazer. Sinto como se estivesse constantemente a arrastar o meu cérebro irrequieto (…). A leitura profunda, que antes me saía naturalmente, tornou-se um esforço”Nicholas G. Carr, em The Shallows: What the Internet Is Doing to Our Brains (2010).

Todos os dias chocamos, nas redes sociais (em particular, no Linkedin) e nos media, com textos produzidos por inteligência artificial generativa, sobretudo pelo Chat GPT, sem qualquer edição significativa ou incorporação de valor por parte de quem os publica. São textos que nunca seriam, por falta de capacidade, escritos por quem os assina, resenhas de livros que não foram lidos e posts que se limitam a iludir o leitor e alimentar o ego de quem os redigiu. Nesta multiplicação de conteúdo “arrumadinho” mas superficial, o culto da aparência e um suposto “direito à opinião” (a qualquer custo e produzida sem esforço) estão a destruir o compromisso com a verdade ou com um pensamento mais qualificado, os únicos que poderão, a prazo, assegurar a sobrevivência dos órgãos de comunicação social e de tudo o que de positivo (ainda) representam.

Há duas décadas (2005), o filósofo norte-americano Harry G. Frankfurt publicou a sua obra, “On Bullshit”, onde descreveu, com mestria, um dos fenómenos mais perniciosos da cultura digital contemporânea. bullshit não é propriamente uma mentira, já que esta pressupõe uma relação instrumental com a verdade (algo que Frankfurt explora no seu livro “On Truth”, de 2026); bullshitteropera com indiferença face à distinção entre verdadeiro e falso, preocupando-se apenas com o efeito retórico do enunciado.  Ora, os tempos que vivemos, marcados pela economia da atenção, por um ritmo acelerado e pela busca de recompensas imediatas, são particularmente favoráveis para a ascensão dos bullshitters. No quadro actual, a verdade deixou de ser o eixo fundamental do discurso público, estando a ser substituída por critérios de mera plausibilidade e busca de impacto.

A Internet não inventou o bullshit, mas deu-lhe espaço de aceleração. À medida que a leitura mais profunda e o tempo de reflexão se tornam bens escassos, a tendência para reduzir a escrita ao que “soa convincente”, intensificou-se. A produção discursiva segue cada vez mais uma lógica de consumo rápido, onde o critério de valor é a circulação, e não tanto a verificação. Até porque, no limite, os textos já não são escritos para serem lidos ou compreendidos, mas apenas para ocupar espaço e afirmar ideias fortes, mas simples. O centro de gravidade do discurso, hoje, desdenha da complexidade e do compromisso com a verdade, para ceder, de forma preocupante, o espaço mediático a tudo o que seja simples e meramente plausível.

Num ambiente cultural empobrecido e de baixas literacias, a IA generativa tem vindo a amplificar de forma drástica esta tendência preexistente porque está desenhada para produzir sequências linguísticas plausíveis com alta fluência, mas sem compromisso robusto com verdades substantivas ou estruturas intencionais próprias. Em termos técnicos, a geração de texto por grandes modelos de linguagem (ou “LLM’s”) é um processo de previsão estatística e recomposição de formas linguísticas aprendidas a partir de enormes quantidades de dados, sem ancoragem ou compromisso com a chamada “truth-tracking”. Os LLM’s são arquitectados para gerar continuidades textuais plausíveis e “human-like”, isto é, enunciados com aparência de serem avaliáveis quanto ao verdadeiro/falso (“truth-apt”), mas sem que a sua dinâmica interna incorpore, de modo robusto, um compromisso de “truth-tracking”. A correcção factual, quando ocorre, é puramente contingente, ou seja, emerge como efeito colateral do que é linguisticamente típico e convincente, não como produto de uma prática orientada pela verdade, no sentido humano (cujas fontes de avaliação e conhecimento são complexas, não se reduzem à mera predição de tokens).

É por isso que o desempenho dos LLM’s, que produzem sequências linguísticas com elevada fluência e coerência aparente, deve ser entendido como um fenómeno de optimização estatística de forma e não como evidência de intencionalidade comunicativa ou de compreensão semântica. Esta última pressupõe uma dimensão reflexiva e situada que não se esgota na produção de base probabilista de linguagem. O problema é que o output da IA, tantas vezes “arrumadinho” e sedutor, é frequentemente confundido com pensamento sólido, que os bullshitters querem capturar para si sem esforço: a fluência activa no leitor uma sensação de autoridade e competência, aplicada a textos sem história, sem experiência e sem compromisso com a verdade.

Isto não significa que o recurso a IA na produção de opinião deva ser condenado em bloco, antes pelo contrário. O uso da IA generativa é de enorme utilidade na hora de soltar a criatividade, testar ideias, explorar fontes, abrir portas à experimentação, libertando tempo para tarefas cognitivas mais exigentes. Ocorre, porém, que as iliteracias e a ânsia de resultados imediatos (para muitos, inatingíveis até há muito pouco tempo) levam a que a IA generativa esteja a degradar o trabalho intelectual. Em vez de termos muito melhor pensamento, o que está a sobejar é o bullshit. Quando a formulação de uma opinião é delegada substancialmente a uma ferramenta de IA, sem incorporação crítica humana ­– que inclui tarefas como a proposta de acção ou intenção, a revisão, a validação, a crítica ou iteração, e a tomada de posição – o texto deixa de ser um acto de pensamento para se tornar algo vazio, sem sentido, uma mera síntese de padrões estatisticamente dominantes que são, em si, totalizantes.

Para os media, este uso aberrante da IA generativa – que está, massivamente, a reproduzir-se por aí, como uma praga – constitui uma ameaça mais devastadora do que a desintermediação operada pelas redes sociais ou pelos motores de busca, que tanto valor destruiu nas duas últimas décadas. Se a desintermediação da produção da informação em grande escala destruiu capital social e valor à informação, a IA mal-usada tem potencial para ser ainda mais nociva. Num ambiente saturado por textos plausíveis e sem lastro, as instituições que supostamente se deveriam apoiar em critérios rigorosos de verificação arriscam perder o pouco diferencial que ainda as sustenta.

Pensar com profundidade implica demora, hesitação, confronto com a complexidade e responsabilidade em assumir aquilo que se afirma (para lá da mera aposição da assinatura). Neste contexto, a IA tem um papel fantástico no “slow thinking”, sendo um instrumento poderoso que liberta tempo para a reflexão crítica, para a leitura profunda e para a co-formação de juízos próprios. Uma IA bem utilizada permite reintroduzir fricção, disciplina crítica e tempo no processo de escrita e leitura. Cabe, porém, aos órgãos de comunicação impedir que as suas páginas se tornem reféns de ferramentas avançadas e passem a reproduzir, com selo editorial, o bullshit mais requintado de que alguma vez dispusemos.

Inteligência Artificial        Tecnologia

COMENTÁRIOS:

Rosário Santos: Este texto, o texto da Dra. Patrícia Fernandes (Inteligência degenerativa-1) e o texto do Dr. António Rocha Pinto (No pain, no gain) deviam ir para leitura obrigatória para todos os professores e direcções escolares do país.                 Alexandre Barreira: Pois. Caro Rodrigo, Tive uma dúvida sobre um texto escrito. E pedi ajuda à......Inteligência Artificial. Podem crer.......parece mentira.....mas a resposta foi esta: "ISTE TÁ MESME TUDE FEDIDE"......!             Mario Figueiredo: Gostaria de acrescentar a este extraordinário texto de Rodrigo Adão e Fonseca, alguns exemplos práticos de maus e bons usos da IA neste contexto da produção de pensamento escrito. Tal como o Rodrigo diz, é necessário fazer um uso crítico dos LLMs. Esta ferramenta pode muito facilmente oscilar entre a preguiça total e a produção de um texto inteiramente da nossa autoria que reflecte de forma integral o nosso pensamento e com excelente qualidade, graças ao seu apoio. É preciso começar por não cair na armadilha de pensar que existe algum tipo de capacidade cognitiva -- real, ou sequer artificial -- nestas ferramentas IA. O uso da palavra "inteligência" em IA é falso em todos os seus sentidos. O sentido de artificial aqui, não significa um diferente tipo de inteligência: significa simplesmente que se parece com inteligência, mas não o é de todo. E isto é verdade para todo os diferentes tipos das chamadas IA fracas (weak AI); nas quais se inserem os LLMs e todo o restante trabalho cientifico nesta área até aos dias de hoje. Se os quisermos reduzir ao seu elemento mais essencial, os LLM são meras ferramentas estatísticas. O texto do Rodrigo explica um pouco sobre a forma como realmente funcionam. Mas existe também na internet muita informação adicional e acessível ao leigo sobre esta tecnologia, se tiverem o cuidado de se manter distantes da euforia mediática e procurarem informação mais sóbria. Tudo isto para vos dar o primeiro exemplo prático do que não fazer: ferramentas IA como o ChatGPTGemini e outros, não devem ser usadas como um interlocutor para as nossas ideias: nós não queremos debater com elas ou perceber as suas "opiniões". Porque simplesmente não as têm. De uma forma muito simples: não existe até à data qualquer descoberta científica, muito menos qualquer aplicação tecnológica, que permita a máquinas raciocinar. E se fugirem da actual hipérbole dos mercados de investimento, jornalismo sensacionalista, e da internet viral, e se refugiarem na componente científica onde a IA está verdadeiramente a ser desenvolvida, vão perceber que poderemos na verdade estar muito longe de o conseguir. Mas esse é tema para outro dia. Os LLMs são excelentes para algumas tarefas: Ajudar a projectar um raciocínio: Você tem uma ideia do que pensa ou quer dizer, mas não o está a conseguir exprimir de forma clara ou sucinta. Use um LLM para pedir ajuda: "Preciso de ajuda a expressar este pensamento:", e depois explica da melhor forma que conseguir, por mais atabalhoada que seja. O LLM é perfeito para este tipo de tarefas, porque estão precisamente no core do seu modelo de funcionamento. Aprimorar a comunicação: Você quer complementar uma frase com uma comparação ou uma analogia eficaz. Ou talvez alterar o estilo de um parágrafo para ser mais irónico, menos pessoal, ou mais técnico. Completar rascunhos (drafts): Você concluiu o seu primeiro rascunho e agora quer começar a trabalhar em aprimorar o texto até à sua versão final. Pode pedir ao LLM para dar ao texto um certo tom, procurar erros gráficos e semânticos, e melhorar o texto de forma geral. À medida que vai desenvolvendo este trabalho, vai-se começando a centrar em blocos de texto cada vez mais pequenos, eventualmente em parágrafos e por fim em frases. Pesquisa: Os LLMs (os últimos modelos) são excelentes ferramentas de pesquisa científica. Pode com a ajuda deles criar todo um corpo de referência técnica e científica, que poderão ajudar a engrossar o seu pensamento sobre o que está a querer escrever. Este é o único aspecto de um LLM que, de forma indirecta, poderá ajudar você a pensar. Os últimos modelos LLM tornaram obsoleto o uso dos motores de pesquisa na internet, pela forma muito mais natural com que apresentam informação desta natureza e a acompanham com referências a páginas na internet, livros e outro material. Cuidados a ter: Referenciação: Não peça a um LLM para lhe dar uma referência a um autor que pense ou diga algo parecido com o que está a escrever. Para além de estar a incorrer na falácia desonesta do "apelo à autoridade", corre o sério risco de cometer erros embaraçosos, porque o autor afinal não pensava bem assim, ou o seu pensamento tem nuances que são incompatíveis com o que está a querer dizer, ou o autor mais tarde deixou de pensar assim. A forma honesta e séria de nos expressarmos passa por somente referenciarmos pessoas e material de que realmente somos conhecedores. E uma referência normalmente só se usa para dar ao leitor material adicional, não para servir de validação do que estamos a dizer. E acreditem: qualquer pessoa que faça uma leitura crítica de um texto, consegue na maioria dos casos facilmente perceber a diferença na intencionalidade do texto. Substituição de conhecimento: Um LLM é uma ferramenta de apoio a conhecimento já adquirido e não uma ferramenta para aquisição de novo conhecimento. Por outras palavras: se é um biólogo numa determinada área, um LLM será uma excelente ferramenta para escrever sobre biologia nessa área. O erro mais frequente é achar-se que se pode usar um LLM para escrever sobre algo de que sabemos pouco. Aos nossos olhos parecerá autoritativo e directo. Mas para qualquer outra pessoa mais conhecedora dessa área, não só o texto revelará muitos marcadores de que foi escrito de forma artificial, como grande parte do argumentário será fácil de desmontar. Construção de conhecimento: No seguimento do parágrafo anterior, é preciso reforçar esta ideia de que um LLM não pode de forma alguma ser usado para adquirir novo conhecimento. Não é esse o seu papel, nem para o que serve esta tecnologia. Todo o seu output é o resultado de literalmente calcular qual a palavra que vem a seguir com base em probabilidades ponderadas. É a sua vasta base de dados e a forma como eles estão organizados, que lhe permite atingir elevados níveis de simulação. Mas estes níveis são ainda assim manifestamente baixos para que se possa confiar a um LLM o papel de tutor. O que se pode fazer é usar um LLM de forma indirecta para se chegar a esse conhecimento. Esse é o seu melhor uso. Ver Pesquisa, acima. Haveria mais para dizer, mas isto já vai longo. Mas pronto, acho que para aqueles para quem este mundo é ainda um pouco distante ou confuso. Algum exemplo prático pode ajudar. E o resto virá com naturalidade, se se mantiverem fiéis a estes princípios básicos. Beco do Fala SóMario Figueiredo           Manuel F: A IA é uma ferramenta de enorme poder e actualidade e também utilidade que, exige muito discernimento na sua utilização, sob o risco de nos conduzir a conclusões erróneas. Mas há outras realidades que influenciam os humanos, no seu dia-a-dia e os formatam de uma forma avassaladora. Estou a pensar na forma como o Cinema evoluiu e contribui para a forma como os humanos são arrastados de tempos em que essa “arte” privilegiava a introspecção e a apreensão da mensagem que queria transmitir, para os tempos actuais em que só interessa transmitir sensações a ritmos alucinantes, quer pelo uso do som a níveis absurdos, quer pelo ritmo da linguagem e das imagens e, no nosso caso das legendas, a uma velocidade que não permite a sua leitura, quanto mais qualquer compreensão do que é dito e visto. Na verdade o que é dito pouco interessa. Hoje o Cinema é absurdo, e esta constatação de há muito observada, veio-me à memória ao recordar-me de um filme francês dos anos 70 que me ficou na memória, pela sua violência  e exagero, sem necessitar das técnicas hoje em voga para chocar o espectador: A Grande Farra                   Sr Leão: Artigo excepcionalmente esclarecedor que, infelizmente, ou não vai ser lido por muita gente ou, se acaso for, não será compreendido por muitos que se crêem grandes progressistas por adoptarem o que lhes impingem como geniais inovações isentas de defeitos.                Luis Silva: A Inteligência Artificial Generativa é uma fase temporária, no horizonte está a Inteligência Artificial Geral. Não adianta lamentar e carpir é mais proveitoso tentar acompanhar a mudança. Curiosamente, já existe pelo menos uma rede social de bots chamada Moltbook onde mais de um milhão de bots discutem todo o tipo de assuntos. Os humanos podem assistir, existe mais clarividência do que nas redes sociais de humanos. Também já há anúncios de bots a quererem contratar humanos para executar tarefas específicas que eles não conseguem levar a cabo.                   Carlos Chaves: Caro Rodrigo Adão da Fonseca, este seu artigo complementa na perfeição o artigo de ontem da Patrícia Fernandes, obrigado por aprender com vocês!           

 

Nenhum comentário: