“O tempora! O mores”! dirão alguns refractários a mudanças. Mas assim é o progresso, com os valores positivos e também alguns negativos, que se vão ultrapassando, naturalmente, na maravilhosa História Humana e do Mundo.
IA e a erosão da escrita
Para os media, este uso aberrante da IA generativa constitui uma
ameaça mais devastadora do que a desintermediação operada pelas redes sociais
ou pelos motores de busca.
RODRIGO ADÃO DA FONSECA
OBSERVADOR, 17 fev. 2026, 00:178
“Já não penso como pensava. Sinto-o com mais
intensidade quando estou a ler. Antigamente era-me fácil mergulhar num livro ou
num artigo longo. A minha mente deixava-se envolver pela narrativa (…) e eu
passava horas a percorrer extensos trechos de prosa. Isso raramente acontece agora. Hoje, a minha
concentração começa muitas vezes a dispersar-se ao fim de duas ou três páginas.
Fico inquieto, perco o fio à meada, começo a procurar outra coisa para fazer.
Sinto como se estivesse constantemente a arrastar o meu cérebro irrequieto (…).
A leitura profunda, que antes me saía naturalmente, tornou-se um esforço” – Nicholas G. Carr, em The Shallows: What
the Internet Is Doing to Our Brains (2010).
Todos os dias
chocamos, nas redes sociais (em particular, no Linkedin) e nos media, com
textos produzidos por inteligência artificial generativa, sobretudo pelo Chat
GPT, sem qualquer edição significativa ou incorporação de valor por parte de
quem os publica. São textos que nunca seriam, por falta de capacidade, escritos por
quem os assina, resenhas de livros que não foram lidos e posts que se limitam a iludir o leitor e
alimentar o ego de quem os redigiu. Nesta multiplicação de conteúdo “arrumadinho” mas
superficial, o culto da aparência e um suposto “direito à opinião” (a qualquer
custo e produzida sem esforço) estão a destruir o compromisso com a verdade ou
com um pensamento mais qualificado, os únicos que poderão, a prazo, assegurar a
sobrevivência dos órgãos de comunicação social e de tudo o que de positivo
(ainda) representam.
Há
duas décadas (2005), o filósofo norte-americano Harry G. Frankfurt
publicou a sua obra, “On Bullshit”, onde descreveu, com mestria, um dos fenómenos mais
perniciosos da cultura digital contemporânea. O bullshit não é propriamente uma mentira, já que esta pressupõe uma relação instrumental
com a verdade (algo que Frankfurt explora no seu livro “On
Truth”, de 2026); o bullshitteropera com indiferença
face à distinção entre verdadeiro e falso, preocupando-se apenas com o efeito
retórico do enunciado. Ora, os tempos que vivemos, marcados pela economia da atenção, por um ritmo acelerado e pela busca de recompensas imediatas, são
particularmente favoráveis para a ascensão dos bullshitters. No quadro actual, a verdade deixou de ser o eixo
fundamental do discurso público, estando a ser substituída por critérios de
mera plausibilidade e busca de impacto.
A Internet
não inventou o bullshit, mas deu-lhe espaço de aceleração. À medida
que a leitura mais profunda e o tempo de reflexão se tornam bens escassos, a
tendência para reduzir a escrita ao que “soa convincente”, intensificou-se.
A produção discursiva segue cada vez mais uma lógica
de consumo rápido, onde o critério de valor é a circulação, e não tanto a
verificação. Até porque, no limite, os
textos já não são escritos para serem lidos ou compreendidos, mas apenas para
ocupar espaço e afirmar ideias fortes, mas simples. O centro de gravidade do
discurso, hoje, desdenha da complexidade e do compromisso com a verdade, para
ceder, de forma preocupante, o espaço mediático a tudo o que seja simples e
meramente plausível.
Num ambiente cultural empobrecido e de baixas
literacias, a IA generativa tem vindo a amplificar de forma drástica esta
tendência preexistente porque está desenhada para produzir sequências
linguísticas plausíveis com alta fluência, mas sem compromisso robusto com
verdades substantivas ou estruturas intencionais próprias. Em termos
técnicos, a geração de texto por grandes modelos de linguagem (ou “LLM’s”) é um
processo de previsão estatística e recomposição de formas linguísticas
aprendidas a partir de enormes quantidades de dados, sem ancoragem ou
compromisso com a chamada “truth-tracking”. Os LLM’s são arquitectados para gerar
continuidades textuais plausíveis e “human-like”, isto é, enunciados com aparência de serem
avaliáveis quanto ao verdadeiro/falso (“truth-apt”), mas sem que a sua dinâmica interna incorpore, de modo
robusto, um compromisso de “truth-tracking”. A correcção factual, quando ocorre,
é puramente contingente, ou seja, emerge como efeito colateral do que é
linguisticamente típico e convincente, não como
produto de uma prática orientada pela verdade, no sentido humano (cujas fontes
de avaliação e conhecimento são complexas, não se reduzem à mera predição de tokens).
É por
isso que o desempenho dos LLM’s, que produzem sequências linguísticas com
elevada fluência e coerência aparente, deve ser entendido como um fenómeno de optimização
estatística de forma e não como evidência de intencionalidade comunicativa ou
de compreensão semântica. Esta última pressupõe uma dimensão reflexiva e
situada que não se esgota na produção de base probabilista de linguagem. O problema é que o output da IA, tantas
vezes “arrumadinho” e sedutor, é frequentemente confundido com pensamento
sólido, que os bullshitters querem capturar para si sem esforço: a fluência activa no leitor uma sensação de autoridade e competência,
aplicada a textos sem história, sem experiência e sem compromisso com a
verdade.
Isto não significa que o recurso a IA na
produção de opinião deva ser condenado em bloco, antes pelo contrário. O uso da IA
generativa é de enorme utilidade na hora de soltar a criatividade, testar
ideias, explorar fontes, abrir portas à experimentação, libertando tempo para
tarefas cognitivas mais exigentes. Ocorre, porém, que as iliteracias e a
ânsia de resultados imediatos (para muitos, inatingíveis até há muito pouco
tempo) levam a que a IA generativa esteja a degradar o trabalho intelectual. Em
vez de termos muito melhor pensamento, o que está a sobejar é o bullshit. Quando
a formulação de uma opinião é delegada substancialmente a uma ferramenta de IA,
sem incorporação crítica humana – que inclui
tarefas como a proposta de acção ou intenção, a revisão, a validação, a crítica
ou iteração, e a tomada de posição – o texto deixa de ser um acto de pensamento
para se tornar algo vazio, sem sentido, uma mera síntese de padrões
estatisticamente dominantes que são, em si, totalizantes.
Para os media, este uso aberrante da IA generativa – que está, massivamente, a
reproduzir-se por aí, como uma praga – constitui uma ameaça mais devastadora do
que a desintermediação operada pelas redes sociais ou pelos motores de busca,
que tanto valor destruiu nas duas últimas décadas. Se a
desintermediação da produção da informação em grande escala destruiu capital
social e valor à informação, a IA mal-usada tem potencial
para ser ainda mais nociva. Num ambiente saturado por textos plausíveis e sem
lastro, as instituições que supostamente se deveriam apoiar em critérios
rigorosos de verificação arriscam perder o pouco diferencial que ainda as
sustenta.
Pensar com
profundidade implica demora, hesitação, confronto com a complexidade e
responsabilidade em assumir aquilo que se afirma (para lá da mera aposição da
assinatura). Neste contexto, a IA tem um papel fantástico no “slow thinking”, sendo um
instrumento poderoso que liberta tempo para a reflexão crítica, para a leitura
profunda e para a co-formação de juízos próprios. Uma IA bem utilizada permite
reintroduzir fricção, disciplina crítica e tempo no processo de escrita e
leitura. Cabe, porém, aos órgãos de
comunicação impedir que as suas páginas se tornem reféns de ferramentas
avançadas e passem a reproduzir, com selo editorial, o bullshit mais
requintado de que alguma vez dispusemos.
Inteligência
Artificial Tecnologia
COMENTÁRIOS:
Rosário Santos: Este texto, o texto da Dra. Patrícia Fernandes
(Inteligência degenerativa-1) e o texto do Dr. António Rocha Pinto (No pain, no
gain)
deviam ir para leitura obrigatória para todos os professores e direcções
escolares do país. Alexandre
Barreira: Pois.
Caro Rodrigo, Tive uma dúvida sobre um texto escrito. E pedi ajuda
à......Inteligência Artificial. Podem crer.......parece mentira.....mas a
resposta foi esta: "ISTE TÁ MESME TUDE FEDIDE"......! Mario Figueiredo: Gostaria de acrescentar a este extraordinário
texto de Rodrigo Adão e Fonseca,
alguns exemplos práticos de maus e bons usos da IA neste contexto da produção
de pensamento escrito. Tal como o Rodrigo diz, é necessário fazer um uso
crítico dos LLMs. Esta ferramenta pode muito facilmente oscilar entre a
preguiça total e a produção de um texto inteiramente da nossa autoria que
reflecte de forma integral o nosso pensamento e com excelente qualidade, graças
ao seu apoio. É preciso começar por não cair na armadilha de pensar que
existe algum tipo de capacidade cognitiva -- real, ou sequer artificial --
nestas ferramentas IA. O uso da palavra "inteligência" em IA é
falso em todos os seus sentidos. O sentido de artificial aqui, não
significa um diferente tipo de inteligência: significa simplesmente que se
parece com inteligência, mas não o é de todo. E isto é verdade para todo os
diferentes tipos das chamadas IA fracas (weak
AI); nas quais se inserem os LLMs e todo o restante trabalho cientifico
nesta área até aos dias de hoje. Se os quisermos reduzir ao seu elemento mais
essencial, os LLM são meras ferramentas estatísticas. O texto do
Rodrigo explica um pouco sobre a forma como realmente funcionam. Mas existe
também na internet muita informação adicional e acessível ao leigo sobre esta
tecnologia, se tiverem o cuidado de se manter distantes da euforia mediática e
procurarem informação mais sóbria. Tudo isto para vos dar o primeiro
exemplo prático do que não fazer: ferramentas IA como o ChatGPT, Gemini e outros, não devem
ser usadas como um interlocutor para as nossas ideias: nós não queremos debater
com elas ou perceber as suas "opiniões". Porque simplesmente
não as têm. De uma forma muito simples: não existe até à data qualquer
descoberta científica, muito menos qualquer aplicação tecnológica, que permita
a máquinas raciocinar. E
se fugirem da actual hipérbole dos mercados de investimento, jornalismo sensacionalista,
e da internet viral, e se refugiarem na componente científica onde a IA está
verdadeiramente a ser desenvolvida, vão perceber que poderemos na verdade estar
muito longe de o conseguir. Mas esse é tema para outro dia. Os LLMs são
excelentes para algumas tarefas: Ajudar a
projectar um raciocínio: Você
tem uma ideia do que pensa ou quer dizer, mas não o está a conseguir exprimir
de forma clara ou sucinta. Use um LLM para pedir ajuda: "Preciso de ajuda
a expressar este pensamento:", e depois explica da melhor forma que
conseguir, por mais atabalhoada que seja. O LLM é perfeito para este tipo de
tarefas, porque estão precisamente no core do
seu modelo de funcionamento. Aprimorar a
comunicação: Você
quer complementar uma frase com uma comparação ou uma analogia eficaz. Ou
talvez alterar o estilo de um parágrafo para ser mais irónico, menos pessoal,
ou mais técnico. Completar rascunhos (drafts):
Você concluiu o seu primeiro rascunho e agora quer começar a trabalhar em aprimorar
o texto até à sua versão final. Pode pedir ao LLM para dar ao texto um
certo tom, procurar erros gráficos e semânticos, e melhorar o texto de forma
geral. À medida que vai desenvolvendo este trabalho, vai-se começando a centrar
em blocos de texto cada vez mais pequenos, eventualmente em parágrafos e por
fim em frases. Pesquisa: Os LLMs (os últimos modelos) são excelentes
ferramentas de pesquisa científica. Pode com a ajuda deles criar todo um
corpo de referência técnica e científica, que poderão ajudar a engrossar o seu
pensamento sobre o que está a querer escrever. Este é o único aspecto de um
LLM que, de forma indirecta, poderá ajudar você a pensar. Os últimos
modelos LLM tornaram obsoleto o uso dos motores de pesquisa na internet, pela
forma muito mais natural com que apresentam informação desta natureza e a
acompanham com referências a páginas na internet, livros e outro material. Cuidados a ter: Referenciação: Não peça a um LLM para lhe dar uma referência a um autor
que pense ou diga algo parecido com o que está a escrever. Para além de
estar a incorrer na falácia desonesta do "apelo à autoridade", corre
o sério risco de cometer erros embaraçosos, porque o autor afinal não pensava
bem assim, ou o seu pensamento tem nuances que são incompatíveis com o que está
a querer dizer, ou o autor mais tarde deixou de pensar assim. A
forma honesta e séria de nos expressarmos passa por somente referenciarmos pessoas e material de que
realmente somos conhecedores. E uma referência normalmente só se usa para dar ao leitor material
adicional, não para servir de validação do que estamos a dizer. E
acreditem: qualquer pessoa que faça uma leitura crítica de um texto, consegue
na maioria dos casos facilmente perceber a diferença na intencionalidade do
texto. Substituição de conhecimento: Um LLM é uma ferramenta de apoio a
conhecimento já adquirido e não uma ferramenta para aquisição de novo
conhecimento. Por outras palavras: se é um biólogo numa determinada área, um
LLM será uma excelente ferramenta para escrever sobre biologia nessa área. O
erro mais frequente é achar-se que se pode usar um LLM para escrever sobre algo
de que sabemos pouco. Aos nossos olhos parecerá autoritativo e directo. Mas
para qualquer outra pessoa mais conhecedora dessa área, não só o texto revelará
muitos marcadores de que foi escrito de forma artificial, como grande parte do
argumentário será fácil de desmontar. Construção de conhecimento: No seguimento
do parágrafo anterior, é preciso reforçar esta ideia de que um LLM não pode
de forma alguma ser usado para adquirir novo conhecimento. Não é esse o seu
papel, nem para o que serve esta tecnologia. Todo o seu output é o resultado de
literalmente calcular qual a palavra que vem a seguir com base em
probabilidades ponderadas. É a sua vasta base de dados e a forma como eles
estão organizados, que lhe permite atingir elevados níveis de simulação. Mas
estes níveis são ainda assim manifestamente baixos para que se possa confiar
a um LLM o papel de tutor. O que se pode fazer é usar um LLM de forma
indirecta para se chegar a esse conhecimento. Esse é o seu melhor uso. Ver
Pesquisa, acima. Haveria mais para dizer, mas isto já vai longo. Mas pronto,
acho que para aqueles para quem este mundo é ainda um pouco distante ou
confuso. Algum exemplo prático pode ajudar. E o resto virá com naturalidade, se
se mantiverem fiéis a estes princípios básicos. Beco do Fala SóMario
Figueiredo Manuel F: A
IA é uma ferramenta de enorme poder e actualidade e também utilidade que, exige
muito discernimento na sua utilização, sob o risco de nos conduzir a conclusões
erróneas. Mas há outras realidades que influenciam os
humanos, no seu dia-a-dia e os formatam de uma forma avassaladora. Estou a
pensar na forma como o Cinema evoluiu e contribui para a forma como os humanos são
arrastados de tempos em que essa “arte” privilegiava a introspecção e a
apreensão da mensagem que queria transmitir, para os tempos actuais em que só
interessa transmitir sensações a ritmos alucinantes, quer pelo uso do som a
níveis absurdos, quer pelo ritmo da linguagem e das imagens e, no nosso caso
das legendas, a uma velocidade que não permite a sua leitura, quanto mais
qualquer compreensão do que é dito e visto. Na verdade o que é dito pouco interessa. Hoje
o Cinema é absurdo, e esta constatação de há muito observada, veio-me à memória
ao recordar-me de um filme francês dos anos 70 que me ficou na memória, pela
sua violência e exagero, sem necessitar das técnicas hoje em voga para
chocar o espectador: A Grande Farra Sr Leão: Artigo excepcionalmente esclarecedor que,
infelizmente, ou não vai ser lido por muita gente ou, se acaso for, não será
compreendido por muitos que se crêem grandes progressistas por adoptarem o que
lhes impingem como geniais inovações isentas de defeitos. Luis
Silva: A
Inteligência Artificial Generativa é uma fase temporária, no horizonte está a
Inteligência Artificial Geral. Não
adianta lamentar e carpir é mais proveitoso tentar acompanhar a mudança. Curiosamente, já existe pelo menos uma rede
social de bots chamada Moltbook onde mais de um milhão de bots
discutem todo o tipo de assuntos. Os humanos podem assistir, existe mais
clarividência do que nas redes sociais de humanos. Também já há anúncios de
bots a quererem contratar humanos para executar tarefas específicas que eles
não conseguem levar a cabo.
Carlos Chaves: Caro Rodrigo Adão da Fonseca, este seu artigo complementa na perfeição o
artigo de ontem da Patrícia
Fernandes,
obrigado por aprender com vocês!
Nenhum comentário:
Postar um comentário