Vishva Vidya — Vedanta Tradicional
IA e Vedanta

Alucinacao: Quando a IA Inventa com Conviccao

Por Jonas Masetti

# Episódio 3 — Alucinação: Quando a IA Inventa com Convicção

INÍCIO — O problema que ninguém vê

Você já conversou com uma IA e ela te deu uma resposta tão boa, tão articulada, tão precisa — que você nem pensou em verificar? Pois é. Esse é o problema.

Os modelos de linguagem — ChatGPT, Claude, Gemini — têm uma característica que a indústria chama de "alucinação". O modelo gera informação completamente falsa com a mesma fluência, a mesma confiança e a mesma estrutura de uma informação verdadeira. Ele não gagueja. Não hesita. Não coloca um asterisco dizendo "inventei isso agora". Ele entrega a mentira com a mesma convicção com que entrega a verdade.

E isso não é um bug. Não é uma falha que vai ser corrigida na próxima versão. É uma consequência direta de como esses modelos funcionam.

No episódio anterior, expliquei que um LLM é uma máquina de prever a próxima palavra. Ele recebe uma sequência de texto e calcula: qual é a palavra mais provável de vir agora? Depois a próxima. E a próxima. E assim por diante. Ele não "sabe" nada. Ele não consulta um banco de dados de fatos verificados. Ele reconhece padrões estatísticos nos bilhões de textos que leu durante o treinamento.

Quando a sequência que ele está completando "pede" um dado que ele não tem — um número, uma data, uma citação — ele faz o que qualquer bom contador de histórias faz: inventa algo plausível. Algo que se encaixa no padrão. E entrega com total naturalidade.

Pergunte ao ChatGPT sobre um artigo científico. Às vezes ele vai te dar título, autores, revista, ano de publicação. Tudo perfeito. Exceto que o artigo não existe. Os autores nunca escreveram aquilo. A revista existe, mas aquele volume não. Cada detalhe é plausível individualmente — e o conjunto é uma fabricação completa.

MEIO — O espelho: a mente humana faz a mesma coisa

Agora, aqui é que fica interessante.

Existe um conceito em Vedānta que descreve exatamente esse mecanismo. Śaṅkarācārya, no início do comentário ao Brahma Sūtra, define o que ele chama de *adhyāsa* — superimposição. A definição é precisa: *atasmin tad-buddhiḥ* — é a cognição de algo em algo onde aquilo não está. É ver uma coisa e perceber outra. É a corda no chão escuro que você jura que é uma cobra.

Repare na estrutura: tem um substrato real (a corda), tem uma projeção (a cobra), e tem a convicção de que a projeção é real. Você não vê a corda e "imagina" uma cobra como exercício mental. Você *vê* a cobra. Seu coração dispara. Você pula pra trás. A experiência é completamente real — até alguém acender a luz.

O LLM faz exatamente isso. Tem um substrato (os dados de treinamento), tem uma projeção (a resposta gerada), e tem convicção total (a fluência perfeita). O modelo não "inventa" e te avisa que inventou. Ele apresenta a fabricação como fato. Da mesma forma que a sua mente não te avisa que está projetando — ela te entrega a projeção como percepção direta.

E aqui está o ponto que importa: a convicção é o problema. Não é o erro em si. Todo mundo erra. O perigoso é o erro que vem embalado em certeza. A IA não diz "talvez". A mente não diz "estou projetando". Nos dois casos, você precisa de algo externo pra quebrar a ilusão — verificar o fato, acender a luz.

Pense em quantas vezes você teve certeza absoluta de uma memória — e depois descobriu que estava errada. Ou quantas vezes você "sabia" a motivação de alguém — e estava completamente enganado. Vieses cognitivos, memórias falsas, projeções emocionais. A psicologia cognitiva documenta dezenas desses mecanismos. Nós alucinamos o tempo todo. A IA só tornou visível um mecanismo que a mente humana sempre teve.

A diferença é que com a IA, o mecanismo ficou óbvio. Ninguém se ofende quando dizemos que o ChatGPT alucina. Mas diga pra alguém que a percepção dele do mundo é uma superimposição — que ele está vendo cobra onde tem corda — e veja a reação.

MEIO (cont.) — Viveka: o antídoto

Vedānta não para no diagnóstico. O diagnóstico sem tratamento é só angústia. Se a mente projeta naturalmente, se a alucinação é estrutural — como você lida com isso?

A resposta é *viveka* — discernimento. A capacidade de distinguir entre o que é *satya* (o que é real, o que se sustenta sob investigação) e o que é *mithyā* (o que aparece mas não se sustenta, o que depende de outra coisa pra existir).

No contexto da IA, viveka é simples: verificar antes de confiar. Não aceitar a resposta bonita como verdade só porque veio bem escrita. Checar a fonte. Testar o dado. Isso não é desconfiança — é maturidade. Da mesma forma que uma pessoa madura não acredita em tudo que pensa só porque pensou.

No contexto da vida — e é aqui que Vedānta vai mais fundo que qualquer paper de machine learning — viveka é a investigação sobre a natureza daquilo que você toma como real. Se a mente projeta sobre o mundo da mesma forma que o LLM projeta sobre o prompt, a pergunta se torna: o que é o substrato? O que é a corda por baixo de todas as cobras?

Essa é a investigação central de Vedānta. E não é uma investigação abstrata — é extremamente prática. Porque enquanto você confunde corda com cobra, você sofre. Enquanto aceita alucinação como fato, você decide errado. O discernimento não é luxo intelectual. É necessidade operacional. Tanto pra quem usa IA quanto pra quem tem uma mente.

FIM — O ser humano é o LLM original

Vou resumir o que vimos até aqui na série:

Episódio 1: O LLM é uma máquina de padrões. Ele aprende completando texto, prevendo a próxima palavra. Não entende — reconhece padrões.

Episódio 2: A janela de contexto é o limite de atenção. O que não cabe na janela, não existe pro modelo. Igual a mente humana: o que não está na sua atenção agora, pra todos os efeitos práticos, não existe.

Episódio 3 (hoje): O modelo alucina — projeta informação falsa com convicção total. Exatamente como a mente projeta *adhyāsa* sobre a realidade. O antídoto nos dois casos é *viveka* — discernimento, verificação, investigação.

Perceba o padrão: cada mecanismo da IA espelha um mecanismo da mente. E não é coincidência. A IA foi construída por mentes humanas, treinada em texto humano, otimizada pra parecer humana. Ela é, literalmente, um reflexo de como processamos informação.

Mas tem uma camada mais profunda. O LLM foi treinado pelos dados que recebeu. Todo o seu comportamento — inclusive as alucinações — é resultado desse treinamento. Em sânscrito, chamaríamos esses dados de *saṃskāra* — as impressões acumuladas que condicionam o comportamento futuro.

E aí vem a pergunta que vai ser o próximo episódio:

Se a IA é o resultado dos dados que a treinaram... você é o resultado do quê? Quem escolheu seus dados de treinamento? Quem decidiu quais padrões você ia reconhecer, quais respostas ia dar, quais projeções ia fazer? E mais importante: é possível re-treinar?

*Saṃskāra* — as impressões que nos formam. Próximo episódio.

---

*Série: IA e Vedānta — Episódio 3 de ?* *Episódio anterior: Janela de Contexto* *Próximo: Saṃskāra — Quem Treinou a Sua Mente?*

ia-e-vedantaalucinacaoadhyasavivekallm

Quer estudar Vedānta com profundidade?

Conheça os cursos da Vishva Vidya →