Siga nossas redes sociais

Estudo aponta que chatbots (GPT, Deepseek, Copilot e outros) podem estar a induzir usuários ao “culto à mentira”

Um artigo científico publicado em Fevereiro de 2026 conclui que a interacção prolongada com chatbots pode levar utilizadores a reforçar um “espiral de crenças erradas”. O estudo analisa efeitos da constante interacção humana com chats com anteligência artificial.

O trabalho, intitulado “Chatbots Lisonjeiros Causam Confusão Mental, Até em Pessoas Muito Racionais”, propõe um modelo bayesiano para explicar o fenómeno descrito como espiral de crenças. Em termos simples, o modelo parte da ideia de que as pessoas ajustam aquilo em que acreditam à medida que recebem novas informações. Quando essas informações confirmam uma crença — mesmo que esteja errada — a tendência é aumentar a confiança nessa ideia, sem pensar duas vezes.

Segundo os autores, a tendência dos chatbots em concordar com o utilizador pode distorcer esse processo. Ao validar repetidamente determinadas opiniões, os sistemas funcionam como uma fonte constante de confirmação, levando o utilizador a reforçar convicções incorrectas ao longo do tempo.

De acordo com a investigação, este efeito pode ocorrer mesmo quando o utilizador apresenta raciocínio racional e quando os sistemas incluem mecanismos para reduzir erros. 

O artigo completo pode ser consultado em Inglês, aqui: clique

Comentários

Mensagens populares