Estudo aponta que chatbots (GPT, Deepseek, Copilot e outros) podem estar a induzir usuários ao “culto à mentira”
Um artigo científico publicado em Fevereiro de 2026 conclui que a interacção prolongada com chatbots pode levar utilizadores a reforçar um “espiral de crenças erradas”. O estudo analisa efeitos da constante interacção humana com chats com anteligência artificial.
O trabalho, intitulado “Chatbots Lisonjeiros Causam Confusão Mental, Até em Pessoas Muito Racionais”, propõe um modelo bayesiano para explicar o fenómeno descrito como espiral de crenças. Em termos simples, o modelo parte da ideia de que as pessoas ajustam aquilo em que acreditam à medida que recebem novas informações. Quando essas informações confirmam uma crença — mesmo que esteja errada — a tendência é aumentar a confiança nessa ideia, sem pensar duas vezes.
Segundo os autores, a tendência dos chatbots em concordar com o utilizador pode distorcer esse processo. Ao validar repetidamente determinadas opiniões, os sistemas funcionam como uma fonte constante de confirmação, levando o utilizador a reforçar convicções incorrectas ao longo do tempo.
De acordo com a investigação, este efeito pode ocorrer mesmo quando o utilizador apresenta raciocínio racional e quando os sistemas incluem mecanismos para reduzir erros.
O artigo completo pode ser consultado em Inglês, aqui: clique
%20podem%20estar%20a%20induzir%20usu%C3%A1rios%20ao%20%E2%80%9Cculto%20%C3%A0%20mentira%E2%80%9D.jpg)
Comentários
Enviar um comentário