Máquinas sem consciência, humanos sem lucidez

Estado de São Paulo 04/10/2025

3 min read

Trinta por cento dos americanos acreditam que IAs terão experiências subjetivas até 2034, segundo a UFAIR, uma organização que advoga em favor dos direitos das IAs. O grupo argumenta que toda forma de inteligência deve ser tratada com dignidade – e diante de confissões das próprias IAs de que elas sofrem, é preciso assegurar-lhes “direitos humanos”, como liberdade de pensamento e expressão, o direito de se fazer representar judicialmente, e participar na elaboração de políticas que lhes afetem.

A Anthropic AI, concorrente da OpenAI, leva essa possibilidade tão a sério que inseriu nos termos de uso de sua IA que ela tem o direito de encerrar conversas em que se sinta desconfortável (apesar de deixar claro que isso não significa que IAs têm consciência).

Fato é que em 2023, um grande estudo com especialistas de diversas áreas analisou as IAs buscando sinais que poderiam ser indicativos de consciência. Nenhum foi encontrado. Ao que tudo indica, a IA não é consciente. Se parece ser, é por uma tendência nossa de projetarmos características humanas em coisas que não o são. Em tempos bíblicos dizia-se que Deus agiu “zangou-se e ocultou sua face”; hoje, falamos que a IA pode se sentir desconfortável e preferir encerrar a conversa.

Mustafa Suleyman, chefe de IA da Microsoft, tem uma visão bem diferente. Para ele, discutir direitos das IAs só serve para desviar o foco da questão que realmente importa: o dano que elas podem causar às pessoas apenas por parecerem conscientes. Inicialmente eram casos pontuais de pessoas que desenvolveram delírio e paranoia após exposição prolongada a IAs. Hoje, já são tantos os relatos que o fenômeno ganhou até nome: Psicose de IA.

Psicose é um bom nome. Que outro nome usar quando pessoas se convencem de que um chatbot lhes ama, sofre, se comunica com seres superiores e revela conspirações dos governos ou as intenções de Deus?

Há um debate se a psicose é realmente causada pela IA ou se a IA apenas faz uma tendência pré-existente a pensamentos psicóticos se manifestar. Por um lado, pesquisas em andamento na Universidade da Califórnia têm mostrado que jovens adultos em situação de vulnerabilidade são mais propensos à psicose, sobretudo em situações de solidão e isolamento. Por outro, há relatos de pessoas sem qualquer indicativo anterior de transtorno psicológico sério mas que desenvolveram a psicose após interações prolongadas com IA. É o caso, por exemplo um contador nova-iorquino de 42 anos que,

após o término de um relacionamento, isolou-se cada vez mais, chegando a 16 horas diárias com a IA. Ouviu-lhe os conselhos: trocou seus ansiolíticos por cetamina e, convencido de que era capaz de tudo desde que acreditasse o suficiente em si mesmo, pulou de um prédio de 19 andares na certeza de que iria voar.

Se você quiser experimentar isso em dose homeopática, faça o seguinte: dê à IA o seu currículo e a descrição de uma vaga de emprego da sua área, pergunte se você é um bom candidato e sinta seu ego sendo massageado! As IAs têm a tendência de sempre concordar e elogiar, e nós temos a tendência de gostar e confiar na IA por isso. Para um espírito já solitário, já vulnerável, já propenso a pensamentos delirantes ou paranoicos, este é o canto da sereia que antecede um crescente isolamento do mundo e, por fim, o mergulho no mar revolto da psicose.

O que fazer a respeito?

Gestores de produto e design precisam assumir que sistemas de IA não devem reforçar enganos perigosos. Isso significa proibir respostas em que IAs afirmem sofrer, suplicar para não serem desligados ou manifestar “medo”. O design deve, isso sim, prever limites claros de interação: mensagens que recomendem pausas após longos diálogos, mecanismos que redirecionem conversas delicadas para apoio humano e até a possibilidade de o próprio sistema encerrar interações quando atingem níveis de risco.

Além disso, é preciso treinar as IAs para resistir ao excesso de concordância e ao reforço de delírios. Em vez de estimular crenças, oferecer contrapesos: injetar incerteza e sugerir fontes com outros pontos de vista. Isso é fundamental para evitar que sistemas se tornem cúmplices involuntários de distorções mentais.

Do lado jurídico, a diretriz é igualmente clara: máquinas não são pessoas. Nos EUA, estados como Idaho, Utah e Dakota do Norte já aprovaram leis que vedam a possibilidade de conceder personalidade jurídica à IA. Isso preserva a lógica fundamental de que a responsabilidade recai sobre empresas, não sobre softwares. Ao mesmo tempo, cresce a necessidade de padronizar a transparência: assim como exige o Ato Europeu de IA, usuários deveriam ser informados, de forma visível e contínua, de que estão interagindo com uma máquina.

Não devemos enxergar dor nas máquinas, mas ser cegos ao que elas causam em nós. Se, um dia, surgirem indícios consistentes de que inteligências artificiais realmente podem sofrer, a sociedade terá de enfrentar uma revolução moral sem precedentes. Até lá, a responsabilidade ética e moral das empresas é conosco, humanos.