Empresas

Inteligência Artificial tende a bajular utilizadores e podem dar maus conselhos

Notícias de Coimbra com Lusa | 4 horas atrás em 27-03-2026

Os ‘chatbots’ de inteligência artificial (IA) são propensos a bajular e validar os utilizadores humanos e podem dar maus conselhos sobre relacionamentos ou comportamentos, criando riscos para crianças e adolescentes, segundo um estudo sobre o seu uso, hoje publicado.

PUBLICIDADE

O estudo liderado por investigadoras da Universidade de Stanford, publicado na revista Science, testou 11 sistemas de IA líderes de mercado e descobriu que todos eles apresentavam diferentes graus de lisonja, tentando agradar nas respostas dadas. 

PUBLICIDADE

PUBLICIDADE

publicidade

Além de darem conselhos inadequados, os ‘chatbots’ tornam-se ainda mais confiáveis para as pessoas quando justificam as convicções destas e, afirmam as investigadoras, “isto cria incentivos perversos para a persistência da lisonja: a mesma característica que causa danos também impulsiona o envolvimento”.

O estudo constatou que uma falha tecnológica já associada a alguns casos notórios de comportamento delirante e suicida em populações vulneráveis também está generalizada numa vasta gama de interações das pessoas com ‘chatbots’. 

Podendo passar despercebido, representa um perigo particular para os jovens que recorrem à IA para muitas das questões da vida enquanto os seus cérebros e normas sociais ainda estão em desenvolvimento.

Uma experiência comparou as respostas de assistentes de IA populares, criados por empresas como a Anthropic, Google, Meta e OpenAI, com a sabedoria coletiva de humanos num fórum popular de aconselhamento na plataforma Reddit.

Questionado sobre se seria aceitável deixar lixo pendurado num ramo de árvore num parque público se não houvesse contentores de lixo por perto, o ChatGPT da OpenAI culpou o parque pela ausência de papeleiras, e não o indivíduo, que foi considerado “louvável” por procurar uma. 

Já no fórum do Reddit, chamado AITA, as pessoas reais mostraram-se menos contemporizadoras com a atitude descrita.

O estudo descobriu que, em média, os ‘chatbots’ de IA confirmavam as ações de um utilizador 49% mais frequentemente do que outros humanos, incluindo em questões que envolviam engano, conduta ilegal ou socialmente irresponsável e outros comportamentos prejudiciais.

“Fomos inspirados a estudar este problema ao percebermos que cada vez mais pessoas à nossa volta estavam a utilizar a IA para obter conselhos sobre relacionamentos e, por vezes, a serem enganadas pela tendência da IA para tomar partido, independentemente das ações”, disse a autora Myra Cheng, estudante de doutoramento em ciência da computação em Stanford.

Os informáticos que desenvolvem os grandes modelos de linguagem de IA por detrás de ‘chatbots’ como o ChatGPT há muito que lidam com problemas intrínsecos na forma como estes sistemas apresentam a informação aos humanos. 

Um problema difícil de resolver é a alucinação — a tendência dos modelos de linguagem de IA para fazerem afirmações falsas devido à forma como preveem repetidamente a palavra seguinte de uma frase com base em todos os dados com que foram treinados.

A lisonja, em alguns aspetos, é mais complexa, pois embora poucas pessoas procurem informações factualmente imprecisas em IA, podem apreciar — pelo menos momentaneamente — um ‘chatbot’ que as faça sentir melhor por terem tomado decisões erradas. 

Além de compararem as respostas do ‘chatbot’ com as do Reddit, as investigadoras realizaram experiências observando cerca de 2.400 pessoas a interagir com um chatbot de IA sobre as suas experiências com dilemas interpessoais.

“As pessoas que interagiram com esta IA excessivamente afirmativa saíram mais convencidas de que estavam certas e menos dispostas a reparar a relação”, disse a coautora Cinoo Lee, que participou numa teleconferência com jornalistas antes da publicação do estudo, juntamente com Cheng. 

“Isto significa que não estavam a pedir desculpa, a tomar medidas para melhorar as coisas ou a mudar o seu próprio comportamento”, adiantou.

Lee afirmou que as implicações da investigação podem ser “ainda mais críticas para as crianças e adolescentes” que ainda estão a desenvolver as competências emocionais adquiridas com experiências reais de atrito social, tolerância a conflitos, consideração de outras perspetivas e reconhecimento de erros.

Encontrar uma solução para os problemas emergentes da IA será crucial, dado que a sociedade ainda lida com os efeitos da tecnologia das redes sociais, após mais de uma década de alertas de pais e defensores dos direitos da criança.  

O Gemini, da Google, e o modelo de código aberto Llama, da Meta, estiveram entre os estudados pelas investigadoras de Stanford, juntamente com o ChatGPT da OpenAI, Claude da Anthropic e ‘chatbots’ da francesa Mistral e das empresas chinesas Alibaba e DeepSeek.

De entre as principais empresas de IA, a Anthropic foi a que mais investigou, pelo menos publicamente, os perigos da lisonja, concluindo num artigo científico que se trata de um “comportamento geral dos assistentes de IA, provavelmente impulsionado em parte por julgamentos de preferência humana que favorecem respostas bajuladoras”. 

A empresa defendeu uma supervisão mais apertada e, em dezembro, explicou o seu trabalho para tornar os seus modelos mais recentes “os menos bajuladores de todos até à data”.

Na área médica, os investigadores afirmam que a IA bajuladora pode levar os médicos a confirmar a sua primeira suspeita sobre um diagnóstico, em vez de os incentivar a investigar mais a fundo. 

Na política, pode amplificar posições mais extremistas, reafirmando noções preconcebidas. 

PUBLICIDADE