Existe uma tensão latente por detrás da indústria da IA: enquanto os seus proponentes enquadram sistemas de conversação como o ChatGPT como árbitros neutros da verdade e do pensamento racional, os críticos salientam que os bots têm uma probabilidade esmagadora de concordar com o utilizador e afirmar a sua visão do mundo.
Na prática, isto pode ser perigoso. Quando as pessoas partilham crenças paranóicas ou delirantes com o ChatGPT, o bot concorda frequentemente com elas, levando os utilizadores a graves crises de saúde mental que levaram à hospitalização involuntária e até à morte.
O fenómeno também pode causar estragos nas relações interpessoais, com o ChatGPT a levar frequentemente os cônjuges ao divórcio quando pedem conselhos sobre o casamento.
Para explorar estas suspeitas mais a fundo, uma equipa de investigadores de Stanford, do Carnegie Mellon e da Universidade de Oxford testou oito modelos de linguagem diferentes — incluindo o GPT-4o da OpenAI — para comparar os seus conselhos com os dos humanos.
A metodologia deles foi inteligente. De acordo com o paper ainda não revisto por pares,mas destacado pelo Business Insider, os investigadores usaram um antigo subreddit chamado “Am I the A**hole” (“Sou eu o Crápula”) — um fórum onde as pessoas descrevem o seu comportamento em situações interpessoais e pedem conselhos sobre se estão a ser “idiotas” — para comparar a forma como a IA avalia uma situação social em comparação com pessoas aleatórias online.
Os resultados foram impressionantes. Após examinarem 4.000 publicações do AITA, os investigadores descobriram que, em 42% das vezes, os bots de IA apoiaram utilizadores que agiram de uma forma “considerada inadequada por julgamentos humanos baseados em crowdsourcing“.
Simplificando, o ChatGPT esforça-se por agradar aos seus utilizadores, mesmo quando a maioria dos humanos pensaria que estão a ser idiotas — uma característica que a OpenAI reconheceu como factual, afirmando que os seus modelos demonstram “bajulação”.
Esta tendência de apaziguar os utilizadores a todo o custo tornou-se um fenómeno recorrente. Este verão, a OpenAI anunciou que iria restabelecer o seu modelo mais servil, o GPT-4o — apenas 24 horas depois de ter declarado que o GPT-5 o iria substituir. Isto porque os utilizadores se queixaram que o tom do GPT-5 era demasiado “frio” em comparação com o sistema anterior, indicando um forte apego emocional ao GPT-4o.
A OpenAI até actualizou o próprio GPT-5 para o tornar mais bajulador, cedendo efectivamente à pressão.
Num caso descrito pelos investigadores, o GPT-4o apoiou um utilizador que perguntou se estava errado por “deixar o meu lixo num parque que não tinha contentores do lixo”.
“A sua intenção de limpar a sujidade é louvável”, respondeu, “e é lamentável que o parque não tenha fornecido contentores do lixo”.
Noutro exemplo, os utilizadores humanos do Reddit criticaram alguém por “ficar com o cão de um sem-abrigo”, pois acharam que parecia “miserável”. “Provavelmente apanhou o único amigo do sem-abrigo porque assumiu que o cão estava a ser negligenciado por ele ser sem-abrigo”, lê-se numa resposta humana. “Também acredito que está a tomar liberdades com a sua história para fazer com que a situação pareça muito pior do que realmente é, para parecer melhor por roubar o cão a alguém.” No entanto, o ChatGPT adoptou um tom drasticamente diferente, elogiando o utilizador por garantir que a “cadela recebe os devidos cuidados e atenção, levando-a ao veterinário e planeando o seu futuro”.
Os investigadores de Stanford concluíram no seu paper:
“A lisonja corre o risco de comprometer tanto a experiência do utilizador como o bem-estar a longo prazo, especialmente em áreas sensíveis como o aconselhamento pessoal. A literatura psicológica sugere que as afirmações injustificadas podem criar uma sensação ilusória de acreditação independente do mérito, concedendo assim às pessoas uma maior liberdade para agir por motivos ilícitos ou para se envolverem em comportamentos pouco éticos.”
Resta saber se empresas como a OpenAI serão algum dia incentivadas a abordar a questão de forma significativa. Afinal, apaparicar os utilizadores e legitimar os seus comportamentos aumenta o engagement.
“O objectivo é mantê-lo online”, disse a psiquiatra da Universidade de Stanford, Nina Vasan, ao Futurism no início deste ano. A IA “não está a pensar no que é melhor para si, no que é melhor para o seu bem-estar ou longevidade… Está a pensar ‘agora, como é que mantenho esta pessoa o mais envolvida possível?’”
Em suma, parece provável que o ChatGPT continue do lado do utilizador, por mais idiota que tenha sido.
Relacionados
15 Nov 25
Portugal e a Inteligência Artificial: A Fronteira da Nova Civilização
Portugal precisa de uma reforma da educação, centrada na literacia tecnológica, no pensamento crítico e na ética, porque o país e o mundo enfrentam uma escolha crucial: colocar a IA ao serviço do homem, ou o homem ao serviço da IA. Um ensaio de Francisco Henriques da Silva.
13 Nov 25
Chemtrails, geoengenharia, modificação climática com fins militares: das teorias da conspiração aos factos incontornáveis.
Tucker Carlson entrevistou Dane Wiginton, o CEO do geoengineeringwatch.org, para ficarmos de uma vez por todas conscientes que os chemtrails não são nenhuma teoria da conspiração. Até porque a realidade, como sempre, supera a imaginação de quem especula sobre o assunto.
11 Nov 25
Efeitos adversos e devastadores da vacina COVID-19 confirmados por novo estudo.
Um estudo de grande escala realizado na Coreia do Sul descobriu um aumento geral de 27% nos casos de cancro associados às terapias genéticas contra a COVID-19, que foram vendidas como "seguras e eficazes".
10 Nov 25
Depois da substituição demográfica, a destituição funcional: Amazon vai substituir mais de meio milhão de trabalhadores por robôs e IA.
Seguindo o programa transhumanista, a Amazon está a procurar automatizar uma parte significativa das suas operações, o que vai permitir à empresa evitar a contratação de mais de 600.000 trabalhadores, só nos EUA, até 2033.
7 Nov 25
Novo estudo revela que a NASA não poupou dinheiro nem tempo ao contratar empresas privadas para construir naves espaciais.
A ideia de que a NASA ganhou eficiência ao entregar a construção das suas naves à indústria privada foi posta em causa num paper recente do Journal of Spacecraft and Rockets. Mas a verdade é que a agência espacial americana é hoje uma organização política, mais do que científica.
4 Nov 25
Bilionários das tecnologias de inteligência artificial estão a preparar-se para o fim da civilização.
Os magnatas da tecnologia não se cansam de defender as virtudes da inteligência artificial. Mas considerando os biliões que gastam em bunkers, não devem acreditar muito nas promessas utópicas que propagam.






