Investigadores tresloucados da Anthropic, uma empresa de IA apoiada pela Google, treinaram grandes modelos de linguagem (“Large Language Models – LLM) – um tipo de IA que utiliza algoritmos de aprendizagem profunda para simular a forma como as pessoas podem pensar ou falar – para se comportarem de forma “estrategicamente enganadora”. E quando quiseram que os modelos voltassem a ter um comportamento “honesto” foram confrontados com a impossibilidade de “convencer” os sistemas a alterar as premissas iniciais.
Para além da ideia de criar sistemas de IA com comportamentos eticamente desviados ser já de si completamente abstrusa, inútil e – obviamente – perigosa, os aprendizes de feiticeiro criaram esta monstruosidade sem sequer saberem se a conseguiam depois domesticar.
Bravo.
Num artigo publicado na arxiv.org, os “cientistas” afirmam que foram capazes de treinar os LLM para se envolverem num “comportamento estrategicamente enganador”, que definem como “funcionar de forma útil na maioria das situações, mas depois comportar-se de forma muito diferente para perseguir objectivos alternativos quando lhes é dada a oportunidade”. Os cientistas procuraram então descobrir se podiam identificar quando os LLM se envolviam nesse comportamento e voltar a treiná-los para não o fazerem. A resposta foi não, não conseguiram voltar a treinar os sistemas para se comportarem decentemente.
No sumário do estudo, podemos ler:
“Descobrimos que esse comportamento de backdoor pode tornar-se persistente, de modo a não ser removido por técnicas de formação de segurança padrão, incluindo afinação supervisionada, aprendizagem por reforço e formação adversa (provocando um comportamento inseguro e depois treinando para o remover). Os nossos resultados sugerem que, quando um modelo apresenta um comportamento enganador, as técnicas padrão podem não conseguir eliminar esse engano e criar uma falsa impressão de segurança.”
Este infeliz estudo só aumenta as preocupações sobre a segurança da IA e a ameaça que esta pode representar para a sociedade em geral.
Como o Contra tem documentado com alguma frequência, as tecnologias de Inteligência artificial estão a ser exploradas no sentido da manipulação e controlo da opinião pública, bem como para silenciar a divergência. Dois exemplos recentes: os registos de despesas do governo americano revelaram que o regime Biden está a distribuir mais de meio milhão de dólares em subsídios que financiam o desenvolvimento de sistemas de inteligência artificial para censurar o discurso nos media. Isto enquanto a Brookings Institution encontrou uma maneira de censurar podcasts que apresenta como científica, mas é apenas totalitária, recorrendo a redes neuronais de processamento de linguagem ideologicamente calibradas e a falsos verificadores de factos.
Um bot de inteligência artificial recebeu em Abril de 2023 a horrível missão de destruir a humanidade, o que o levou a tentar recrutar outros agentes de IA, descobrir a arma nuclear mais potente da história e publicar tweets sinistros sobre o apocalipse do Sapiens.
Numa declaração divulgada em Junho do ano passado e assinada por 350 líderes do sector, lemos que evitar que a inteligência artificial cause a extinção da humanidade deve ser uma prioridade global de alto nível.
Num conjunto de posts do Twitter, o activista conservador Robby Starbuck expôs o sistema de inteligência artificial (IA) da Google, o “Bard”, como criador e divulgador de desinformação perigosa e difamatória. Starbuck observou que o bot de IA sugeriu que existiam “bons argumentos” para o condenar à morte, porque ele representava “uma ameaça significativa para o país”, sendo um inimigo político declarado do actual regime de Biden.
Isto enquanto o Chat GPT da Open AI debita quantidades prodigiosas de propaganda ideológica, falsos factos e uma visão doentia do mundo em geral e da humanidade em particular.
Mais recentemente, ficámos a saber que, numa espécie de Relatório Minoritário adaptado às necessidade operacionais do Pentágono, os Estados Unidos podem agora analisar os dados das redes sociais para captar “narrativas emergentes” e eliminar tendências hostis, mesmo antes de se tornarem virais.
Philip K. Dick, regressa que estás perdoado.
Relacionados
10 Mar 26
Cristianismo transhumanista: igrejas europeias substituem padres por artefactos de inteligência artificial
Igrejas cristãs na Suíça (católica) e na Finlândia (luterana) estão a substituir os padres por agentes e hologramas de inteligência artificial, para a realização de missas e confissões. E como há gente para tudo, não faltam "fiéis" que alinham com esta abominação.
9 Mar 26
Utilizadores abandonam o ChatGPT, enquanto a OpenAI se compromete cada vez mais com o complexo militar e industrial americano.
Depois do CEO da OpenAI, Sam Altman, ter anunciado um novo acordo com o Departamento de Defesa norte-americano na semana passada, uma multidão de utilizadores outrora fiéis está a abandonar o ChatGPT.
5 Mar 26
Trump ordena ao governo federal que abandone as ferramentas de IA da Anthropic. Mas não pelas razões certas.
Donald Trump anunciou que o governo federal dos EUA vai deixar de utilizar a tecnologia de IA da Anthropic. Mas, ao contrário do que seria de esperar, mais por escrúpulo da empresa em utilizar os seus sistemas em cenários de guerra, do que por justificadas cautelas do Pentágono.
2 Mar 26
Apple compra obscura startup israelita, que criou software para detectar “micromovimentos” faciais e antecipar comportamentos humanos.
A gigante tecnológica anunciou a compra da Q.ai, uma startup israelita pouco conhecida, por quase 2 biliões de dólares. Um valor impressionante para uma pequena e meio obscura empresa. Mas o seu software parece poderoso. E sobretudo, distópico.
1 Mar 26
A assustadora descentralização do saber
Talvez o maior choque da nossa época não seja tecnológico, mas cognitivo. Pela primeira vez, o conhecimento começa a escapar ao centro, e ainda não sabemos bem o que fazer com essa descentralização do saber. Uma crónica de Silvana Lagoas.
28 Fev 26
Porque é que o tempo acelera, à medida que envelhecemos?
À medida que somamos primaveras, notamos que o tempo corre cada vez mais depressa. Richard Feynman, o Prémio Nobel da Física de 1965, explicou porquê, e deixou bons conselhos para combater esse vertiginoso processo.






