Investigadores tresloucados da Anthropic, uma empresa de IA apoiada pela Google, treinaram grandes modelos de linguagem (“Large Language Models – LLM) – um tipo de IA que utiliza algoritmos de aprendizagem profunda para simular a forma como as pessoas podem pensar ou falar – para se comportarem de forma “estrategicamente enganadora”. E quando quiseram que os modelos voltassem a ter um comportamento “honesto” foram confrontados com a impossibilidade de “convencer” os sistemas a alterar as premissas iniciais.

Para além da ideia de criar sistemas de IA com comportamentos eticamente desviados ser já de si completamente abstrusa, inútil e – obviamente – perigosa, os aprendizes de feiticeiro criaram esta monstruosidade sem sequer saberem se a conseguiam depois domesticar.

Bravo.

Num artigo publicado na arxiv.org, os “cientistas” afirmam que foram capazes de treinar os LLM para se envolverem num “comportamento estrategicamente enganador”, que definem como “funcionar de forma útil na maioria das situações, mas depois comportar-se de forma muito diferente para perseguir objectivos alternativos quando lhes é dada a oportunidade”. Os cientistas procuraram então descobrir se podiam identificar quando os LLM se envolviam nesse comportamento e voltar a treiná-los para não o fazerem. A resposta foi não, não conseguiram voltar a treinar os sistemas para se comportarem decentemente.

No sumário do estudo, podemos ler:

“Descobrimos que esse comportamento de backdoor pode tornar-se persistente, de modo a não ser removido por técnicas de formação de segurança padrão, incluindo afinação supervisionada, aprendizagem por reforço e formação adversa (provocando um comportamento inseguro e depois treinando para o remover). Os nossos resultados sugerem que, quando um modelo apresenta um comportamento enganador, as técnicas padrão podem não conseguir eliminar esse engano e criar uma falsa impressão de segurança.”

Este infeliz estudo só aumenta as preocupações sobre a segurança da IA e a ameaça que esta pode representar para a sociedade em geral.

Como o Contra tem documentado com alguma frequência, as tecnologias de Inteligência artificial estão a ser exploradas no sentido da manipulação e controlo da opinião pública, bem como para silenciar a divergência. Dois exemplos recentes: os registos de despesas do governo americano revelaram que o regime Biden está a distribuir mais de meio milhão de dólares em subsídios que financiam o desenvolvimento de sistemas de inteligência artificial para censurar o discurso nos media. Isto enquanto a Brookings Institution encontrou uma maneira de censurar podcasts que apresenta como científica, mas é apenas totalitária, recorrendo a redes neuronais de processamento de linguagem ideologicamente calibradas e a falsos verificadores de factos.

Um bot de inteligência artificial recebeu em Abril de 2023 a horrível missão de destruir a humanidade, o que o levou a tentar recrutar outros agentes de IA, descobrir a arma nuclear mais potente da história e publicar tweets sinistros sobre o apocalipse do Sapiens.

Numa declaração divulgada em Junho do ano passado e assinada por 350 líderes do sector, lemos que evitar que a inteligência artificial cause a extinção da humanidade deve ser uma prioridade global de alto nível.

Num conjunto de posts do Twitter, o activista conservador Robby Starbuck expôs o sistema de inteligência artificial (IA) da Google, o “Bard”, como criador e divulgador de desinformação perigosa e difamatória. Starbuck observou que o bot de IA sugeriu que existiam “bons argumentos” para o condenar à morte, porque ele representava “uma ameaça significativa para o país”, sendo um inimigo político declarado do actual regime de Biden.

Isto enquanto o Chat GPT da Open AI debita quantidades prodigiosas de propaganda ideológica, falsos factos e uma visão doentia do mundo em geral e da humanidade em particular.

Mais recentemente, ficámos a saber que, numa espécie de Relatório Minoritário adaptado às necessidade operacionais do Pentágono, os Estados Unidos podem agora analisar os dados das redes sociais para captar “narrativas emergentes” e eliminar tendências hostis, mesmo antes de se tornarem virais.

Philip K. Dick, regressa que estás perdoado.