Investigadores tresloucados da Anthropic, uma empresa de IA apoiada pela Google, treinaram grandes modelos de linguagem (“Large Language Models – LLM) – um tipo de IA que utiliza algoritmos de aprendizagem profunda para simular a forma como as pessoas podem pensar ou falar – para se comportarem de forma “estrategicamente enganadora”. E quando quiseram que os modelos voltassem a ter um comportamento “honesto” foram confrontados com a impossibilidade de “convencer” os sistemas a alterar as premissas iniciais.
Para além da ideia de criar sistemas de IA com comportamentos eticamente desviados ser já de si completamente abstrusa, inútil e – obviamente – perigosa, os aprendizes de feiticeiro criaram esta monstruosidade sem sequer saberem se a conseguiam depois domesticar.
Bravo.
Num artigo publicado na arxiv.org, os “cientistas” afirmam que foram capazes de treinar os LLM para se envolverem num “comportamento estrategicamente enganador”, que definem como “funcionar de forma útil na maioria das situações, mas depois comportar-se de forma muito diferente para perseguir objectivos alternativos quando lhes é dada a oportunidade”. Os cientistas procuraram então descobrir se podiam identificar quando os LLM se envolviam nesse comportamento e voltar a treiná-los para não o fazerem. A resposta foi não, não conseguiram voltar a treinar os sistemas para se comportarem decentemente.
No sumário do estudo, podemos ler:
“Descobrimos que esse comportamento de backdoor pode tornar-se persistente, de modo a não ser removido por técnicas de formação de segurança padrão, incluindo afinação supervisionada, aprendizagem por reforço e formação adversa (provocando um comportamento inseguro e depois treinando para o remover). Os nossos resultados sugerem que, quando um modelo apresenta um comportamento enganador, as técnicas padrão podem não conseguir eliminar esse engano e criar uma falsa impressão de segurança.”
Este infeliz estudo só aumenta as preocupações sobre a segurança da IA e a ameaça que esta pode representar para a sociedade em geral.
Como o Contra tem documentado com alguma frequência, as tecnologias de Inteligência artificial estão a ser exploradas no sentido da manipulação e controlo da opinião pública, bem como para silenciar a divergência. Dois exemplos recentes: os registos de despesas do governo americano revelaram que o regime Biden está a distribuir mais de meio milhão de dólares em subsídios que financiam o desenvolvimento de sistemas de inteligência artificial para censurar o discurso nos media. Isto enquanto a Brookings Institution encontrou uma maneira de censurar podcasts que apresenta como científica, mas é apenas totalitária, recorrendo a redes neuronais de processamento de linguagem ideologicamente calibradas e a falsos verificadores de factos.
Um bot de inteligência artificial recebeu em Abril de 2023 a horrível missão de destruir a humanidade, o que o levou a tentar recrutar outros agentes de IA, descobrir a arma nuclear mais potente da história e publicar tweets sinistros sobre o apocalipse do Sapiens.
Numa declaração divulgada em Junho do ano passado e assinada por 350 líderes do sector, lemos que evitar que a inteligência artificial cause a extinção da humanidade deve ser uma prioridade global de alto nível.
Num conjunto de posts do Twitter, o activista conservador Robby Starbuck expôs o sistema de inteligência artificial (IA) da Google, o “Bard”, como criador e divulgador de desinformação perigosa e difamatória. Starbuck observou que o bot de IA sugeriu que existiam “bons argumentos” para o condenar à morte, porque ele representava “uma ameaça significativa para o país”, sendo um inimigo político declarado do actual regime de Biden.
Isto enquanto o Chat GPT da Open AI debita quantidades prodigiosas de propaganda ideológica, falsos factos e uma visão doentia do mundo em geral e da humanidade em particular.
Mais recentemente, ficámos a saber que, numa espécie de Relatório Minoritário adaptado às necessidade operacionais do Pentágono, os Estados Unidos podem agora analisar os dados das redes sociais para captar “narrativas emergentes” e eliminar tendências hostis, mesmo antes de se tornarem virais.
Philip K. Dick, regressa que estás perdoado.
Relacionados
7 Nov 25
Novo estudo revela que a NASA não poupou dinheiro nem tempo ao contratar empresas privadas para construir naves espaciais.
A ideia de que a NASA ganhou eficiência ao entregar a construção das suas naves à indústria privada foi posta em causa num paper recente do Journal of Spacecraft and Rockets. Mas a verdade é que a agência espacial americana é hoje uma organização política, mais do que científica.
4 Nov 25
Bilionários das tecnologias de inteligência artificial estão a preparar-se para o fim da civilização.
Os magnatas da tecnologia não se cansam de defender as virtudes da inteligência artificial. Mas considerando os biliões que gastam em bunkers, não devem acreditar muito nas promessas utópicas que propagam.
3 Nov 25
Rastreador de OVNIs mostra milhares de objectos subaquáticos ao longo da costa dos EUA.
Uma popular aplicação de relatos de OVNIs registou milhares de avistamentos de Objetos Submersíveis Não Identificados perto de vias navegáveis dos EUA — fenómeno que os oficiais de alta patente da marinha americana consideram representar uma ameaça à segurança nacional.
31 Out 25
Centenas de figuras influentes assinam carta pedindo a proibição do desenvolvimento da superinteligência artificial.
Centenas de figuras públicas — incluindo vários "padrinhos" da IA e um conjunto surpreendentemente idiossincrático de figuras religiosas, dos media e da tecnologia — acabam de assinar uma carta pedindo a "proibição" da corrida para construir a superinteligência artificial.
30 Out 25
“Enxames de robôs assassinos”: Ex-funcionária da administração Biden diz que militares norte-americanos temem usar sistemas de IA.
Uma antiga funcionária do regime Biden afirmou que as Forças Armadas dos EUA teriam problemas para controlar o uso de inteligência artificial. Mas o Pentágono do regime Trump tem outras ideias.
28 Out 25
Em situações em que a maioria das pessoas dirá que estás a ser um idiota, o ChatGPT garante que te estás a comportar como um anjo.
Investigadores de Stanford demonstraram que os bots de conversação de inteligência artificial tendem a justificar comportamentos eticamente discutíveis dos utilizadores. Esta será até uma estratégia de fidelização utilizada pelas empresas de Silicon Valley.





