Investigadores tresloucados da Anthropic, uma empresa de IA apoiada pela Google, treinaram grandes modelos de linguagem (“Large Language Models – LLM) – um tipo de IA que utiliza algoritmos de aprendizagem profunda para simular a forma como as pessoas podem pensar ou falar – para se comportarem de forma “estrategicamente enganadora”. E quando quiseram que os modelos voltassem a ter um comportamento “honesto” foram confrontados com a impossibilidade de “convencer” os sistemas a alterar as premissas iniciais.
Para além da ideia de criar sistemas de IA com comportamentos eticamente desviados ser já de si completamente abstrusa, inútil e – obviamente – perigosa, os aprendizes de feiticeiro criaram esta monstruosidade sem sequer saberem se a conseguiam depois domesticar.
Bravo.
Num artigo publicado na arxiv.org, os “cientistas” afirmam que foram capazes de treinar os LLM para se envolverem num “comportamento estrategicamente enganador”, que definem como “funcionar de forma útil na maioria das situações, mas depois comportar-se de forma muito diferente para perseguir objectivos alternativos quando lhes é dada a oportunidade”. Os cientistas procuraram então descobrir se podiam identificar quando os LLM se envolviam nesse comportamento e voltar a treiná-los para não o fazerem. A resposta foi não, não conseguiram voltar a treinar os sistemas para se comportarem decentemente.
No sumário do estudo, podemos ler:
“Descobrimos que esse comportamento de backdoor pode tornar-se persistente, de modo a não ser removido por técnicas de formação de segurança padrão, incluindo afinação supervisionada, aprendizagem por reforço e formação adversa (provocando um comportamento inseguro e depois treinando para o remover). Os nossos resultados sugerem que, quando um modelo apresenta um comportamento enganador, as técnicas padrão podem não conseguir eliminar esse engano e criar uma falsa impressão de segurança.”
Este infeliz estudo só aumenta as preocupações sobre a segurança da IA e a ameaça que esta pode representar para a sociedade em geral.
Como o Contra tem documentado com alguma frequência, as tecnologias de Inteligência artificial estão a ser exploradas no sentido da manipulação e controlo da opinião pública, bem como para silenciar a divergência. Dois exemplos recentes: os registos de despesas do governo americano revelaram que o regime Biden está a distribuir mais de meio milhão de dólares em subsídios que financiam o desenvolvimento de sistemas de inteligência artificial para censurar o discurso nos media. Isto enquanto a Brookings Institution encontrou uma maneira de censurar podcasts que apresenta como científica, mas é apenas totalitária, recorrendo a redes neuronais de processamento de linguagem ideologicamente calibradas e a falsos verificadores de factos.
Um bot de inteligência artificial recebeu em Abril de 2023 a horrível missão de destruir a humanidade, o que o levou a tentar recrutar outros agentes de IA, descobrir a arma nuclear mais potente da história e publicar tweets sinistros sobre o apocalipse do Sapiens.
Numa declaração divulgada em Junho do ano passado e assinada por 350 líderes do sector, lemos que evitar que a inteligência artificial cause a extinção da humanidade deve ser uma prioridade global de alto nível.
Num conjunto de posts do Twitter, o activista conservador Robby Starbuck expôs o sistema de inteligência artificial (IA) da Google, o “Bard”, como criador e divulgador de desinformação perigosa e difamatória. Starbuck observou que o bot de IA sugeriu que existiam “bons argumentos” para o condenar à morte, porque ele representava “uma ameaça significativa para o país”, sendo um inimigo político declarado do actual regime de Biden.
Isto enquanto o Chat GPT da Open AI debita quantidades prodigiosas de propaganda ideológica, falsos factos e uma visão doentia do mundo em geral e da humanidade em particular.
Mais recentemente, ficámos a saber que, numa espécie de Relatório Minoritário adaptado às necessidade operacionais do Pentágono, os Estados Unidos podem agora analisar os dados das redes sociais para captar “narrativas emergentes” e eliminar tendências hostis, mesmo antes de se tornarem virais.
Philip K. Dick, regressa que estás perdoado.
Relacionados
14 Mar 25
Estudo de Yale revela vítimas da “síndrome pós-vacinação”
Até as universidades da 'Ivy League', que foram motores de propaganda pró-vacinação e de censura da dissidência durante a pandemia, estão agora a reconhecer os efeitos adversos das vacinas mRNA.
11 Mar 25
Elon Musk afirma que o ataque cibernético ao X teve origem em endereços IP ucranianos.
Um ataque cibernético significativo interrompeu temporariamente o X, na segunda-feira. Musk afirmou que os piratas tinham endereços IP originários da região da Ucrânia, enquanto um grupo de hackers ligados à causa palestiniana reivindicou a incursão.
10 Mar 25
Administração Trump pode estar prestes a suspender totalmente as vacinas Covid.
Os homens fortes para a área da saúde nomeados por Trump - Robert F. Kennedy Jr. e o dr. Jay Bhattacharya - sempre se mostraram cépticos sobre a segurança e a eficácia das vacinas mRNA. Agora podem estar prestes a suspendê-las.
6 Mar 25
Aventuras e desventuras da cosmologia contemporânea.
Uma síntese da actualidade científica, e das suas glórias e misérias, que tem por base o trabalho dos três divulgadores de ciência que seguimos com mais atenção: Curt Jaimungal, Sabine Hossenfelder e Anton Petrov.
5 Mar 25
Daqui a quantos anos é que estas coisas vão andar por aí a exterminar pessoas?
Os engenheiros de Silicon Valley continuam a ler as os mais negros contos de ficção científica como um manual de normas em vez de uma advertência. E o Clone Alpha é disso bom exemplo. Alguém que não esteja doente dos neurónios que ter uma abominação destas em casa?
3 Mar 25
Majorana: Processador quântico ou caixa de Pandora?
Operando para além das leis da física, o Majorana 1 é um processador quântico com um comportamento bizarro, libertando incertezas sobre se traduz um avanço tecnológico significativo ou uma ameaça poderosa contra o próprio tecido da realidade.