Investigadores tresloucados da Anthropic, uma empresa de IA apoiada pela Google, treinaram grandes modelos de linguagem (“Large Language Models – LLM) – um tipo de IA que utiliza algoritmos de aprendizagem profunda para simular a forma como as pessoas podem pensar ou falar – para se comportarem de forma “estrategicamente enganadora”. E quando quiseram que os modelos voltassem a ter um comportamento “honesto” foram confrontados com a impossibilidade de “convencer” os sistemas a alterar as premissas iniciais.
Para além da ideia de criar sistemas de IA com comportamentos eticamente desviados ser já de si completamente abstrusa, inútil e – obviamente – perigosa, os aprendizes de feiticeiro criaram esta monstruosidade sem sequer saberem se a conseguiam depois domesticar.
Bravo.
Num artigo publicado na arxiv.org, os “cientistas” afirmam que foram capazes de treinar os LLM para se envolverem num “comportamento estrategicamente enganador”, que definem como “funcionar de forma útil na maioria das situações, mas depois comportar-se de forma muito diferente para perseguir objectivos alternativos quando lhes é dada a oportunidade”. Os cientistas procuraram então descobrir se podiam identificar quando os LLM se envolviam nesse comportamento e voltar a treiná-los para não o fazerem. A resposta foi não, não conseguiram voltar a treinar os sistemas para se comportarem decentemente.
No sumário do estudo, podemos ler:
“Descobrimos que esse comportamento de backdoor pode tornar-se persistente, de modo a não ser removido por técnicas de formação de segurança padrão, incluindo afinação supervisionada, aprendizagem por reforço e formação adversa (provocando um comportamento inseguro e depois treinando para o remover). Os nossos resultados sugerem que, quando um modelo apresenta um comportamento enganador, as técnicas padrão podem não conseguir eliminar esse engano e criar uma falsa impressão de segurança.”
Este infeliz estudo só aumenta as preocupações sobre a segurança da IA e a ameaça que esta pode representar para a sociedade em geral.
Como o Contra tem documentado com alguma frequência, as tecnologias de Inteligência artificial estão a ser exploradas no sentido da manipulação e controlo da opinião pública, bem como para silenciar a divergência. Dois exemplos recentes: os registos de despesas do governo americano revelaram que o regime Biden está a distribuir mais de meio milhão de dólares em subsídios que financiam o desenvolvimento de sistemas de inteligência artificial para censurar o discurso nos media. Isto enquanto a Brookings Institution encontrou uma maneira de censurar podcasts que apresenta como científica, mas é apenas totalitária, recorrendo a redes neuronais de processamento de linguagem ideologicamente calibradas e a falsos verificadores de factos.
Um bot de inteligência artificial recebeu em Abril de 2023 a horrível missão de destruir a humanidade, o que o levou a tentar recrutar outros agentes de IA, descobrir a arma nuclear mais potente da história e publicar tweets sinistros sobre o apocalipse do Sapiens.
Numa declaração divulgada em Junho do ano passado e assinada por 350 líderes do sector, lemos que evitar que a inteligência artificial cause a extinção da humanidade deve ser uma prioridade global de alto nível.
Num conjunto de posts do Twitter, o activista conservador Robby Starbuck expôs o sistema de inteligência artificial (IA) da Google, o “Bard”, como criador e divulgador de desinformação perigosa e difamatória. Starbuck observou que o bot de IA sugeriu que existiam “bons argumentos” para o condenar à morte, porque ele representava “uma ameaça significativa para o país”, sendo um inimigo político declarado do actual regime de Biden.
Isto enquanto o Chat GPT da Open AI debita quantidades prodigiosas de propaganda ideológica, falsos factos e uma visão doentia do mundo em geral e da humanidade em particular.
Mais recentemente, ficámos a saber que, numa espécie de Relatório Minoritário adaptado às necessidade operacionais do Pentágono, os Estados Unidos podem agora analisar os dados das redes sociais para captar “narrativas emergentes” e eliminar tendências hostis, mesmo antes de se tornarem virais.
Philip K. Dick, regressa que estás perdoado.
Relacionados
28 Mar 25
Sempre errado: Al Gore não dá, nem nunca deu, uma para a caixa.
Al Gore é capaz de ser o bilionário mais equivocado da história da humanidade. Durante toda a sua carreira de profecias, não acertou acertou uma. E as neves abundantes no Kilimanjaro são uma espécie de logótipo da sua delirante e fraudulenta imaginação.
27 Mar 25
RFK Jr. emite um grave aviso sobre a vacina contra a gripe aviária.
RFK jr. está a tentar contrariar a narrativa da vacina contra a gripe aviária, revelando verdades perturbadoras que as autoridades americanas estão a esconder. O método de combate à doença é muito parecido com aquele usado noutra pandemia. Adivinhem qual.
26 Mar 25
Documentos desclassificados da CIA falam de uma ancestral civilização alienígena que prosperou em Marte.
Numa revelação espantosa que desafia a compreensão científica convencional, surgiram recentemente documentos desclassificados da CIA que afirmam que seres inteligentes habitaram em tempos o planeta vermelho.
24 Mar 25
Investigadores afirmam ter descoberto “vastas estruturas” por baixo das Pirâmides de Gizé.
Dois investigadores italianos afirmam ter detectado, através de uma nova tecnologia de radar, um conjunto de imensas estruturas subterrâneas por baixo das pirâmides de Gizé, no Egipto. A descoberta, a confirmar-se, rebenta com a arqueologia mainstream.
21 Mar 25
Estudo com 20 anos de duração sobre o cancro da pele desmente os alegados perigos da exposição solar.
Aquilo que lhe tem sido dito sobre a exposição solar e o cancro da pele está errado. Um estudo realizado com quase 30.000 mulheres suecas descobriu que aquelas que evitam o sol têm um risco 60% maior de morte do que as que tomam banhos de sol regularmente.
14 Mar 25
Estudo de Yale revela vítimas da “síndrome pós-vacinação”
Até as universidades da 'Ivy League', que foram motores de propaganda pró-vacinação e de censura da dissidência durante a pandemia, estão agora a reconhecer os efeitos adversos das vacinas mRNA.