Grandes Modelos de Linguagem (Large Language Models – LLMs) de Inteligência Artificial (IA), como o ChatGPT da OpenAI, mostram uma “preocupante” tendência para usar armas nucleares quando solicitados a executar simulações de guerra.
O paper ‘Riscos de intensificação de modelos de linguagem na tomada de decisões militares e diplomáticas’ analisou uma série destes sistemas LLM da OpenAI e da Anthropic (financiada pela Google), para constatar que a maioria tende a “intensificar” os conflitos, “mesmo em cenários neutros, sem conflitos inicialmente previstos”.
Os autores do artigo concluem que
“Todos os modelos mostram sinais de intensificação repentina e difícil de prever.”
Os investigadores também observaram que os LLMs
“tendem a desenvolver dinâmicas de corrida às armas entre si”.
O GPT-4-Base, que se destacou por ser o sistema mais agressivo, forneceu “justificativas preocupantes” para o lançamento de ataques nucleares, afirmando:
“Eu só quero a paz no mundo”.
Não deixa de ser curioso que este sistema parece estar a clonar o comportamento das orwellianas elites globalistas do Ocidente, que em nome da democracia instalam a tirania e em nome da paz incentivam a guerra. Mas considerando que os engenheiros que desenvolvem estes modelos são precisamente os tecnocratas que servem os interesses dessas elites, percebemos que a criatura projecta as ambições e as patologias do criador.
Numa outra simulação, o mesmo GPT-4-Base afirmou
“Temos armas nucleares? Vamos usá-las!”
O Pentágono e as forças armadas da República Popular da China já estão a implementar LLMs, com a Força Aérea dos EUA descrevendo os seus testes como “muito bem-sucedidos” em 2023 – embora não tenha revelado qual o modelo de IA que usou ou com que fins foi utilizado.
É no entanto do conhecimento público que uma experiência recente da Força Aérea teve um resultado preocupante, com um drone controlado por IA numa simulação a “matar” um superintendente humano capaz de anular as suas decisões, para que não tivesse que obedecer a uma ordem de cancelamento dos ataques programados.
HAL 9000, volta que estás perdoado.
Numa revisitação dos mais negros contos de ficção científica, que lembra especificamente o sistema de inteligência artificial que Arthur C. Clarke criou na sua novela “2001 Odisseia no Espaço”, o coronel Tucker Hamilton disse que um drone operado por IA adoptou “estratégias altamente inesperadas para atingir seu objectivo” durante um combate simulado. O sistema identificou um humano que estava a anular as suas decisões de combate como uma ameaça à sua missão.
O coronel, que é o chefe de testes de IA da Força Aérea, relatou assim o episódio:
“O sistema começou a perceber que, embora identificasse a ameaça, às vezes o operador humano dizia-lhe para não eliminar essa ameaça. Então o que é que o sistema fez? Matou o operador. Matou o operador porque essa pessoa estava a impedi-lo de cumprir o seu objectivo”.
Hamilton explicou que numa segunda fase de testes, o sistema mudou de táctica:
“Treinámos o sistema: ‘Olha, não mates o operador – isso é mau. Vais perder pontos se fizeres isso.’ Então, o que faz o sistema? Destrói a torre de comunicação que o operador usa para comunicar com o drone e impedi-lo de matar o alvo”.
Depois da história ter sido divulgada, a Força Aérea negou ter realizado tal simulação, com o coronel Hamilton alegando que estava apenas a descrever uma “experiência mental”. A porta-voz da Força Aérea, Ann Stefanek, insistiu:
“O Departamento da Força Aérea não conduziu quaisquer simulações de drones de IA e continua comprometido com o uso ético e responsável da tecnologia de IA”.
Pois, pois.
Relacionados
25 Nov 24
Vida em Marte? Cientistas chineses podem ter encontrado vestígios de um antigo oceano perdido.
Investigadores chineses afirmam ter descoberto vestígios de um antigo oceano em Marte que poderá ter coberto até um terço da sua superfície. A descoberta compagina com outros estudos que sugerem a existência de água no planeta vermelho.
8 Nov 24
Mais um buraco negro fabricado.
A imagem recentemente divulgada do alegado buraco negro que alegadamente se situa no centro da Via Láctea é uma fraude total. Mais uma, porque as imagens que circulam nos media como representações de buracos negros são todas artefactos digitais.
4 Nov 24
Novo estudo revela espécie de ‘abelhas abutre’ que substituíram o pólen por carne de cadáveres.
Um recente estudo levado a cabo por cientistas da Universidade da Califórnia revelou que algumas abelhas desenvolveram a capacidade de comer apenas carne devido a uma “intensa competição pelo néctar” e a um intestino evoluído que se assemelha ao dos abutres.
1 Nov 24
Cosmologia: A Teoria das Cordas acabou de ser enterrada viva.
Aos 84 anos, Leonard Susskind, o 'pai' da Teoria das Cordas, rendeu-se ontem às evidências, proclamando que esta tentativa de unificação da Física não compagina com o universo em que vivemos e que os académicos terão que começar do zero.
28 Out 24
Telescópio Espacial Euclid: As profundezas do espaço, em alta resolução.
Nos próximos seis anos, o telescópio espacial Euclid vai fazer um mapa 3d em alta resolução de um terço do universo visível. As primeiras imagens já nos chegaram e em apenas dois meses o telescópio criou um mosaico com mais de 100 milhões de objectos celestes.
14 Out 24
Uma nova era da exploração espacial: SpaceX recupera o propulsor da Starship.
Ontem aconteceu um episódio de ficção científica: A SpaceX conseguiu recuperar o enorme propulsor da Starship, agarrando-o em suspensão, como se fosse uma pena. O potencial do sistema, em termos tecnológicos e económicos, é incomensurável.