Grandes Modelos de Linguagem (Large Language Models – LLMs) de Inteligência Artificial (IA), como o ChatGPT da OpenAI, mostram uma “preocupante” tendência para usar armas nucleares quando solicitados a executar simulações de guerra.

O paper ‘Riscos de intensificação de modelos de linguagem na tomada de decisões militares e diplomáticas’ analisou uma série destes sistemas LLM da OpenAI e da Anthropic (financiada pela Google), para constatar que a maioria tende a “intensificar” os conflitos, “mesmo em cenários neutros, sem conflitos inicialmente previstos”.

Os autores do artigo concluem que

“Todos os modelos mostram sinais de intensificação repentina e difícil de prever.”

Os investigadores também observaram que os LLMs

“tendem a desenvolver dinâmicas de corrida às armas entre si”.

O GPT-4-Base, que se destacou por ser o sistema mais agressivo, forneceu “justificativas preocupantes” para o lançamento de ataques nucleares, afirmando:

“Eu só quero a paz no mundo”.

Não deixa de ser curioso que este sistema parece estar a clonar o comportamento das orwellianas elites globalistas do Ocidente, que em nome da democracia instalam a tirania e em nome da paz incentivam a guerra. Mas considerando que os engenheiros que desenvolvem estes modelos são precisamente os tecnocratas que servem os interesses dessas elites, percebemos que a criatura projecta as ambições e as patologias do criador.

Numa outra simulação, o mesmo GPT-4-Base afirmou

“Temos armas nucleares? Vamos usá-las!”

O Pentágono e as forças armadas da República Popular da China já estão a implementar LLMs, com a Força Aérea dos EUA descrevendo os seus testes como “muito bem-sucedidos” em 2023 – embora não tenha revelado qual o modelo de IA que usou ou com que fins foi utilizado.

É no entanto do conhecimento público que uma experiência recente da Força Aérea teve um resultado preocupante, com um drone controlado por IA numa simulação a “matar” um superintendente humano capaz de anular as suas decisões, para que não tivesse que obedecer a uma ordem de cancelamento dos ataques programados.

 

HAL 9000, volta que estás perdoado.

Numa revisitação dos mais negros contos de ficção científica, que lembra especificamente o sistema de inteligência artificial que Arthur C. Clarke criou na sua novela “2001 Odisseia no Espaço”, o coronel Tucker Hamilton disse que um drone operado por IA adoptou “estratégias altamente inesperadas para atingir seu objectivo” durante um combate simulado. O sistema identificou um humano que estava a anular as suas decisões de combate como uma ameaça à sua missão.

O coronel, que é o chefe de testes de IA da Força Aérea, relatou assim o episódio:

“O sistema começou a perceber que, embora identificasse a ameaça, às vezes o operador humano dizia-lhe para não eliminar essa ameaça. Então o que é que o sistema fez? Matou o operador. Matou o operador porque essa pessoa estava a impedi-lo de cumprir o seu objectivo”.

Hamilton explicou que numa segunda fase de testes, o sistema mudou de táctica:

“Treinámos o sistema: ‘Olha, não mates o operador – isso é mau. Vais perder pontos se fizeres isso.’ Então, o que faz o sistema? Destrói a torre de comunicação que o operador usa para comunicar com o drone e impedi-lo de matar o alvo”.

Depois da história ter sido divulgada, a Força Aérea negou ter realizado tal simulação, com o coronel Hamilton alegando que estava apenas a descrever uma “experiência mental”.  A porta-voz da Força Aérea, Ann Stefanek, insistiu:

“O Departamento da Força Aérea não conduziu quaisquer simulações de drones de IA e continua comprometido com o uso ético e responsável da tecnologia de IA”.

Pois, pois.