Numa espécie de Relatório Minoritário adaptado às necessidade operacionais do Pentágono, o Comando de Operações Especiais dos Estados Unidos pode agora analisar os dados das redes sociais para captar “narrativas emergentes” e gerar rapidamente as informações de que uma força militar necessita para eliminar tendências hostis, mesmo antes que estas se tornem virais.

Isto de acordo com a Accrete, empresa que desenvolve software de inteligência artificial, que anunciou num comunicado de imprensa na semana passada que irá fornecer o seu software de “detecção de ameaças de código aberto” – o ‘Arugus’- ao Pentágono, para que o comando das forças militares americanas possa identificar os “ameaças sintéticas” e “desinformação” nas redes sociais em tempo real.

A empresa explicou que a ferramenta será utilizada por analistas dos serviços secretos e outros especialistas para

“Prever ameaças de desinformação em tempo real a partir das redes sociais”.

E Isso pode incluir, segundo o CEO da Accrete, Prashant Bhuyan, no comunicado da empresa:

“narrativas virais geradas por IA, deep fakes e outras aplicações prejudiciais de IA baseadas em media social”,

Considerando o significado deveras dúbio que os poderes corporativos dão ao termo “desinformação”, isto não são boas notícias.

Numa declaração que parece retirada de uma qualquer obra de literatura distópica, Bhuyan alegou que essas narrativas dissidentes

“representam uma séria ameaça à segurança nacional dos EUA e à sociedade civil, já que as redes sociais são um ambiente não regulamentado onde os adversários exploram rotineiramente as vulnerabilidades de raciocínio e manipulam o comportamento por meio da disseminação intencional de desinformação”.

O Pentágono não é o único cliente que terá acesso às capacidades do Argus – uma versão deste software chamada Nebula Social deverá ser comercializada para empresas privadas, para que possam gerir a sua reputação online, combater rumores prejudiciais e reagir preventivamente às conversas dos clientes sobre a sua marca (este texto desce vertiginosamente numa espiral de controlo fascista sobre as massas):

“As empresas já estão a sofrer danos económicos significativos causados pela disseminação de desinformação viral gerada por IA e deep fakes fabricados por concorrentes, funcionários insatisfeitos e outros tipos de adversários”,

Em “Outros tipos de adversários” devemos ler: clientes insatisfeitos, jornalistas independentes, oponentes litigiosos e etc.

Bhuyan argumentou a este propósito que o mercado privado corporativo está necessitado de ferramentas de guerra de informação de nível militar.

“Acreditamos que o mercado de IA que pode prever e neutralizar a media sintética gerada por IA maligna está prestes a explodir”.

Convenhamos, neste aspecto, o CEO da Accrete está carregado de razão A Bud-Light, por exemplo, bem que daria uso abundante a esta ferramenta, aqui há uns meses atrás.

Supostamente, a versão do software para o sector privado protege as empresas contra as queixas dos clientes, promove os seus valores e responde primeiro às questões mais relevantes – antes de terem a oportunidade de ter um impacto negativo no comportamento do mercado – com conteúdo gerado de forma autónoma, ou seja, por meios sintéticos.

A Unidade de Inovação da Defesa do Pentágono, co-fundada pelo ex-CEO da Google, Eric Schmidt, trabalhou inicialmente com a Accrete para desenvolver o Argus, pagando milhões de dólares por uma licença de cinco anos de forma a – entre outras coisas – descobrir

“Anomalias comportamentais indicativas de actividades potencialmente ilícitas que são demasiado complexas para serem identificadas por humanos”.

Philip K. Dick: regressa que estás perdoado.

 

Como o Contra já noticiou, as tecnologias de Inteligência artificial estão a ser exploradas no sentido da manipulação e controlo da opinião pública, bem como para silenciar a divergência. Dois exemplos recentes: os registos de despesas do governo americano revelaram que o regime Biden está a distribuir mais de meio milhão de dólares em subsídios que financiam o desenvolvimento de sistemas de inteligência artificial para censurar o discurso nos media. Isto enquanto a Brookings Institution encontrou uma maneira de censurar podcasts que apresenta como científica, mas é apenas totalitária, recorrendo a redes neuronais de processamento de linguagem ideologicamente calibradas e a falsos verificadores de factos.

Admirável mundo novo.