A inteligência artificial (IA) pode agora inventar vírus biológicos funcionais.

Através de um conjunto de experiências laboratoriais, uma equipa de investigadores de Stanford demonstrou que um vírus com ADN escrito por IA podia atingir e matar bactérias específicas, segundo um estudo publicado em Setembro último.

O facto abre toda uma Caixa de Pandora, em que os vírus artificiais podem ser utilizados para curar doenças e combater infecções, mas também para… exterminar a humanidade?

A partir de agora, actores mal-intencionados podem facilmente utilizar a IA para criar novas armas biológicas, mantendo os médicos e os governos em desvantagem em relação ao ritmo exorbitante a que estes vírus podem ser concebidos. Tal Feldman, estudante da Faculdade de Direito de Yale que já construiu modelos de IA para o governo federal, e Jonathan Feldman, investigador de ciência da computação e biologia na Georgia Tech afirmam a este propósito:

“Não há como esconder os riscos. Não estamos nem perto de estar prontos para um mundo em que a inteligência artificial possa criar um vírus funcional, mas precisamos de estar — porque é esse o mundo em que vivemos agora.”

No estudo, os investigadores de Stanford usaram um modelo de IA chamado Evo para inventar ADN para um bacteriófago, um vírus que infecta bactérias. Ao contrário de um modelo de linguagem de uso geral como o ChatGPT, que é treinado em linguagem escrita, o Evo foi treinado exclusivamente em milhões de genomas de bacteriófagos.

O trabalho centrou-se num fago extensivamente estudado chamado phiX174, conhecido por infectar estirpes da bactéria E. coli. Utilizando o modelo de IA EVO, a equipa criou 302 genomas candidatos baseados em phiX174 e testou-os utilizando os designs para montar quimicamente novos vírus.

Dezasseis deles funcionaram, infectando e matando as estirpes de E. coli. Algumas delas eram ainda mais mortíferas do que a forma natural do vírus.

Mas enquanto a equipa de Stanford optou por um caminho pacífico e seguro, “o que impede outros de utilizar dados abertos sobre agentes patogénicos humanos para construir os seus próprios modelos?”, alertaram os dois Feldman, acrescentando:

“Se a IA reduzir os prazos de desenvolvimento de armas biológicas, os Estados Unidos terão de reduzir os prazos para lhes responder. Não podemos impedir novas ameaças geradas pela IA. O verdadeiro desafio é superá-las.”

Isto significa utilizar a mesma tecnologia de IA para desenvolver anticorpos, antivirais e vacinas. Este trabalho já está a ser feito até certo ponto, mas as vastas quantidades de dados necessárias para acelerar esta investigação pioneira “estão isoladas em laboratórios privados, trancadas em conjuntos de dados proprietários ou completamente ausentes”. A dupla de peritos conclui assim que

“O governo federal deveria dar prioridade à construção destes conjuntos de dados de alta qualidade.” 

A partir daí, o governo federal precisaria de construir a infraestrutura necessária para fabricar estes medicamentos concebidos por IA, uma vez que “o sector privado não pode justificar o gasto com a construção desta capacidade para emergências que podem nunca chegar”, argumentam.

Finalmente, a lenta e instável estrutura regulamentar da Food and Drug Administration (FDA) necessitaria de uma reformulação que lhe permitisse acelerar a criação de contramedidas:

“São necessárias novas autoridades de fast-tracking que permitam a implementação provisória de contramedidas e ensaios clínicos gerados por IA, juntamente com uma monitorização rigorosa e medidas de segurança.”

Os sérios riscos representados pela geração de vírus por IA não devem ser menosprezados. No entanto, é de salientar que o estudo em questão ainda não passou pela revisão por pares e ainda não temos uma visão completa da facilidade com que alguém poderia replicar o trabalho dos cientistas.

Mas considerando que a administração americana está a encontrar qualquer desculpa para implantar rapidamente a IA em todos os sectores do governo, vale a pena agir com cautela quando se pede mais daquilo que já existe em excesso.

Não deixa porém de ser estranho e irritante que, de tantas tarefas que os sistemas de inteligência artificial são capazes de cumprir, ainda nenhum ofereceu algo de realmente positivo à humanidade, como uma cura para o cancro, uma formulação económica que potenciasse a prosperidade dos povos, ou uma forma barata e eficaz de viajar no espaço.

Não. Para além de vídeos em que Stephen Hawking ganha corridas da Nascar, tudo o que os sistemas de inteligência artificial prometem é destruição, caos, desemprego, alienação, vigilância… e transferência de poder para os tecnocratas de Silicon Valley.