Centenas de figuras públicas — incluindo vários “padrinhos” da IA e um conjunto surpreendentemente idiossincrático de figuras religiosas, dos media e da tecnologia — acabam de assinar uma carta pedindo a “proibição” da corrida para criar uma superinteligência artificial.

Simplesmente intitulada “Declaração sobre Superinteligência”, a carta, que foi apresentada pelo Future of Life Institute (FLI) é extremamente concisa: apela à “proibição do desenvolvimento de superinteligência”, que não deve ser “levantada antes que haja um amplo consenso científico de que será feita de forma segura e controlável”, e com “forte adesão do público”.

A carta cita uma pesquisa recente do FLI, co-fundado pelo professor Max Tegmark, do Instituto de Tecnologia de Massachusetts, mostrando que apenas 5% dos americanos são a favor do desenvolvimento rápido e não regulamentado de ferramentas avançadas de IA, enquanto mais de 73% apoiam uma acção regulatória “robusta” sobre a IA. Enquanto isso, cerca de 64% disseram que achavam que, até que os sistemas de superinteligência — ou modelos de IA que superem a inteligência humana — pudessem ser comprovadamente seguros ou controláveis, não deveriam ser construídos.

Entre os signatários estão figuras proeminentes da tecnologia e dos negócios, como o co-fundador da Apple, Steve Wozniak, e o fundador da Virgin, Richard Branson; vozes influentes dos media conservadores, como o apresentador do “War Room”, Steve Bannon, e o patrão da plataforma “The Blaze”, Glenn Beck, bem como liberais como o actor Joseph Gordon-Levitt e as celebridades Harry e Meghan; militares como Mike Mullen, almirante aposentado da Marinha dos Estados Unidos, que actuou como presidente do Estado-Maior Conjunto dos ex-presidentes George W. Bush e Barack Obama; o frade Paolo Benanti, que actua como consultor de IA no Vaticano; e um grande consórcio de especialistas e cientistas em IA, incluindo o vencedor do prémio Turing, Yoshua Bengio, e o Nobel Geoffrey Hinton, dois importantes pesquisadores de IA que detêm o título de “padrinhos” da tecnologia.

Bengio, que é professor da Universidade de Montreal, disse num comunicado à imprensa:

“Os sistemas de IA de ponta poderão superar a maioria dos indivíduos na maioria das tarefas cognitivas em apenas alguns anos. Esses avanços podem revelar soluções para os principais desafios globais, mas também acarretam riscos significativos.Para avançar com segurança em direção à superinteligência, devemos determinar cientificamente como projectar sistemas de IA que sejam fundamentalmente incapazes de prejudicar as pessoas, seja por desalinhamento ou uso malicioso. Também precisamos garantir que o público tenha uma voz muito mais forte nas decisões que moldarão o nosso futuro colectivo.”

Fundamentalmente, a carta assume a posição de que a superinteligência — uma visão grandiosa e futurista para o futuro da IA — é uma meta técnica alcançável, uma posição que alguns especialistas encaram com cepticismo ou concretizável apenas a longo prazo.

Também vale a pena salientar que a carta não refere que a IA não precisa de atingir a superinteligência para causar o caos: tal como estão, as ferramentas de IA generativa, como chatbots e ferramentas de criação de imagens e vídeos — tecnologias primitivas quando comparadas com os sistemas de IA superinteligentes imaginados para o futuro — estão a revolucionar a educação, transformando a web num ambiente cada vez mais irreal e propenso à desinformação e à alienação, acelerando a criação e disseminação de pornografia e levando utilizadores de todas as idades a crises de saúde mental e rupturas com a realidade que resultam em consequências como divórcio, crime, demência, automutilação e morte.

Recentemente, uma equipa de cientistas de Stanford demonstrou que a IA pode conceber um vírus biológico funcional, libertando a possibilidade da tecnologia ser utilizada para fabricar armas biológicas. Entretanto, uma nova sondagem realizada junto de alunos e professores do ensino secundário nos EUA traça um quadro sombrio da rapidez com que a IA dominou as escolas e influencia, de forma claramente nefasta, a relação dos jovens com o mundo e com os outros, sendo que 19% dos estudantes de liceu na América afirmam que já tiveram uma “relação romântica” com um sistema de inteligência artificial.

Também é interessante saber quem não assinou a carta. Entre os nomes notáveis que faltam estão o CEO da OpenAI, Sam Altman, o cofundador da DeepMind e CEO da Microsoft AI, Mustafa Suleyman, o CEO da Anthropic, Dario Amodei, o czar da IA e criptografia da Casa Branca, David Sacks, e o fundador da xAI, Elon Musk. Peter Thiel e Alex Karp, os criadores da sinistra Palantir, também não assinaram o manifesto, claro.

Musk tinha assinado uma carta anterior da FLI, datada de 2023, pedindo uma pausa no desenvolvimento de modelos de IA mais avançados que o GPT-4 da OpenAI. (Essa carta não surtiu efeito: o GPT-5 foi lançado no Verão passado.) Mas entretanto mudou de ideias, claramente. Altman também assinou cartas semelhantes pedindo consciencialização sobre os riscos futuros da IA em grande escala, tornando o seu silêncio neste momento ainda mais eloquente.

De facto, este não é de todo o primeiro apelo colectivo à travagem das tecnologias de inteligência artificial. Numa declaração conjunta de Maio de 2024, a Nippon Telegraph and Telephone e a Yomiuri Shimbun Group Holdings, duas das principais empresas japonesas, emitiram um aviso severo sobre os potenciais perigos da IA. Em Junho de 2023, uma declaração do Center for AI Safety, assinada por 350 líderes do sector, afirmava que evitar que a inteligência artificial cause a extinção da humanidade deve ser uma prioridade global.

Roman Yampolskiy, professor de computação da Universidade Louisville fez em Junho de 2023 uma previsão sombria, estimando uma probabilidade de 99,9% de que as tecnologias de inteligência artificial possam obliterar a humanidade nos próximos 100 anos.