Num inquérito de referência realizado no início deste ano, mais de metade dos 2.778 investigadores inquiridos manifestaram a sua preocupação com a ameaça existencial representada pela inteligência artificial (IA) sobre-humana. A sondagem sugeria uma probabilidade de cinco por cento de a humanidade poder ser extinta ou sofrer outros “resultados extremamente negativos” devido ao aparecimento de sistemas de IA super-inteligentes.

Entre as vozes que estão a lançar o alarme, destaca-se Roman Yampolskiy, um distinto professor de ciências informáticas da Universidade de Louisville e uma figura muito respeitada na investigação sobre IA. No podcast de Lex Fridman, Yampolskiy fez uma previsão sombria, estimando uma probabilidade de 99,9% de que a IA possa obliterar a humanidade nos próximos 100 anos.

“A criação de superinteligências gerais pode não acabar bem para a humanidade a longo prazo. A melhor estratégia pode ser simplesmente evitar começar este jogo potencialmente perigoso”.

Yampolskiy também destacou os problemas existentes com os actuais modelos de linguagem de grande dimensão, referindo a sua propensão para erros e a suscetibilidade à manipulação como prova de potenciais riscos futuros.

“Já foram cometidos erros; estes sistemas foram desbloqueados e utilizados de formas que os criadores não previram”.

Além disso, Yampolskiy sugeriu que um sistema super-inteligente poderá conceber métodos imprevisíveis para atingir fins destrutivos, apresentando desafios que poderemos nem sequer reconhecer como ameaças até ser demasiado tarde. Embora tenha admitido que a probabilidade das tecnologias de inteligência artificial conduzirem à extinção da humanidade não é de 100%, avisou que o risco é excessivamente elevado, apenas um milésimo abaixo do absoluto.

Sublinhando o desafio contínuo de gerir um sistema capaz de tomar milhares de milhões de decisões por segundo ao longo de muitos anos, o professor afirmou:

“Mesmo com o aumento exponencial dos nossos recursos, o risco nunca desaparecerá totalmente”.

 

Yampolskiy não é de todo o único perito em ciências da computação a advertir para os riscos das tecnologias de IA. Numa declaração divulgada em Junho de 2023, 350 líderes do sector declararam que evitar que a inteligência artificial cause a extinção da humanidade deve ser uma prioridade global de alto nível.

Geoffrey Hinton, um cientista da Google, apelidado de “Padrinho” da inteligência artificial, demitiu-se da empresa, para poder alertar o mundo sobre os perigos que a tecnologia apresenta, numa altura em que grandes empresas concorrem ferozmente para dominar este mercado.

Também em 2023, durante uma entrevista concedida a Tucker Carlson, Elon Musk revelou que a Google há muito que planeia criar um sistema de Inteligência artificial com características omniscientes, considerando que é em absoluto concebível que a IA possa assumir o controlo da civilização e tomar decisões fundamentais que afectem profundamente a vida das pessoas, o que em última análise pode levar à “destruição civilizacional”.