Num inquérito de referência realizado no início deste ano, mais de metade dos 2.778 investigadores inquiridos manifestaram a sua preocupação com a ameaça existencial representada pela inteligência artificial (IA) sobre-humana. A sondagem sugeria uma probabilidade de cinco por cento de a humanidade poder ser extinta ou sofrer outros “resultados extremamente negativos” devido ao aparecimento de sistemas de IA super-inteligentes.
Entre as vozes que estão a lançar o alarme, destaca-se Roman Yampolskiy, um distinto professor de ciências informáticas da Universidade de Louisville e uma figura muito respeitada na investigação sobre IA. No podcast de Lex Fridman, Yampolskiy fez uma previsão sombria, estimando uma probabilidade de 99,9% de que a IA possa obliterar a humanidade nos próximos 100 anos.
“A criação de superinteligências gerais pode não acabar bem para a humanidade a longo prazo. A melhor estratégia pode ser simplesmente evitar começar este jogo potencialmente perigoso”.
Yampolskiy também destacou os problemas existentes com os actuais modelos de linguagem de grande dimensão, referindo a sua propensão para erros e a suscetibilidade à manipulação como prova de potenciais riscos futuros.
“Já foram cometidos erros; estes sistemas foram desbloqueados e utilizados de formas que os criadores não previram”.
Além disso, Yampolskiy sugeriu que um sistema super-inteligente poderá conceber métodos imprevisíveis para atingir fins destrutivos, apresentando desafios que poderemos nem sequer reconhecer como ameaças até ser demasiado tarde. Embora tenha admitido que a probabilidade das tecnologias de inteligência artificial conduzirem à extinção da humanidade não é de 100%, avisou que o risco é excessivamente elevado, apenas um milésimo abaixo do absoluto.
Sublinhando o desafio contínuo de gerir um sistema capaz de tomar milhares de milhões de decisões por segundo ao longo de muitos anos, o professor afirmou:
“Mesmo com o aumento exponencial dos nossos recursos, o risco nunca desaparecerá totalmente”.
Yampolskiy não é de todo o único perito em ciências da computação a advertir para os riscos das tecnologias de IA. Numa declaração divulgada em Junho de 2023, 350 líderes do sector declararam que evitar que a inteligência artificial cause a extinção da humanidade deve ser uma prioridade global de alto nível.
Geoffrey Hinton, um cientista da Google, apelidado de “Padrinho” da inteligência artificial, demitiu-se da empresa, para poder alertar o mundo sobre os perigos que a tecnologia apresenta, numa altura em que grandes empresas concorrem ferozmente para dominar este mercado.
Também em 2023, durante uma entrevista concedida a Tucker Carlson, Elon Musk revelou que a Google há muito que planeia criar um sistema de Inteligência artificial com características omniscientes, considerando que é em absoluto concebível que a IA possa assumir o controlo da civilização e tomar decisões fundamentais que afectem profundamente a vida das pessoas, o que em última análise pode levar à “destruição civilizacional”.
Relacionados
10 Mar 26
Cristianismo transhumanista: igrejas europeias substituem padres por artefactos de inteligência artificial
Igrejas cristãs na Suíça (católica) e na Finlândia (luterana) estão a substituir os padres por agentes e hologramas de inteligência artificial, para a realização de missas e confissões. E como há gente para tudo, não faltam "fiéis" que alinham com esta abominação.
9 Mar 26
Utilizadores abandonam o ChatGPT, enquanto a OpenAI se compromete cada vez mais com o complexo militar e industrial americano.
Depois do CEO da OpenAI, Sam Altman, ter anunciado um novo acordo com o Departamento de Defesa norte-americano na semana passada, uma multidão de utilizadores outrora fiéis está a abandonar o ChatGPT.
5 Mar 26
Trump ordena ao governo federal que abandone as ferramentas de IA da Anthropic. Mas não pelas razões certas.
Donald Trump anunciou que o governo federal dos EUA vai deixar de utilizar a tecnologia de IA da Anthropic. Mas, ao contrário do que seria de esperar, mais por escrúpulo da empresa em utilizar os seus sistemas em cenários de guerra, do que por justificadas cautelas do Pentágono.
2 Mar 26
Apple compra obscura startup israelita, que criou software para detectar “micromovimentos” faciais e antecipar comportamentos humanos.
A gigante tecnológica anunciou a compra da Q.ai, uma startup israelita pouco conhecida, por quase 2 biliões de dólares. Um valor impressionante para uma pequena e meio obscura empresa. Mas o seu software parece poderoso. E sobretudo, distópico.
1 Mar 26
A assustadora descentralização do saber
Talvez o maior choque da nossa época não seja tecnológico, mas cognitivo. Pela primeira vez, o conhecimento começa a escapar ao centro, e ainda não sabemos bem o que fazer com essa descentralização do saber. Uma crónica de Silvana Lagoas.
28 Fev 26
Porque é que o tempo acelera, à medida que envelhecemos?
À medida que somamos primaveras, notamos que o tempo corre cada vez mais depressa. Richard Feynman, o Prémio Nobel da Física de 1965, explicou porquê, e deixou bons conselhos para combater esse vertiginoso processo.






