Um cientista da Google, apelidado de “Padrinho” da inteligência artificial (IA), demitiu-se da empresa, afirmando que o fez para alertar o mundo para os perigos que a tecnologia apresenta, numa altura em que as grandes empresas tecnológicas estão a investir fortemente nesta área.

Geoffrey Hinton respondeu na segunda-feira a um artigo do New York Times que insinuava que ele se tinha demitido da Google para criticar a empresa, referindo que a verdadeira razão era o facto de querer falar livremente sobre os perigos da IA.

 


 

Geoffrey Everest Hinton é um psicólogo cognitivo e reputado cientista da computação anglo-canadiano, conhecido pelo seu trabalho sobre redes neurais artificiais. Desde 2013 que divide seu tempo trabalhando para a Google (“Google Brain”) e a Universidade de Toronto. Recebeu o Prêmio Turing de 2018 juntamente com Yoshua Bengio e Yann LeCun, pelo seu trabalho sobre Deep Learning.

Hinton disse entretanto à BBC que acreditou durante muito tempo que os sistemas eram inferiores ao cérebro humano em alguns aspectos, enquanto eclipsavam a inteligência humana noutros. Mas que entretanto verificou que a IA funciona em tudo melhor que o aparelho neuronal do Sapiens.

“À medida que as empresas melhoram os seus sistemas de IA, estes tornam-se cada vez mais perigosos. Vejam como era há cinco anos e como é agora. Peguem nessa diferença e propaguem-na para a frente. Isto é assustador”.

O ex-quadro da Google alertou também para a ameaça que representa o desenvolvimento de sistemas de AI num quadro de competição entre gigantes tecnológicos:

“Até o ano passado,a Google agiu como ‘administrador responsável’ da tecnologia, com o cuidado de não libertar algo que pudesse causar danos. Mas agora que a Microsoft integrou o seu motor de busca Bing com um chatbot – desafiando o negócio principal da Google – a empresa está a correr para implementar o mesmo tipo de tecnologia. Os gigantes de Silicon Valley estão condicionados a uma competição que pode ser impossível de parar.”

Hinton acrescentou que teme que, a curto prazo, a Internet seja rapidamente inundada por vídeos, fotografias e notícias falsas e que, em breve, ninguém “consiga saber o que é verdade”.

Acrescentou ainda que, a longo prazo, receia que a IA acabe por eclipsar a inteligência humana.

“Alguns acreditavam que estas coisas podem ficar mais inteligentes do que as pessoas. Mas a maioria, e eu também, achava que essa ideia ainda estava muito longe de se concretizar. Pensávamos que faltavam 30 a 50 anos ou até mais. Obviamente, já não penso assim”.

Hinton disse ainda que um dos principais perigos da IA é que maus actores tentem utilizá-la para maus fins.

Como o contra já reportou, o actual director executivo da Google, Sundar Pichai, admitiu que o concorrente do ChatGPT da empresa, o Bard, desenvolveu “propriedades emergentes”, o que significa que está a aprender coisas que não foi programado para saber, e que o comportamento da IA é algo que ele não “compreende totalmente”.

No mês passado, Elon Musk revelou que a Google há muito que planeia criar um “Deus Digital” e que Musk avisou repetidamente os proprietários da empresa contra isso.

 


O proprietário do Twitter disse que o co-fundador da Google, Larry Page, lhe disse em privado, há anos, que o grande objectivo da empresa é trabalhar sistemas de Inteligência Artificial.

Musk co-fundou a OpenAI, a empresa por detrás do ChatGPT com Larry Page, mas está agora genuinamente preocupado com os rápidos avanços da IA e com o impacto negativo que poderá ter na humanidade.

Musk disse a Tucker Carlson que é “absolutamente” concebível que a IA possa assumir o controlo e tomar decisões pelas pessoas, o que, em última análise, pode levar à “destruição civilizacional” e que é em absoluto concebível que a IA possa assumir o controlo da civilização e tomar decisões fundamentais que afectem profundamente a vida das pessoas, o que em última análise pode levar à “destruição civilizacional”.

“A IA é talvez mais perigosa do que, digamos, a má gestão, concepção ou manutenção de aviões ou a má indústria de automóveis, no sentido do potencial que tem, por muito pequena que se queira considerar essa probabilidade, nunca será trivial. Filmes como Terminator não reflectem o que aconteceria, porque a inteligência estaria nas bases de dados. Os robots são apenas o efeito final”.

Salientando a necessidade urgente de regulamentação e supervisão governamental nesta área tecnológica, Musk observou que

“os regulamentos só são realmente postos em prática depois de algo terrível ter acontecido. Se for esse o caso com a IA, e nós só pusermos em vigor os regulamentos depois de algo terrível ter acontecido, pode ser demasiado tarde para que vigorem. A IA estará fora de controlo nesse momento”.

 

Seria excelente que alguém em Washington ouvisse o homem.