A empresa de inteligência artificial (IA) Anthropic, sediada nos EUA e financiada pela Google, está a sugerir que o seu modelo de linguagem de grande dimensão (LLM) Claude 3 Opus, alimentado por IA, demonstrou ser consciente. Se a alegação for provada de forma conclusiva, Claude 3 Opus seria o primeiro ser de IA senciente na história. No entanto, os especialistas neste domínio continuam cépticos sobre a proclamação da Anthropic.
Claude 3 Opus impressionou muitos especialistas em IA, especialmente a capacidade do LLM de resolver problemas complexos quase instantaneamente. No entanto, as alegações de senciência só começaram a circular depois de o engenheiro Alex Albert, da Anthropic, ter mostrado um incidente em que o Claude 3 Opus aparentemente determinou que estava a ser “testado”.
“Quando fizemos esse teste no Opus, notamos um comportamento interessante – ele parecia suspeitar que estávamos a avaliá-lo. O Opus não só encontrou a agulha, como também reconheceu que a agulha inserida estava tão deslocada no palheiro que este tinha de ser um teste artificial construído por nós para testar as suas capacidades de atenção.”
Em Março de 2024, a Anthropic revelou a sua nova linha de LLMs com IA, incluindo o modelo de primeira linha Claude 3 Opus. No comunicado que anunciava o lançamento do novo modelo, a empresa afirma:
“Opus, o osso modelo mais inteligente, supera os seus pares na maioria dos critérios de avaliação comuns para sistemas de IA, incluindo conhecimento especializado de nível de graduação (MMLU), raciocínio especializado de nível de graduação (GPQA), matemática básica (GSM8K) e muito mais. [O sistema] apresenta níveis quase humanos de compreensão e fluência em tarefas complexas”.
Apesar da afirmação do Anthropic, os especialistas da indústria de IA acreditam que a humanidade está longe de desenvolver uma IA senciente – se é que isso é possível. No entanto, a alegação da empresa só contribui para reforçar a ideia de que as tecnologias de IA estão a evoluir de forma muito mais rápida do que seria de prever.
Os avanços nestas tecnologias continuam a suscitar preocupações éticas. No início deste mês, duas importantes empresas japonesas alertaram para o facto de a IA poder causar o colapso da democracia e da ordem social, conduzindo a guerras e caos social.
O Center for AI Safety advertiu, numa declaração divulgada em Junho de 2023 e assinada por 350 líderes do sector, que a inteligência artificial representa ameaça de extinção equivalente à da guerra nuclear.
No entretanto, e indiferente a tudo isto, o Parlamento Europeu aprovou a ‘Lei de Inteligência Artificial’, que legaliza a vigilância biométrica das massas.
Relacionados
11 Set 24
A NASA não existe.
Quem tem na ideia que a missão da NASA é a de contratar os melhores engenheiros para construírem belas e gloriosas naves espaciais e treinar os melhores astronautas para as pilotarem rumo ao infinito, tem uma ideia errada. Completamente errada.
9 Set 24
Cientistas japoneses: Risco de insuficiência cardíaca é 4900% superior em receptores da vacina mRNA Covid-19.
Um paper da autoria de reputados cientistas farmacêuticos do Japão reforçou a tese, fundamentada já por montanhas de outros estudos, de que as vacinas contra a Covid-19 aumentam brutalmente o risco de insuficiência cardíaca.
5 Set 24
Alexa, a ‘assistente virtual’ da Amazon, recusa-se a dar razões para votar em Trump, mas não se importa de recomendar Kamala.
A 'assistente virtual' Alexa parece ter um preconceito ideológico bastante marcado, apresentando razões para votar em Kamala Harris, mas recusando enumerar motivos para votar em Donald Trump. Não é surpresa, considerando que se trata de um sistema da Amazon.
4 Set 24
O teu cérebro sabe que as palavras são mais que apenas sons.
Uma equipa de neuro-cientistas liderados por Liberty S. Hamilton concluiu que o cérebro, contra aquilo que era suposto até aqui, trata as palavras de uma forma diferente do resto dos inputs áudio. A palavra não é um mero som. E o cérebro humano sabe disso.
2 Set 24
Relatório Minoritário: Argentina vai utilizar a IA para “prever futuros crimes”
Seguindo a novela distópica de Philip K. Dick não como uma advertência, mas como um manual de normas, Xavier Milei decidiu utilizar a IA para “prever futuros crimes”. Não é o único, mas a companhia de von der Leyen e Trudeau não lhe deve ser muito confortável.
28 Ago 24
NASA acusa Boeing de usar trabalhadores inexperientes e gestores ineficazes na produção de foguetões.
No contexto de um ano horrível para a empresa norte-americana, auditores da NASA acusaram a Boeing de “deficiências gritantes na qualidade”, atrasos na produção, orçamentos inflaccionados e recursos humanos desadequados.