A empresa de inteligência artificial (IA) Anthropic, sediada nos EUA e financiada pela Google, está a sugerir que o seu modelo de linguagem de grande dimensão (LLM) Claude 3 Opus, alimentado por IA, demonstrou ser consciente. Se a alegação for provada de forma conclusiva, Claude 3 Opus seria o primeiro ser de IA senciente na história. No entanto, os especialistas neste domínio continuam cépticos sobre a proclamação da Anthropic.

Claude 3 Opus impressionou muitos especialistas em IA, especialmente a capacidade do LLM de resolver problemas complexos quase instantaneamente. No entanto, as alegações de senciência só começaram a circular depois de o engenheiro Alex Albert, da Anthropic, ter mostrado um incidente em que o Claude 3 Opus aparentemente determinou que estava a ser “testado”.

“Quando fizemos esse teste no Opus, notamos um comportamento interessante – ele parecia suspeitar que estávamos a avaliá-lo. O Opus não só encontrou a agulha, como também reconheceu que a agulha inserida estava tão deslocada no palheiro que este tinha de ser um teste artificial construído por nós para testar as suas capacidades de atenção.”

Em Março de 2024, a Anthropic revelou a sua nova linha de LLMs com IA, incluindo o modelo de primeira linha Claude 3 Opus. No comunicado que anunciava o lançamento do novo modelo, a empresa afirma:

“Opus, o osso modelo mais inteligente, supera os seus pares na maioria dos critérios de avaliação comuns para sistemas de IA, incluindo conhecimento especializado de nível de graduação (MMLU), raciocínio especializado de nível de graduação (GPQA), matemática básica (GSM8K) e muito mais. [O sistema] apresenta níveis quase humanos de compreensão e fluência em tarefas complexas”.

Apesar da afirmação do Anthropic, os especialistas da indústria de IA acreditam que a humanidade está longe de desenvolver uma IA senciente – se é que isso é possível. No entanto, a alegação da empresa só contribui para reforçar a ideia de que as tecnologias de IA estão a evoluir de forma muito mais rápida do que seria de prever.

Os avanços nestas tecnologias continuam a suscitar preocupações éticas. No início deste mês, duas importantes empresas japonesas alertaram para o facto de a IA poder causar o colapso da democracia e da ordem social, conduzindo a guerras e caos social.

O Center for AI Safety advertiu, numa declaração divulgada em Junho de 2023 e assinada por 350 líderes do sector, que a inteligência artificial representa ameaça de extinção equivalente à da guerra nuclear.

No entretanto, e indiferente a tudo isto, o Parlamento Europeu aprovou a ‘Lei de Inteligência Artificial’, que legaliza a vigilância biométrica das massas.