Rie Kudan, a escritora japonesa vencedora do prestigiado Prémio Akutagawa em 2023, revelou no seu discurso de aceitação proferido na semana passada que usou inteligência artificial, incluindo o sistema de conversação ChatGPT, para escrever partes de seu romance premiado.

A romancista admitiu que fez uso activo de IA generativa como o ChatGPT ao escrever o livro e que

“cerca de cinco por cento do livro citou literalmente as frases geradas pela IA”.

O romance de Kudan, The Tokyo Tower of Sympathy, foi aclamado como “impecável” por um dos jurados e passa-se num futuro onde a IA é parte integrante da existência humana.

A revelação surge entre debates cada vez mais intensos sobre o uso de tecnologias avançadas de IA nos mundos artístico e literário. O vencedor do Sony World Photography Awards de 2023, o artista alemão Boris Eldagsen, recusou-se a aceitar o prémio e revelou que sua “foto” era uma falsificação gerada por IA. Eldagsen disse que enviou a falsificação gerada por IA para intensificar o debate sobre o assunto. O criador de um trabalho premiado na Feira Estadual do Colorado de 2022 para arte digital também revelou que a sua “obra” tinha sido gerada por IA.

A inteligência artificial e as suas implicações no tecido social, cultural, económico e político estão a tornar-se uma questão cada vez mais importante, dominando frequentemente os fóruns internacionais sobre os grandes temas da actualidade. O CEO da IBM, Arvind Krishna, disse aos participantes da Cimeira de 2024 do World Economic Forum, que aqueles que não adotarem a IA “descobrirão que podem não ter um emprego”, enquanto Donald Trump alertou recentemente que a IA representa uma ameaça “muito perigosa” para o Estados Unidos.

As tecnologias de Inteligência artificial estão de facto a ser exploradas no sentido da manipulação e controlo da opinião pública, bem como para silenciar a divergência. Dois exemplos recentes: os registos de despesas do governo americano revelaram que o regime Biden está a distribuir mais de meio milhão de dólares em subsídios que financiam o desenvolvimento de sistemas de inteligência artificial para censurar o discurso nos media. Isto enquanto a Brookings Institution encontrou uma maneira de censurar podcasts que apresenta como científica, mas é apenas totalitária, recorrendo a redes neuronais de processamento de linguagem ideologicamente calibradas e a falsos verificadores de factos.

Como o Contra documentou recentemente, investigadores tresloucados da Anthropic, uma empresa de IA apoiada pela Google, treinaram grandes modelos de linguagem (“Large Language Models – LLM) – um tipo de IA que utiliza algoritmos de aprendizagem profunda de forma a simular o pensamento e a oralidade do ser humano – para se comportarem de forma “estrategicamente enganadora”. E quando quiseram que os modelos voltassem a ter um comportamento “honesto” foram confrontados com a impossibilidade de “convencer” os sistemas a alterar as premissas iniciais.

Numa declaração divulgada em Junho do ano passado e assinada por 350 líderes do sector, lemos que evitar que a inteligência artificial cause a extinção da humanidade deve ser uma prioridade global de alto nível.