Um estudo, publicado pela empresa de SEO Graphite, que analisou uma amostra aleatória de 65.000 artigos em inglês, concluiu que mais de 50% dos conteúdos publicados na Web nos últimos seis anos foram criados parcial ou totalmente por modelos de linguagem de Inteligência Artificial (IA).

A análise abrangeu conteúdos publicados entre Janeiro de 2020 e Maio de 2025, utilizando o detector de IA Surfer, e assinalando qualquer artigo que tivesse 50% ou mais do conteúdo escrito ou gerado por IA.

Como era expectável, a pesquisa mostrou um rápido aumento de artigos gerados por IA, coincidindo com o lançamento do ChatGPT, de aproximadamente 10% no final de 2022 para mais de 40% em 2024, antes de abrandar para uma subida mais constante.

A injecção de conteúdos criados por algoritmo parece ter atingido um ponto máximo de crescimento em 2024, para atingir os 52% em 2025.

 

 

Existe a possibilidade de a proporção de conteúdos humanos ser um pouco maior, já que os investigadores utilizaram um conjunto de dados de código aberto de centenas de milhares de milhões de páginas web chamado Common Crawl. Mas como as empresas de IA saquearam este tesouro de dados para treinar os seus algoritmos, muitos sites com acesso pago começaram a bloquear este gigantesco acervo. Os conteúdos desses sites, tendencialmente criados por humanos, foram assim deixados de fora da análise da Graphite.

Devemos também considerar o critério dos detectores de IA com cautela, dado que a sua fiabilidade é questionável. Nos testes de precisão do Surfer, a Graphite fez com que o detector analisasse uma amostra de artigos gerados por IA e outra amostra de artigos humanos, descobrindo que rotulou artigos criados por humanos como feitos por IA em 4,2% das vezes — um problema comum com nestas ferramentas —, mas confundiu artigos escritos por IA como feitos por humanos em apenas 0,6% das vezes.

De qualquer forma, não é claro por que razão a margem de crescimento dos conteúdos produzidos com IA parece estar a estagnar. Segundo um relatório da Graphite, isto pode ocorrer porque os conteúdos de baixa qualidade criado pelos algoritmos não estão a ser tão bem recebidos pelos motores de busca e respostas de chatbots, com a empresa a descobrir que 86% dos artigos na Pesquisa Google foram escritos por humanos e apenas 14% por IA.

Por outro lado, os utilizadores humanos podem estar a cruzar chatbots de IA e outras ferramentas análogas com o seu processo criativo, frustrando os detectores de IA e esbatendo a linha entre o que é feito por máquinas e o que é humano.

Stefano Soatto, professor de ciência da computação na UCLA e vice-presidente da Amazon Web Services, afirmou a este propósito:

“Neste momento, é mais uma simbiose do que uma dicotomia.”

Já não seria mau que assim continuasse, de forma a que a simbiose não passe rapidamente para um outro estágio. O da predação.