Para muitos jovens, os chatbots de IA não são apenas ferramentas ou motores de busca glorificados — são uma bizarra e sombria espécie de namorados.

Uma nova pesquisa descobriu que quase um em cada cinco estudantes do ensino secundário nos EUA — 19% — afirma que já usaram a IA para ter um relacionamento romântico ou têm um amigo que já o fez, um número alarmante que certamente levantará novas preocupações sobre como a adopção da tecnologia entre crianças e adolescentes pode estar a ter impacto na sua saúde mental.

As conclusões foram publicadas num novo relatório do Centro para a Democracia e Tecnologia (CDT), que entrevistou mil alunos do ensino secundário, mil pais e cerca de 800 professores de escolas públicas do sexto ao décimo segundo ano. Os dados obtidos fazem eco de uma série de outros estudos que mostram como muitos adolescentes estão a formar relações intensas com IAs.

No geral, a investigação pinta um quadro alarmante de como a tecnologia de IA dominou as escolas, com 86% dos alunos e 85% dos professores a afirmarem ter utilizado a tecnologia durante o último ano lectivo. Muitas escolas fazem com que os seus alunos utilizem a IA para que se familiarizem com ela, mas esta exposição pode estar a sair pela culatra.

Elizabeth Laird, directora do CDT e co-autora do relatório, comentou os resultados:

“Acho que os alunos devem saber que não estão realmente a falar com uma pessoa. Estão a falar com uma ferramenta, e essas ferramentas têm limitações conhecidas. A nossa investigação sugere que a literacia em IA e a formação que os alunos estão a receber são muito básicas.”

Tem sido dada muita atenção à forma como a IA causou uma crise na educação, dado que os chatbots e outras ferramentas digitais podem ser utilizados para ultrapassar facilmente tarefas e testes escolares, se não para as gerar na íntegra. No inquérito, mais de metade dos alunos afirmou ter utilizado a IA para auxiliar nos trabalhos de casa, mesmo sem a autorização do professor, e quase dois terços afirmaram ter utilizado a IA para tutoria ou para aprender mais sobre um tema da aula.

Mas uma grande proporção de estudantes do ensino secundário também está a recorrer à IA em busca de conforto pessoal, gerando preocupações com a sua segurança. Os terapeutas alertaram que os chatbots de IA podem dar conselhos perigosos aos adolescentes. Os bots quebram frequentemente as suas próprias barreiras e foram apanhados a incentivar o suicídio, detalhando processos de automutilação ou ajudando a ocultar distúrbios alimentares. Inúmeros adolescentes morreram por suicídio após desenvolverem uma relação próxima e, por vezes, romântica com um chatbot.

No inquérito, 42% dos estudantes do ensino secundário disseram ter usado a IA como “amiga”, para obter apoio em saúde mental ou para escapar à vida real. Mais de metade dos estudantes afirma falar com a IA pelo menos uma vez por semana, e 16% afirmaram que o fazem todos os dias.

O uso da IA ​​​​também impacta diretamente a forma como interagem com os seus colegas e familiares. Cerca de 43% disseram que pediram conselhos à IA sobre as suas relações interpessoais reais. E, surpreendentemente, mais de um terço dos adolescentes afirmou ser mais fácil falar com a IA do que com os seus pais. Estes, por outro lado, sentem-se ignorados: dois terços deles disseram não fazer ideia de como os seus filhos estão a utilizar a IA.

Mais a mais, a investigação mostrou que os alunos cujas escolas os incentivaram a utilizar a IA eram mais propensos a relatar conhecer alguém que a utilizou por motivos pessoais e não académicos, como obter apoio em saúde mental, utilizá-la como amigo ou companheiro romântico.

A directora do CDT comentou também este fenómeno:

“Quanto mais um aluno relata que a sua escola utiliza a IA, maior é a probabilidade de relatar coisas como ‘conheço alguém que considera a IA como uma amiga’, ‘conheço alguém que considera a IA como um parceiro romântico.’”

A IA também está a ser utilizada para fins mais maliciosos, com 36% dos alunos a afirmarem ter ouvido falar de deepfakes na escola, no último ano lectivo. Algumas destas informações incluem “pornografia de vingança” fabricada por IA e outras imagens íntimas não consensuais, com 12% dos alunos a afirmarem ter ouvido falar de alguém na escola a ser retratado pelos servidores algorítmicos desta forma.

Elizabeth Laird conclui a este propósito:

“Esta tecnologia é um novo vector para o assédio sexual e o bullying, que eram problemas de longa data antes do uso generalizado da IA. Tornou-se uma nova forma de agravar isso”.

Tempos sombrios. Vivemos realmente tempos sombrios.