A gigante tecnológica anunciou a 29 de Janeiro a compra da Q.ai, uma startup israelita pouco conhecida, por quase 2 biliões de dólares. Uma valor impressionante para uma pequena e meio obscura empresa. Mas o software da Q.ai parece poderoso. E sobretudo, distópico.

Um registo de patente da Q.ai refere que a tecnologia é capaz de “utilizar movimentos faciais para gerar um registo de conversação” e “determinar o estado emocional de um indivíduo com base em micromovimentos da pele do rosto”. Outro registo de patente alega que o software “sintetiza o discurso em resposta a palavras articuladas silenciosamente pelo sujeito do teste”. E mais um descreve um “dispositivo sensor configurado para se ajustar ao ouvido do utilizador, com uma cabeça de sensor óptico que deteta a luz reflectida do rosto e emite um sinal em resposta. Os circuitos de processamento processam o sinal para gerar uma saída de fala”.

Portanto, se os nossos cérebros enviam sinais para os nossos músculos e as nossas bocas se movem antes mesmo de falarmos em voz alta, os sensores motorizados por inteligência artificial da Q.ai podem detectar e interpretar estes “micromovimentos” extremamente subtis. Pelo menos é o que a empresa afirma. No seu site minimalista, a Q.ai afirma: ”

“Num mundo cheio de ruído, criámos um novo tipo de silêncio. Magia. Realizada.”

Hã?

Apesar da mensagem críptica, é possível perceber onde a Apple pode querer chegar com isto e porque é que pagou uma quantia considerável pela empresa. Imagine utilizar um iPhone sem ter de digitar ou ditar. Imagine usar um par de óculos que detecta se o seu recém-nascido está prestes a chorar. Imagine um médico ou enfermeiro a usar estes óculos, monitorizando um paciente susceptível a AVC. A ideia é ser capaz de controlar o nosso mundo físico sem falar ou interagir fisicamente com ele.

O que é francamente aterrador porque também é possível perceber como isto se pode tornar incrivelmente distópico e levar a todo o tipo de preocupações com a privacidade. Com conceitos como “fala silenciosa” e “pré-fala” a serem adicionados à discussão, quão longe estamos do conceito de “pré-crime”?

Imagine um polícia a usar óculos escuros com tecnologia capaz de digitalizar rostos e determinar o humor das pessoas. O agente poderia observar uma multidão de manifestantes e encontrar a pessoa que parece mais agitada, que faz expressões faciais que denotam maior raiva e agressividade — alguém que se poderia tornar violento — e depois visar essa pessoa, assediando-a para provocar uma reacção mais violenta ou accionando medidas preventivas como o disparo de uma bomba de gás lacrimogéneo na sua direcção, mesmo que o alvo não esteja a cometer qualquer crime. Esta seria a tecnologia de reconhecimento facial, já utilizada pela Palantir e o governo federal americano, mas sob esteróides.

Mais a mais, todos estes dados sensoriais recolhidos de outros seres humanos podem ser armazenados numa base de dados. Não será esta mais uma colossal invasão da privacidade de todos? Neste cenário, não é como se as pessoas observadas concordassem com um contrato de termos e condições, como acontece quando criamos uma conta Apple ou configuramos o iPhone. Não teríamos escolha.

Para além das aplicações civis, as forças armadas utilizariam certamente esta tecnologia. Tal como no cenário acima, imagine um soldado a patrulhar um mercado urbano sobrelotado. Ser capaz de digitalizar todos os rostos na multidão poderia ajudá-lo a descobrir o combatente inimigo que esconde uma arma ou uma bomba debaixo do casaco. Isto poderia dar-lhe uma vantagem de uma fracção de segundo, a diferença entre a vida e a morte. Mas e se a tecnologia identificar a pessoa errada? E se essa pessoa for completamente inocente? E se em vez de soldados inimigos, estivermos a falar de dissidentes políticos?

Independentemente das alegações das patentes da Q.ai serem verdadeiras e de a sua tecnologia chegar a ser utilizada por consumidores, polícias ou militares, existe um elemento distópico que sugere um futuro negro. Mais uma “conquista” das tecnologias de inteligência artificial.