O mundo está a mudar não apenas com uma rapidez nunca vista, mas a modificar-se de forma algo incompreensível. Frente ao que não se compreende podemos sentir-nos (pelo menos) de dois modos: curiosos ou desalentados. Quando o esforço por compreender esbarra sucessivamente em dificuldades intransponíveis, sentimo-nos humilhados e, em muitos casos, preferimos virar costas ao assunto e esquecê-lo. Mas essa atitude pode ser muito perigosa. Assemelha-se à avestruz quando mete a cabeça na areia. Deixa de ver o perigo, mas fica completamente à sua mercê.
Justamente para contrariar este movimento-avestruz fiz o esforço de ler o último livro do historiador Yuval Noah Harari: Nexus. História breve das redes de informação da Idade da Pedra à Inteligência Artificial. Não sou especialista na matéria, muito pelo contrário, confesso sofrer até de alguma tecnofobia. Porém, a ignorância não nos protege!

Doutorada em Filosofia Contemporânea, investigadora da Universidade Nova de Lisboa
Com a transição para o digital e os grandes avanços da inteligência artificial (IA) todos nós devemos consciencializar-nos do que está a acontecer. Não sou fundamentalista. Reconheço capacidades e vantagens da IA. Por exemplo, depois de ler Nexus pedi ao Chat GPT que fizesse um resumo do livro. Em questão de segundos obtive no meu ecrã uma sinopse por capítulos, bastante bem feita. Apenas alguns lapsos menores: um subtítulo incompleto aqui, um pequeno descuido acolá. Mas nada que fizesse perigar a qualidade do resumo. Pode, então, o leitor ficar com a tentação de não ler o livro. Li o original em inglês, publicado pela Fern Press, que ocupa 407 páginas, excluindo as notas. É preciso algum investimento de tempo e neurónios para levar a bom termo a leitura desta obra. Não bastaria, portanto, ler o resumo de 11 páginas, elaborado pelo Chat GPT em vez da obra original? Assim, de repente, vêm-me à cabeça que se perderia:
– O acesso ao estilo particular da escrita de Yuval Harari e, como sabemos, o modo de dizer não é neutro com respeito àquilo que se quer dizer;
– O tempo do discurso escrito, as pausas, os intervalos em que não se lê mas se pensa e se digere o que se leu;
– As emoções que a leitura provoca. Ao longo destas páginas foram vários os momentos de perplexidade e horror. Por outro lado, foi crescendo em mim um sentimento de responsabilidade e urgência em que outros seres humanos se dêem conta dos perigos do avanço desgovernado da IA. Daqui resultou a escrita deste artigo. Apenas a leitura do resumo não teria tornado imperiosa a realização de um Café Filosófico sobre esta matéria.
– A minha fisicalidade: leio quase sempre com um lápis na mão. Nexus ficou tatuado com a conversa que com ele mantive ao longo de várias semanas. Com um resumo, pelo contrário, não se conversa.
– Quem resume decide aquilo que é importante e, portanto, de mencionar, e o que é secundário e do qual se pode prescindir. Ora esta decisão, caro leitor, prefiro ser eu a tomá-la e não a máquina de IA chamada Chat GPT. Por outro lado, como poderia eu saber se a máquina de IA resumiu mal ou bem se não tivesse lido a obra?
Não tendo tempo para resumos de livros neste artigo de pequena dimensão permito-me seleccionar desta obra os seguintes potenciais perigos da IA sobre os quais gostaria que reflectíssemos no Café Filosófico:
A IA pensa, inventa e decide sozinha
Harari diz-nos no prólogo que a IA “é a primeira tecnologia na história que consegue tomar decisões e criar novas ideias por si própria.” (p.xxii) A IA, portanto, não é uma ferramenta, como o próprio nome indica, é uma inteligência, é um agente. Na segunda parte do livro, intitulada “A rede inorgânica”, o primeiro capítulo é dedicado às diferenças entre os computadores e a imprensa escrita e nele pode ler-se o seguinte: “enquanto a imprensa e a rádio eram ferramentas passivas nas mãos dos humanos, os computadores são agentes activos que se escapam ao nosso controle e entendimento e que podem tomar a iniciativa de moldar a nossa sociedade, a nossa cultura e a nossa história.” (p.195). Seguidamente, Harari apresenta um caso paradigmático de poder dos computadores que aconteceu em 2016-17 quando os algoritmos do Facebook ajudaram a inflamar os ânimos contra a etnia Rohinga em Myanmar (Birmânia). Embora muitos conteúdos tivessem sido criados por extremistas violentos, era o algoritmo do Facebook que decidia o que publicar. O algoritmo tinha recebido a instrução de maximizar a participação dos utilizadores e descobriu que a indignação gerava envolvimento na plataforma. A partir daí a primazia foi dada aos conteúdos violentos e xenófobos. Nenhum post que estivesse a promover a paz ou a calma era colocado no feed de notícias (p.199), apenas as mensagens de incitamento ao ódio apareciam. Desde 2020 os algoritmos já criam sozinhos notícias falsas e teorias da conspiração para captar a atenção dos usuários (p.200).
Podemos alegar que a culpa é primeiramente nossa: o género humano sente-se mais atraído pela violência do que pela bondade e a compaixão, Porém, não deixa de ser verdade que estando programados para a auto-preservação é natural que uma notícia que revele perigo atraia a nossa atenção e active os mecanismos do medo e da defesa e/ou do ataque.
De qualquer forma, é um facto que esta campanha de limpeza étnica foi levada a cabo com a grande ajuda de um algoritmo. Harari afirma: “as decisões tomadas por inteligência não-humana já são capazes de moldar grandes acontecimentos históricos. Estamos em perigo de perder o controlo do nosso futuro. Uma completamente nova rede de informação está a emergir, controlada por decisões e metas de uma inteligência alienígena” (p.200).
Inteligência vs Consciência
Harari considera que há uma grande confusão entre estas duas instâncias, e por isso algumas pessoas pensam que, como os computadores não têm consciência, são incapazes de pensar. Ora este é um erro grave! A consciência é a habilidade de experienciar sentimentos subjectivos como dor, prazer, amor e ódio. Nos humanos e noutros animais a inteligência e a consciência andam de mãos dadas. O historiador sintetiza desta forma: “Tal como os aviões voam mais depressa que os pássaros, sem terem penas, também os computadores conseguem pensar e resolver muitos problemas muito melhor que os humanos, sem nunca desenvolverem sentimentos.” (p.202) Neste momento os computadores equipados de IA já tomam decisões sobre as nossas vidas, por exemplo: se se deve ou não conceder-nos um empréstimo, contratar-nos para um emprego ou mandar-nos para a prisão. Isto é real, já está a acontecer. Não é ficção! (p.331) Pergunto-me se esta inteligência alienígena e destituída de emoção será realmente a melhor para tomar este tipo de decisões.
Redes computador-computador, sem intervenção de humanos
Antigamente a informação que era dada ao computador passava sempre por um humano. Nas novas redes baseadas em computadores, os próprios computadores são membros e existem cadeias de computador para computador que não passam por nenhum ser humano. Os computadores podem conectar-se com um número ilimitado de membros numa cadeia de informação, compreendem as leis da finança e do direito melhor que a maioria de nós, conhecem, por exemplo, toda a legalidade dos impostos melhor do que qualquer contabilista profissional. Por todos estes motivos as decisões financeiras a larga escala já são tomadas com base não apenas nos dados processados pelos computadores, mas também nas decisões que eles tomam. Esta eficiência super-humana, como lhe chama Harari, confere-lhes imenso poder. O historiador pergunta: “O que é que significaria para os humanos viver num mundo onde as melodias que entram no ouvido, as teorias científicas, as ferramentas tecnológicas, os manifestos políticos e até os mitos religiosos fossem elaborados por uma inteligência não humana, alienígena, que soubesse como explorar com eficiência super-humana as fraquezas, preconceitos e vícios da mente humana?” (p.208)
Insondável
Os computadores trocam informações entre si e aprendem sozinhos. A forma como esta aprendizagem se processa escapa-se-nos. Alguns algoritmos são completamente opacos para o ser humano. Não temos acesso ao processo que levou a máquina a chegar a tais conclusões porque a máquina, com a sua inteligência alienígena, pensa de um modo totalmente diferente do nosso, um modo que talvez nunca consigamos chegar a compreender. Um exemplo paradigmático aconteceu em 2016 quando o computador AlphaGo derrotou o campeão sul-coreano Lee Sedol no jogo militar “Go”. O movimento 37 do computador AlphaGo pareceu estranho a todos, suspeitou-se tratar-se de um erro. No entanto, mais próximo do final do jogo, esse movimento provou ter sido essencial para lhe conceder a vitória. Este sucesso da IA é assustador pois, por um lado, derrotou um humano com uma herança de conhecimento milenar neste jogo, por outro lado, até hoje, ninguém — nem o campeão derrotado nem qualquer outro especialista “Go” — consegue explicar o que levou o AlfaGo a decidir aquele movimento 37. Trata-se de um movimento insondável! Harari alerta: “O crescimento de uma inteligência alienígena insondável mina a democracia. Se cada vez mais decisões sobre a vida das pessoas são feitas numa caixa negra, se os eleitores não conseguem nem entendê-las nem desafiá-las, a democracia deixa de funcionar.” (p.333)
Sistema de créditos
O exemplo mais próximo de um sistema de créditos, que já vigora em Portugal, é o da nossa carta de condução. Cada titular de carta de condução possui 12 pontos iniciais. Estes pontos são descontados por cada contraordenação ou crime rodoviário cometido. Por exemplo, as contraordenações graves implicam a perda de 2 ou 3 pontos, as muito graves a perda de 4 a 5 pontos, os crimes rodoviários com penalidade máxima implicam a perda de 6 pontos. Consoante os pontos perdidos na carta o condutor pode ser obrigado a realizar uma acção de formação, ou repetir o exame de código, ou pode mesmo ser impedido de conduzir.
Agora imaginem um sistema de créditos sociais que se aplicasse a tudo na nossa vida. Por exemplo: vai visitar a mãe ao lar, ganha 2 pontos, chegou tarde ao trabalho, perde 2 pontos, irritou-se com o patrão, perde 3 pontos e assim por diante. Esta pontuação determinaria também se obtém ou não um empréstimo bancário, se pode ingressar numa determinada universidade, ou viajar para fora do país. Viveria o seu dia a dia continuamente observado e pontuado por uma máquina que nunca dorme nem descansa. Ficção? Não. O sistema de créditos social já vigora na China. Em Junho de 2019 foram negados 27 milhões de passagens aéreas e 6 milhões de bilhetes de comboios de alta velocidade a pessoas consideradas “não confiáveis” devido à sua baixa pontuação.
Não quero hiperbolizar, mas a situação é, de facto, alarmante!
Ainda vamos a tempo de não deixar que tudo escape ao nosso controle.
Para já, considero fundamental dotar os sistemas de inteligência artificial de limites éticos capazes de impedir desempenhos como o do algoritmo do Facebook em Myanmar. Prioritária também a introdução de normativas de preservação da vida humana.
Sobre ambos, limites éticos e normativas de preservação da vida humana, deve haver uma séria reflexão filosófica e, uma vez apurada a sua concreticidade, testar em situação controlada a sua aplicação ao algoritmo.
Não pretendo com este artigo fomentar o ressurgimento de Velhos do Restelo, mas tão pouco fechar os olhos a uma navegação desenfreada e desgovernada.
Café Filosófico 15 de Março 2025 | Casa Álvaro de Campos, Tavira
16:30 Português | 18:00 Inglês | inscrições: [email protected]
*A autora escreve de acordo com a antiga ortografia
Leia também: Café Filosófico a 22 de Fevereiro: o digital e o lagarto
















