Tem sido interessante ler a propósito das preocupações em/da IA, e observar a multiplicação de cursos e as dezenas de especialistas emergentes nos últimos meses. Por um lado, temos o marketing agressivo sobre a importância da ética em IA a alertar para as consequências negativas de alguns algoritmos e a promover o seu uso adequado e responsável, idealmente contornando preconceitos e estereótipos. Por outro lado, temos esforços internacionais, sem carácter vinculativo, como é o da Recommendation on the Ethics of Artificial Intelligence da UNESCO.
Assumimos o risco de dizer, como bem ilustra o AI ACT, que a conclusão se resume a: afinal tudo é sobre ética! Discriminação, justiça social, privacidade e segurança das informações, transparência (a começar por fornecer as informações claras sobre o modo da tomada de decisão). Mas onde estão os eticistas neste processo? Reduzidos à automatização. A tomada de decisão ética é, agora, facilmente automatizada e não importa aqui diferenciar se se trata de apoio à decisão de nível superior, do apoio automático aumentado, ou de ambientes altamente automatizados.
Temos de voltar a referir – ética e “compliance” não são sinónimos e não se excluem entre si. E não, já não estamos no nível da discussão que percorre as diferenças entre a Teoria da Virtude, ou a do Direito Natural. Nem tão pouco das diferenças entre a ética descritiva e a ética aplicada – já nada disso importa, quando muito uns diagramas com alusão ao trolley problem para vender melhor a ideia da ética em automação. Como é que uma ética automatizada responde às suas quatro questões de base: “O que estamos a fazer?”; “Porque o estamos a fazer?”; “Podemos fazer algo melhor?” e “Porque é melhor?”
É caso para perguntar – em que momento é que a construção de conhecimento científico passou ao relativismo absoluto? Afinal não é privacidade que está morta como queria induzir o Mark Zuckerberg. A segunda fase que nos querem instigar é a de que a epistemologia está morta!
Reduzindo ao absurdo – o argumento tem sido: essas questões e esse conhecimento são académicos (e ideológicos) e pouco relevantes para os desafios práticos e velozes que enfrentamos. Quão contraditório é este ciclo discursivo?
De modo muito básico importa esclarecer um ponto, e reeducar: se não há conhecimento que alimente um modelo de linguagem grande (LLMs) como aquele que sustenta o ChatGPT (por exemplo) – não há evolução; e aquele que possa auto gerar-se tem, na maioria das vezes, vieses, falsas informações, invenções e um prenúncio do arrependimento.
(Lia Raquel Neves, Teresa Forte)