As capacidades da Inteligência Artificial (IA) continuam a surpreender, tanto pelo que facilitam no dia a dia como pelos riscos que representam. Um caso recente mostrou como estas ferramentas podem ser usadas para fins perigosos, incluindo a falsificação de documentos de identificação oficiais.
Réplicas de documentos de identificação em 5 minutos
O alerta foi dado por Borys Musielak, empreendedor na área da tecnologia, que conseguiu criar uma réplica de um cartão de cidadão falso em apenas cinco minutos, utilizando uma aplicação de IA. O mais preocupante? O resultado era tão convincente que poderia ser aceite como um documento verdadeiro.
Musielak partilhou a experiência na rede social profissional LinkedIn, onde explicou que a falsificação era tão bem-feita que poderia facilmente enganar sistemas automáticos de verificação de identidade, utilizados por bancos e outras instituições financeiras.

O que é o “KYC”?
Estes sistemas fazem parte do processo conhecido como KYC – sigla para Know Your Customer (Conheça o Seu Cliente) – que serve para confirmar a identidade de clientes e prevenir crimes financeiros, como lavagem de dinheiro ou fraude, refere a Executive Digest.
Apesar de Musielak não ter tido intenção de cometer um crime, o episódio revela o quão acessível se tornou este tipo de tecnologia. A ferramenta usada foi o ChatGPT, uma das IAs mais conhecidas e utilizadas no mundo, disponível a qualquer pessoa com acesso à internet.
Preocupações sérias
A facilidade com que este tipo de documento pode ser criado levanta sérias preocupações. Embora a maioria das falsificações digitais acabe por ser detetada por erros visuais, ortográficos ou de formatação, esta foi praticamente perfeita.
Segundo o próprio autor, o cartão falso tinha todos os detalhes visuais corretos e parecia autêntico ao ponto de poder ser aceite em processos de verificação automática para abrir contas bancárias, carteiras de investimento ou plataformas de criptomoedas.
No entanto, há uma limitação importante: não continha o chip eletrónico que os cartões verdadeiros têm. Por isso, não serviria, por exemplo, para passar fronteiras ou ser usado como documento oficial num aeroporto.
Recomendamos: O que fazer se o multibanco ‘engolir’ o seu cartão? É assim que pode resolver facilmente o problema
O uso das ferramentas de IA
O caso serviu para alertar a comunidade tecnológica e o público em geral para o perigo do uso malicioso de ferramentas de IA, principalmente quando combinadas com outras aplicações como o Adobe Photoshop, que permitem criar imagens realistas em poucos minutos.
Cerca de 16 horas depois da publicação de Musielak, a OpenAI — empresa responsável pelo ChatGPT — bloqueou os comandos que permitiam este tipo de criação, reforçando as suas medidas de segurança. Agora, quando alguém tenta pedir ajuda ao ChatGPT para criar um documento falso, a resposta é clara: a IA recusa-se a colaborar e apresenta os motivos com base em regras de segurança e ética.
Mesmo assim, os especialistas alertam que, mesmo com estas restrições, outras IAs podem ser utilizadas para fins semelhantes. A tecnologia está em constante evolução, e nem todas as plataformas têm os mesmos níveis de controlo e segurança.
Urgência em reforçar a segurança
Por isso, os peritos defendem que é urgente reforçar os métodos de verificação digital, nomeadamente através do uso da tecnologia NFC (comunicação por aproximação) e dos documentos eletrónicos de identidade (eID), que incluem chips difíceis de falsificar.
Este tipo de autenticação mais avançada pode ser essencial para garantir que os sistemas financeiros e outras plataformas digitais estão realmente protegidos contra este tipo de fraudes sofisticadas com documentos de identificação.
No final, este episódio serve de aviso: a IA é uma ferramenta poderosa, mas o seu uso deve ser acompanhado de responsabilidade, ética e, acima de tudo, regulação. Como conclui Musielak, “a tecnologia não é o problema — o problema é o uso que lhe damos”.
Leia também: Mais valioso que petróleo? Este país encontrou toneladas de ouro ‘debaixo dos pés’