
A confiança dos cidadãos nos serviços públicos está a ser posta à prova por uma vaga de ataques de fraude cada vez mais sofisticados, alimentados pela própria inteligência artificial. No entanto, os governos preparam-se para responder com a mesma moeda — ou, neste caso, com a mesma tecnologia.
É esta a principal conclusão do mais recente estudo global realizado pelo SAS, empresa de referência em análise de dados e inteligência artificial, em parceria com a Coleman Parkes Research. O relatório, intitulado “Trust and Transparency: Combating Fraud to Maximize Public Program Efficiency”, traça um retrato inquietante mas também esperançoso: se por um lado a fraude digital se tornou mais complexa, por outro, há um ponto de viragem iminente no investimento em tecnologias para a combater.
“Sem preocupações com regulamentos e leis, os criminosos que utilizam IA podem parecer estar em vantagem. No entanto, este estudo sugere que estamos num ponto crítico”, sublinha Shaun Barry, Diretor Global de Soluções de Risco, Fraude e Conformidade do SAS.
A investigação ouviu 1.100 profissionais dedicados ao combate à fraude no setor público em todo o mundo. Quase todos relataram que as suas agências foram vítimas de esquemas potenciados por IA. E 70% afirmam que os ataques aumentaram nos últimos cinco anos.
Com acesso a ferramentas tecnológicas cada vez mais avançadas, os burlões criam identidades falsas, disseminam campanhas de phishing altamente personalizadas e desenvolvem malware com capacidade para contornar os sistemas tradicionais de defesa. As estimativas apontam que até 16% dos orçamentos públicos poderiam ser poupados se a fraude, o desperdício e o abuso fossem travados de forma eficaz.
Mas mais do que os prejuízos financeiros, está em jogo a confiança. Uns esmagadores 96% dos inquiridos reconhecem que os sucessivos incidentes de fraude estão a corroer a credibilidade dos programas públicos.
Capacidades existem, mas faltam recursos
Apesar da consciência clara do problema — 85% consideram o combate à fraude uma prioridade máxima —, muitas agências sentem-se mal equipadas para o desafio. Apenas uma em cada dez diz possuir as ferramentas e os recursos adequados. Lacunas em competências analíticas (48%), tecnologia (40%) e financiamento (24%) estão a comprometer a eficácia dos esforços.
Ainda assim, o otimismo cresce com a perspetiva de um salto tecnológico. A utilização de análises de redes para detetar fraude deverá quase triplicar nos próximos dois anos, passando dos atuais 32% para 87%. E quase todos os inquiridos (97%) planeiam utilizar inteligência artificial generativa (IA Gen) até 2027, recorrendo a modelos de linguagem avançados, gémeos digitais e dados sintéticos para detetar padrões anómalos em larga escala.
Entre as agências que já utilizam IA, os resultados falam por si: maior rapidez na deteção de fraudes, melhor priorização de alertas e, sobretudo, ganhos substanciais de eficiência na força de trabalho. Para 57% dos profissionais, este é o benefício mais importante.
Contudo, o entusiasmo com a tecnologia não elimina a necessidade de vigilância. A maioria dos responsáveis reconhece que a supervisão humana continua a ser essencial, tanto para garantir a integridade dos sistemas como para proteger os cidadãos de possíveis danos não intencionais.
A segurança e a privacidade dos dados (48%), bem como o uso ético e responsável da IA (43%), surgem entre as maiores preocupações — numa altura em que o equilíbrio entre inovação e transparência é visto como um fator determinante para restaurar a confiança pública.
Com a IA no centro do palco, os governos parecem finalmente prontos para virar o jogo. Mas como em qualquer transformação profunda, o sucesso dependerá não apenas da tecnologia, mas da capacidade de a utilizar com inteligência — e com responsabilidade.