A promessa de transformação da IA é real, mas está condicionada por uma variável incontornável — a qualidade dos dados. Seja em projetos de machine learning, IA generativa ou agentes autónomos, um erro na origem pode comprometer por completo os resultados, com consequências que vão de decisões erradas a sanções regulatórias.

É por isso que cada vez mais gestores de IT estão a reforçar as suas estratégias de data lake, warehouse e, sobretudo, lakehouse — estruturas híbridas que combinam a flexibilidade de dados não estruturados com a organização típica de um data warehouse, permitindo análises mais rápidas, económicas e seguras.

Em algumas empresas industriais, por exemplo, a implementação de um lakehouse sobre tecnologia Databricks permite agregar e refinar petabytes de dados provenientes da operação fabril, organizando-os em camadas de qualidade (bronze, prata e ouro). Esta hierarquização é crítica para garantir que os modelos de IA operam sobre informação fidedigna e contextualizada.

Algumas referências no setor alimentar, nos Estados Unidos, foram mais longe e recorreram à própria IA generativa para melhorar a integridade dos dados. Utilizando o AWS Bedrock com modelos privados, identificam e corrigem inconsistências em atributos de clientes e produtos, uniformizando a linguagem de forma inteligente — por exemplo, substituindo “spicy” por “peppery” quando necessário.

Também na indústria farmacêutica, onde a conformidade com o AI Act europeu é imperativa, algumas farmacêuticas estão a centralizar os dados num lakehouse em Google BigQuery. O resultado? Maior interoperabilidade entre equipas de I&D, marketing e comunicação, mais rapidez na produção de documentos internos com IA, e, acima de tudo, controlo total sobre informação sensível, como dados de patentes ou ensaios clínicos.

Em algumas empresas do setor energético, a plataforma de dados CEDAR agregou a informação proveniente de centrais de energia limpa. O sistema alimenta o Farseer, motor de IA que cruza dados meteorológicos, de mercado e capacidade produtiva para otimizar decisões de pricing e fornecimento energético em tempo real.

Apesar dos avanços tecnológicos, o desafio mais citado pelos gestores de TI mantém-se: o talento especializado. Integrar dados com qualidade, implementar governação eficiente e garantir segurança legal requer equipas capazes de lidar com sistemas complexos, estruturas legadas e regulamentações em constante evolução.

Mas a conclusão é clara: sem dados de qualidade, não há IA de confiança. Num momento em que todos querem aplicar inteligência artificial, são as organizações que constroem uma base de dados sólida — e colaboram com as áreas de negócio para garantir a sua utilização — que colherão verdadeiramente os frutos da revolução algorítmica.