
Em 2025, todas as empresas da Fortune 500 terão incorporado inteligência artificial (IA) nas suas operações, de acordo com uma investigação da Cybernews. Nenhuma delas declarou publicamente que não utiliza esta tecnologia, embora a forma de implementá-la varie, e o próprio facto de 100% das empresas terem apostado na IA representa um marco na transformação digital empresarial.
A informação provém da análise dos sites públicos destas empresas, realizada com o apoio da Gemini Deep Research. Embora não se trate de um estudo estatístico exaustivo, os resultados mostram que a IA já está integrada em funções-chave, que vão desde o atendimento ao cliente até à tomada de decisões estratégicas. Um terço das empresas refere a sua utilização geral na análise de dados ou reconhecimento de padrões, e mais de 20% especificam aplicações funcionais como manutenção preditiva ou automatização de inventários.
Algumas empresas optam por desenvolver modelos próprios, uma prática especialmente presente nos setores energético e financeiro; a Walmart (com o seu modelo Wallaby) ou a Saudi Aramco (com o Metabrain) são alguns dos exemplos citados. Catorze por cento das empresas afirmam estar a trabalhar neste tipo de desenvolvimentos internos, enquanto apenas 5% reconhecem depender de fornecedores externos como OpenAI, DeepSeek, Anthropic ou Google.
Um dos dados que se destaca na investigação é a relutância das empresas em nomear fornecedores específicos de LLMs (modelos de linguagem de grande dimensão). Apenas cerca de vinte mencionam explicitamente a OpenAI, e números semelhantes são observados para outros atores relevantes como DeepSeek, NVIDIA, Anthropic ou Meta. Em contrapartida, empresas como a Microsoft afirmam que mais de 85% das empresas do índice utilizam as suas soluções, e outras fontes elevam para 92% a adoção de produtos da OpenAI.
O uso de soluções de plataforma, que simplificam o acesso, levanta preocupações adicionais sobre o controlo de dados e a dependência de terceiros. Esses aspetos se somam a outros riscos apontados pelos investigadores da Cybernews: fuga de dados, injeções de prompt, preconceitos algorítmicos e problemas de transparência na tomada de decisões dos modelos.
Em setores críticos como o da saúde ou das infraestruturas, estas vulnerabilidades assumem especial gravidade. A possibilidade de um modelo ser manipulado ou gerar resultados prejudiciais sem supervisão humana põe em causa a maturidade dos atuais sistemas de governação.
Governação, transparência e regulamentação
Os especialistas insistem que a governança eficaz da IA continua a ser um desafio e que o ritmo acelerado da inovação ultrapassa a capacidade de resposta dos quadros regulamentares. A adoção sem supervisão adequada é comparada a uma «criança prodígio sem supervisão», nas palavras do CTO da nexos.ai, Emanuelis Norbutas. A segurança não deve se concentrar apenas no acesso aos modelos, mas também em como eles são realmente usados: desde os limites de entrada e saída até o controlo do fluxo de dados e a atribuição de funções.
Atualmente, a regulamentação da IA nos EUA está fragmentada entre esforços estaduais e federais. Entre as iniciativas emergentes, destacam-se o AI Risk Management Framework do NIST e a AI Act da União Europeia, que introduz obrigações específicas para sistemas de alto risco. A nível internacional, a norma ISO/IEC 42001 estabelece requisitos para sistemas de gestão de IA.
No entanto, os investigadores alertam que esses quadros ainda apresentam ambiguidades, encargos de conformidade e limitações práticas face aos desafios reais. Recomendam que as empresas identifiquem claramente os riscos associados à sua abordagem específica de implementação e adotem medidas de mitigação proativas.
Entre as práticas recomendadas para reduzir os riscos destacam-se a classificação e encriptação de dados sensíveis, o uso de controlos de acesso e técnicas como a anonimização e o uso de ferramentas de prevenção de perda de dados. Face a ameaças como a injeção de prompts, recomenda-se a validação rigorosa de entradas e saídas, ambientes isolados e políticas claras sobre os limites de uso dos modelos.
Quanto à integridade dos modelos, defende-se o uso de pipelines seguros, validação contínua, controlo de versões e formação contra ataques adversários. Para ambientes críticos, recomenda-se aplicar o princípio da segurança desde a conceção, segmentar redes, realizar avaliações periódicas de vulnerabilidades e manter planos de resposta a incidentes.
Também são propostos mecanismos para proteger a propriedade intelectual, como o uso de computação confidencial, watermarking e acordos legais sólidos. Por outro lado, sugere-se melhorar a diversidade dos dados de treino, promover a explicabilidade e estabelecer diretrizes éticas claras, juntamente com auditorias frequentes para reforçar a confiança nos sistemas implementados.
O caminho para uma IA segura e responsável no ambiente corporativo passa, segundo os analistas, por assumir que a experimentação não isenta da obrigação de proteger ativos, utilizadores e sistemas. A inovação deve ser acompanhada por uma supervisão estruturada que garanta que os riscos não superem os benefícios.