Numa era em que os sistemas de Inteligência Artificial desempenham um papel fundamental na definição do futuro, a adoção de AI-BOMs não é apenas um requisito regulamentar, mas também uma prática recomendada para criar confiança e resiliência em ecossistemas apoiados pela IA
A rápida adoção da AI generativa (GenAI) e dos modelos de linguagem de grande dimensão (LLM do inglês Large Language Models) tem vindo a criar oportunidades sem precedentes em todos os setores. No entanto, esta adoção generalizada também sublinha a necessidade urgente de frameworks de segurança robustas para mitigar os riscos relacionados com a exposição de dados, falhas na integridade do modelo e as vulnerabilidades de injeção (ex: prompt injection) nos ecossistemas de IA. Embora a GenAI e os LLMs estejam atualmente no topo das atenções, é essencial não esquecer outros sistemas de AI/ML (do inglês Machine Learning) que podem não ter a mesma visibilidade, mas que são igualmente vitais para as operações de uma empresa. Os componentes de IA e de aprendizagem automática formam cadeias de abastecimento complexas, muitas vezes dependentes de ferramentas e modelos de código aberto, que podem introduzir riscos de segurança ocultos em todos os tipos de sistemas de IA. A falta de visibilidade desses componentes deixa muitas organizações vulneráveis a possíveis falhas, ataques da cadeia de fornecimento bem conhecidos, como o caso da SolarWinds. Para lidar com esses riscos e melhorar a conformidade regulamentar, surgiu o conceito de uma lista de materiais de IA (AI-BOM). Uma AI-BOM tem como objetivo fornecer um inventário estruturado de todos os elementos utilizados no desenvolvimento de sistemas de IA, incluindo ferramentas, bibliotecas, modelos e dependências. Essencialmente, estende os princípios de uma Lista de Materiais de Software (SBOM) aos sistemas de IA, com o objetivo de catalogar não só os componentes de software, mas também os elementos críticos de IA que moldam estes modelos, tais como dados de treino, dependências e modelos pré-treinados. Ao implementar uma AI-BOM, as organizações podem melhorar a transparência, gerir melhor os riscos e garantir a conformidade com novos regulamentos como o AI Act da União Europeia. O panorama dos sistemas de IA é caracterizado por uma cadeia de fornecimento dinâmica e muitas vezes opaca, onde os modelos e dados usados para treino tem, muitas vezes, origem em fontes externas não documentadas. Este ambiente pode facilmente introduzir vulnerabilidades se não for devidamente monitorizado. À semelhança da forma como o SBOM pode ser utilizado no desenvolvimento de software, a AI-BOM pode servir de base para a gestão dos riscos associados às tecnologias de IA. Esta facilita a identificação de possíveis vulnerabilidades, seja devido a dependências de software, vieses de dados de treino ou modelos pré-treinados problemáticos. Ao fornecer um inventário exaustivo dos componentes que entram num sistema de IA, uma AI-BOM permite que as organizações abordem proativamente os riscos antes que estes evoluam para preocupações de segurança maiores. Além da segurança, as AI-BOMs são cada vez mais relevantes para a conformidade regulamentar, particularmente com o AI Act da UE. Esta regulamentação enfatiza a transparência e a responsabilidade, exigindo que as organizações mantenham uma compreensão clara dos modelos de IA que usam e como esses modelos são construídos. Uma AI-BOM suporta estes requisitos ao fornecer um inventário estruturado de componentes, permitindo que as organizações demonstrem facilmente a conformidade com as obrigações de transparência descritas na Lei de IA da UE, especificamente os artigos 13 e 52. Para aproveitar ao máximo o potencial das AI-BOMs, as organizações precisam de adotar medidas de segurança complementares. A integração de AI-BOMs com ferramentas de segurança que automatizam a verificação de vulnerabilidades, a aplicação de políticas e as verificações de conformidade é um passo fundamental para melhorar a capacidade de gestão do sistema de IA. Esta integração pode ajudar as organizações a monitorizar as dependências em tempo real, assinalando quaisquer componentes desatualizados ou vulneráveis e garantindo a conformidade contínua com normas e regulamentos. À medida que as tecnologias de IA continuam a evoluir, a necessidade de estruturas de segurança robustas que possam acompanhar esses avanços torna-se cada vez mais importante.As várias iniciativas e os esforços conduzidos pela comunidade para normalizar os AI-BOM refletem um reconhecimento crescente da necessidade de transparência e responsabilidade no desenvolvimento da IA. Ao integrar AI-BOMs com ferramentas de segurança automatizadas, adotando práticas MLSecOps e colaborando com a comunidade de segurança mais ampla, as organizações podem gerir efetivamente os riscos associados às cadeias de fornecimento de IA e aproveitar todo o potencial das tecnologias de IA de maneira segura. Numa era em que os sistemas de Inteligência Artificial desempenham um papel fundamental na definição do futuro, a adoção de AI-BOMs não é apenas um requisito regulamentar, mas também uma prática recomendada para criar confiança e resiliência em ecossistemas apoiados pela IA. |