IA responsável, transparente e explicável - chegou o momento

As empresas estão a enfrentar um cenário regulamentar global cada vez mais complexo e em constante mudança no que diz respeito à IA. A abordagem da IBM à ética da IA equilibra a inovação com a responsabilidade, ajudando uma adoção de IA fiável e em escala.

IA responsável, transparente e explicável - chegou o momento

Para garantir o sucesso das iniciativas de IA é fundamental garantir uma governação unificada.

Dados isolados e processos desconexos geram modelos de IA inconsistentes

Tudo começa com a governação. Para aproveitar todo o potencial da IA e reduzir o bias, as ferramentas de Data Governance e IA são essenciais para escalar modelos, mantendo a transparência e a conformidade. Sem as necessárias políticas de salvaguarda, os resultados da IA podem ser tendenciosos, discriminatórios ou mesmo errados. A IA pode divulgar dados sensíveis ou infringir direitos de autor. Sem a utilização de ferramentas de governação, a IA pode expor as empresas a vários problemas de privacidade de dados, complicações legais e dilemas éticos. A incorporação da governação de dados ajuda naturalmente a evitar problemas mais tarde.

A realidade da cloud híbrida

É incontornável que a realidade empresarial tem de lidar com vários Cloud Providers. A Gartner prevê que 40% das despesas de software com IA serão para modelos embebidos nas aplicações empresariais. A disponibilização de software para apoiar a governação da IA exige que o fornecedor tenha uma profunda experiência real em IA. A governação das formas generativas e não generativas de IA tem muitas semelhanças, mas também diferenças notáveis. A governação da IA está ligada à governação de outros domínios de risco, por exemplo, conformidade regulamentar, risco operacional de gestão de terceiros.

As organizações querem construir e escalar a IA rapidamente, entre os vários Cloud Providers, independentemente de onde se encontram os dados - sistemas de IA incompatíveis impedem a escalabilidade e a sinergia.

Modelos abertos como veículo de inovação

A convicção é férrea que o poder da inovação é aberto e, para chegarmos a um futuro em que escrever código seja tão fácil como falar com um assistente ativo, queremos chegar ao maior número possível de programadores. Os sistemas mais eficazes baseiam-se no conhecimento coletivo.

Embora a popularidade geral dos modelos de IA generativa tenha disparado nos últimos anos, a adoção pelas empresas tem sido mais lenta. No mundo mais vasto da investigação e implementação de LLMs, os principais modelos já atingiram dezenas de milhares de milhões de parâmetros, muitos com 70 mil milhões ou mais. Embora isso seja útil para as organizações que procuram criar agentes generalizados que compreendam uma vasta gama de assuntos, estes modelos são computacionalmente dispendiosos de treinar e executar. Para as empresas, os modelos maciços podem tornar-se difíceis de governar para tarefas mais específicas, estão repletos de informação irrelevante e têm custos de inferência elevados.

Muitas empresas têm-se mostrado relutantes em adotar os LLMs para fins comerciais por várias razões para além do custo. O licenciamento destes modelos é muitas vezes pouco claro, e a forma como estes modelos foram treinados e como os dados foram limpos e filtrados para detetar ódio, abuso e profanação é muitas vezes desconhecida.

Os modelos da IBM foram treinados com dados recolhidos em conformidade com o IBM’s AI ethics principle.

Regulação, Risco e Compliance by design como inibidores, perdão, aceleradores!

Os riscos nos modelos de IA podem ter muitas origens, alguns estão relacionados com os modelos clássicos de ML e são mais bem compreendidos, outros são preocupações mais recentes decorrentes da IA generativa. Há 3 pontos a ter em consideração:

  • Regulamentação - com a legislação sobre IA a progredir em muitas partes do mundo, as organizações que não tenham a regulamentação sob controlo, correm o risco de sofrer multas elevadas.
  • Reputacional - mesmo que algo não seja ilegal, não significa que se deva fazer - considere se quer a sua organização nas notícias como um exemplo de “IA que correu mal”
  • Operacional - muitos projetos de IA não chegam a entrar em produção devido à falta de confiança na tecnologia, retirando às organizações os potenciais benefícios da solução.

A IBM descarregou petabytes de raw data. Os dados foram pré-processados para remover qualquer referência a ódio ou profanação, impedir a duplicação e serem filtrados para que o conteúdo seja rastreado. O resultado é um conjunto de dados higienizados de vários terabytes para treino de modelos. O índíce de confiança é tal que a IBM contempla indemnização contratual de propriedade intelectual para os Modelos Fundacionais desenvolvidos pela IBM. A IBM também oferece “alguma paz de espírito” aos clientes ao não exigir que haja indemnização pela utilização dos seus modelos.

A IA não cria uma nova magia, representa e amplifica a realidade e os valores atuais da cada organização.

Há 1 ano lançámos a plataforma de dados e IA watsonx - uma solução única e diferenciadora de mercado para governo unificado e integrado de IA generativa e ML, com 3 pilares fundamentais:

  • Lifecycle Governance - Gestão de todo o ciclo de vida da IA, através da
    captura de metadados em cada fase e suporte a modelos criados e implementados
    em ferramentas de terceiros.
  • Risk Management - Gerir o risco e proteger a reputação através da automatização de fluxos de trabalho para garantir a qualidade e detetar melhor o bias e o drift.
  • Compliance – Agilização de adoção de normas e/ou melhores práticas da empresa, normativos do setor e molduras regulatórias, traduzindo os requisitos em políticas.

 

Conteúdo co-produzido pela MediaNext e pela IBM

Tags

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT INSIGHT Nº 52 Novembro 2024

IT INSIGHT Nº 52 Novembro 2024

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.