A Forrester destaca a explicabilidade como um elemento-chave para uma integração bem-sucedida da IA nas empresas
Segundo a Forrester, os líderes empresariais devem proceder à adoção das sete alavancas da Inteligência Artificial (IA) confiável para melhorar a sua integração nas empresas. Em particular, sublinha a importância da transparência como “a perceção de que um sistema de IA está a conduzir a decisões de uma forma aberta e rastreável e está a fazer todos os esforços para partilhar informações verificáveis sobre como funciona”. Apesar da adoção de grandes modelos de linguagem da IA generativa, ainda que sejam opacos, pela parte das empresas, a Forrester reforça que a IA generativa raramente é responsável pela tomada de decisões cruciais relacionadas com questões operacionais ou com clientes. As decisões de negócios mais críticas são e continuarão a ser impulsionadas por algoritmos de IA preditivos que têm uma maior explicabilidade, como é o caso de florestas aleatórias e redes neurais. A emergência de regulamentações como a prevista Lei da IA da União Europeia exigirá às empresas que utilizem IA, generativa ou não, que forneçam uma explicabilidade alinhada com os níveis de risco associados à sua utilização. O não cumprimento de tais exigências pode levar a penalidades de até 7% do volume de negócios anual global da empresa. A falta de transparência aumenta os níveis de desconfiança na IA, podendo conduzir a uma integração contida e hesitante dos seus sistemas nas empresas, bem como a processos judiciais com consumidores, empresas e criadores de conteúdo a questionar sobre a forma como os seus dados estão a ser utilizados e os fundamentos dos resultados apresentados pela IA. Um exemplo da desconfiança nesta tecnologia é o caso da OpenAI, que tem sido alvo de críticas pela parte dos utilizadores por não divulgar os detalhes do treino utilizados no seu modelo GPT-4. Neste sentido, a Forrester considera que a IA explicável pode abrir caminho para uma maior confiança entre as partes envolvidas, recorrendo a técnicas como tornar os modelos opacos mais fáceis de interpretar e mais transparentes. As empresas podem ter acesso a estas técnicas através de soluções de IA responsáveis, fornecedores de serviços de IA e modelos de código aberto. As tecnologias de IA explicáveis poderão ainda ajudar os data scientists a compreender os resultados da IA e a forma como são gerados e facilitar a criação da documentação procurada pelos reguladores nas auditorias à IA das empresas. |