“O investimento em IA, sem uma estratégia e uma governação clara, pode ser apenas um custo”

Sérgio Ferreira, da EY, explica em entrevista os problemas na adoção de inteligência artificial dentro das organizações e aborda o novo hub de inteligência artificial da EY que procura ajudar as organizações portuguesas a utilizar a tecnologia

“O investimento em IA, sem uma estratégia e uma governação clara, pode ser apenas um custo”

O hype da Inteligência Artificial (IA) continua a crescer junto da população e das organizações. Desde o lançamento do ChatGPT 3, em novembro de 2022, que as empresas olham para a IA generativa com o propósito de perceber como podem melhorar as suas operações e serem mais eficientes.

No entanto, em 2025, existe “um desfasamento muito grande entre aquilo que são as ambições que os líderes das organizações têm e que a população consegue fazer”, explica Sérgio Ferreira, Partner da EY, numa entrevista à IT Insight.

Com base em estudo da EY, Sérgio Ferreira partilha que cerca de dois terços dos líderes organizacionais querem que a adoção de inteligência artificial dentro das organizações seja feita de forma rápida; no entanto, “ao avaliar aquilo que é a população, ou seja, os colaboradores, apenas 16% está preparado para utilizar ferramentas de inteligência artificial no ambiente de trabalho”.

A falta de exemplo

A diferença entre “a ambição e a intenção” e “a capacidade de fazer acontecer” é o primeiro obstáculo que as organizações têm de ultrapassar. Outro tema importante é a confiança dos próprios colaboradores; “apenas 7% dos colaboradores das organizações dizem que se sentem confiantes em utilizar inteligência artificial no local de trabalho”, diz.

Sérgio Ferreira explica que as organizações levaram a inteligência artificial, e em especial a IA generativa, para dentro de portas, mas, na maior parte dos casos, não acompanharam os colaboradores com formação e capacitação. “É muito difícil, e está a tornar-se muito difícil, que os colaboradores consigam, por si só, perceber como é que estas ferramentas os podem ajudar a ser mais produtivo ou a transformar processos de trabalho ou mudar formas de trabalho. Há uma lacuna de literacia muito relevante”, explica.

Este constrangimento por parte dos colaboradores deve-se, muitas vezes, à falta de exemplos. “As organizações estão a trazer muitas ferramentas, em especial de inteligência artificial, mas depois não há uma indicação clara do que se pode ou não pode utilizar”, refere Sérgio Ferreira, especificando que, “logo no início, acabaram por determinar alguns emails a dizer que é proibido utilizar ChatGPT ou qualquer outro modelo dentro da organização”, o que dificultou a adoção da tecnologia.


“A maior parte das organizações ainda não está preparada para tirar todo o potencial que a inteligência artificial tem para dar, isto do ponto de vista daquilo que serão os modelos mais associados a machine learning e à necessidade de ter modelos que vou treinar com os meus dados”


As letras pequenas

É importante que existam políticas, guias e orientações dentro da organização que sejam transmitidas aos colaboradores. “É importante [os colaboradores] saberem o que é que podem e o que devem fazer. Muitas organizações ainda não definiram claramente o que é que é este espetro de utilização”, especifica.

Sérgio Ferreira alerta que “se formos ler o que é que dizem as letras pequenas da utilização” de qualquer um dos modelos disponíveis – como o ChatGPT, o Gemini da Google ou o Claude da Anthropic – “eles reservam o direito de poder utilizar a informação que está a ser colocada na janela de prompting para poder utilizá-la e treinar os seus modelos”.

Um dos desafios que as próprias empresas que desenvolvem estes modelos enfrentaram no último ano foi “a escassez de dados para continuar a treinar estes modelos em grande escala”. Assim, “o que possam capturar de informação adicional” – como a informação colocada pelo utilizador – pode ser utilizada para treinar o modelo. “Se colocar um documento com propriedade intelectual ou dados de clientes, claramente não tenho controlo nenhum sobre o que é que estas entidades vão fazer com eles”, avisa, especificando, no entanto, que “a probabilidade de sair algo que identifique ipsis verbis aquilo que acabei de colocar lá dentro é muito diminuta”. 

Deste modo, deve existir uma política de utilização e regulamento interno; é “uma responsabilidade da organização de informar claramente os colaboradores do que é que não devem fazer e, mais ainda, explicar porque é que não devem fazer. Não deve ser algo que deve ser transmitido como uma proibição, mas explicar porque os colaboradores vão ter a compreensão de entender o porquê de não o deverem fazer”, afirma Sérgio Ferreira.

Falta de infraestruturas

O Partner da EY indica que algumas organizações têm as infraestruturas e os processos prontos para integrar inteligência artificial, mas “a maior parte não”. Este é, diz, “um dos grandes desafios”, até porque “o investimento sem uma estratégia e uma governação clara pode ser apenas um custo e esse é um dos riscos de desperdício que existe”.

Ao trabalhar com grandes empresas – porque “quando vamos às pequenas e médias empresas torna-se ainda mais claro” – existem lacunas do ponto de vista de arquitetura, de modelos de dados, de governação de dados.

Deste modo, Sérgio Ferreira explica que “uma coisa tão simples como esta e fundacional numa organização, se não estiver pronta e não existir uma prontidão de dados, o que podemos tirar de valor, partido e impacto vai ser menor. A maior parte das organizações ainda não está preparada para tirar todo o potencial que a inteligência artificial tem para dar, isto do ponto de vista daquilo que serão os modelos mais associados a machine learning e à necessidade de ter modelos que vou treinar com os meus dados”.

Quick wins

Sabendo que por esta altura já existem vários casos de estudo que envolvem inteligência artificial, Sérgio Ferreira relembra que “quando carrego num interruptor, quero que ele acenda; é isso que estamos à espera na área de negócios. Quando vamos pegar nos recursos, há coisas muito simples onde a IA pode ter um impacto enorme”.

O Partner da EY dá o exemplo dos recursos humanos: “uma das coisas que causa mais stress nos departamentos de RH de uma organização são os contactos dos diferentes colaboradores com muitas dúvidas que podem ser do recibo de vencimento, férias, legislação, uma mudança de morada… isto são tudo coisas que estão inscritas ou num sistema, ou numa política ou num regulamento. Hoje, é muito fácil treinar um modelo destes e criar um agente que pode libertar 70% ou 80% desta carga de trabalho administrativo e informativo dentro de uma organização”.

No entanto, diz, para isto acontecer, “é preciso que estes dados, que são documentos, estejam organizados, ou que o sistema de informação onde estão os dados que estão relacionados com o salário e os dias de férias também esteja preparado para poder questioná-los. É aqui que está a lacuna; se os dados não existirem ou a informação não estiver bem organizada, não vou conseguir tirar partido”.

As ilhas de informação nas organizações ainda são comuns, o que dificulta a implementação bem-sucedida de casos de uso de inteligência artificial. É preciso olhar para a informação e para os dados e perceber “como é que os vamos organizar para poderem ser transformados primeiro em informação e depois em conhecimento”.

Hub de inteligência artificial

A EY inaugurou o EY.AI Hub, ou um hub de inteligência artificial, nos seus escritórios em Lisboa. Este é um centro de inovação criado com o propósito de ajudar as organizações a acelerar a transformação digital e adotar IA nos modelos de negócio que pretende combinar estratégia, literacia, responsabilidade e experimentação, numa abordagem de inteligência artificial centrada no humano.

Sérgio Ferreira especifica que o EY.AI Hub vai procurar trazer “um conjunto de competências e capacidades de forma imersiva para o mercado, com um currículo muito largo para poder ajudar as organizações a fazer este caminho de capacitação, muito reskilling e upskilling”. Ao mesmo tempo, este hub de inteligência artificial procura ter uma componente de responsabilidade e ética na utilização de IA.

Este hub de inteligência artificial surge “depois desta democratização do acesso à inteligência artificial” e onde se sente “um apetite enorme por parte das organizações em adotar IA porque perceberam que vai ser algo que vai mudar a nossa sociedade, as nossas organizações e, potencialmente, o mundo em que vivemos”, onde “a competitividade das organizações e a sua sobrevivência está claramente ligada a conseguir adotar ou não esta tecnologia”.

Tags

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT INSIGHT Nº 54 Março 2025

IT INSIGHT Nº 54 Março 2025

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.