Filomena Pereira, B2B CVM and Online Senior Manager da Vodafone, foi entrevistada no palco da IT Insight Talks e focou-se no tema da Inteligência Artificial (IA) e da cultura de experimentação que deve existir nas organizações.
Qual a função da Filomena na Vodafone? Estou inserida na unidade de negócios empresariais, portanto, com foco nos clientes empresariais. Tenho responsabilidade sobre duas áreas. A primeira é Customer Value Management, que no fundo é a utilização de uma grande quantidade de dados que temos ao nosso dispor e que recolhemos e trabalhamos, para conhecer os clientes e potenciais clientes, ou seja, o tecido empresarial português, perceber quais é que são as necessidades, antecipar, conseguir fazer as ofertas mais personalizadas possíveis e gerir a relação com o cliente ao longo dos anos para mantermos uma relação de longo prazo. Muito trabalho de dados para conseguir personalizar experiências. A outra área é a área de digital, que é a utilização do canal digital para estabelecermos uma relação com os clientes que tentem não perder um toque de personalização e conseguir também personalizar as ofertas que se apresentam. Como se identificam e priorizam os casos de uso para a inteligência artificial dentro das organizações? A inteligência artificial não é uma novidade; as empresas acabam por já trabalhar com tecnologias de machine learning e mesmo de inteligência artificial, se calhar mais básicas e que já entraram no nosso dia a dia. Agora, com a proliferação de IA generativa e os Large Language Models como o ChatGPT, acabou por se criar quase que uma urgência de todas as empresas terem de fazer qualquer coisa. Como selecionar: start with a why. Porque é que quero? Quais é que são os objetivos? O que é que para a minha organização é mais relevante? Que problemas é que quero resolver? Quero aumentar a produtividade, reduzir custos? É preciso pegar em problemas concretos para, então, tentar ver se a tecnologia permite endereçar esses problemas porque não há uma solução universal que sirva para todos os problemas. A partir daí, é identificar se é possível criar um proof of concept, um teste que permita, rapidamente, com investimentos pequenos e tempo limitado, começar a observar resultados. Não é preciso começar com uma estrutura megalómana ou com imensos recursos. É preciso tentar criar estes testes rapidamente e definir o que é que se pode escalar ou abandonar. Tudo isto ponderando os riscos. Os riscos normais de data privacy, ética e legais, mas também de exposição perante o cliente. Se vou ter uma interação com o cliente, não quero perder credibilidade junto a ele. Se quero fazer uma oferta personalizada, não vou experimentar e correr o risco de o cliente dizer que o que lhe estão a propor é um disparate. Esta componente de medir os riscos para identificar quais é que são as áreas em que posso fazer testes controlados é o principal. Depois, também é importante a qualidade dos dados. Se tenho dados credíveis, fontes credíveis, se tenho capacidade de implementar todos os requisitos de anonimização de dados, de data privacy, de acesso, que é muitas vezes uma parte muito morosa de implementar para quem quer avançar rapidamente com os use cases. Às vezes, pode levar a minimizar riscos ou a esquecer que os riscos existem com a velocidade de querer implementar rapidamente alguns use cases. Referiu que algumas organizações têm uma urgência em implementar soluções de IA generativa. Quais é que são os erros comuns que as organizações estão a cometer ao implementar a tecnologia e, ao mesmo tempo, como é que se podem evitar esses mesmos erros? Um primeiro erro é não começar com os objetivos corretos em vista. Evitar começar por achar que tenho uma solução ótima e depois ver que problema é que vou resolver. Depois, como dizia, a qualidade dos dados. Por um lado, não medir os riscos ou esquecer ou tentar minimizar essa componente, é muito importante para a componente de dados e ter a certeza que se tem os recursos certos, que as pessoas estão formadas. Também é importante que as pessoas não tenham receio e comecem a adotar a tecnologia para que exista esta vontade de experimentar e pesquisar, no fundo, que use cases é que se podem criar através de um brainstorming junto das áreas que digam que têm um problema para resolver e talvez a tecnologia permita resolver. Falou das equipas; perguntava quais é que são as principais competências que as equipas internas devem ter para implementar inteligência artificial? Se calhar, começo por aquelas que às vezes são mais esquecidas, as menos óbvias. Normalmente, pensamos logo em perfis mais técnicos, quem vai trabalhar as tecnologias. Normalmente, concentro-me mais nos perfis funcionais, os perfis de negócio, que não são menos escassos do que os técnicos. No fundo, pessoas que têm a capacidade de traduzir aquilo que são os problemas de negócio de decompor esses problemas de negócio para conseguir colocar os desafios e os requisitos técnicos do que têm de ser desenvolvido e que tenham a capacidade de ter sentido crítico para perceber se as respostas que estou a obter respondem ao meu problema original. Uma coisa é quando estamos a fazer análises de dados de uma forma um bocadinho mais controlada, muitas vezes vemos que o problema inicial que tínhamos pensado que existia, à medida que vamos analisando os dados, percebemos que se calhar a pergunta tem de ser alterada. Quando estamos a desenvolver este tipo de modelos, às vezes quem está a trabalhar os dados e a automatizar estas análises não tem essa sensibilidade de negócio e podemos acabar com respostas ótimas, mas que não são [respostas] ao problema inicial. Este sentido crítico das equipas que fazem esta ponte entre a necessidade de negócio e as equipas técnicas e que depois testam, avaliam e validam, é muito importante. Depois, uma competência menos sexy que é o tratamento de dados. É ter a certeza de que as bases de dados vêm de fontes credíveis, que os dados são corretamente carregados. Muitas vezes estamos a falar em dados em real- -time ou near real-time em que basta que exista um erro num processo e que a alarmística não tenha sido implementada porque, se acelerou e não se sabe se os dados que estou a trabalhar naquele dia, estão com um problema qualquer. É preciso alguém que tenha este gosto por trabalhar os dados, por perceber e tenha sentido crítico para detetar qualquer coisa que não está bem. Posso dar um exemplo. Temos campanhas que saem com alguma recorrência e temos sistemas de alarmística para saber se os processos que correm em batches correm bem e houve uma vez onde uma pessoa da equipa mandou parar as campanhas do dia porque havia qualquer coisa que estava errada; os volumes de campanhas que deviam sair dispararam e havia qualquer coisa errada. É preciso ter esta sensibilidade. Depois percebemos que tinha sido uma tabela que não tinha carregado toda, o processo ficou a meio e não disparou um alerta. A sensibilidade de perceber que há aqui qualquer coisa que está errada e temos de ir olhar. Muitas vezes, quando automatizamos tudo e confiamos cegamente nos resultados e não há ninguém depois a validar o que é que foi feito, podemos estar a cometer erros que podem ser graves. Quando se introduz uma nova tecnologia - como é o caso da inteligência artificial - há sempre resistência interna e é sempre necessário fazer uma mudança cultural. Como é que se gere essa mudança e essa resistência em relação à adoção de inteligência artificial? Passa muito pela formação. Muitas vezes, as pessoas receiam aquilo que não conhecem, e não conhecem porque acham que se calhar é muito complexo. Temos de começar por desmistificar o que é que são estas ferramentas de Large Language Models. Aquilo só está a identificar qual é a palavra mais provável a seguir e não há ali uma inteligência que de repente consiga resolver os problemas e pensar de forma autónoma. Passar este conhecimento às pessoas faz com que elas tenham menos receio e, ao terem menos receio, vão estar mais abertas a perceber que podem evoluir em termos de know-how, que podem ir experimentando, que podem ir trabalhando com as tecnologias. Acho que o pior que pode acontecer é a inação ou achar isto são coisas muito complexas ou que não tenho os recursos internos para conseguir fazer ou que é um problema do IT e não me vai envolver a nível de negócio. É preciso criar esta cultura, formar as pessoas, acompanhar os processos e endereçar aqueles receios que às vezes muitas pessoas têm de que o emprego vai desaparecer. A colaboração entre vários departamentos dentro da organização é uma necessidade para que estes projetos tenham sucesso? Não é uma necessidade, mas deveria. Tem de existir sempre um fio condutor. Queremos dinamizar que as áreas identifiquem use cases, que identifiquem provas de conceito que podem fazer e isso deve ser incentivado. Mas tem de haver um fio de condutor, tem de haver uma estratégia para perceber que há sinergias que podem ser tidas e, quando estamos a falar, por exemplo, em criar bases de dados e criar todos estes processos robustos, não faz sentido que cada área esteja a tratar de forma isolada. Assim, é preciso garantir que há um fio condutor, que há estas sinergias. As empresas devem formar os seus recursos internos, mas perceber que o recurso a parceiros pode fazer com que estes testes acelerem. A partilha de experiências entre áreas é importante e devemos evitar criar os tais cogumelos que ficam ali isolados e que, depois, são muito difíceis de agregar os diferentes desenvolvimentos que foram feitos. Naturalmente que cada organização é uma organização e tem as suas especificidades e a Filomena já referiu que, para começar a implementar casos de uso, é preciso perguntar o porquê. No entanto, existe algum caso de uso que quase qualquer organização possa fazer inicialmente? A resposta é essa: cada empresa é um caso. Mais do que tentar testar só porque sim – porque está na moda e toda a gente está a fazer qualquer coisa – é preciso pensar o que é que faz sentido para o meu negócio; o foco deve ser aí. É claro que os Large Language Models e a aplicação possível a chatbots – quer no contacto com o cliente, quer assistentes virtuais às próprias pessoas que estão no atendimento e que têm bases de dados que não são fáceis de consultar – podem ser aceleradores e são áreas em que hoje estão a ser feitos muitos testes. Não sei se são aqueles que trazem mais valor para o negócio e muitos destes casos que aparentemente podem ser acelerados sofrem de um problema, que é a informação de origem. Pegando no exemplo do chatbot ou assistente virtual às áreas de atendimento, se a informação que tenho não está organizada ou atualizada e os assistentes [humanos] já acham que é difícil navegar nela para darem uma resposta ao cliente, a IA não vai resolver o problema porque o problema está nos dados que tenho. Se calhar, vai acelerar o facto de perceber que os meus dados têm de ser bem trabalhados, que a minha informação tem de estar estruturada e limpa. A partir daí vai ser mais fácil desenvolver a tecnologia. A Filomena já deu vários conselhos ao longo desta entrevista, mas quais é que são os conselhos que deixa a outros líderes de organizações que procuram implementar inteligência artificial? Faço um resumo daquilo que fui dizendo. No fundo, a formação é o passo inicial. A procura de parceiros que consigam acelerar a implementação destes testes. E também medir os riscos. Queremos fazer as coisas, mas às vezes não podemos acelerar tanto porque é importante a confidencialidade de dados e permissões. Sei que estou a bater muito na mesma tecla, mas é uma área que trabalho muito e que, muitas vezes, é frustrante: queremos avançar rapidamente, mas o compliance, a anonimização, os acessos… tudo isso é muito importante e não deve ser esquecido. Depois, é criar uma cultura de experimentação, não ter medo de experimentar. Não funcionou? Vamos experimentar de outra maneira. Não podemos querer que todos os casos que vamos implementar sejam um sucesso logo ao primeiro teste porque isso vai ser difícil e são expectativas erradas. |