A inteligência artificial está a ter dificuldades em fazer previsões num ambiente cheio de mudanças, apontando para um problema fundamental na maneira como está a ser projetada
Desde à atitude em relação ao trabalho até à compreensão de como são os dois metros (de distância entre as pessoas), a pandemia do Coronavírus fez com que fosse repensada a maneira como vemos o mundo. Mas, embora a adaptação à nova realidade tenha sido difícil, foi ainda mais difícil para os modelos de inteligência artificial (IA) de design restrito, que foram criados para ajudar as organizações a tomar decisões. Com base em dados que descreveram o mundo antes da crise, estes não vão fazer previsões corretas, apontando para um problema fundamental na maneira como a IA está a ser projetada. David Cox, diretor da IBM do MIT-IBM Watson AI Lab, explica que a IA é particularmente problemática no caso dos chamados modelos “caixa preta”: algoritmos que não são visíveis ou compreensíveis para o utilizador. "É muito perigoso", refere Cox, acrescentado que "o modelo deve incorporar a estrutura do mundo, mas não há garantia de que vai continuar a funcionar se o mundo mudar.” A crise da COVID-19, de acordo com David Cox, apenas ressalvou mais uma vez o que os especialistas em IA argumentam há décadas: que os algoritmos devem ser mais esclarecedores. O que realmente precisa de ser feito é construir um modelo mais amplo da economia que reconheça a oferta e a procura, compreenda as cadeias de abastecimento e incorpore esse conhecimento. "Parte da razão pela qual é difícil confiar em modelos com inteligência artificial restrita prende-se com o facto de não terem uma estrutura. Se a tivessem, seria muito mais fácil para um modelo fornecer uma explicação acerca do porquê de tomar decisões. Estes modelos estão a enfrentar desafios", alerta. É importante alterar esta situação, não apenas porque a tecnologia teria melhor desempenho e benefícios em termos de fiabilidade, mas também porque as empresas estariam muito menos relutantes em adotar a IA se confiassem nas suas ferramentas. Enquanto 95% das empresas acreditam que a inteligência artificial é a chave para a sua vantagem competitiva, apenas 5% afirmam ter implementado extensivamente a tecnologia, explica David Cox. Enquanto os números diferem de investigação para investigação, a conclusão é a mesma há algum tempo: existe uma lacuna significativa entre a promessa da IA e a sua realidade para as empresas. E parte do motivo pelo qual a indústria está a lutar para implementar a tecnologia resume-se a uma falta de entendimento da IA. Explicar a IA é um dos principais focos do trabalho de David Cox. O MIT-IBM Watson Lab, que co-dirige, é composto por cem cientistas de IA e está agora no seu terceiro ano de operação. O lema do laboratório, que aparece em primeiro lugar no seu site, é auto-explicativo: "ciência da IA para impacto no mundo real". O foco do laboratório não está na "IA restrita", que é a tecnologia no seu formato limitado que a maioria das organizações conhece atualmente; em vez disso, os investigadores devem esforçar-se para "uma IA abrangente". Esta inteligência artificial pode aprender de maneira eficiente e flexível, em várias tarefas e fluxos de dados e, finalmente, possui um enorme potencial para as empresas. A única maneira de obter uma IA abrangente, explica Cox, é fazer a ponte entre investigação e indústria. A razão pela qual a IA, como muitas inovações, permanece obstinadamente presa no laboratório, prende-se pelo facto de os académicos por detrás da tecnologia terem dificuldades para identificar e responder às necessidades reais das empresas. A IA existe e é eficaz, mas ainda não foi projetada para os negócios |