Investigação revela que a inteligência artificial tem impacto nos processos de tomada de decisão, destacando a necessidade de investigar como é que os humanos podem tornar-se numa salvaguarda contra decisões algorítmicas erróneas ou tendenciosas
Num mundo em que a tecnologia avança muito rapidamente, a Inteligência Artificial (IA) desempenha um papel cada vez mais importante na tomada de decisões em vários domínios. Os algoritmos de IA estão cada vez mais a ser integrados nos processos de decisão do sector público, mas, importa olhar para o que acontece quando estes algoritmos cometem erros. Um estudo realizado por investigadores da Bikolabs, área da Jakala de tecnologia e investigação, em colaboração com a Universidade de Deusto, em Espanha, sugere que a processos com supervisão humana, conhecidos como processos human-in-the-loop, poderá ser afetada se a IA fornecer um apoio algorítmico incorreto. A incorporação de sistemas de apoio à decisão automatizados tem-se tornado cada vez mais comum. Esta investigação examina a forma como estes algoritmos influenciam o julgamento humano, revelando que a dependência excessiva de um apoio algorítmico incorreto pode diminuir a precisão das decisões. Este fenómeno, conhecido como enviesamento de automatização, evidencia a tendência humana para confiar demasiado nos sistemas automatizados, mesmo quando estes cometem erros. Os investigadores geraram duas experiências que simulavam processos automatizados de tomada de decisões judiciais, em que os participantes tinham de julgar vários arguidos acusados de diferentes crimes. Os resultados mostraram que o julgamento humano era mais exato quando tinha lugar antes do apoio incorreto da IA. No entanto, quando os participantes estavam expostos a uma avaliação incorreta da IA antes, a taxa de precisão diminuía, mesmo para aqueles que tinham julgado corretamente no início do processo. O que revela a influência potencialmente prejudicial do apoio incorreto da IA na exatidão das decisões humanas; salientando a importância da ordem do recurso à IA. A investigação revelou também um desafio premente: a tendência humana para confiar excessivamente no apoio dos sistemas, levando os utilizadores a aceitarem acriticamente as recomendações da IA, mesmo quando estão erradas. Este desafio pode levantar preocupações significativas sobre a equidade, a correção e a ética das decisões automatizadas. As conclusões sugerem que, embora a IA tenha potencial para melhorar o processo de tomada de decisões, é essencial saber como minimizar os potenciais erros e preconceitos para garantir processos de tomada de decisões justos e precisos. Esta investigação não só lança uma luz sobre os desafios inerentes à interação homem-IA, como também aponta para ideias valiosas sobre a forma de otimizar esta colaboração para melhorar a precisão e a justiça nas decisões críticas. Os resultados sublinham a importância de uma definição e implementação cuidadosa dos sistemas de IA, bem como a necessidade de supervisão humana informada e crítica. “O nosso trabalho revela a relevância de mais investigação sobre o impacto da interação entre seres humanos e sistemas de apoio à decisão. Embora já se realizem auditorias a esses processos, a sua atenção tende a centrar-se no aspeto mais técnico do sistema. Por isso, ainda temos de descobrir quais são os processos de interação entre humanos e IA que realmente conduzem a melhores decisões”, afirmam Karlos G. Liberal, responsável pela área de tecnologia e investigação da Jakala, e Ujué Agudo, investigador do mesmo departamento, em comunicado. |