Com a falta de clareza em torno do uso de algoritmos em áreas que podem ter um enorme impacto na vida dos cidadãos, a desconfiança do público sobre algumas tecnologias usadas em serviços governamentais não deve ser ignorada
Um novo relatório da British Computer Society (BCS), o Chartered Institute for IT, revelou que mais da metade dos utilizadores do Reino Unido (53%) não confia em organizações que utilizem algoritmos para tomar decisões sobre eles. O algoritmo de Ofqual baseou efetivamente previsões sobre o desempenho anterior das escolas, o acabou por favorecer escolas privadas. Bill Mitchell, diretor de política da BCS acredita que os eventos recentes derrubaram a confiança das pessoas na maneira como os algoritmos são usados para tomar decisões sobre eles, e que isso terá consequências a longo prazo. "As pessoas começam a entender que os algoritmos são onipresentes", acrescentou Mitchell. A prevalência de sistemas ocultos de IA na prestação de serviços públicos críticos foi sinalizada pelo comitê britânico sobre normas na vida pública em fevereiro passado, num relatório que ressaltou a falta de abertura e transparência do governo no uso da tecnologia. Uma das principais questões identificadas pelo relatório na época foi que ninguém sabe exatamente onde o governo usa IA, atualmente. Ao mesmo tempo, os serviços públicos utilizam cada vez mais para a implementação da IA em setores como policiamento, educação, assistência social e saúde. Com a falta de clareza em torno do uso de algoritmos em áreas que podem ter enormes impactos na vida dos cidadãos, a desconfiança do público sobre algumas tecnologias usadas em serviços governamentais não deve ser uma surpresa – nem devem ser ignorada as tentativas de reverter os efeitos nocivos de um algoritmo tendencioso. Mitchell acredita que deveria haver uma maneira sistemática de se envolver algoritmos com o público antes de serem lançados, para esclarecer exatamente qual o papel da tecnologia, quais os dados que serão usados, quem será responsável pelos resultados e como o sistema pode ser corrigido se algo der errado. Por outras palavras, não se trata apenas de garantir que os cidadãos saibam quando as decisões são tomadas por um sistema de IA, mas também sobre a implementação de padrões rigorosos na tomada real do algoritmo em si. Incorporar esses padrões nas fases de projeto e desenvolvimento dos sistemas de IA é uma tarefa difícil, porque existem muitas camadas de escolhas feitas por diferentes pessoas em diferentes momentos ao longo do ciclo de vida de um algoritmo, mas para recuperar a confiança do público é necessário fazer da ciência de dados uma profissão confiável. O último relatório do BCS mostrou que o NHS era a organização em que os cidadãos mais confiavam quando se trata de decisões geradas por algoritmos. Até 17% dos entrevistados disseram ter fé na tomada de decisões automatizadas no NHS, e o número saltou para 30% entre os de 18 a 24 anos |