A IA precisa de lidar com o preconceito de género - ou nunca alcançará o seu potencial

A IA precisa de lidar com o preconceito de género - ou nunca alcançará o seu potencial

No ano passado, a Inteligência Artificial (IA) tornou-se tema de conversa mundialmente, graças a bots como o ChatGPT, que deslumbra os utilizadores com a sua capacidade de compor texto realista e até código informático. Mas o que acontece quando a IA toma decisões erradas?

É uma questão séria. O preconceito - e o preconceito de género em particular - é comum nos sistemas de IA, levando a uma variedade de danos, desde discriminação e transparência reduzida, a questões de segurança e privacidade. Nos piores casos, decisões erradas sobre a IA podem prejudicar as carreiras e até custar vidas. Sem lidar com o problema do preconceito da IA, arriscamo-nos a um futuro desequilibrado - um futuro em que a mesma nunca atingirá todo o seu potencial como instrumento para o bem geral.

A IA só é tão boa como os conjuntos de dados em que é testada. Muitos dados são enviesados para os homens, assim como a linguagem que é utilizada em todos os aspetos, desde artigos de notícias a livros. Uma investigação demonstra que treinar a IA com dados do Google News leva a que a mesma associe os homens a papéis como "capitão" e "financiador", enquanto as mulheres são associadas a "rececionista" e "dona-de-casa". 

Como resultado, muitos sistemas de IA, treinados em dados tão tendenciosos e muitas vezes criados por equipas maioritariamente masculinas, têm tido limitações significativas com as mulheres, desde empresas de cartões de crédito que oferecem um crédito maior a homens, até ferramentas de rastreio de saúde, desde COVID a doenças hepáticas. Estas são áreas onde decisões erradas podem prejudicar a saúde financeira ou física das pessoas.

Isto é agravado pelo facto de apenas 22% dos profissionais das áreas de IA e da ciência dos dados serem mulheres, de acordo com a investigação do Fórum Económico Mundial. O próprio género está também a tornar-se num tema cada vez mais complexo, graças a identificações não binárias e transgénero, levando a um maior potencial de preconceito.

A IA é uma ferramenta poderosa que oferece a oportunidade de resolver problemas anteriormente insolúveis, desde tratamentos de cancro a desafios gerados pelas alterações climáticas - mas a menos que a questão do preconceito de género seja abordada, a IA corre o risco de não ser totalmente confiável, e em última instância, irrelevante. Se os profissionais da IA não conseguirem enfrentar a questão do preconceito, estas ferramentas não serão úteis a longo prazo, e a indústria arrisca-se a enfrentar outro "AI Winter", como o dos anos 70, altura em que o interesse pela tecnologia estagnou.

Lidar com os dados

No futuro, as empresas confiarão cada vez mais na tecnologia da IA para transformar os seus dados em valor. Segundo o relatório Data for Humanity, 88% dos líderes empresariais dizem que a tecnologia da IA será um fator importante para ajudar a sua organização a desbloquear o valor dos seus dados durante os próximos cinco anos. 

Como irão, então, os líderes empresariais lidar com o problema da parcialidade? Pela primeira vez na história, temos esta poderosa tecnologia que é inteiramente criada a partir da nossa própria compreensão do mundo. Não devemos ficar chocados com o que vemos neste espelho que é a IA. E devemos, em vez disso, usar este conhecimento para mudar a forma como fazemos as coisas. Isso começa por garantir que a forma como as nossas organizações trabalham é justa em termos de representação e inclusão de género - mas também por prestar atenção à forma como os dados são recolhidos e utilizados.

Sempre que se recolhem, processam e utilizam dados, há o risco de inclusão de enviesamentos. O preconceito pode estar em qualquer área: se houver mais dados para um género, por exemplo, ou se as perguntas foram escritas por homens. Para os líderes empresariais, pensar de onde vêm os dados, como são utilizados, e como o preconceito pode ser combatido, tornar-se-á cada vez mais importante.

Há duas soluções técnicas: uma é ter muito mais pessoas para testar o modelo e detetar problemas. Mas a melhor solução é ter ferramentas mais eficientes para encontrar preconceitos, quer nos dados com que a IA é alimentada, quer no próprio modelo. Com o ChatGPT, por exemplo, os investigadores utilizam um modelo de aprendizagem mental para anotar dados potencialmente problemáticos. A comunidade de IA precisa de se concentrar nisto -  ter ferramentas para proporcionar maior transparência na forma como a IA funciona será também importante.

Entender o preconceito

Também há que considerar o contexto mais amplo. As ferramentas que utilizamos hoje já estão a criar preconceitos nos modelos que iremos aplicar no futuro. Podemos pensar que "resolvemos" um problema de enviesamento agora, mas em 50 anos, por exemplo, novas ferramentas poderão mudar completamente a forma como olhamos para certas coisas. Foi o caso da história do diagnóstico da síndrome de Rett, em que os dados foram principalmente recolhidos em raparigas. A falta de dados com a doença em rapazes introduziu o preconceito na modelação de dados vários anos mais tarde e levou a diagnósticos e recomendações de tratamento imprecisos para rapazes.

Da mesma forma que, em cem anos, por exemplo, os humanos podem vir a trabalhar apenas três dias por semana; só que os dados de agora são pensados para olhar para uma estrutura de cinco dias de trabalho. O que quer dizer que os cientistas de dados e os líderes empresariais devem ter sempre em conta o contexto. Compreender o contexto social é igualmente importante para as empresas que hoje operam em múltiplos territórios.

O domínio destas questões será um dos pilares da IA responsável. Para os líderes empresariais que utilizam a tecnologia da IA, ter consciência destas questões aumentará a sua importância, juntamente com o interesse público e regulamentar.  No próximo ano, 60% dos fornecedores de IA oferecerão um meio de lidar com possíveis danos causados pela tecnologia juntamente com a própria tecnologia, de acordo com a Gartner

Os líderes empresariais devem planear minuciosamente a IA responsável e criar a sua própria definição do que significa para a sua organização, identificando os riscos e avaliando onde se pode infiltrar o preconceito. Precisam de se envolver com as partes interessadas para compreender potenciais problemas e distinguir a forma de avançar com as melhores práticas. A utilização responsável da IA será uma longa jornada, e que exigirá uma atenção constante da liderança.

As recompensas de utilizar a IA de forma responsável, e de erradicar o preconceito onde quer que se insinue, serão consideráveis, permitindo aos líderes empresariais melhorar a sua reputação de confiança, justiça e responsabilidade, ao mesmo tempo que entregam valor real à sua organização, aos clientes e à sociedade como um todo.

As empresas precisam de lidar com isto a nível da administração para assegurar que o preconceito é tratado e que a IA é utilizada de forma responsável em toda a organização. Isto poderia incluir o lançamento do seu próprio conselho de IA responsável para assegurar que todas as aplicações de IA são avaliadas em relação a preconceitos e outros problemas. Os líderes também precisam de abordar o problema mais vasto das mulheres na STEM, particularmente na ciência dos dados. As mulheres - especialmente as que desempenham papéis de liderança - serão fundamentais para resolver a questão do preconceito de género na IA.

Um futuro baseado em IA

Compreender o problema do preconceito de género e trabalhar para formas eficazes de lidar com ele será de importância vital para as organizações que pensam no futuro e esperam utilizar a IA para desbloquear o valor dos seus dados.

Pensar cuidadosamente na forma como a IA é utilizada numa organização, utilizando ferramentas para detetar preconceitos e assegurar a transparência, ajudará. Mas os líderes empresariais também precisam de ter uma visão mais ampla sobre a origem dos seus dados, como são utilizados, e que medidas estão a ser tomadas para evitar preconceitos. Fazê-lo será essencial para libertar o valor dos seus dados - e criar um futuro inclusivo onde a IA possa trabalhar com todo o seu potencial.

Tags

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT INSIGHT Nº 53 Janeiro 2025

IT INSIGHT Nº 53 Janeiro 2025

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.