56% dos profissionais não têm certeza se as suas empresas têm diretrizes éticas para o uso de IA

As tecnologias cognitivas têm o maior potencial para sérios riscos éticos, sendo que 56% dos profissionais mostram-se incertos sobre se a sua empresa consegue assegurar uma utilização ética de IA

56% dos profissionais não têm certeza se as suas empresas têm diretrizes éticas para o uso de IA

A crescente consciência das capacidades da Inteligência Artificial (IA) levantou a questão de como é que esta tecnologia pode ser utilizada pelas organizações de forma ética. De acordo com um relatório da Deloitte, 74% das empresas já começaram a testar a IA generativa e 65% a utilizá-la internamente, no entanto, 56% consideram que a sua “empresa não possui ou não tem certeza se possui princípios éticos que orientam o uso de IA generativa”.

A segunda edição do Technology Trust Ethics Report, realizada pela Deloitte, entrevistou 26 especialistas de diversos setores e inquiriu mais de 1700 empresas e profissionais técnicos para averiguar como é que os líderes estão a considerar as preocupações sobre a utilização ética de tecnologias emergentes, em particular as tecnologias cognitivas (incluindo IA geral e generativa e chatbots), realidade digital, experiências ambientais, veículos autónomos, computação quântica, tecnologia de contabilidade distribuída e robótica.

Segundo a investigação, 39% dos líderes empresariais e developers de tecnologias emergentes entrevistados acreditam que as tecnologias cognitivas têm o maior potencial para o bem social, enquanto 12% indicam a realidade digital e outros 12% as experiências ambientais. 

No entanto, mais de metade (57%) dos entrevistados consideram que as tecnologias cognitivas têm o maior potencial para riscos éticos graves. Em comparação com o relatório da Deloitte correspondente ao ano de 2022, este revelou que “as organizações enfrentam novas questões éticas colocadas pela adoção em larga escala desta nova tecnologia”.

Apesar dos benefícios proporcionados pela IA, 22% dos inquiridos mostram-se preocupados com a privacidade dos dados e 14% com a transparência sobre a forma como a tecnologia é treinada com dados para produzir os seus resultados. Outras preocupações indicadas são o data poisoning, a propriedade intelectual e os direitos de autor, cada uma referida por 12% dos entrevistados.

O relatório da Deloitte identificou também os tipos de dados que, segundo os entrevistados, poderão surgir quando as violações éticas não são levadas a sério. A maior preocupação centrou-se nos dados à reputação (38%), seguidos por: danos humanos, como diagnósticos incorretos ou violações de privacidade de dados (27%); penalidades regulatórias, como violação de direitos autorais (17%); danos financeiros (9%); e insatisfação dos funcionários (9%).

A Deloitte aponta que estes danos são evidentes, sendo que têm sido movidas diversas ações judiciais por violações de privacidade, de direitos de autor e outras questões relacionadas com a utilização antiética das tecnologias de IA.

“Quanto mais cedo as empresas trabalharem em conjunto para identificarem os riscos e estabelecerem a governação antecipadamente, melhor será a sua capacidade para ajudar a gerar valor para as partes interessadas, elevar as suas marcas, criar novos mercados e contribuir para a construção de um mundo mais equitativo”, afirma Beena Ammanath, diretora-gerente da Deloitte Consulting LLP e líder da prática de Technology Trust Ethics da Deloitte, que elaborou o relatório em questão.

Tags

NOTÍCIAS RELACIONADAS

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT INSIGHT Nº 52 Novembro 2024

IT INSIGHT Nº 52 Novembro 2024

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.