Hoje em dia, a Inteligência Artificial (IA) está em todo o lado, tocando em todos os aspetos das nossas vidas. Aqui falo, por exemplo, não só de algoritmos de classificação que fazem sugestões para escolher um livro ou um hotel ou de modelos que ajudam no diagnóstico de imagens médicas, mas também de dispositivos virtuais de lares inteligentes ou de carros autónomos
A mercantilização da IA e a rápida adoção das tecnologias nela baseadas aumentaram a consciência relativamente às implicações éticas do seu uso. Atualmente, governos, empresas e consumidores debatem fervorosamente sobre a privacidade, justiça, transparência e responsabilidade das decisões tomadas por este tipo de tecnologia. Os recentes movimentos sociais que tem havido, a nível mundial, em torno da diversidade e inclusão reforçaram a procura de ética em todos os âmbitos das nossas vidas. Ao mesmo tempo, a pandemia acelerou uma mudança profunda na nossa atitude e comportamento em relação à partilha de informação. E isto é positivo para as aplicações de IA que requerem fluxos de dados contínuos, como aqueles que incluem dados confidenciais ou pessoais. Esta abertura, sem precedentes, para a partilha de dados pode servir como um valioso exemplo de como, no futuro, se poderá criar confiança em relação às soluções de inteligência artificial. De forma concreta, para lançar as bases de uma IA fiável, devemos desenvolver uma tecnologia robusta e segura, desenvolver uma cultura de confiança digital que incentive a partilha de dados e ter uma estrutura regulatória que promova o seu uso responsável. A ética e os temas relacionados com a gestão de riscos já não são apenas uma questão de debate conceptual. A confiança é essencial na troca de valor que ocorre entre um consumidor e uma organização. As pessoas não confiam no uso dos seus dados e receiam que estes sejam usados para, de alguma forma, os prejudicar, podendo, assim, tornar-se infiéis à marca; se se descobre que estão a implementar sistemas de IA antiéticos, isto pode prejudicar a reputação de uma organização e afetar significativamente os seus resultados. A confiança digital será essencial para a adoção de ferramentas de IAUma série de associações públicas e privadas atuais, como a Organização para a Cooperação e Desenvolvimento Económico (OCDE), definiram um conjunto cada vez mais abrangente de marcos para orientar o uso ético dos dados e da IA. Estes princípios têm como objetivo informar sobre os padrões geralmente aplicáveis, assim como orientar o desenvolvimento de diretrizes aplicáveis e ajudar as organizações a definir e instituir os seus próprios princípios de IA e limites operacionais. Neste sentido, a União Europeia (UE) irá propor ainda neste mês de abril a primeira legislação horizontal sobre IA, a nível mundial, que estabelecerá os requisitos para o desenvolvimento e uso fiável da IA de alto risco. No geral, a legislação visa aumentar a transparência, responsabilidade e proteção do consumidor em todas as aplicações que precisam desta tecnologia. Tal como o conhecimento sem ação é inútil, também o são os princípios que não se colocam em prática. Acredito que se for feito de forma correta, a criação de legislação ajudará a estabelecer a responsabilidade e a transparência dos resultados e práticas impulsionadas pela IA. Paralelamente, a UE propôs uma Lei de Governação de Dados e apresentará, ainda em 2021, uma Lei de Dados. Quando entrarem em vigor, irão promover um aumento significativo da partilha de dados entre empresas e governos, apoiando ainda mais a inovação e uma maior adoção de aplicações de IA por parte de todos os agentes socioeconómicos. Considerando a ética aplicada à tecnologiaÀ medida que a adoção da IA acelera e se integra nas nossas vidas de forma cada vez mais impactante, os cidadãos, governos e partes interessadas estão cada vez mais preocupados com o seu uso justo e equitativo. O uso ético da inteligência artificial é essencial para uma organização moderna e responsável com visão de futuro. Este enigma de desafios éticos - incluindo a justiça, a transparência, a responsabilidade e colocar as pessoas no centro - pode parecer assustador. Na verdade, para que os princípios éticos da IA façam sentido, estes devem ser aplicáveis e operacionais. Isto representa, sem dúvida, um enorme desafio tanto para os governos como para as organizações. Agora é o momento de dar os primeiros passos práticos para estabelecer os elementos necessários para o uso responsável e implementação da IA. Começando pela qualidade dos dados e uma gestão sólida dos mesmos, e garantindo a integridade dos modelos e a governança, as organizações precisarão de estabelecer uma estrutura que permita transparência e responsabilidade. Em suma, e perante os rápidos e esperados desenvolvimentos regulamentares na Europa, todas as organizações que operam no mercado de IA terão de ir mais além, inovando em torno das características dos produtos e serviços que lhes darão uma vantagem competitiva face à crescente procura por uma IA ética e responsável. |