Definir objetivos concretos, identificar lacunas e adotar normas existentes são algumas estratégias que as empresas devem adotar para se adaptarem ao AI Act
A União Europeia (UE) aprovou recentemente o AI Act – o Regulamento para a Inteligência Artificial (IA) –, uma lei pioneira que exige as organizações a reforçar as normas de IA utilizadas. De acordo com uma investigação da Boston Consulting Group (BCG), em parceria com o Responsible AI Institute (RAI Institute), as empresas devem começar a preparar-se para garantirem uma adaptação eficaz ao novo quadro legal europeu sobre a IA, nomeadamente através da definição de objetivos concretos para a utilização da tecnologia, identificação de lacunas, adoção de normas existentes e participação nos processos de desenvolvimento de novas regras para a IA. Após a entrada em vigor do AI Act, as organizações têm um prazo máximo de seis meses para eliminar os casos de uso proibido da IA, de 12 meses para assegurar o cumprimento das regras relativas à utilização desta tecnologia para fins gerais e de dois anos para estarem em total compliance. “Os padrões que têm sido estabelecidos sobre IA estão a ser encarados como um mecanismo para os líderes empresariais se posicionarem como pioneiros na sua adoção e demonstrarem conformidade com as normas aos clientes, parceiros, reguladores e outras partes interessadas”, comenta Steve Mills, Managing Director & Partner da BCG em Washington DC e Chefe Global de Ética de IA da consultora. “Ao contribuir para o desenvolvimento de padrões de IA, os executivos podem ajudar a moldar o cenário global de governação da tecnologia, com contributos singulares das suas organizações, tendo uma visão antecipada das melhores práticas e desafios emergentes”. No seu artigo “Putting AI Standards into Action”, a BCG e o RAI Institute indicam dois exemplos de normas que dizem respeito à inteligência artificial que já estão a ser praticadas. A norma ISO/IEC 42001, criada pela Organização Internacional de Normalização (ISO), é a primeira orientação para a gestão de sistemas de IA a nível mundial, estabelecendo guidelines sobre a sua implementação, manutenção e melhoria contínua e ajudando as organizações a introduzir uma abordagem holística para gerir os riscos associados. Já o regulamento ISO/IEC 23894 foi desenvolvido pela Comissão Eletrotécnica Internacional (IEC) e define as linhas orientadoras sobre a gestão de riscos de IA nas organizações, especialmente sobre a conceção e administração de avaliações de riscos ao nível dos produtos de IA. Neste sentido, a BCG e o RAI Institute sublinham que já existem dois comités europeus de normalização que podem adotar estas normas ou inspirar-se nestas para a criação de outras, com vista a esclarecer os requisitos da lei da IA da UE.
|