As grandes empresas tecnológicas que não cumprirem com a Lei de inteligência artificial da União Europeia podem enfrentar uma multa de 35 milhões de euros
De acordo com informação obtida pela Reuters, alguns dos modelos de Inteligência Artificial (IA) mais conhecidos no mercado não estão a cumprir os regulamentos europeus em áreas cruciais, como a ciber-resiliência e a produção discriminatória. A União Europeia (UE) já discutia novos regulamentos de IA há muito tempo antes de a OpenAI lançar o ChatGPT ao público no final de 2022. A popularidade sem precedentes e o subsequente debate público sobre os riscos potenciais desses modelos incentivaram os legisladores a criar regras específicas para modelos de inteligência artificial de ‘uso geral’ (GPAI). Uma nova ferramenta, bem recebida pelos funcionários da UE, testa modelos de IA generativa de grandes empresas tecnológicas, como a Meta e a OpenAI, em várias categorias. Esta ferramenta está alinhada com a Lei da IA da UE, que será implementada em fases nos próximos dois anos. A framework desenvolvida pela startup LatticeFlow AI atribui pontuações de zero a um aos modelos de inteligência artificial em várias categorias, como robustez técnica e segurança. De acordo com uma tabela de classificação publicada pela empresa suíça, os modelos desenvolvidos pela Alibaba, Anthropic, OpenAI, Meta e Mistral obtiveram pontuações médias de 0,75 ou superiores. Porém, o “Large Language Model Checker” revelou que existem deficiências de alguns modelos em áreas-chave, dando destaque onde as empresas podem precisar de redirecionar recursos para garantir a conformidade. As empresas que não cumprirem a Lei da inteligência artificial poderão enfrentar multas de 35 milhões de euros, ou 7% do volume de negócios anual global. |