A Comissão Europeia apresenta novas ideologias para garantir que a Inteligência Artificial (IA) é usada de forma responsável, ao contrário do que acontece noutros países
Os EUA e a China são os principais responsáveis pelo uso da inteligência artificial e a União Europeia também não quer deixar de marcar uma posição. Assim sendo, revelou uma nova abordagem da economia digital como "estratégia para moldar o futuro digital da Europa". Esta nova estratégia da UE tem como principais objetivos estabelecer as regras sobre dados e IA que são europeias – uma regulação que "coloca as pessoas em primeiro lugar" e fomenta a "tecnologia confiável". A organização europeia ressalva o seu desejo de tornar a tecnologia numa "força para o bem", e não uma que prejudique os cidadãos e divulgou um artigo sobre inteligência artificial como parte do anúncio da sua nova estratégia. Este artigo descreve os riscos inerentes ao uso da IA "para rastrear e analisar os hábitos diários das pessoas", e o potencial das autoridades governamentais de explorar a tecnologia para a vigilância em massa. A UE aponta falhas no uso de IA por parte do EUA, onde no mês passado foi movida uma ação judicial contra a startup Clearview AI, com sede em Nova York onde se descobriu que a empresa vendeu informações retiradas de redes sociais para agências de aplicação da lei em todo o país. A Clearview AI reuniu fotos sem o consentimento dos cidadãos – três mil milhões de fotos que foram retiradas de sites como Facebook, Twitter e YouTube, entre outros. Em relação à China, a UE garante que o governo chinês tem usado o reconhecimento facial, muitas vezes em detrimento da privacidade dos seus cidadãos. Para alcançar o seu objetivo, a Comissão da União Europeia quer criar um "ecossistema de confiança" para a IA. E começa com a colocação de um ponto de interrogação sobre o reconhecimento facial, considerando banir completamente a tecnologia. O artigo realizado pela UE explica que a IA é um sistema de alto risco e por isso deve estar sujeito a regras rígidas para garantir que não transgride direitos fundamentais ao fornecer decisões tendenciosas, da mesma forma que os produtos e serviços que entram no mercado europeu estão sujeitos a verificações de segurança. Este artigo explica ainda que aplicações que utilizam IA e um conjunto de dados que alimentam o algoritmo podem ter que passar por avaliações de conformidade, por exemplo. Para pedidos de menor risco de IA, a Comissão sugere um esquema de rotulagem voluntária baseado em benchmarks definidos pela UE, o que tranquilizaria os cidadãos de que um determinado sistema de IA é confiável. Mark Coeckelbergh é membro do grupo de especialistas de alto nível em inteligência artificial e foi nomeado pela Comissão da UE para elaborar recomendações para a implementação ética da IA. Segundo Coeckelbergh, o que a Comissão define como "sistemas de IA de alto risco", por exemplo, não é tão claro quanto o artigo faz parecer. Muitos softwares de IA funcionam em determinados setores, argumentou, e não tem um único resultado numa outra área específica. Pesquisas recentes mostram que menos da metade das empresas europeias adotaram a tecnologia de IA, e que apenas quatro empresas europeias estão entre as cem melhores startups globais de IA. Segundo a empresa McKinsey, na Europa, "o ritmo de difusão e investimentos em IA permanece limitado". O documento da Comissão reconhece a necessidade de recuperar do atraso, mostrando que os 3,2 mil milhões de euros investidos em IA na Europa desde 2016 são "ainda uma fração" dos investimentos em outras regiões do mundo. Na América do Norte, por exemplo, a soma investida no mesmo período é de 12,1 mil milhões euros. A organização pretende atrair mais de 20 mil milhões de euros do investimento total por ano em IA na próxima década. "A Europa apresenta bons resultados na pesquisa e inovação, mas não consegue traduzir isso em lançamentos de produtos para o mercado", explica Coeckelbergh. |