A implementação de marca d’água em conteúdo gerado através de IA é um dos principais compromissos assinalados pelas organizações. Governo norte-americano está empenhado em regulamentar utilização da IA no país
A Amazon, Google, Meta, Microsoft, OpenAI e Inflection reuniram-se na passada sexta-feira na Casa Branca, com o presidente dos EUA, Joe Biden, para abordar as salvaguardas voluntárias ao nível dos riscos apresentados pela inteligência artificial. O encontro ocorre após especialistas, governos e reguladores terem revelado as suas preocupações sobre o potencial uso indevido das tecnologias ligadas à inteligência artificial. Em causa, revela a SiliconUK, estão “compromissos voluntários destas empresas para ajudar a avançar em direção ao desenvolvimento seguro e transparente da IA”. Estes compromissos estão assentes em três princípios essenciais para o futuro desta tecnologia: segurança, proteção e confiança. Entre os principais compromissos está a implementação de medidas como a marca d’água em conteúdo gerado através de inteligência artificial, incluindo textos, imagens áudios e vídeos. O objetivo passa por garantir que os utilizadores sabem que a tecnologia foi utilizada na criação de determinado conteúdo. Outro dos pontos acordados passa pela proteção da privacidade dos utilizadores à medida que a IA se desenvolve. O compromisso pretende garantir que a tecnologia não sirva para discriminar grupos vulneráveis. As empresas comprometeram-se ainda com o apoio no desenvolvimento de soluções de IA para problemas científicos, nomeadamente nas áreas da investigação em saúde e na mitigação das alterações climáticas. De acordo com a Reuters, as empresas comprometeram-se ainda a testar os seus sistemas antes de os lançarem e compartilharem informação sobre a redução dos custos. À semelhança do que já acontece na União Europeia, o governo norte-americano está a trabalhar na regulamentação da inteligência artificial no país. O presidente norte-americano considera que “estes compromissos são um passo promissor”. No entanto, alerta: “há ainda muito trabalho a fazer”. |