O projeto de lei prevê a utilização de uma marca de água para ajudar os indivíduos a identificar o que é conteúdo criado por humanos e conteúdo gerado por inteligência artificial
A OpenAI está a apoiar um projeto de lei do Estado da Califórnia que exige que as empresas de tecnologia identifiquem os conteúdos criados por Inteligência Artificial (IA). O projeto de lei, intitulado de AB 3211, tem sido ofuscado por outro projeto de lei sobre IA, o SB 1047, que exige que os criadores de inteligência artificial realizem testes de segurança nos seus próprios modelos, no entanto este projeto obteve uma reação negativa por parte das empresas tecnológicas, incluindo da OpenAI. Os representantes do estado da Califórnia tentaram apresentar 65 projetos relacionados com IA, projetos que incluem medidas para garantir que todas as decisões algorítmicas sejam devidamente comprovadas como imparciais e para proteger a propriedade intelectual de cidadãos falecidos de exploração por parte das empresas de IA. A OpenAI acredita que a transparência e os critérios de origem de conteúdo criado por inteligência artificial, como a existência de uma marca d’água, são importantes. “Novas tecnologias e normas podem ajudar as pessoas a compreender a origem dos conteúdos que encontram online e evitar a confusão entre conteúdos criados por humanos e conteúdos fotorrealistas criados por inteligência artificial”, escreve Jason Kwon, Chief Strategy Officer da OpenAI, numa carta enviada a Buffy Wicks, membro da Assembleia do Estado da Califórnia, autor do projeto de lei. O projeto de lei já foi aprovado ao nível da Assembleia do Estado da Califórnia e, caso seja aprovada pelo Senado do mesmo estado, poderá ser aprovada ou vetada pelo Governador californiano Gavin Newsom. |