Grupo de trabalhadores da OpenAI apelam às empresas de inteligência artificial para protegerem os funcionários que alertam para os riscos de segurança associados à IA
De acordo com uma carta aberta publicada na terça-feira, é pedido às empresas de tecnologia que criem proteções mais fortes para os funcionários que denunciem os riscos de segurança associados à Inteligêngia Artificial (IA) de forma que os investigadores possam levantar preocupações sobre o desenvolvimento de sistemas de inteligência artificial de grande potencial sem medo de retaliação. Daniel Kokotajlo, antigo colaborador da OpenAI, afirmou, num comunicado escrito, que as tecnológicas não contabilizam os riscos e o impacto que a IA tem enquanto tentam desenvolver sistemas de inteligência artificial cada vez melhores do que os humanos, que são conhecidos como inteligência artificial geral. “Decidi sair da OpenAI porque perdi a esperança de que iam agir de maneira responsável, particularmente ao prosseguirem com o desenvolvimento de inteligência artificial generalista”, lê-se na declaração. “Eles e outros aderiram à abordagem ‘andar depressa e partir coisas’, o que é o oposto daquilo que é necessário para uma tecnologia tão poderosa e incompreendida”. A OpenAI respondeu à carta através de uma declaração onde afirma que já têm medidas para os funcionários poderem expressar as suas preocupações, o que inclui uma linha anónima sobre integridade. “Estamos orgulhosos do nosso registo de oferecer sistemas de inteligência artificial mais capazes e seguros e acreditamos na nossa abordagem científica para enfrentar os riscos”, lê-se no comunicado da empresa. “Concordamos que um debate rigoroso é essencial dado o grande significado que esta tecnologia tem, e vamos continuar a colaborar com os governos, a sociedade e outras comunidades em todo o mundo”. A carta tem 13 assinaturas, sendo que a maioria são antigos funcionários da OpenAI e outros dois trabalharam ou trabalham para a DeepMind da Google. Quatro dos signatários são funcionários anónimos da OpenAI. A declaração pede que as empresas não obriguem os trabalhadores a assinar acordos de não divulgação que podem puni-los se criticarem a empresa. A contestação dos meios de comunicação quanto à linguagem utilizada na documentação da OpenAI para os funcionários que abandonam a empresa fez com que a companhia libertasse todos os seus antigos empregados dos seus acordos de não divulgação. A declaração chega numa altura que a OpenAI anunciou o início do desenvolvimento da nova geração de tecnologia de IA por detrás do ChatGPT e também estão a criar um novo comité de segurança depois de perder alguns dos seus líderes, que era uma parte da equipa focada no desenvolvimento seguro dos sistemas de inteligência artificial mais poderosos. A comunidade alargada de investigadores há muito que se debate com a seriedade dos riscos a longo prazo e a curto prazo e a forma de os ajustar com a comercialização da tecnologia. |