O GPT-4 é um “grande modelo multimodal”, uma vez que é capaz de processar imagens e texto
A OpenAI anunciou uma nova versão do ChatGPT denominado GPT-4. Segundo os especialistas da empresa, a versão é mais criativa, menos propensa a inventar factos e menos tendenciosa. O GPT-4 é um “grande modelo multimodal”, pelo que imagens e texto podem ser inseridos para gerar conteúdo, levantando preocupações quanto à utilização de ferramentas de IA por criminosos para gerar fotos, vídeos ou arquivos de áudio deep fake. A OpenAI disse que o GPT-4 é “menos capaz do que os humanos em muitos cenários do mundo real”, mas “exibe desempenho de nível humano em várias referências profissionais e acadêmicas”. “Passámos seis meses a alinhar iterativamente o GPT-4 através do que aprendemos do nosso programa de testes adversários, bem como o ChatGPT, resultando nos melhores resultados de todos os tempos (embora longe de serem perfeitos) no que toca a factos e sair das fronteiras. Nos últimos dois anos, reconstruímos toda a nossa deep learning stack e, juntamente com o Azure, co projetámos um supercomputador do zero para a nossa carga de trabalho” afirmou a OpenAI. "Há um ano, treinámos o GPT-3.5 como um primeiro “teste” do sistema. Encontrámos e corrigimos alguns bugs e melhorámos os nossos fundamentos teóricos. Como resultado, o nosso teste do GPT-4 foi (pelo menos para nós!) estável, tornando-se no nosso primeiro grande modelo cujo desempenho de treino fomos capazes de prever com precisão com antecedência”, continuam. A nova versão é capaz de processar até 25 mil palavras, cerca de oito vezes mais do que o ChatGPT, e pode também responder a imagens. Inicialmente, vai ficar disponível para assinantes do ChatGPT Plus e developers de software, com lista de espera. “Para preparar a capacidade de entrada de imagem para maior disponibilidade, estamos a colaborar estreitamente com um único parceiro para começar. Também estamos a abrir o OpenAI Evals, a nossa estrutura para avaliação automatizada do desempenho do modelo de IA, para permitir que qualquer pessoa relate deficiências nos nossos modelos para ajudar a orientar melhorias adicionais”, completam. |