Empresas de inteligência artificial, como a OpenAI, estão a repensar a abordagem de ampliação dos modelos linguísticos, agora mais focadas em técnicas que simulam a capacidade humana de raciocínio e tomada de decisão
Nos últimos anos, o desenvolvimento dos modelos linguísticos da Inteligência Artificial (IA) baseou-se na estratégia de que “quanto maior, melhor”, com um aumento constante de dados e poder computacional. No entanto, essa abordagem apresenta algumas limitações, de acordo com a Reuters. Especialistas do setor, incluindo Ilya Sutskever, atual cofundador do Safe Superintelligence (SSI), alertam que essa filosofia começa a mostrar sinais de esgotamento. Ilya Sutskever acredita que a IA está a entrar numa nova era de “descoberta”, em que a prioridade passa a ser expandir de forma estratégica, valorizando a qualidade sobre a simples acumulação de dados e poder computacional. Esse ajuste de estratégia visa enfrentar as limitações e os altos custos de treino dos modelos de linguagem atuais, cujo processo é frequentemente dispendioso e vulnerável a falhas de hardware. Além disso, a escassez de dados disponíveis e a enorme quantidade de energia necessária tornaram o modelo tradicional menos sustentável. Para contornar esses problemas, empresas como a OpenAI estão a adotar a “ajuste em tempo de utilização” , que permite ao modelo ajustar-se durante a fase de inferência. Essa técnica, presente no novo modelo “o1” da OpenAI, permite à IA avaliar várias possibilidades em tempo real, semelhante ao raciocínio humano, o que torna as respostas mais precisas e melhor adaptadas a tarefas complexas. Além da OpenAI, empresas como Anthropic, xAI e Google DeepMind também têm desenvolvido as suas próprias versões dessa técnica, o que revela uma tendência de convergência no setor para aprimorar a inteligência das IA. No entanto, esse novo caminho pode alterar as dinâmicas do mercado de hardware, que atualmente depende da procura por chips de treino da Nvidia, essenciais para modelos de grande escala. Essa mudança pode abrir espaço para servidores de inferência mais distribuídos, o que, por suz vez, provoca uma transformação no cenário competitivo dos fornecedores de chips. O avanço para modelos mais reflexivos e contextualmente inteligentes pode marcar uma nova etapa na inteligência artificial. A possibilidade de “pensar” em tempo real amplia o potencial dos modelos, tornando-os mais próximos do raciocínio humano. Embora essa transformação apresente desafios, representa uma evolução fundamental, que pode redefinir não só os requisitos de infraestrutura, mas também as próprias possibilidades dos modelos de IA, contribuindo para uma nova era de inovação e aplicabilidade da inteligência artificial. |