Investigadores propõem nova abordagem para superar limitações da IA generativa

Os investigadores da DeepMind propõem que a IA generativa interaja com o ambiente e aprenda de forma autónoma, ultrapassando as limitações dos dados estáticos e dos preconceitos humanos

Investigadores propõem nova abordagem para superar limitações da IA generativa

A evolução da Inteligência Artificial (IA) generativa tem suscitado preocupações na comunidade científica, especialmente no que diz respeito à eficácia dos testes de referência que medem o desempenho destes modelos. Segundo investigadores da unidade DeepMind da Google, a verdadeira limitação não está nos testes, mas sim na forma como os modelos são concebidos.

Num artigo publicado na semana passada, os cientistas David Silver e Richard Sutton argumentam que os dados atualmente utilizados para treinar os modelos de IA são demasiado restritos e estáticos, o que impede o desenvolvimento de competências verdadeiramente inovadoras. Em alternativa, propõem que a IA seja autorizada a ter “experiências”, interagindo com o ambiente para formular objetivos baseados em estímulos recebidos do meio envolvente. Novos caminhos incríveis surgirão quando for explorado todo o potencial da aprendizagem experiencial”, escrevem os investigadores no artigo.

A proposta baseia-se na aprendizagem por reforço, metodologia que esteve na base do AlphaZero, e introduz o conceito de “fluxos” como uma resposta às limitações atuais dos grandes modelos de linguagem (LLM), que se limitam a responder a perguntas humanas individuais. Os autores alertam que, com o advento da IA generativa, a aprendizagem por reforço tem vindo a ser negligenciada.

Embora os modelos de IA generativa representem um avanço significativo, ao conseguirem lidar com solicitações humanas espontâneas sem regras explícitas, os investigadores sublinham que esta transição implicou uma perda importante: a capacidade de os agentes descobrirem conhecimento de forma autónoma.

Os LLM dependem do pré-julgamento humano”, referem os autores, explicando que esta abordagem impõe um limite ao desempenho da IA, dado que os modelos não conseguem ultrapassar as expectativas humanas iniciais. Assim, os investigadores defendem que é necessário permitir que os sistemas de IA explorem e aprendam de forma autónoma, para poderem descobrir soluções e estratégias que transcendam os critérios impostos pelos avaliadores humanos.

Tags

NOTÍCIAS RELACIONADAS

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT INSIGHT Nº 54 Março 2025

IT INSIGHT Nº 54 Março 2025

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.