Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elvis
Construindo com agentes de IA @dair_ai • Anterior: Meta AI, Galactica LLM, Elastic, PaperswithCode, PhD • Compartilho insights sobre como construir com LLMs & AI Agents ⬇️
Ótimo artigo mostrando até onde se pode levar um único agente com habilidades.

DAIR.AIHá 16 horas
Um único agente com habilidades pode substituir sistemas multi-agente?
Sistemas multi-agente funcionam bem para raciocínios complexos onde agentes especializados colaboram através de comunicação explícita.
Mas isso acarreta um custo computacional substancial em tokens e latência.
Esta nova pesquisa explora se é possível compilar um sistema multi-agente em um sistema equivalente de agente único, trocando a comunicação entre agentes pela seleção de habilidades.
A resposta: sim, mas com uma ressalva.
Experimentos preliminares mostram que abordagens de agente único com bibliotecas de habilidades podem reduzir substancialmente o uso de tokens e a latência, mantendo uma precisão competitiva em benchmarks de raciocínio.
Até agora, tudo bem.
Mas aqui é onde fica interessante. Os pesquisadores perguntaram: como a seleção de habilidades escala à medida que as bibliotecas crescem?
Baseando-se na ciência cognitiva, eles propõem que a seleção de habilidades de LLM exibe uma capacidade limitada análoga à tomada de decisão humana. E eles encontraram um padrão interessante.
Em vez de degradar gradualmente, a precisão da seleção permanece estável até um tamanho crítico da biblioteca, depois cai abruptamente. Mas parece uma transição de fase, não uma queda suave. Isso reflete os limites de capacidade observados na cognição humana.
O culpado não é apenas o tamanho da biblioteca. É a confusibilidade semântica entre habilidades semelhantes. Quando as habilidades são muito semanticamente semelhantes, o modelo não consegue distinguir entre elas de forma confiável.
Isso sugere que a organização hierárquica, que há muito ajuda os humanos a gerenciar escolhas complexas, pode beneficiar de forma semelhante os sistemas de IA. Resultados iniciais com roteamento hierárquico apoiam essa hipótese.
À medida que construímos agentes cada vez mais capazes com conjuntos de habilidades em expansão, entender esses limites fundamentais se torna crítico. Não se pode simplesmente continuar adicionando habilidades indefinidamente. Há um limite onde a seleção falha, e isso acontece de repente, não gradualmente.
Artigo:
Aprenda a construir agentes de IA eficazes em nossa academia:

21
Pesquisadores do MIT propõem Modelos de Linguagem Recursivos
Você vai ouvir mais sobre isso em 2026.
Por que isso é importante?
E se os LLMs pudessem processar entradas 100x mais longas do que sua janela de contexto?
O comprimento do contexto é uma restrição rígida.
Você pode estendê-lo com mudanças arquitetônicas, mas sempre há um limite. A maioria das abordagens tenta espremer mais na janela ou comprimir o que não cabe.
Esta nova pesquisa adota uma abordagem diferente. Em vez de lutar contra o limite de contexto, trabalhe ao redor dele programaticamente.
Modelos de Linguagem Recursivos (RLMs) tratam prompts longos como um ambiente externo. O modelo pode examinar o prompt, decompô-lo em seções e chamar a si mesmo recursivamente em trechos. É escalonamento em tempo de inferência aplicado ao comprimento do contexto.
Em vez de forçar tudo através da atenção em uma única passagem, deixe o modelo particionar e processar informações estrategicamente em várias chamadas recursivas.
Os resultados são impressionantes. Os RLMs lidam com entradas até duas ordens de magnitude além das janelas de contexto do modelo. Um modelo com um contexto de 8K pode processar efetivamente 800K tokens.
Mas aqui está o que é surpreendente: mesmo para prompts mais curtos que cabem dentro do contexto, os RLMs superam dramaticamente os LLMs base e as estruturas comuns de longo contexto em quatro tarefas diversas.
Isso sugere algo interessante.
Talvez a atenção sequencial sobre toda a entrada não seja sempre a melhor estratégia, mesmo quando é tecnicamente possível. A decomposição programática e o processamento recursivo podem ser fundamentalmente melhores para certas tarefas.
A abordagem alcança um custo por consulta comparável ou mais barato em relação a métodos alternativos de longo contexto.
As limitações do comprimento do contexto restringem o que os agentes podem fazer. Processar bases de código inteiras, documentos longos ou históricos de conversas prolongadas requer soluções alternativas. Os RLMs oferecem uma estratégia de inferência geral que transforma limites de contexto em uma restrição suave em vez de uma rígida.

59
Top
Classificação
Favoritos
