Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elvis
Bygga med AI-agenter @dair_ai • Föregående: Meta AI, Galactica LLM, Elastic, PaperswithCode, PhD • Jag delar med mig av insikter om hur man bygger med LLM och AI-agenter ⬇️
Bra artikel som visar hur långt du kan pressa en enskild agent med färdigheter.

DAIR.AI17 timmar sedan
Kan en enskild agent med färdigheter ersätta system med flera agenter?
Multiagentsystem fungerar bra för komplext resonemang där specialiserade agenter samarbetar genom explicit kommunikation.
Men detta medför betydande beräkningsmässig belastning i tokens och latens.
Denna nya forskning undersöker om man kan sammanställa ett multiagentsystem till ett motsvarande enagentsystem genom att byta interagentkommunikation mot färdighetsval.
Svaret: ja, men med en förbehåll.
Preliminära experiment visar att enkelagent-metoder med färdighetsbibliotek kan minska tokenanvändning och latens avsevärt samtidigt som konkurrenskraftig noggrannhet på resonemangsbenchmarks bibehålls.
Så långt är allt bra.
Men här blir det intressant. Forskarna frågade: Hur skalar urvalet av färdigheter när bibliotek växer?
Med stöd av kognitionsvetenskapen föreslår de att urval av LLM-färdigheter uppvisar begränsad kapacitet analogt med mänskligt beslutsfattande. Och de hittade ett intressant mönster.
Istället för att gradvis försämras förblir selektionsnoggrannheten stabil upp till en kritisk biblioteksstorlek, för att sedan sjunka kraftigt. Men det ser ut som en fasövergång, inte en mjuk nedgång. Detta speglar kapacitetsgränser som observerats i mänsklig kognition.
Boven är inte bara bibliotekets storlek. Det är den semantiska förvirringen bland liknande färdigheter. När färdigheter är för semantiskt lika kan modellen inte pålitligt skilja mellan dem.
Detta tyder på att hierarkisk organisation, som länge har hjälpt människor att hantera komplexa val, på liknande sätt kan gynna AI-system. Initiala resultat med hierarkisk routing stöder denna hypotes.
När vi bygger allt mer kompetenta agenter med växande kompetenser blir förståelsen av dessa grundläggande begränsningar avgörande. Du kan inte bara fortsätta lägga till färdigheter i all oändlighet. Det finns en tröskel där urvalet bryts ner, och det sker plötsligt, inte gradvis.
Papper:
Lär dig att bygga effektiva AI-agenter i vår akademi:

22
MIT-forskare föreslår rekursiva språkmodeller
Du kommer att höra mer om detta under 2026.
Varför spelar det någon roll?
Tänk om LLM:er kunde bearbeta indata 100 gånger längre än deras kontextfönster?
Kontextlängd är en hård begränsning.
Du kan utöka det med arkitektoniska förändringar, men det finns alltid en gräns. De flesta metoder försöker klämma in mer i fönstret eller komprimera det som inte får plats.
Denna nya forskning tar ett annat grepp. Istället för att kämpa mot kontextgränsen, arbeta runt det programmatiskt.
Rekursiva språkmodeller (RLM) behandlar långa prompts som en extern miljö. Modellen kan undersöka prompten, dela upp den i sektioner och rekursivt kalla på sig själv på snippets. Det är en skalning av inferenstid applicerad på kontextlängd.
Istället för att tvinga allt genom uppmärksamhet i ett enda pass, låt modellen strategiskt dela upp och bearbeta information över flera rekursiva anrop.
Resultaten är imponerande. RLM:er hanterar framgångsrikt indata upp till två storleksordningar utanför modellkontextfönster. En modell med en 8K-kontext kan effektivt bearbeta 800K-tokens.
Men här är det som är förvånande: även för kortare prompts som passar in i kontext, överträffar RLM dramatiskt bas-LLM:er och vanliga långkontext-stommar över fyra olika uppgifter.
Detta antyder något intressant.
Kanske är sekventiell uppmärksamhet över hela inmatningen inte alltid den bästa strategin, även när det tekniskt sett är möjligt. Programmatisk dekomposition och rekursiv bearbetning kan vara fundamentalt bättre för vissa uppgifter.
Metoden uppnår jämförbar eller lägre kostnad per fråga jämfört med alternativa långkontextmetoder.
Begränsningar av kontextlängd begränsar vad agenter kan göra. Att bearbeta hela kodbaser, långa dokument eller utökade konversationshistoriker kräver lösningar. RLM:er erbjuder en allmän inferensstrategi som omvandlar kontextgränser till en mjuk begränsning snarare än en hård.

60
Topp
Rankning
Favoriter
