Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Artikkeli, johon kannattaa kiinnittää erityistä huomiota.
Se esittelee häviöttömän kontekstinhallinnan (LCM), joka muuttaa tapaa, jolla agentit käsittelevät pitkiä konteksteja.
Se pärjää paremmin pitkän kontekstin tehtävissä Claude Codella.
Rekursiiviset kielimallit antavat mallille täyden autonomian kirjoittaa omia muistiskriptejään. LCM ottaa tuon voiman takaisin antamalla sen deterministiselle moottorille, joka pakkaa vanhat viestit hierarkkiseen DAG:iin säilyttäen häviöttömät osoittimet jokaiseen alkuperäiseen. Vähemmän ilmeikäs teoriassa, paljon luotettavampi käytännössä.
Tulokset:
Heidän agenttinsa (Volt, Opus 4.6:ssa) voittaa Claude Code *jokaisessa kontekstin pituudessa 32K:sta 1M:een tokeniin OOLONG-benchmarkissa. +29,2 pisteen keskimääräinen parannus verrattuna Claude Coden +24,7:ään. Ero kasvaa pidemmissä yhteyksissä.
Johtopäätös on sellainen, jonka opimme uudelleen ohjelmistokehityksen historiasta: se, miten hallitset mallin näkemyksiä, voi olla tärkeämpää kuin antaa mallille työkalut sen hallintaan. Jokainen agenttikehys, joka toimitetaan "anna mallin selvittää se" -muististrategioilla, saattaa rakentaa täysin väärän abstraktion päälle.
Artikkeli:
Opettele rakentamaan tehokkaita tekoälyagentteja akatemiassamme:

Johtavat
Rankkaus
Suosikit
