Zabil Stanford právě jemné ladění LLM? Tento nový článek ze Stanfordu, nazvaný Agentic Context Engineering (ACE), dokazuje něco divokého: můžete dělat modely chytřejšími, aniž byste změnili jedinou váhu. Funguje to následovně: Namísto přetrénování modelu vyvíjí ACE samotný kontext. Model napíše vlastní výzvu, zamyslí se nad tím, co fungovalo a co ne, a pak ji přepíše. Znovu a znovu. Stává se z toho sebezdokonalující se systém. Představte si to jako model živého zápisníku, kde se každý neúspěch stává lekcí a každý úspěch se stává pravidlem. Výsledky jsou působivé: - O 10,6 % lepší než agenti využívající GPT-4 v AppWorld - 8,6% zlepšení v úkolech finančního uvažování - O 86,9 % nižší náklady a latence Nejsou vyžadována žádná označená data. Jen smyčky zpětné vazby. Zde je ta neintuitivní část: Všichni se honí za krátkými, čistými nápovědami. ACE dělá pravý opak. Vytváří hutné, vyvíjející se scénáře, které se v průběhu času sčítají. Ukázalo se, že LLM nepotřebují jednoduchost. Potřebují hustotu kontextu. Otázkou je, jak se všemi těmito informacemi a zkušenostmi naložit. To je místo, kde může být vytvoření paměťové vrstvy v reálném čase pro agenty (např. @zep_ai ) skvělým řešením a aktivní oblastí výzkumu do budoucna. Jaké jsou vaše názory? Odkazoval jsem na tento článek v dalším tweetu! ____ Pokud vám to připadalo užitečné, sdílejte to znovu se svou sítí. Najdi mě → @akshay_pachaar ✔️ Další poznatky a návody na LLM, AI agenty a strojové učení!
Odkaz na článek:
53,07K