Právě jsem se podrobně podíval na MiroThinker 1.5 a jejich metoda komprese agentů je trochu zlá, ale chápu ji a myslím, že je opravdu užitečná. Jádro řeší problém "jak nacpat 400 použití nástrojů do kontextu 256K". Udělali něco extrémně odvážného: fyzicky zamaskovali Pozorování (nástroj vrací výsledek) v myšlenkách-akcích-pozorování v historii ReActu. Kromě nedávného kola K s zachováním původního textu byly předchozí stovky výsledků nástrojů nahrazeny větou "Výsledek nástroje je vynechán kvůli uložení tokenů". Ale všechny zůstaly neporušené<thought>. Je tu velmi neintuitivní část, tento agent sám provádí hluboký výzkum, takže si ponechává jen původní text posledního K kola, tedy pátého kola, a nikdo před ním nestojí, jak může na otázku odpovědět. Má velmi nejasný, ale zásadní předpoklad: pokud je myšlenka dostatečně hustá, ve skutečnosti nekonečně přibližuje Souhrnu. Každá generace myšlenek je v podstatě výsekem informace z modelu pro aktuální pozorování. Když byl T1 generován, klíčová data v O1 už byla "snědena" do mozku. Zatímco O1 bylo nahrazeno zástupným označením, T1 zůstal. T1 se stává "balíčkem pro kompresi informací" O1. Není třeba přikládat dalšího Summary Agenta, tento kompletní Myšlenkový řetězec je vysoce věrný "dynamický souhrn", který je neustále aktualizován postupně.