Nedostatek GPU v AI nikdy nebyl o čipech. Máme jich dost. Skutečná krize je, že většinu z nich stále nemůžeme využít. Tady je důvod 🧵
@cot_research 2/ Podívej se na mezeru: Dobrovolné výpočty jako Folding@Home fungují dobře na spotřebitelském hardwaru. I @pewdiepie odvádí skvělou práci a přispívá! Moderní AI pracovní zátěže však selžou. Stejný hardwarový pool. Výsledek je úplně jiný. Proč?
3/ Moderní AI runtime (inference nebo trénink) předpokládají sterilní podmínky: - Identické GPU - Nízkolatencní, stabilní vazby Skutečný svět je však chaos různých strojů a pomalého internetu Standardní technologický stack zde selhává.
4/ Mnoho takzvaných "decentralizovaných" výpočetních sítí nedosáhlo product-market fit, protože tento chaos berou jako okrajový případ. Vytvářejí tržiště pro agregaci nečinných GPU, ale agregace není koordinace. Pokud hardware nemůže fungovat jako jeden soudržný stroj, je to... docela k ničemu
5/ Koordinace je nahoře. V výpočetních sítích: pokud nejdříve nevyřešíte koordinaci fragmentovaného hardwaru, nic dalšího, co postavíte, nemá význam. Spolehlivost a zkušenost vývojářů jsou problémy v pozadí.
6. @YottaLabs je první tým, který jsem viděl, že se do toho pustil od základů a udělal velký pokrok. Přestavbou AI stacku, od plánovače po komunikační vrstvu, přiblížili decentralizovaný výpočetní výkon na ~15 % centralizovaných clusterů.
7/ Co je ještě zajímavější, je obchodní model @YottaLabs. Trh je druhořadý. Budují datový příkop v provozní odolnosti, který Google nedokáže replikovat – inteligentní optimalizátor Yotta posílá každý tepelný výkyv a zádrhel sítě zpět do svého optimalizátoru. O tom později.
58