Obiectivul meu pentru anul acesta: să fac AI-ul local ușor de folosit și plăcut, pe telefon, laptop, agenți de programare, Discord, browser și chiar pe ESP. Vei putea vorbi cu un Apple Watch, să rulezi un model local la apel, să-l faci să programeze pentru tine etc. Kimi pe VRAM de 150GB GLM-5 pe VRAM de 150GB MiniMax-M2.5 pe 48GB VRAM QuantForge îți permite să iei orice model, pe orice hardware. Selectează o dimensiune țintă, calibrează seturile de date, apoi taie și cuantizează. Lucrez la MacBook-ul meu, culeg și cuantizez niște modele mici. Până la sfârșitul anului voi face ca eu și oricine să putem obține orice model care să se potrivească oricărui hardware. RN folosește hardware local, dar voi integra cu Prime Intellect. Voi adăuga câteva funcții pentru partajarea seturilor de date și voi construi unul din mai multe componente independente.