Modellen blir större, förmågan blir starkare, men det finns ett problem som också förstoras samtidigt! Verifiering hänger inte med i hastigheten och komplexiteten i inferensen. När inferensprocessen blir allt mer ogenomskinlig blir modellens källa suddig, exekveringsvägen kan inte återställas och förtroendet kollapsar naturligt. Inte för att systemet är fel, utan ingen kan bevisa att det inte är fel. Detta är kärnan i "verifieringsgapet". Det är inte så att AI inte är tillräckligt avancerad, utan att det saknas ett sätt att exakt bekräfta vilken modell varje utdata kommer från, under vilka förhållanden, och att den presterar enligt de förväntade reglerna. Inference Labs vision är enkel. Varje AI-utgång bör bära sitt eget krypterade fingeravtryck. Det är inte en förklaring i efterhand, och det godkänns inte av tillverkaren, utan ett certifikat som vem som helst självständigt kan verifiera och spåra under lång tid. Identitet, ursprung och exekveringsintegritet bör alla låsas så fort utdata genereras. Detta är grunden för granskabar autonomi, när systemet kan verifieras kan det litas på; När förtroende är bevisbart kan autonoma system verkligen röra sig mot skalning. Det här är framtiden de bygger! #KaitoYap @KaitoAI #Yap @inference_labs