Har stått inför @inference_labs inlägg på min tidslinje ett tag. Självklart bestämde jag mig för att forska xd skulle älska att lägga till ännu ett AI-projekt på min innehållsresa Om jag måste förklara vad de gör, så arbetar de med Proof of Inference: AI-resultat som kommer med kryptografiskt bevis, så att du kan verifiera att modellen faktiskt kördes och producerade det resultatet. Det intressanta är också integritetsaspekten: de strävar efter att bevisa korrekthet samtidigt som känsliga saker hålls dolda (som modellvikter eller användardata). Om AI-agenter ska röra vid finans- och on-chain-åtgärder, verifierar detta resultatlagret att bli något ärligt talat