Acum, când vine vorba de proiectele AI, mulți oameni s-ar putea să fie puțin obosiți să asculte, în principal pentru că există tot mai multe astfel de proiecte, iar noutatea a dispărut de mult. Totuși, @inference_labs despre care vom vorbi astăzi rezolvă o problemă de care poate toată lumea nu este conștientă, dar dacă chiar o întâlnești, vei suferi, și merită să vorbim despre ea Ca să fiu direct, cheltuiești bani pentru a te abona la un serviciu AI de top, crezând că folosești modelul de top promovat de comerciant, dar de fapt, comerciantul poate transfera în secret cererea ta către un model mai ieftin. La urma urmei, nu poți vedea interiorul modelului, iar rezultatele de ieșire arată similar, așa că este foarte greu să afli că ai fost transferat. În acest caz, punctul profesional se numește risc de înlocuire a modelului, ca să fiu direct, este vorba despre a cheltui bani pentru a cumpăra servicii de top, iar utilizarea efectivă este o alternativă ieftină Soluția Inference Labs are o idee foarte specială, bazându-se pe demonstrații zero-knowledge pentru a genera dovezi criptografice verificabile public, care nu doar că pot confirma că greutatea modelului nu s-a schimbat, dar pot demonstra și că se folosește un model specificat, evitând capcanele de la rădăcină 👉 Avantajele de bază sunt intuitive 1⃣ Oricine poate verifica. Fie că este vorba despre tine, autoritățile de reglementare sau o terță parte precum auditorul, poți verifica independent aceste dovezi, fără să ai încredere în Inference Labs sau în comercianții care oferă servicii AI și fără a te baza pe garanții de "caracter" pe tot parcursul procesului. 2⃣ Nu se scurge deloc intimitate. Datele de bază (ponderile) modelului și informațiile introduse nu trebuie divulgate, iar securitatea este completă. Ca să dau un exemplu simplu, la fel cum de obicei criptăm pagini web cu HTTPS, nu trebuie să știi detaliile criptării din spatele acestora, doar să te asiguri că conexiunea este sigură, iar la fel este valabil și aici Viziunea sa de bază este clară: să permită utilizatorilor să folosească AI de înaltă performanță cu încredere, dezvoltatorii să îndrăznească să deschidă modele (garantează proprietatea intelectuală), să promoveze transparența și credibilitatea ecosistemului AI și să reducă dependența de giganți În scenarii precum managementul activelor on-chain și agenții automatizați, oamenii sunt mai îngrijorați de manipularea raționamentului și transferului modelelor decât de inteligența modelului. Anterior, soluții similare de verificare a inferenței erau prea lente și costisitoare de implementat, dar Inference Labs a cooperat cu Cysic pentru a introduce accelerarea hardware ZK și a instala un "accelerator" pentru sistemul de verificare, făcând posibilă implementarea teoretică anti-falsificare După lansarea mainnet-ului, atenția lor s-a mutat către o utilizare mai bună, mai ieftină și mai mare, ceea ce era perfect pentru nodurile unde Agentul ar putea exploda. Acest stil de a nu exagera și de a face bottom-ul solid este deosebit de sigur #InferenceLabs