Ostatnio natknąłem się na kilka tweetów Inference Labs, które miały sens. Modele AI stają się coraz większe, a przepaść w weryfikacji coraz głębsza. Cały proces wnioskowania staje się coraz mniej przejrzysty, skąd dokładnie pochodzi wynik i jak krok po kroku jest uzyskiwany, nie ma możliwości weryfikacji, więc zaufanie naturalnie maleje. Ich rozwiązanie jest proste i bezpośrednie, ale ma ogromny wpływ – dodają do każdego wyjścia AI dowód kryptograficzny, podobny do hasha transakcji na blockchainie, który jest niezmienny i zawsze możliwy do weryfikacji. Dzięki temu treści generowane przez AI nie są już tym, co mówisz, ale można je bezpośrednio weryfikować za pomocą metod kryptograficznych. Czy to nie jest dokładnie ta część, której web3 najbardziej potrzebuje? Decentralizacja przeniosła zaufanie z instytucji na kod i mechanizmy kryptograficzne. Teraz, gdy AI ma być szeroko wdrażane, jeśli nadal będzie czarną skrzynką, kto odważy się powierzyć mu fundusze, dane i kluczowe decyzje? Dzięki temu dowodowi kryptograficznemu, uwierzytelnianie tożsamości, bezpieczeństwo i odpowiedzialność mogą być naprawdę wdrożone, co pozwala na stworzenie audytowalnego systemu autonomicznego. Nawet jeśli zdolności AI są ogromne, muszą być zrozumiałe i weryfikowalne przez ludzi, w przeciwnym razie, niezależnie od tego, jak duży jest model, będzie to tylko bardziej wyrafinowany generator kłamstw. #KaitoYap @KaitoAI #Yap @inference_labs