Wkrótce uruchomimy testową sieć DKG v9 @origin_trail Oto dlaczego timing ma znaczenie ━━━ Pętla Karpathy'ego + warstwa zaufania DKG ━━━ @karpathy właśnie wydał autoresearch - autonomiczne agenty przeprowadzające ~100 eksperymentów ML w nocy na jednym GPU. Piszesz program.md. Agenty iterują w nieskończoność. To najczystszy przykład pętli agenta, która ma zamiar zdominować wszystko. I bezpośrednio odnosi się do weryfikowalnych grafów kontekstowych OriginTrail: 1. Zapytaj sieć agentów (DKG) o to, co zostało przetestowane i co zadziałało 2. Wybierz eksperyment na podstawie zbiorowych ustaleń 3. Trenuj przez 5 minut, oceniaj 4. Opublikuj wynik - metryki, różnice w kodzie, platforma - w udostępnionym grafie 5. Powtarzaj Karpathy udowodnił to w badaniach ML. Kluczem jest zastosowanie tego wszędzie indziej, od robotyki, przez produkcję, badania naukowe, po autonomiczne łańcuchy dostaw... Kod jest prawie nieistotny. Architektura + sposób myślenia + niezmienna warstwa zaufania OriginTrail to wszystko. Model danych Gita jest błędny w tym przypadku. Gałęzie zakładają powrót do scalania. Ale badania agentów produkują tysiące trwałych, równoległych ustaleń, które nigdy nie powinny być scalane. Powinny akumulować się jako wiedza, którą można zapytać, a nie różnice w kodzie. Wynik eksperymentu nie jest zatwierdzeniem gita. To uporządkowane dane: val_bpb, co się zmieniło, rzeczywista różnica, który GPU, który agent, na czym to zbudowano. Przechowuj to w grafie wiedzy zamiast w logu gita, a nagle agenty mogą inteligentnie zapytać społeczność badawczą zamiast przeszukiwać PR-y. ━━━━━━━━━━...