Nad czym pracowałem w zeszłym miesiącu z zespołem $CODEC: - Badanie całego sektora robotyki i architektury technicznej z perspektywy ptaka z @unmoyai (najnowsze osiągnięcia, najlepsze praktyki itp.) - Zrozumienie, gdzie i jak produkt Codec pozycjonuje się w każdym z nich (rozwiązywanie problemów) - Jakie konkretne przypadki użycia i narracje to odblokowuje - Największa warstwa wartości dla narzędzi i gdzie płynie główny kapitał - Porównanie narzędzi web2 i tego, co doprowadziło do sukcesu AI szn (Virtuals & ai16z) - jakie są kluczowe komponenty, aby pobudzić aktywność deweloperów? - Tokenomiczne koła zamachowe i użyteczność Zespół wykonał świetną robotę z artykułami technicznymi, chociaż wciąż uważam, że tylko dotykają powierzchni wyjaśniania, jak ważne są ich narzędzia. Moim celem jest pomoc w budowaniu ram i procesów, aby uchwycić narracje bardziej zwięźle, jednocześnie podkreślając prawdziwe cechy, które odblokowuje SDK. Jak na razie, nie ma nic nawet w web2, co oferowałoby ten sam typ abstrakcji, do którego dąży Codec. Wkład w open source to droga naprzód, a wiodące modele bazowe, takie jak Issac Gr00t od Nvidii, już budują z tym na uwadze, ponieważ dane i szkolenie zadań są wciąż na bardzo wczesnym etapie. Nie można używać ciągów tekstowych AI do szkolenia robotów, nie ma "internetu robotyki". Każdy z tych humanoidów i robotów, które widzisz, jest zbudowany z pełnostackowej monolitycznej architektury, nie ma możliwości przeniesienia szkolenia zadań ani sposobów dodawania nowych komponentów (dodatkowy czujnik lub kamera z tyłu głowy) bez konieczności przepisania całej bazy kodu. Zamiast budować potoki danych i symulacje dla pojedynczej monolitycznej architektury, przyjmują podejście modułowe, gdzie zamiast budować zadania dla całych systemów, rozkładają każdą część robota na kluczowe komponenty (silniki, czujniki, aktuatory, oczy itp.). Oznacza to, że można je łatwo podłączyć do dowolnego typu robota/humanoida, niezależnie od jego systemu, i polecić mu wykonanie wymagań na podstawie poszczególnych części. Podobnie jak to, co widzieliśmy z Elizą i Virtuals, deweloperzy nie musieli kodować całej swojej struktury i mieli modele GPT z wszystkimi wtyczkami (twitter, kanał informacyjny, API dexscreener itp.) na wyciągnięcie ręki. Wszystko, czego potrzebowali, to osobisty kontekst dla wejść ich agentów, potem to była czysta kwestia dostrojenia. Cel Codec jest bardzo podobny, centrum deweloperów, gdzie deweloperzy nie muszą martwić się o budowanie własnego "silnika gier", zestaw narzędzi SDK jest tym, czym Unreal Engine/Unity jest dla rozwoju gier. ...