A cosa ho lavorato questo mese passato con il team di $CODEC: - Ricerca dell'intero settore della Robotica e dell'architettura tecnica da una prospettiva a volo d'uccello con @unmoyai (ultimi sviluppi, migliori pratiche, ecc.) - Comprendere dove e come il prodotto di Codec si posiziona in ognuno di essi (affrontando i punti critici) - Quali casi d'uso specifici e narrazioni questo sblocca - Il più grande strato di valore per gli strumenti e dove stanno fluendo i capitali maggiori - Confrontare gli strumenti web2 e cosa ha portato al successo della stagione AI (Virtuals & ai16z) - quali sono i componenti chiave per stimolare l'attività degli sviluppatori? - Volani tokenomici e utilità Il team ha fatto un ottimo lavoro con articoli tecnici, anche se credo ancora che stiano solo grattando la superficie nel spiegare quanto siano importanti i loro strumenti. Il mio obiettivo è aiutare a costruire framework e processi per catturare le narrazioni in modo più conciso, evidenziando le vere caratteristiche che l'SDK sblocca. Attualmente, non c'è nulla nemmeno in web2 che offra lo stesso tipo di astrazione verso cui Codec sta lavorando. Il contributo open source è la strada da seguire e modelli fondativi leader come Issac Gr00t di Nvidia stanno già costruendo con questo in mente, poiché la formazione dei dati e dei compiti è ancora così all'inizio. Non puoi usare stringhe di testo AI per addestrare i robot, non c'è un "internet della robotica". Ognuno di questi umanoidi e robot che stai vedendo è costruito con un'architettura monolitica full stack, non c'è continuità per l'addestramento dei compiti o modi per aggiungere nuovi componenti (sensore extra o telecamera sul retro della testa) senza dover riscrivere l'intero codice. Invece di costruire pipeline di dati e simulazioni per un'architettura monolitica singolare, stanno adottando un approccio modulare dove, invece di costruire compiti per interi sistemi, scompongono ogni parte del robot in componenti chiave (motori, sensori, attuatori, occhi, ecc.). Ciò significa che può facilmente collegarsi a qualsiasi tipo di robot/umanoide indipendentemente dal suo sistema e istruirlo a svolgere requisiti basati su parti individuali. Simile a ciò che abbiamo visto con Eliza e Virtuals, gli sviluppatori non dovevano codificare l'intero framework e avevano modelli GPT con tutti i plug-in (twitter, feed di notizie, API di dexscreener, ecc.) a portata di mano. Tutto ciò di cui avevano bisogno era un contesto personale per gli input dei loro Agenti, poi era puramente una questione di affinamento. L'obiettivo di Codec è molto simile, un hub per sviluppatori dove non devono preoccuparsi di costruire il proprio "motore di gioco", l'SDK toolkit è ciò che Unreal Engine/Unity è per lo sviluppo di giochi. ...