Hva jeg har jobbet med den siste måneden med $CODEC-teamet: - Forskning på hele robotikksektoren og teknisk arkitektur fra et fugleperspektiv med @unmoyai (siste utvikling, beste praksis osv.) - Forstå hvor og hvordan Codecs produkt posisjonerer seg i hver enkelt av dem (adresserer smertepunktene) - Hvilke spesifikke brukstilfeller og fortellinger dette låser opp - Det største verdisjiktet for verktøyet og hvor stor kapital flyter - Sammenligning av web2-verktøy og hva som førte til suksessen til AI szn (Virtuals & ai16z) - hva er kjernekomponentene for å utløse utvikleraktivitet? - Tokenomiske svinghjul og nytte Teamet har gjort en god jobb med tekniske artikler, selv om jeg fortsatt tror de bare børster overflaten for å forklare hvor viktig verktøyet deres egentlig er. Målet mitt er å bidra til å bygge rammeverk og prosesser for å fange fortellingene mer kortfattet, samtidig som jeg fremhever de sanne funksjonene SDK låser opp. Som det står, er det fortsatt ingenting selv i web2 som tilbyr samme type abstraksjon som Codec jobber mot. Åpen kildekode-bidrag er veien videre, og ledende grunnmodeller som Nvidias Issac Gr00t bygger allerede med dette i tankene ettersom data- og oppgavetrening fortsatt er så tidlig. Du kan ikke bruke AI-tekststrenger til å trene roboter, det er ikke noe "robotikkens internett". Hver av disse humanoidene og robotene du ser er bygget med monolittisk arkitektur i full stack, det er ingen overføring for oppgavetrening eller måter å legge til nye komponenter (ekstra sensor eller kamera på baksiden av hodet) uten å måtte skrive om hele kodebasen. I stedet for å bygge datarørledninger og simuleringer for enkeltstående monolittisk arkitektur, tar de en modulær tilnærming der den i stedet for å bygge oppgaver for hele systemer, bryter hver del av roboten ned i kjernekomponenter (motorer, sensorer, aktuatorer, øyne osv.). Det betyr at den enkelt kan kobles til alle typer roboter/humanoider uansett system og instruere den om å utføre krav basert på individuelle deler. I likhet med det vi så med Eliza og Virtuals, trengte ikke utviklere å kode hele rammeverket og hadde GPT-modeller med alle plugin-modulene (twitter, nyhetsfeed, dexscreener API-er osv.) for hånden. Alt de trengte var personlig kontekst for agentenes innspill, så var det bare et spørsmål om finjustering. Målet for Codec er veldig likt, et utviklersenter der utviklere ikke trenger å bekymre seg for å bygge sin egen "spillmotor", SDK-verktøysettet er hva Unreal Engine/Unity er for spillutvikling. ...