Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Waar ik de afgelopen maand aan heb gewerkt met het $CODEC-team:
- Onderzoek naar de gehele robotica-sector en technische architectuur vanuit een vogelperspectief met @unmoyai (laatste ontwikkelingen, beste praktijken, enz.)
- Begrijpen waar en hoe Codec’s product zich in elk van hen positioneert (de pijnpunten aanpakken)
- Welke specifieke use cases en verhalen dit ontgrendelt
- De grootste waarde laag voor de tooling en waar groot kapitaal naartoe stroomt
- Vergelijken van web2-tooling en wat heeft geleid tot het succes van AI szn (Virtuals & ai16z) - wat zijn de kerncomponenten om ontwikkelaarsactiviteit te stimuleren?
- Tokenomics flywheels en nut
Het team heeft geweldig werk geleverd met technische artikelen, hoewel ik nog steeds geloof dat ze slechts het oppervlak aan het aanraken zijn van het uitleggen hoe belangrijk hun tooling echt is.
Mijn doel is om frameworks en processen te helpen bouwen om de verhalen beknopter vast te leggen, terwijl ik de ware functies die de SDK ontgrendelt benadruk.
Zoals het er nu uitziet, is er nog niets in web2 dat hetzelfde type abstractie biedt waar Codec naar toe werkt.
Open source bijdrage is de weg vooruit en leidende foundation modellen zoals Nvidia’s Issac Gr00t bouwen hier al met dit in gedachten, aangezien data- en taaktraining nog zo vroeg is. Je kunt AI-tekststrings niet gebruiken om robots te trainen, er is geen "internet van robotica".
Elk van deze humanoïden en robots die je ziet, zijn gebouwd met een full stack monolithische architectuur, er is geen overdracht voor taaktraining of manieren om nieuwe componenten toe te voegen (extra sensor of camera aan de achterkant van het hoofd) zonder de hele codebase opnieuw te moeten schrijven.
In plaats van dat ze datastromen en simulaties bouwen voor enkele monolithische architectuur, nemen ze een modulaire benadering waarbij in plaats van taken voor hele systemen te bouwen, ze elk deel van de robot opsplitsen in kerncomponenten (motoren, sensoren, actuatoren, ogen, enz.). Dit betekent dat het gemakkelijk kan worden aangesloten op elk type robot/humanoïde, ongeacht zijn systeem, en het kan instrueren om vereisten uit te voeren op basis van individuele onderdelen.
Vergelijkbaar met wat we zagen met Eliza en Virtuals, hoefden ontwikkelaars hun hele framework niet te coderen en hadden ze GPT-modellen met alle plug-ins (twitter, nieuwsfeed, dexscreener API’s, enz.) binnen handbereik. Alles wat ze nodig hadden was persoonlijke context voor de inputs van hun Agents, daarna was het puur een kwestie van fine-tuning.
Het doel voor Codec is heel vergelijkbaar, een ontwikkelaarscentrum waar ontwikkelaars zich geen zorgen hoeven te maken over het bouwen van hun eigen "game engine", de SDK-toolkit is wat Unreal Engine/Unity is voor game-ontwikkeling.
...
Boven
Positie
Favorieten

