Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Louround 🥂
Medgründer av @a1research__ 🀄️ & @steak_studio 🥩
Fant nettopp ut at jeg har 9 invitasjonskoder tilgjengelig for @anoma testnett 👀
Kommenter og RT dette innlegget, jeg velger 9 personer på 24 timer
🥂


Louround 🥂16. juli, 16:00
Hatten av for @anoma testnett!
Den har en superjevn og morsom opplevelse med sideoppdrag og daglige oppgaver.
En ny UI- og UX-verden dukker opp, og den er intensjonsbasert ⏳
15,08K
Louround 🥂 lagt ut på nytt
OpenAI kunngjorde nettopp at operatøragenten nå kan kontrollere en hel datamaskin for å utføre et komplekst sett med oppgaver ved hjelp av VLA-modeller sammen med LLM-modeller
Visjon
Språk
Handling
Hvis det bare var et kryptoprosjekt som allerede kunne gjøre dette...
Studer @codecopenflow
I tillegg til å kontrollere stasjonære datamaskiner, kan Codec kontrollere robotikk- og spilloperatører
Sett i gang et virtuelt sandkassemiljø for å trene operatøren før du slipper den ut i produksjon i den virkelige verden
AI x Robotikk og automatisering av spill/stasjonære datamaskiner/roboter vil være det neste store skrittet for AI-utvikling, og det er mitt mål å bli posisjonert tidlig
Kodet kodet

6,34K
Louround 🥂 lagt ut på nytt
OpenAI bekreftet nettopp min nordlige stjerneoppgave for AI i dag ved å frigi operatøragenten deres.
Ikke bare var dette min veiledende oppgave for $CODEC, men alle andre AI-investeringer jeg gjorde, inkludert de fra tidligere på året under AI-mani.
Det har vært mye diskusjon med Codec med hensyn til robotikk, mens den vertikalen vil ha sin egen fortelling veldig snart, er den underliggende grunnen til at jeg var så positiv til Codec fra dag 1 på grunn av hvordan arkitekturen driver operatøragenter.
Folk undervurderer fortsatt hvor mye markedsandel som står på spill ved å bygge programvare som kjører autonomt, og overgår menneskelige arbeidere uten behov for konstante spørsmål eller tilsyn.
Jeg har sett mange sammenligninger med $NUIT. For det første vil jeg si at jeg er en stor fan av det Nuit bygger og ønsker ingenting annet enn suksess. Hvis du skriver "nuit" i telegrammet mitt, vil du se at jeg tilbake i april sa at hvis jeg måtte holde en mynt i flere måneder, ville det ha vært Nuit på grunn av operatøroppgaven min.
Nuit var det mest lovende operatørprosjektet på papiret, men etter omfattende undersøkelser fant jeg ut at arkitekturen deres manglet dybden som trengs for å rettferdiggjøre en stor investering eller legge omdømmet mitt bak det.
Med dette i tankene var jeg allerede klar over de arkitektoniske hullene i eksisterende operatøragentteam og søkte aktivt etter et prosjekt som adresserte dem. Kort tid etter dukket Codec opp (takket være at @0xdetweiler insisterte på at jeg ser dypere inn i dem), og dette er forskjellen mellom de to:
$CODEC mot $NUIT
Codecs arkitektur er bygget over tre lag; Maskin, system og intelligens, som skiller infrastruktur, miljøgrensesnitt og AI-logikk. Hver operatøragent i Codec kjører i sin egen isolerte virtuelle maskin eller beholder, noe som gir nesten opprinnelig ytelse og feilisolering. Denne lagdelte designen betyr at komponenter kan skaleres eller utvikles uavhengig uten å ødelegge systemet.
Nuits arkitektur tar en annen vei ved å være mer monolitisk. Stabelen deres dreier seg om en spesialisert nettleseragent som kombinerer parsing, AI-resonnement og handling. Det betyr at de dypt analyserer nettsider til strukturerte data som AI kan konsumere og er avhengige av skybehandling for tunge AI-oppgaver.
Codecs tilnærming med å bygge inn en lett Vision-Language-Action (VLA)-modell i hver agent betyr at den kan kjøre helt lokalt. Noe som ikke krever konstant ping tilbake til skyen for instruksjoner, kutter ut ventetid og unngår avhengighet av oppetid og båndbredde.
Nuits agent behandler oppgaver ved først å konvertere nettsider til et semantisk format og deretter bruke en LLM-hjerne for å finne ut hva de skal gjøre, noe som forbedres over tid med forsterkende læring. Selv om denne flyten er effektiv for nettautomatisering, avhenger den av tung AI-behandling på skysiden og forhåndsdefinerte sidestrukturer. Codecs lokale enhetsintelligens betyr at beslutninger skjer nærmere dataene, noe som reduserer overhead og gjør systemet mer stabilt for uventede endringer (ingen skjøre skript eller DOM-antakelser).
Codecs operatører følger en kontinuerlig oppfatte-tenke-handle-sløyfe. Maskinlaget strømmer miljøet (f.eks. en live-app eller robotfeed) til intelligenslaget via systemlagets optimaliserte kanaler, noe som gir AI "øyne" på den nåværende tilstanden. Agentens VLA-modell tolker deretter bildene og instruksjonene sammen for å bestemme en handling, som systemlaget utfører gjennom tastatur-/musehendelser eller robotkontroll. Denne integrerte sløyfen betyr at den tilpasser seg live-arrangementer, selv om brukergrensesnittet skifter rundt, vil du ikke bryte flyten.
For å sette alt dette i en enklere analogi, tenk på Codecs operatører som en selvforsynt ansatt som tilpasser seg overraskelser på jobben. Nuits agent er som en ansatt som må ta en pause, beskrive situasjonen til en veileder over telefon og vente på instruksjoner.
Uten å gå for mye ned i et teknisk kaninhull, bør dette gi deg en idé på høyt nivå om hvorfor jeg valgte Codec som min primære innsats på operatører.
Ja, Nuit har støtte fra YC, et stablet team og S-nivå github. Selv om Codecs arkitektur er bygget med horisontal skalering i tankene, noe som betyr at du kan distribuere tusenvis av agenter parallelt med null delt minne eller utførelseskontekst mellom agenter. Codecs team er heller ikke dine gjennomsnittlige utviklere.
VLA-arkitekturen deres åpner en rekke brukstilfeller som ikke var mulig med tidligere agentmodeller på grunn av å se gjennom piksler, ikke skjermbilder.
Jeg kunne fortsette, men jeg sparer det til fremtidige innlegg.
15,82K
Hatten av for @anoma testnett!
Den har en superjevn og morsom opplevelse med sideoppdrag og daglige oppgaver.
En ny UI- og UX-verden dukker opp, og den er intensjonsbasert ⏳

Anoma15. juli, 22:08
En verden av ren intensjon venter...
Anoma testnett er live.
2,73K
Det er utrolig at vi i 2025 fortsatt ser en slik fragmentering og prosjekter som spretter mellom kjeder og lag bare for å jage hype.
🫳 Arbitrum til Berachain til base til HyperEVM til [INSERT_NEXT_HYPED_CHAIN]
Bare bygg på den intensjonssentrerte verdenen
Bygg på @anoma

Anoma10. juli, 23:57
oh no you built your app on the 23rd Ethereum Layer 2 and all the users have already moved onto the 24th???

4,7K
Louround 🥂 lagt ut på nytt
$CODEC er kodet.
Men WTF er det, og hvorfor er jeg så bullish?
La meg gi deg en TL; DR
- @codecopenflow bygger den første omfattende plattformen for Vision-Language-Action (VLA)-modeller, som gjør det mulig for AI-"operatører" å se, resonnere og handle autonomt på tvers av digitale grensesnitt og robotsystemer gjennom enhetlig infrastruktur.
- VLA-er løser/overvinner grunnleggende LLM-automatiseringsbegrensninger, ved å utnytte en oppfatte-tenke-handle-pipeline som gjør dem i stand til å behandle dynamisk visuell semantikk kontra dagens LLMs skjermbilde-årsak-utføre-løkker som bryter ved grensesnittendringer.
- Den tekniske arkitekturen til VLA-er slår sammen syns-, språkresonnement- og direkte handlingskommandoer til én enkelt modell i stedet for separate LLM + visuelle kodersystemer, noe som muliggjør sanntidstilpasning og feilgjenoppretting.
- Codecs rammeverkagnostiske design spenner over robotikk (kamerafeeder for å kontrollere kommandoer), skrivebordsoperatører (kontinuerlig grensesnittnavigasjon) og spill (adaptive AI-spillere) gjennom samme oppfatte-fornuft-handling-syklus.
- Hva er forskjellen? LLM-drevne agenter planlegger på nytt når arbeidsflyter endres, og håndterer endringer i brukergrensesnittet som bryter rigide RPA-skript. VLA-agenter på den annen side tilpasser seg ved hjelp av visuelle signaler og språkforståelse i stedet for å kreve manuelle oppdateringer.
- Codecs maskinvareagnostiske infrastruktur med kodefri opplæring via skjermopptak pluss utvikler-SDK, og posisjonerer den som det manglende rammeverket i Langchain-stil for autonom VLA-oppgaveutførelse.
- Rammeverket muliggjør mart compute aggregation fra desentraliserte GPU-nettverk, muliggjør valgfri onchain-opptak for overvåkingsbare arbeidsflytspor, og gir mulighet for distribusjon av privat infrastruktur for personvernsensitive brukstilfeller.
- $CODEC tokenomics tjener penger på operatørmarkedsplass og databidrag, og skaper bærekraftige økosysteminsentiver etter hvert som VLA-er når forventet fremtredende plass på LLM-nivå på tvers av ulike sektorer.
- Det faktum at en medgründer av Codec har erfaring med å bygge HuggingFaces LeRobot beviser legitim troverdighet for robotikk og ML-forskning i VLA-utvikling. Dette er ikke ditt gjennomsnittlige kryptoteam som svinger til AI-fortellinger.
Skal dykke nærmere inn i dette snart.
Gjentar min anbefaling til DYOR i mellomtiden.
$CODEC er kodet.

10,75K
Louround 🥂 lagt ut på nytt
Hvorfor $CODEC er banebrytende for fremtiden for autonome agenter @codecopenflow
Den neste grensen for AI er ikke flere tekstmeldinger. Det er action.
De fleste AI-agenter i dag sitter fast i en sløyfe med å lese skjermbilder og sende ut tekst. De ser ikke miljøer, de forstår ikke endring, og de kan ikke handle med intensjon i den virkelige verden. Det er her Codecs VLA-arkitektur (Vision-Language-Action) skiller seg ut.
Se for deg agenter som ikke bare snakker, men observerer, resonnerer og gjør. Det er kjernen i Codec.
Dette er ikke sprø skript eller rigide roboter. VLA-operatører samhandler med programvare, spill eller til og med fysiske roboter ved kontinuerlig å oppfatte miljøet, bestemme hva de skal gjøre og utføre kommandoer: akkurat som et menneske ville gjort.
✅ Desktop Agents som tilpasser seg endrede brukergrensesnitt
✅ Spillagenter som lærer mekanikk og legger strategier i sanntid
✅ Robotagenter som reagerer på sensordata og kontrollerer maskinvare
✅ Opplæring og simulering i stor skala, ingen robot nødvendig
Codecs modulære arkitektur lar deg pare synsmodeller med språkmodeller (som CogVLM + Mixtral) for å bygge intelligente agenter som kan lese, se, forstå og handle, alt i en enkelt pipeline.
Hver agent kjører på sin egen databehandlingsenhet (VM, server eller beholder), og hver beslutning den tar kan logges på kjeden. Det betyr sporbare handlinger, sikkerhetsgarantier og potensialet for kryptobaserte insentivsystemer og ansvarlighetslag i miljøer med høy innsats.
Vi beveger oss mot en verden der operatører kan læres opp, handles og tjene penger. Enten det er for QA-testing, automatisering av robotoppgaver eller til og med desentraliserte bothærer i spill.
Akkurat som apper forvandlet smarttelefonen, vil ferdighetspakker forvandle roboter. Åpen kildekode-maskinvare + nedlastbar intelligens = robotikkens ekvivalent til programvareutvikling.
Dette er ikke science fiction. Det skjer nå.
Til slutt, og kanskje viktigst, er diagrammet bullish som faen

10K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til