Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Av og til dukker det opp et unikt prosjekt som får kjøre sitt eget løp.
AI har for det meste ikke vært noe annet enn terminaler i chatgpt-stil og kreativ bilde-/videogenerasjon.
Vi har hørt i flere måneder at vi er på nippet til at alle mister jobben på grunn av AI.
Ja, det har gjort alle 10 ganger i produktivitet, men vi har ikke erstattet folk i arbeidsstyrken fullt ut. Hvorfor?
De dominerende AI-assistentene i dag, fra chatbots i en nettleser til eksperimentelle «agent»-rammeverk, er sterke i samtale, men strukturelt begrenset i utførelse.
De er vanligvis avhengige av en nettleser eller et enkelt skriptmiljø for å utføre oppgaver. Selv om dette fungerer for å hente informasjon eller grunnleggende nettautomatisering, sliter disse agentene med komplekse flertrinnsprosesser og bryter ofte når ting avviker fra deres begrensede bane.
Nåværende AI-agenter mislykkes fordi de mangler vedvarende minne og feiltoleranse, når de står overfor uventede feil, kan de ikke gjenopprette eller tilpasse seg, og stopper ofte eller går i sløyfe på ubestemt tid.
De fleste opererer i begrensede nettleserbaserte miljøer og har ikke tilgang til hele spekteret av bedriftsprogramvare, noe som gjør det rutinemessige arbeidet utenfor deres rekkevidde.
Derfor har vi ikke sett AI erstatte hverdagslige bedriftsroller som kundestøtte og administrasjon. Ikke på grunn av mangel på kapasitet i selve AI-modellene, men fordi rammeverkene rundt dem ikke er pålitelige nok for kritiske arbeidsflyter.
Så hva trengs?
En ny systemarkitektur. En som tar for seg feiltoleranse, minne, tilgang, isolasjon og effektivitet i et enkelt rammeverk.
I stedet for å stoppe opp ved første uventede input, bør de fange opp feil, tilpasse seg og prøve forskjellige metoder på nytt, omtrent som mennesker gjør når ting går galt.
For å skalere AI til reelle arbeidsflyter, trenger den vedvarende minne og oppgavesporing for å fungere pålitelig over lang varighet.
De krever også full tilgang til økosystemet, utover nettleserverktøy for å bruke den samme programvaren som mennesker gjør, inkludert skrivebordsapplikasjoner.
Uten sikker isolasjon kan ikke agenter operere trygt i dedikerte miljøer, noe som gjør distribusjon i stor skala risikabelt på grunn av potensiell interferens på tvers av systemer.
Hvis de vil at kjøretiden skal være konsistent og effektiv, trenger de også smart ressursstyring som behandler datamaskiner som en levende fungerende kropp.
For de som koblet sammen punktene, bringer @Codecopenflow nylige Fabric-utgivelsen alt dette sammen, og gir AI-agenter pålitelige, fullt dedikerte operativsystemer (OS) som kombinerer den kognitive kraften til avanserte modeller med infrastrukturen de trenger for å fungere som pålitelige digitale arbeidere.
Stoff i seg selv kan være en helt uavhengig lisensiert programvare. Den forvandler agenter fra nettleserbundne skript til autonome operatører med full tilgang på OS-nivå.
På samme måte som en DEX-aggregator ruter den mest effektive prisen til deg, er Fabric rutinglaget som betjener Codecs dype nivåarkitektur.
Du viser CPU, GPU, minnebehov og eventuelle regionpreferanser. Dette betyr å finne de mest kostnadseffektive serverne som AWS/google cloud eller GPU-ressurser fra Render/IO-nettet.
Codec gir rene SDK-er og en API for full kontroll over disse AI-operatørene. Et selskap kan integrere Codec-agenter i sin eksisterende programvarepipeline (for eksempel spinne opp en agent for å håndtere en brukerforespørsel, og deretter spinne den ned) uten å måtte finne opp infrastrukturen på nytt.
I kundestøtte kan agenter administrere hele arbeidsflyter, spørringsløsning, CRM-oppdateringer, refusjoner, redusere lønnskostnadene med opptil 90 % samtidig som de forbedrer konsistens og oppetid.
For forretningsdrift automatiserer Codec repeterende administrative prosesser som fakturahåndtering, HR-oppdateringer og forsikringskrav, spesielt i sektorer med høyt volum som finans og helsevesen.
Ved å fokusere på et fullstendig isolert miljø med flere apper for hver AI-operatør, er ikke AI begrenset av de kritiske problemene med pålitelighet og integrasjon som tidligere rammeverk ikke kunne løse.
I hovedsak gjør cloud computing-infrastruktur til et fleksibelt samlebånd for AI-arbeidere. Hver "arbeider" får de riktige verktøyene (apper, OS, datatilgang) og en sikkerhetssele (isolasjon + feilhåndtering) for å gjøre jobben sin.
Hver forbedring i AI-modeller (GPT-5 osv.) øker bare verdien av Codecs plattform, fordi bedre "hjerner" nå kan kobles til denne sterke "kroppen" for å utføre enda mer komplekse jobber.
Codec er modellagnostisk (fungerer med alle AI-modeller), så den kan dra nytte av den generelle AI-fremgangen uten å være bundet til en enkelt leverandørs skjebne.
Vi er ved et vendepunkt som ligner på de tidlige dagene med cloud computing. Akkurat som selskapene som leverte plattformene for skyen (virtualisering, AWS sin infrastruktur osv.) ble uunnværlige for bedrifts-IT, vil et selskap som tilbyr plattformen for AI-agenter å operere fange et enormt marked.
OpenAI har allerede gitt ut en fullstendig agentisk skykodingsterminal kalt Codex. Codex vil være en mini lokal versjon av Codex du kan kjøre på datamaskinen din, men enda viktigere er at Codex sin primære modell vil være i skyen med sin egen datamaskin.
Medgründeren av OpenAI mener at de mest suksessrike selskapene i fremtiden vil være disse to typene arkitektur slått sammen. Høres kjent ut.
Hva blir det neste?
I stedet for å fortelle deg hva som er det neste, er det kanskje bedre at jeg peker på det vi ikke har sett ennå:
- Ingen bekreftet token-verktøy
- Ingen insentiver
- Ikke noe kjerneveikart
- Ingen demoer
- Ingen markedsplass
- Minimale partnerskap
Med tanke på hvor mye som er i pipelinen sammen med nye nettsteder, oppdaterte dokumenter, dypere likviditetspooler, fellesskapskampanjer/markedsføring og robotikk. Codec har ikke avslørt mange kort ennå.
Klart det kan være flere ferdige nettleserbaserte produkter på markedet for tiden, men hvor lenge til de er foreldet?
Dette er en investering i retning av AI og den primære arkitekturen som vil erstatte menneskelige arbeidsstyrker.
Kodek kodet.


13. mai 2025
Virtuelle miljøer for operatøragenter: $CODEC
Kjerneoppgaven min rundt eksplosjonen av AI har alltid sentrert seg om fremveksten av operatøragenter.
Men for at disse agentene skal lykkes, krever de dyp systemtilgang, noe som effektivt gir dem kontroll over din personlige datamaskin og sensitive data, noe som introduserer alvorlige sikkerhetsproblemer.
Vi har allerede sett hvordan selskaper som OpenAI og andre teknologigiganter håndterer brukerdata. Mens de fleste ikke bryr seg, gjør de personene som kan dra mest nytte av operatøragenter, de øverste 1 % absolutt.
Personlig er det null sjanse for at jeg gir et selskap som OpenAI full tilgang til maskinen min, selv om det betyr en 10× økning i produktiviteten.
Så hvorfor Codec?
Codecs arkitektur er sentrert om å lansere isolerte, on-demand "skystasjoner" for AI-agenter. Kjernen er en Kubernetes-basert orkestreringstjeneste (kodenavn Captain) som klargjør lette virtuelle maskiner (VM-er) i Kubernetes-pods.
Hver agent får sitt eget isolerte miljø på OS-nivå (en fullstendig Linux OS-forekomst) der den kan kjøre applikasjoner, nettlesere eller hvilken som helst kode, fullstendig sandkasse fra andre agenter og verten. Kubernetes håndterer planlegging, automatisk skalering og selvreparasjon av disse agentpodene, noe som sikrer pålitelighet og muligheten til å spinne opp/ned mange agentforekomster etter hvert som belastningen krever
Trusted Execution Environments (TEE-er) brukes til å sikre disse virtuelle maskinene, noe som betyr at agentens maskin kan isoleres kryptografisk, minnet og kjøringen kan beskyttes mot vertsoperativsystemet eller skyleverandøren. Dette er avgjørende for sensitive oppgaver: for eksempel kan en virtuell maskin som kjører i en enklave holde API-nøkler eller kryptolommebokhemmeligheter sikkert.
Når en AI-agent (en LLM-basert «hjerne») trenger å utføre handlinger, sender den API-forespørsler til Captain-tjenesten, som deretter starter eller administrerer agentens VM-pod. Arbeidsflyten: agenten ber om en maskin, Captain (gjennom Kubernetes) tildeler en pod og legger ved et vedvarende volum (for VM-disken). Agenten kan deretter koble til den virtuelle maskinen (via en sikker kanal eller strømmegrensesnitt) for å utstede kommandoer. Captain eksponerer endepunkter for agenten for å utføre skallkommandoer, laste opp/laste ned filer, hente logger og til og med ta et øyeblikksbilde av den virtuelle maskinen for senere gjenoppretting.
Denne utformingen gir agenten et komplett operativsystem å jobbe i, men med kontrollert, revidert tilgang. Fordi den er bygget på Kubernetes, kan Codec automatisk skalere horisontalt, hvis 100 agenter trenger miljøer, kan den planlegge 100 pods på tvers av klyngen, og håndtere feil ved å starte pods på nytt.
Agentens virtuelle maskin kan utstyres med forskjellige MCP-servere (som en "USB-port" for AI). For eksempel er Codecs Conductor-modul en beholder som kjører en Chrome-nettleser sammen med en Microsoft Playwright MCP-server for nettleserkontroll. Dette lar en AI-agent åpne nettsider, klikke på lenker, fylle ut skjemaer og skrape innhold via standard MCP-anrop, som om det var et menneske som kontrollerer nettleseren.
Andre MCP-integrasjoner kan inkludere et filsystem/terminal MCP (for å la en agent kjøre CLI-kommandoer sikkert) eller applikasjonsspesifikke MCP-er (for sky-APIer, databaser, etc.). I hovedsak gir Codec infrastrukturens "wrappers" (VM-er, enklaver, nettverk) slik at agentplaner på høyt nivå trygt kan kjøres på ekte programvare og nettverk.
Bruksområder
Automatisering av lommebok:
Codec kan bygge inn lommebøker eller nøkler i en TEE-beskyttet VM, slik at en AI-agent kan samhandle med blokkjedenettverk (handle på DeFi, administrere kryptoaktiva) uten å avsløre hemmelige nøkler.
Denne arkitekturen gjør det mulig for finansagenter på kjeden som utfører reelle transaksjoner på en sikker måte, noe som ville være svært farlig i et typisk agentoppsett. Plattformens slagord viser eksplisitt støtte for "lommebøker" som en nøkkelfunksjon.
En agent kan for eksempel kjøre en CLI for en Ethereum-lommebok inne i enklaven, signere transaksjoner og sende dem, med forsikring om at hvis agenten oppfører seg dårlig, er den begrenset til VM-en og nøklene forlater aldri TEE.
Nettleser og nettautomatisering:
CodecFlow-agenter kan kontrollere fullstendige nettlesere i den virtuelle maskinen. Dirigent-eksemplet viser en agent som starter Chrome og strømmer skjermen til Twitch i sanntid. Gjennom Playwright MCP kan agenten navigere på nettsteder, klikke på knapper og skrape data akkurat som en menneskelig bruker. Dette er ideelt for oppgaver som nettskraping bak pålogginger, automatiserte netttransaksjoner eller testing av nettapper.
Tradisjonelle rammeverk er vanligvis avhengige av API-kall eller enkle hodeløse nettleserskript; derimot kan CodecFlow kjøre en ekte nettleser med et synlig brukergrensesnitt, noe som gjør det enklere å håndtere komplekse webapplikasjoner (f.eks. med tunge JavaScript- eller CAPTCHA-utfordringer) under AI-kontroll.
GUI-automatisering i den virkelige verden (eldre systemer):
Fordi hver agent har et faktisk skrivebordsoperativsystem, kan den automatisere eldre GUI-applikasjoner eller eksterne skrivebordsøkter, som i hovedsak fungerer som robotprosessautomatisering (RPA), men drevet av AI. En agent kan for eksempel åpne et Excel-regneark i sin virtuelle Windows-maskin, eller grensesnitt med et gammelt terminalprogram som ikke har noen API.
Codecs nettsted nevner å aktivere "eldre automatisering" eksplisitt. Dette åpner for bruk av AI for å betjene programvare som ikke er tilgjengelig via moderne APIer, en oppgave som ville vært veldig hacky eller usikker uten et innesluttet miljø. Den inkluderte noVNC-integrasjonen antyder at agenter kan observeres eller kontrolleres via VNC, noe som er nyttig for å overvåke en AI som driver et GUI.
Simulering av SaaS-arbeidsflyter:
Bedrifter har ofte komplekse prosesser som involverer flere SaaS-applikasjoner eller eldre systemer. for eksempel kan en ansatt ta data fra Salesforce, kombinere dem med data fra en intern ERP, og deretter sende et sammendrag på e-post til en klient. Codec kan gjøre det mulig for en AI-agent å utføre hele denne sekvensen ved å faktisk logge på disse appene via en nettleser eller klientprogramvare i VM-en, omtrent som et menneske ville gjort. Dette er som RPA, men drevet av en LLM som kan ta beslutninger og håndtere variasjon.
Det er viktig at legitimasjonen til disse appene kan gis til den virtuelle maskinen på en sikker måte (og til og med omsluttet av en TEE), slik at agenten kan bruke dem uten å «se» legitimasjon i ren tekst eller eksponere dem eksternt. Dette kan akselerere automatisering av rutinemessige backoffice-oppgaver samtidig som det tilfredsstiller IT med at hver agent kjører med minst mulig privilegium og full revisjonsevne (siden hver handling i VM kan logges eller registreres).
Veikart
- Lanser offentlig demo i slutten av måneden
- Funksjonssammenligning med andre lignende plattformer (ingen web3-konkurrent)
- TAO-integrasjon
- Stort spillpartnerskap
Når det gjelder originalitet, er Codec bygget på et fundament av eksisterende teknologier, men integrerer dem på en ny måte for AI-agentbruk. Ideen om isolerte utførelsesmiljøer er ikke ny (beholdere, virtuelle maskiner og TEE-er er standard i cloud computing), men å bruke dem på autonome AI-agenter med et sømløst API-lag (MCP) er ekstremt nytt.
Plattformen utnytter åpne standarder og verktøy der det er mulig: den bruker MCP-servere som Microsofts Playwright for nettleserkontroll i stedet for å finne opp hjulet på nytt, og planlegger å støtte AWS sine Firecracker mikro-VM-er for raskere virtualisering. Den forgrenet også eksisterende løsninger som noVNC for streaming av stasjonære datamaskiner. Å demonstrere prosjektet står på grunnlaget for velprøvd teknologi (Kubernetes, enklavemaskinvare, åpen kildekode-biblioteker), og fokuserer den opprinnelige utviklingen på limlogikk og orkestrering (den "hemmelige sausen" er hvordan det hele fungerer sammen).
Kombinasjonen av åpen kildekode-komponenter og en kommende skytjeneste (antydet av omtale av et $CODEC token-verktøy og offentlig produkttilgang) betyr at Codec snart vil være tilgjengelig i flere former (både som en tjeneste og selvdriftet).
Lag
Moyai: 15+ års utviklererfaring, leder for tiden AI-utvikling hos Elixir Games.
lil'km: 5+ år AI-utvikler, jobber for tiden med HuggingFace på LeRobot-prosjektet.
HuggingFace er et stort robotikkselskap og Moyai jobber som leder for ai hos elixir games (støttet av square enix og solanafdn.
Jeg har personlig videoringt hele teamet og liker virkelig energien de bringer med seg. Vennen min som satte dem på radaren min møtte dem også alle på Token2049 og hadde bare gode ting å si.
Avsluttende tanker
Det er fortsatt mye igjen å dekke, som jeg vil spare til fremtidige oppdateringer og innlegg i Telegram-kanalen min.
Jeg har lenge trodd at skyinfrastruktur er fremtiden for operatøragenter. Jeg har alltid respektert det Nuit bygger, men Codec er det første prosjektet som har vist meg den fullstack-overbevisningen jeg lette etter.
Teamet er helt klart ingeniører på toppnivå. De har åpent sagt at markedsføring ikke er deres styrke, og det er sannsynligvis grunnen til at dette har fløyet under radaren. Jeg kommer til å jobbe tett med dem for å hjelpe til med å forme GTM-strategien som faktisk gjenspeiler dybden i det de bygger.
Med en markedsverdi på 4 millioner dollar og dette nivået av infrastruktur, føles den massivt underpriset. Hvis de kan levere et brukbart produkt, tror jeg det lett kan markere begynnelsen på neste AI-infrastruktursyklus.
Som alltid er det risiko, og selv om jeg har undersøkt teamet i sniking de siste ukene, er ingen prosjekter noen gang helt teppesikre.
Prismål? Mye høyere.

11,86K
Topp
Rangering
Favoritter