Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Trissy
Et siste okseløp
Protokoller og lag bør slutte å betale KOL-er for innhold.
Den eneste gangen lagene bør dele ut tokens er til KOL-er eller fellesskapsmedlemmer som skaper høy verdi for prosjektet sitt og returnerer resultater.
Produktet eller fortellingen din bør være interessant nok til at folk med innflytelse automatisk bør ønske å kjøpe og skrive om det naturlig.
Dette er de du bør tildele tokens til, ikke gjøre 3 betalte tråder for ambassadører som boter følgerne sine.
«Hva om jeg ikke kan få noen som er interessert i produktet mitt til å tvitre?» Så fortsett å bygge, du har tydeligvis ikke funnet den rette nisjen eller nettverket nok hvis du ikke kan bygge noen få kjernestøttespillere.
Mitt budskap til byggherrene: bygg noe kult nok til at folk naturlig vil kjøpe og skrive om, gi tokens til de største støttespillerne som stemmer overens med visjonen din. Siden:
1. Det er mye mer sannsynlig at de jobber overtid og går utover for å hjelpe deg med å lykkes siden du viste sterk moralsk oppførsel (en sjeldenhet i dette rommet)
2. De du betaler for en viss mengde innlegg vil flasse så snart avtalen deres er ute og dumpe tokenene
Jeg gjør ikke betalte kampanjer av noe slag, men jeg kommer åpenbart ikke til å avslå gratis tokens for et prosjekt jeg er ekstremt bullish på uten forpliktelser. De beste forfatterne kan ikke kjøpes og vil bli avvist hvis du prøver.
Spill det lange spillet og ikke ta snarveier, det vil gjenspeiles i handlingene dine på tvers av alle vertikaler i virksomheten, og smarte tradere kan lukte det på en mils avstand.
KOL-kampanjer er døde, 99,9 % av markedsføringsbyråene er bortkastede penger og vil være -ev for virksomheten din.
Den eneste måten å trenge inn i dette markedet på er å ha kryptoinnfødte teammedlemmer som er villige til å skitne til hendene.
3,08K
OpenAI bekreftet nettopp min nordlige stjerneoppgave for AI i dag ved å frigi operatøragenten deres.
Ikke bare var dette min veiledende oppgave for $CODEC, men alle andre AI-investeringer jeg gjorde, inkludert de fra tidligere på året under AI-mani.
Det har vært mye diskusjon med Codec med hensyn til robotikk, mens den vertikalen vil ha sin egen fortelling veldig snart, er den underliggende grunnen til at jeg var så positiv til Codec fra dag 1 på grunn av hvordan arkitekturen driver operatøragenter.
Folk undervurderer fortsatt hvor mye markedsandel som står på spill ved å bygge programvare som kjører autonomt, og overgår menneskelige arbeidere uten behov for konstante spørsmål eller tilsyn.
Jeg har sett mange sammenligninger med $NUIT. For det første vil jeg si at jeg er en stor fan av det Nuit bygger og ønsker ingenting annet enn suksess. Hvis du skriver "nuit" i telegrammet mitt, vil du se at jeg tilbake i april sa at hvis jeg måtte holde en mynt i flere måneder, ville det ha vært Nuit på grunn av operatøroppgaven min.
Nuit var det mest lovende operatørprosjektet på papiret, men etter omfattende undersøkelser fant jeg ut at arkitekturen deres manglet dybden som trengs for å rettferdiggjøre en stor investering eller legge omdømmet mitt bak det.
Med dette i tankene var jeg allerede klar over de arkitektoniske hullene i eksisterende operatøragentteam og søkte aktivt etter et prosjekt som adresserte dem. Kort tid etter dukket Codec opp (takket være at @0xdetweiler insisterte på at jeg ser dypere inn i dem), og dette er forskjellen mellom de to:
$CODEC mot $NUIT
Codecs arkitektur er bygget over tre lag; Maskin, system og intelligens, som skiller infrastruktur, miljøgrensesnitt og AI-logikk. Hver operatøragent i Codec kjører i sin egen isolerte virtuelle maskin eller beholder, noe som gir nesten opprinnelig ytelse og feilisolering. Denne lagdelte designen betyr at komponenter kan skaleres eller utvikles uavhengig uten å ødelegge systemet.
Nuits arkitektur tar en annen vei ved å være mer monolitisk. Stabelen deres dreier seg om en spesialisert nettleseragent som kombinerer parsing, AI-resonnement og handling. Det betyr at de dypt analyserer nettsider til strukturerte data som AI kan konsumere og er avhengige av skybehandling for tunge AI-oppgaver.
Codecs tilnærming med å bygge inn en lett Vision-Language-Action (VLA)-modell i hver agent betyr at den kan kjøre helt lokalt. Noe som ikke krever konstant ping tilbake til skyen for instruksjoner, kutter ut ventetid og unngår avhengighet av oppetid og båndbredde.
Nuits agent behandler oppgaver ved først å konvertere nettsider til et semantisk format og deretter bruke en LLM-hjerne for å finne ut hva de skal gjøre, noe som forbedres over tid med forsterkende læring. Selv om denne flyten er effektiv for nettautomatisering, avhenger den av tung AI-behandling på skysiden og forhåndsdefinerte sidestrukturer. Codecs lokale enhetsintelligens betyr at beslutninger skjer nærmere dataene, noe som reduserer overhead og gjør systemet mer stabilt for uventede endringer (ingen skjøre skript eller DOM-antakelser).
Codecs operatører følger en kontinuerlig oppfatte-tenke-handle-sløyfe. Maskinlaget strømmer miljøet (f.eks. en live-app eller robotfeed) til intelligenslaget via systemlagets optimaliserte kanaler, noe som gir AI "øyne" på den nåværende tilstanden. Agentens VLA-modell tolker deretter bildene og instruksjonene sammen for å bestemme en handling, som systemlaget utfører gjennom tastatur-/musehendelser eller robotkontroll. Denne integrerte sløyfen betyr at den tilpasser seg live-arrangementer, selv om brukergrensesnittet skifter rundt, vil du ikke bryte flyten.
For å sette alt dette i en enklere analogi, tenk på Codecs operatører som en selvforsynt ansatt som tilpasser seg overraskelser på jobben. Nuits agent er som en ansatt som må ta en pause, beskrive situasjonen til en veileder over telefon og vente på instruksjoner.
Uten å gå for mye ned i et teknisk kaninhull, bør dette gi deg en idé på høyt nivå om hvorfor jeg valgte Codec som min primære innsats på operatører.
Ja, Nuit har støtte fra YC, et stablet team og S-nivå github. Selv om Codecs arkitektur er bygget med horisontal skalering i tankene, noe som betyr at du kan distribuere tusenvis av agenter parallelt med null delt minne eller utførelseskontekst mellom agenter. Codecs team er heller ikke dine gjennomsnittlige utviklere.
VLA-arkitekturen deres åpner en rekke brukstilfeller som ikke var mulig med tidligere agentmodeller på grunn av å se gjennom piksler, ikke skjermbilder.
Jeg kunne fortsette, men jeg sparer det til fremtidige innlegg.
15,81K
Saken er at hvis du virkelig ønsker å klare deg i dette rommet, vil alle rundt deg tro at det er noe galt med deg.
For å virkelig være 0,001 %, er livet utenfor skyttergravene nesten ikke-eksisterende.
Ingen jenter, ingen hobbyer, ingen sosiale utflukter, ingen netflix eller noe som tar deg bort fra grinden.
Det er en type tankegang som er ekstremt urelaterbar for selv profesjonelle idrettsutøvere fordi det ikke er noen grunn til at du ikke kan være online 24/7.
Vi sitter fast i vårt eget frihetsparadoks.
Alle vil ha den magiske muligheten til å klikke på knapper for penger, til det er på tide å si nei til 95 % av gledene.
Venner og familie vil stadig komme med hint som tyder på at du har en form for psykisk lidelse og aldri virkelig vil se visjonen.
Sjalu stiger når biter av suksess sniker seg gjennom, hvis du ser nøye nok på folk, avslører de alltid sine sanne intensjoner, selv om de ikke mente det.
De minste hintene vil avsløre dem, vanligvis fra spontane følelsesmessige reaksjoner i øyeblikket hvor du bare trenger å høre noen få ord glippe, mesteparten av tiden er det alt som trengs.
Etter hvert som du lykkes bedre, lær å være stille. Det er ikke nødvendig å nevne fremgangen din, så flott som det ville være å dele med alle og nyte fruktene av arbeidet ditt, vil det bare tiltrekke seg grådighet fra andre.
De fleste mislykkes med dette ettersom de gjør det å være "kryptofyren" eller "investoren" til hele sin persona. Selv om du er online 16 timer i døgnet, må du fortsatt ha interesser og ambisjoner utenfor denne bransjen.
Venner bør ønske å henge med deg for kvaliteten på tilstedeværelsen din og humørforskjellen du gjør mens du er der, ikke hvor mange tall du har laget på en skjerm.
Å leve et privat, bortgjemt liv med en liten krets av kvalitetsindivider er det beste livshacket for trygghet.
Hvis din tilstedeværelse ikke får folk til å føle noe uten å snakke om penger, har du allerede tapt.
5,75K
Hva er $CODEC
Robotikk, operatører, spill?
Alt det ovennevnte og mer.
Codecs vision-language-action (VLA) er en rammeagnostisk modell, som gir mulighet for dusinvis av brukstilfeller på grunn av dens unike evne til å visualisere feil sammenlignet med LLM-er.
I løpet av de siste 12 månedene har vi sett at LLM-er først og fremst fungerer som looping-mekanismer, drevet av forhåndsdefinerte data og responsmønstre.
Fordi de er bygget på tale og tekst, har LLM-er en begrenset evne til å utvikle seg utover vinduet med språklig kontekst de er trent på. De kan ikke tolke sanseinntrykk, som ansiktsuttrykk eller emosjonelle signaler i sanntid, da resonnementet deres er bundet til språk, ikke persepsjon.
De fleste agenter i dag kombinerer transformatorbaserte LLM-er med visuelle kodere. De "ser" grensesnittet gjennom skjermbilder, tolker hva som er på skjermen og genererer sekvenser av handlinger, klikk, tastetrykk, rulling for å følge instruksjoner og fullføre oppgaver.
Dette er grunnen til at AI ikke har erstattet store kategorier av jobber ennå: LLM-er ser skjermbilder, ikke piksler. De forstår ikke den dynamiske visuelle semantikken i omgivelsene, bare hva som kan leses gjennom statiske rammer.
Deres typiske arbeidsflyt er repeterende: ta et skjermbilde, resonnere om neste handling, utfør den, ta deretter et nytt bilde og gjenta. Denne oppfatte-tenke-sløyfen fortsetter til oppgaven er fullført eller agenten mislykkes.
For å virkelig generalisere må AI oppfatte omgivelsene, resonnere om tilstanden og handle riktig for å oppnå mål, ikke bare tolke øyeblikksbilder.
Vi har allerede makroer, RPA-roboter og automatiseringsskript, men de er svake og ustabile. En liten pikselforskyvning eller layoutendring bryter flyten og krever manuell oppdatering. De kan ikke tilpasse seg når noe endres i arbeidsflyten. Det er flaskehalsen.
Visjon-Språk-Handling (VLA)
Codecs VLA-agenter kjører på en intuitiv, men kraftig sløyfe: oppfatte, tenke, handle. I stedet for bare å spytte ut tekst som de fleste LLM-er, ser disse agentene miljøet, bestemmer hva de skal gjøre og deretter utfører. Alt er pakket i ett enhetlig datasamlebånd, som du kan visualisere i tre kjernelag:
Visjon
Agenten oppfatter først omgivelsene gjennom synet. For en stasjonær operatøragent betyr dette å ta et skjermbilde eller visuelle inndata av gjeldende tilstand (f.eks. et appvindu eller en tekstboks). VLA-modellens visjonskomponent tolker disse inndataene, leser tekst på skjermen og gjenkjenner grensesnittelementer eller objekter. Aka øynene til agenten.
Språk
Så kommer tankene. Gitt den visuelle konteksten (og eventuelle instruksjoner eller mål), analyserer modellen hvilken handling som kreves. I hovedsak "tenker" AI på riktig respons omtrent som en person ville gjort. VLA-arkitekturen slår sammen visjon og språk internt, slik at agenten for eksempel kan forstå at en popup-dialogboks stiller et ja/nei-spørsmål. Den vil da bestemme riktig handling (f.eks. klikk "OK") basert på målet eller ledeteksten. Fungerer som agentens hjerne, og kartlegger opplevde innspill til en handling.
Handling
Til slutt handler agenten ved å sende ut en kontrollkommando til miljøet. I stedet for tekst genererer VLA-modellen en handling (for eksempel et museklikk, tastetrykk eller API-kall) som samhandler direkte med systemet. I dialogeksemplet vil agenten utføre klikket på "OK" -knappen. Dette lukker sløyfen: etter handling kan agenten visuelt sjekke resultatet og fortsette oppfatte-tenke-handle-syklusen. Handlinger er nøkkelskilletegnet som gjør dem fra chattebokser til faktiske operatører.
Bruksområder
Som jeg nevnte, på grunn av arkitekturen, er Codec narrativ agnostisk. Akkurat som LLM ikke er begrenset av hvilke tekstutdata de kan produsere, er ikke VLA-er begrenset av hvilke oppgaver de kan fullføre.
Robotics
I stedet for å stole på gamle skript eller ufullkommen automatisering, tar VLA-agenter inn visuelle input (kamerafeed eller sensorer), sender det gjennom en språkmodell for planlegging, og sender deretter ut faktiske kontrollkommandoer for å bevege seg eller samhandle med verden.
I utgangspunktet ser roboten hva som er foran den, behandler instruksjoner som "flytt Pepsi-boksen ved siden av appelsinen", finner ut hvor alt er, hvordan den skal bevege seg uten å velte noe, og gjør det uten behov for hardkoding.
Dette er samme systemklasse som Googles RT-2 eller PaLM-E. Store modeller som slår sammen visjon og språk for å skape handlinger i den virkelige verden. CogActs VLA-arbeid er et godt eksempel, roboten skanner et rotete bord, får en naturlig melding og kjører en full sløyfe: objekt-ID, baneplanlegging, bevegelsesutførelse.
Operatører
I skrivebords- og nettmiljøet fungerer VLA-agenter i utgangspunktet som digitale arbeidere. De "ser" skjermen gjennom et skjermbilde eller live-feed, kjører det gjennom et resonnementslag bygget på en språkmodell for å forstå både brukergrensesnittet og oppgavemeldingen, og utfører deretter handlingene med ekte mus- og tastaturkontroll, som et menneske ville gjort.
Denne fulle loopen, oppfatte, tenke, handle går kontinuerlig. Så agenten reagerer ikke bare én gang, den navigerer aktivt i grensesnittet og håndterer flertrinnsflyter uten å trenge noen hardkodede skript. Arkitekturen er en blanding av OCR-stilvisjon for å lese tekst/knapper/ikoner, semantisk resonnement for å bestemme hva som skal gjøres, og et kontrolllag som kan klikke, rulle, skrive osv.
Der dette blir virkelig interessant er i feilhåndtering. Disse agentene kan reflektere etter handlinger og planlegge på nytt hvis noe ikke går som forventet. I motsetning til RPA-skript som brytes hvis et brukergrensesnitt endres litt, for eksempel en knapp som skifter posisjon eller en etikett som får nytt navn, kan en VLA-agent tilpasse seg det nye oppsettet ved hjelp av visuelle signaler og språkforståelse. Gjør den langt mer motstandsdyktig for automatisering i den virkelige verden der grensesnitt stadig endres.
Noe jeg personlig har slitt med når jeg har kodet mine egne forskningsroboter gjennom verktøy som dramatiker.
Gaming
Gaming er et av de tydeligste brukstilfellene der VLA-agenter kan skinne, tenke på dem mindre som roboter og mer som oppslukende AI-spillere. Hele flyten er den samme, agenten ser spillskjermen (rammer, menyer, tekstmeldinger), begrunner om hva den skal gjøre, og spiller deretter ved hjelp av mus, tastatur eller kontrollerinnganger.
Det er ikke fokusert på brute force, dette er AI som lærer å spille som et menneske ville gjort. Persepsjon + tenkning + kontroll, alt bundet sammen. DeepMinds SIMA-prosjekt har låst opp dette ved å kombinere en visjonsspråkmodell med et prediktivt lag og sluppet det inn i spill som No Man's Sky og Minecraft. Fra bare å se på skjermen og følge instruksjonene, kunne agenten fullføre abstrakte oppgaver som "bygge et bål" ved å lenke sammen de riktige trinnene, samle ved, finne fyrstikker og bruke inventar. Og det var ikke begrenset til bare én kamp heller. Den overførte denne kunnskapen mellom ulike miljøer.
VLA-spillagenter er ikke låst til ett regelsett. Den samme agenten kan tilpasse seg helt forskjellige mekanikker, bare fra visjon og språkjording. Og fordi den er bygget på LLM-infrastruktur, kan den forklare hva den gjør, følge instruksjoner på naturlig språk midt i spillet eller samarbeide med spillere i sanntid.
Vi er ikke langt unna å ha AI-lagkamerater som tilpasser seg spillestilen og personaliseringene dine, alt takket være Codec.

9,25K
ICMs suksess er ikke avhengig av Launchcoin eller noen enkelt plattform.
Det er en regimeendring fra hvordan vi ser på forsyningsprosjekter på kjeden.
Vi gikk fra lanseringer på flere milliarder dollar til pumpfun på grunn av vanvittige uoverensstemmelser i pris og fundamentale forhold.
Nå skifter vi fra vaporware til prosjekter med reelle brukere, volum og inntekter.
Flertallet vil gi opp akkurat når vi runder hjørnet av ekte adopsjon.
6,61K
Et misforhold i pris og fundamentale forhold.
$KNET (8 millioner dollar) mot $ALCH (120 millioner dollar)
@Kingnet_AI
Håndterer alt fra 2D/3D-modellering til fulle karakterrigger, animasjoner og til og med kodegenerering, rett fra naturlige språkmeldinger. Brukergrensesnitt uten kode betyr at hvem som helst kan gå fra idé til spillbar Web3-spilldemo uten å berøre en kodelinje. Fremskynder bygginger, kutter kostnader og senker barrieren massivt.
Den er posisjonert mot Web3-innfødte spillutviklere, indiebyggere og små studioer. Stor vekt på aktivagenerering + ende-til-ende prototyping. I utgangspunktet gjør spillutvikling til en visuell AI-arbeidsflyt, rettet mot å få ut mer innhold raskere, selv om du ikke er teknisk.
KNET driver alt, betalinger, AI-spørringer og til slutt markedsplassen for genererte eiendeler. Har også styringskroker. Knyttet til KingNet (stort offentlig spillselskap), og allerede koblet til Solana, BNB, TON. Å se tidlig trekkraft + hackathon-seire.
Kingnet AI støttes av Kingnet Network Co. Ltd, en børsnotert kinesisk spillgigant grunnlagt i 2008. Med en merittliste med hittitler som Happy Tower, Shushan Legend, MU Miracle og World of Warships Blitz, er selskapet en av de mest anerkjente inkubatorene innen mobilspill. Kingnet AI er bygget av SmileCobra Studio (Singapore) i eksklusivt samarbeid med Kingnets Hong Kong-arm. Morselskapet er verdsatt til over 5 milliarder dollar med 1 milliard dollar på balansen.
@alchemistAIapp
En bredere kodefri plattform som konverterer brukermeldinger til fullt funksjonelle apper eller spill.
Den bruker en AI-motor med flere agenter (flere spesialiserte modeller) for å analysere brukermeldinger, generere kode, lage bilder og sette sammen fullstendige applikasjoner i sanntid. Retter seg mot en bred brukerbase, fra hobbyister til Web3-byggere, som raskt ønsker å prototype verktøy, spill eller nettsteder.
UX er veldig strømlinjeformet, for eksempel går du inn i "et slangespill med brun trebakgrunn", og Alchemists Sacred Laboratory-grensesnitt organiserer AI-agenter for å produsere frontend-kode, spilllogikk og til og med tilpasset grafikk på
ALCH brukes på Arcane Forge-markedsplassen og for å få tilgang til Alchemists AI-tjenester. Brukere kan tjene ALCH ved å selge nyttige applikasjoner eller spill, markedsplassen har tips- og oppdagelsesfunksjoner for å belønne populære apper.
Alchemist ble grunnlagt i 2024 av et team i Vietnam, ledes av Thien Phung Van (grunnlegger/finansdirektør), Trong Pham Van (medgründer) og Duc Loc "Louis" Nguyen (CTO). Med bakgrunn innen programvare og entreprenørskap (Thien var tidligere administrerende direktør/finansdirektør i Vistia), lanserte det lille teamet Alchemist som en ufinansiert oppstart.
TLDR; Kingnet AI er spesialisert, med fokus på å automatisere ende-til-ende-spilloppretting for Web3, støttet av velprøvd spillinfrastruktur. Alchemist AI er bredere i omfang, og tilbyr et raskt LLM-grensesnitt for å bygge unike verktøy og spill med detaljhandelsappell. Kingnet er domene dypt i spill, mens Alchemist er domene over flere brukstilfeller.
Basert på dette er det ganske klart at Kingnet er sterkt undervurdert i sammenligning. Kingnet er mye tidligere i produktets livssyklus og har ikke fullt ut utfylt UX og grensesnitt, selv om kvaliteten på team, erfaring og støtte oppveier Alchemists plattform betydelig mens den er 15 ganger lavere i mcap.
27,82K
Folk fortsetter å gratulere meg med $CODEC, hvorfor?
Så langt har vi ikke engang sett:
- Token-verktøy
-Insentiver
- Veikart
-Demoer
- Ny nettside
-Markedsplass
- Fremtidige partnerskap
- Bruksområder
+ mer
Alt vi har sett er noen få partnerskap og utgivelsen av ressursaggregatoren deres (Fabric).
Jeg skrev ikke flere tråder, flere telegraminnlegg, snakket med teamet nesten daglig, ga råd om markedsføring, merkevarebygging, posisjonering for å feire en 6 mil mcap.
En chatgpt-innpakning av en anime-jente med rosa hår var nok til en 6 mil mcap tilbake i AI szn.
Prosjekter ble sendt til 9 figurer over natten for å vinne et hackathon eller bli satt i søkelyset fra store KOL-er/forskere.
Alle har glemt hva som skjer når lysene tennes og folk tror igjen.
Grunnen til at jeg har byttet så bullish den siste uken for onchain er troen på at det er på alle tiders laveste nivåer. Den siste måneden har vært noen av de største fremskrittene vi har gjort i denne bransjen sammen med positivt makrobakteppe.
Husker du følelsen av penger som falt ned fra himmelen? Det tar kanskje ikke så lang tid før vi får oppleve det igjen.

9,41K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til