Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Selvstendig forsker | Forsker | Tolkning av blockchain-banebrytende teknologi fra et teknisk og forretningsmessig perspektiv | ZK、AI-agent、DePIN osv | Hardcore vitenskap | Tidligere:@ambergroup_io | @peckshield | DM-er for Collab | Community er bare tilgjengelig for Substack-medlemmer
@circle, som en gang investerte i Sei på en lavmælt måte, har endelig kommet til å «støtte gamle venner» etter å ha avansert til Wall Street med strålende resultater? Etter at den innfødte USDC viser Sei, kan mange være nysgjerrige, hvorfor er det @SeiNetwork? Hva blir virkningen av den "nye identiteten" til børsnoterte stablecoin-utstedere?
1) Sei er en høyytelses lag1 blokkjede født spesielt for optimalisering av digitale aktivatransaksjoner, som oppnår flere transaksjoner samtidig gjennom en parallell EVM-arkitektur, og deretter oppnår 390 millisekunder finalitet og 28 300 TPS parallelle prosesseringsmuligheter, noe som gjør den til en typisk representant for banebrytende høyytelses blokkjeder.
Dessuten er nøkkelen ikke "løpende poengsum"-poengsummen, målet med høyytelses lag1-ytelsesmekanismen er faktisk om den kan åpne for et nytt høyfrekvent applikasjonsscenario som kan løse høy-samtidige betalinger på bedriftsnivå.
Seis differensiering ligger i den underliggende optimaliseringen spesielt for handelsscenarier: den innebygde native order matching engine (OME) bekjemper direkte MEV-problemer, twin-turbo konsensusmekanismen, og SeiDB-lagringslaget forhindrer datautvidelse på kjeden, etc., noe som gjør det til et "eksklusivt" spor for høyfrekvent sirkulasjon av stablecoins.
Derfor slår USDC seg sammen med gamle venn Sei som et nytt kompatibelt børsnotert selskap, det ene tilbyr motorveier, og det andre kommer til sportsbiler, som er et perfekt par partnere? Hvis Circles tidlige investering i Sei var en strategisk investering, var lanseringen av USDC åpenbart for å gjøre kommersiell realisering av den opprinnelige investeringen.
2) Som en børsnotert kompatibel stablecoin-utsteder, er USDC, som verdens mest pålitelige og regulerte stablecoin, naturligvis i stand til å lansere Sei.
Men den dype fordelen er at jeg føler at dette faktisk er "anskaffelsesstandarden" utstedt av Wall Street for kryptoinfrastruktur.
Husk at stablecoins ble stilt spørsmål ved for tre år siden, til BlackRock, Fidelity, etc. som tok initiativ til å legge ut digital aktivainfrastruktur, til lanseringen av GENIUS Act, stablecoin-utsteder Circle har blitt den nye favoritten til amerikanske aksjer, og så videre. Om ikke annet, så må Wall Street sile ut flere «kvalifiserte leverandører» som kan påta seg institusjonelle midler?
Etter notering er Circle under press fra ytelsesvekst og avsløring av økonomiske rapportdata, og det kan bare presse USDC til territoriet til "vanlige kommersielle applikasjoner" med større innsats, og det er bare én måte å velge scenariet som kan tillate stablecoin-applikasjonsscenarier å skrelle av den interne sirkulasjonen av rene valutaspekulasjonstransaksjoner: storskala gjennombrudd i høyfrekvente betalingsscenarier på bedriftsnivå, inkludert lønn i sanntid, grenseoverskridende B2B-oppgjør på millisekundnivå, finansielle betalinger i forsyningskjeden og andre underinndelte scenarier.
Jeg tror dette er kjernebetydningen av Circle, som en børsnotert kompatibel stablecoin-utsteder, $SEI som et banebrytende høyytelses transaksjonsoptimaliseringslag1 raskt "ekteskap".
8,94K
Rundt denne Ethereum-versjonen av "Micro Strategy Summer"-manien, kan $ETH virkelig gjenskape det "positive svinghjulet" til BTC-mikrostrategien? Snakker om noen personlige meninger:
1) ETH-mikrostrategi er virkelig en vellykket modell for å etterligne BTC-mikrostrategi, og mange amerikanske aksjeselskaper vil prøve Fomo på kort sikt og danne en bølge av positivt svinghjul. Uavhengig av handelsenhetene til amerikanske aksjer, har det faktum at tradisjonelle institusjonelle fond med ekte penger og aksjonærenes kjøpekraft bruker $ETH som reserveaktiva, virkelig brakt Ethereum ut av en langsiktig svak tilstand.
Med andre ord, Fomo driver oppgangen, som er den uforanderlige jernloven til oksemarkedet i valutasirkelen, men denne gangen er hoveddelen av Fomo ikke lenger rene detaljinvestorer i valutasirkelen, men ekte penger på Wall Street, i det minste for å bekrefte at ETH endelig har kvittet seg med dilemmaet med å stole utelukkende på den stablede fortellingen om valutasirkelen og begynte å tiltrekke seg inkrementelle midler fra utenfor sirkelen;
2) BTC er nærmere posisjoneringen av "digitalt gull" som en reserveeiendel, med relativt stabil verdi og klare forventninger, mens ETH i hovedsak er en "produktiv eiendel", og verdien er bundet til flere faktorer som utnyttelsesgraden til Ethereum-nettverket, inntekter fra gassavgifter og økologisk utvikling. Dette betyr at ETH som reserveeiendel er mer volatil og usikker.
Når Ethereum-økosystemet støter på store tekniske sikkerhetsproblemer, eller regulatorer legger press på DeFi, staking og andre funksjoner, er risikoen og volatilitetsvariablene som ETH står overfor som reserveeiendel mye høyere enn for BTC. Derfor kan den narrative logikken til BTC-versjonen av mikrostrategi brukes som referanse, men det betyr ikke at markedsprisingen og verdsettelseslogikken også kan være konsistent.
3) Ethereum-økosystemet har mer moden DeFi-infrastrukturakkumulering og rikere narrativ formbarhet sammenlignet med BTC. Gjennom innsatsmekanismen kan ETH generere en naturlig avkastning på omtrent 3-4 %, noe som gjør den ekvivalent med de "rentebærende statsobligasjonene på kjeden" i kryptoverdenen.
På kort sikt er denne historien en bearish for den opprinnelige konstruksjonen av BTC layer2 og andre infras for å gi innfødte eiendeler for BTC, men i det lange løp er det motsatt.
4) Denne runden med mikrostrategisommer er i hovedsak en stor omstokking av den narrative orienteringen til krypto tidligere, og det opprinnelige prosjektteamet bygde prosjektet og spredte teknologifortellingen til VC og detaljinvestorer i markedet, for å si det rett ut, det hele er fortalt til de innfødte i valutasirkelen.
Hovedforskjellen er at Wall Street ikke spiser rene konseptpaier, de vil ha PMF - reell brukervekst, inntektsmodell, markedsstørrelse osv. Dette tvinger kryptoprosjekter til å skifte fra «teknisk narrativorientert» til «forretningsverdiorientert», er ikke dette presset som den forrige konkurrenten Solana brakte til Ethereum? Tross alt må du fortsatt innse det;
5) Denne runden med amerikanske aksjemikrostrategikonsepthandlere, inkludert SharpLink Gaming, Bitmine immersion Tech, Bit Digital, BTCS inc., etc., er for det meste selskaper med svak vekst i tradisjonell kapitalmarkedsvirksomhet og trenger å integrere krypto for å finne nye gjennombrudd.
Grunnen til at disse traderne tør å være så radikale er i stor grad for å bruke "arbitrasjevinduet" før den amerikanske regjeringen drastisk fremmer transformasjonen av kryptoindustrien til modenheten til reguleringsmekanismen. På kort sikt er det mange juridiske smutthull og samsvarshull – for eksempel tvetydigheten i regnskapsstandarder for klassifisering av kryptoaktiva, lempingen av SEC-opplysningskrav og gråsonen for skattebehandling.
Suksessen til mikrostrategier høster i stor grad utbyttet av BTCs super bull-marked, men som kopist har de kanskje ikke samme flaks og handelsevne. Derfor er markedspopulariteten brakt av handelsenheten denne gangen ikke mye forskjellig fra den forrige rene Crypto native narrative hypen, og det er i hovedsak en gamble og prøving og feiling, så husk å være på vakt mot investeringsrisiko.
Merk: Denne runden med mikrostrategisommer er mer som en "stor trening" for krypto for å komme inn i det vanlige finansielle systemet, alle er glade hvis det lykkes, og en liten glede når det mislykkes (tross alt er eksperimentet som kan trekke ETH ut av av svak fortelling en suksess eller fiasko!). )

16,32K
Tidligere, når $ETH steg, ville det sette i gang en rotasjonsrunde i Ethereum-økosystemet, og narrative sektorer som MeMe-mynter, DeFi blue-chip layer2, NFT, GameFi, ZK og modularitet ble lansert i tur og orden, som kan beskrives som hundre blomster som blomstrer;
Nå som $ETH har tatt av igjen, har markedet endret seg fullstendig, og alle bør slutte å ta hensyn til den innovative fortellingen om Ethereums opprinnelige økosystem, og i stedet se etter TradiFi for å innkapsle ETH-eiendeler, eller til og med uavhengig av bakgrunnen til disse institusjonene/selskapene kledd i amerikansk aksjetokenisering.
Vel, BTC har til og med nådd et nytt høydepunkt, og ETH er også klar til å vente på et nytt høydepunkt, men vil det lenge tapte Crypto native altcoin-sesongmarkedet komme tilbake? Er den nye runden med tradisjonell finansledet RWA-konvergens virkelig mer sannsynlig enn en felle? Er det kjente kryptomarkedet fullt av villskap, innovasjon, muligheter, volatilitet og fantasi der fortsatt?
60,23K
Haotian | CryptoInsight lagt ut på nytt
AI påvirker Web3, vil AgentFi være kjernevariabelen i neste bølge?
I morgen kveld vil vi slå oss sammen med bransjealfaer for å holde en grundig diskusjon om "AgentFi: Nye muligheter for Web3 Agent Economy under AI Wave":
Detaljer om 🔽 arrangementet
Dato: 18. juli (fredag)
Tid: 20:00
Språk: Kinesisk
Gjesteoppstilling:
- Haotisk @tmel0211 (uavhengig forsker)
- 0xTodd @0x_Todd (partner, Nothing Research / medgründer, Ebunker)
- LaoBai @wuhuoqiu (tidligere investerings- og forskningspartner, ABCDE)
- Howe @0xcryptoHowe (Amber Group-praktikant)
- Anne @AnneXingxb (AI-forsker, Amber Group)
Emner inkluderer agentgründermuligheter, strukturelle variabler, AI+Crypto-integrasjonsbaner og fremtidsutsikter.
Velkommen til å lytte og forutse neste bristepunkt 👉 i agentøkonomien
Vi sees i morgen kveld!

4,55K
Hvorfor er $ETH nye høyder viktige for altcoin-markedet?
1) Som det ledende prosjektet i den tekniske fortellingen, bør tilbakeføringen av markedets tillit til den tekniske fortellingen om altcoin-markedet være basert på markedets tillit til ETHs tekniske veikart og visjonen om anvendelsen av produktprotokollen.
2) ETH-produksjon er ikke bare et enkelt teknisk narrativt prosjekt, men også det tekniske logiske forholdet mellom de store økologiske prosjektene, TVL-likviditetssammensetning, gjensidig prising og evalueringssystem, etc., er alle bestemt av markedsgrunnlaget til Ethereum og direkte påvirket.
3) ETH-økosystemet har utløst for mange gamle fortellinger som ikke forventes, om DeFi kan gjenopplives igjen, om NFT kan sette i gang en ny bølge av litteratur og kunst, om lag2 virkelig har verdien av masseadopsjon, om den nye fortellingen om RWA kan lede hovedbølgen, etc. I markedsnedgangen kan disse fortellingene som ble overundertrykt av følelser starte en runde med ødeleggende rotasjon når verdsettelseslogikken til ETH bryter nye høyder og er reparert;
9,74K
Det kan sees at det er flere og flere prosjekter til TGE, men det grunnleggende i altcoin-markedet ser ikke ut til å ha forbedret seg mye:
1) Ethereum er fortsatt på et lavt nivå og har ennå ikke vært i stand til effektivt å starte en ny runde med copycat-sesongmarkedet, og det er vanskelig å si hvor mye det vil stige, men følelsene må være på plass, i hvert fall inntil troen på den tekniske fortellingen dominert av de store eteravkastningene;
2) Nå i møte med ulike negative buffs som likviditetsuttømming, teknisk narrativ mangel og ingen airdrop-jungeltelegraf-effekt, sies det at det er et hjelpeløst trekk for prosjektparten, men fra et annet synspunkt er prosjektene som for tiden har mot til å utstede mynter under bunnen av markedet og deretter følge opp driften og vedlikeholdet for å bli større mye mer pålitelige enn de prosjektene som fortsatt venter på utstedelse av mynter når likviditeten er rikelig;
3) Kontrasten mellom Bitcoins solodans og ensomheten til altcoins har lenge vært polarisert, men vi kan ikke forvente å redde altcoin-markedet utelukkende ved å stole på spillover-effekten av Bitcoin.
21,19K
Etter å ha gjort status over flere populære prosjekter i Crypto+AI-sporet den siste måneden, er det funnet at det er tre betydelige trendendringer, med korte introduksjoner og kommentarer til prosjektene:
1) Den tekniske veien til prosjektet er mer pragmatisk, og det begynner å fokusere på ytelsesdata i stedet for ren konseptinnpakning;
2) Vertikale underinndelingsscenarier har blitt fokus for ekspansjon, og generalisert AI har gitt plass til spesialisert AI;
3) Kapital legger mer vekt på verifisering av forretningsmodeller, og prosjekter med kontantstrøm er åpenbart mer favorisert;
Vedlagt: Prosjektintroduksjon, høydepunktanalyse, personlige kommentarer:
1、 @yupp_ai
Prosjektintroduksjon: En desentralisert AI-modellevalueringsplattform, som fullførte en seed-runde på 33 millioner dollar i juni, ledet av a16z og deltatt av Jeff Dean.
Fremhev analyse: Bruk fordelene med menneskelig subjektiv vurdering på evalueringsmanglene ved AI. Gjennom kunstig crowdsourcing for å score 500+ store modeller, kan tilbakemeldinger fra brukere utbetales (1000 poeng = 1 USD), noe som har tiltrukket selskaper som OpenAI til å kjøpe data og ha reell kontantstrøm.
Personlig kommentar: Et prosjekt med en tydeligere forretningsmodell er ikke en ren kontantforbrennende modell. Anti-sveipealgoritmen er imidlertid en stor utfordring, og anti-Sybil-angrepsalgoritmen må kontinuerlig optimaliseres. Men å dømme ut fra omfanget av finansiering på 33 millioner amerikanske dollar, legger kapital åpenbart mer vekt på prosjekter med realiserbar verifisering.
2、 @Gradient_HQ
Prosjektkort introduksjon: Desentralisert AI-datanettverk, som fullførte en seed-runde på 10 millioner dollar i juni, ledet av Pantera Capital og Multicoin Capital.
Høydepunktanalyse: Ved å stole på Sentry Nodes-nettleserplugin-modulen, er det allerede en viss markedskonsensus innen Solana DePIN, teammedlemmer fra Helium, etc., den nylig lanserte Lattica-dataoverføringsprotokollen og Parallakse-inferensmotoren, som har gjort betydelige undersøkelser innen edge computing og dataverifiserbarhet, som kan redusere ventetiden med 40 % og støtte heterogen enhetstilgang.
Personlig kommentar: Retningen er veldig riktig, bare fast i den "synkende" trenden med AI-lokalisering. Men for å håndtere komplekse oppgaver mer effektivt enn sentraliserte plattformer, er stabiliteten til kantnoder fortsatt et problem. Edge computing er imidlertid et nytt krav til web2AI-involusjon, og det er også fordelen med web3AIs distribuerte rammeverk.
3、 @PublicAI_
Prosjektintroduksjon: En desentralisert AI-datainfrastrukturplattform som oppmuntrer globale brukere til å bidra med data på flere felt (medisinsk, autonom kjøring, tale, etc.) gjennom tokens, med en kumulativ inntekt på mer enn 14 millioner amerikanske dollar og et nettverk av databidragsytere på millionnivå.
Fremhev analyse: Den tekniske integrasjonen av ZK-verifisering og BFT-konsensusalgoritme sikrer datakvalitet, og Amazon Nitro Enclaves personverndatabehandlingsteknologi brukes også for å oppfylle samsvarskrav. Det som er mer interessant er lanseringen av HeadCap-hjernebølgeanskaffelsesenheten, som kan betraktes som en utvidelse fra programvare til maskinvare. Den økonomiske modellen er også godt utformet, brukere kan tjene $16 + 500 000 poeng for 10 timer med talekommentarer, og kostnadene for bedriftsabonnementsdatatjenester kan reduseres med 45 %.
Personlige kommentarer: Jeg føler at den største verdien av dette prosjektet er å møte de reelle behovene til AI-datamerknader, spesielt innen felt som medisinsk behandling og autonom kjøring, som har ekstremt høye krav til datakvalitet og samsvar. Feilraten på 20 % er imidlertid fortsatt litt høyere enn 10 % på tradisjonelle plattformer, og svingninger i datakvaliteten er et problem som må løses kontinuerlig. Retningen til hjerne-datamaskin-grensesnittet er ganske fantasifull, men det er ikke lett å utføre.
4、 @sparkchainai
Prosjektkort introduksjon: Solanas distribuerte datakraftnettverk på kjeden fullførte en finansieringsrunde på 10.8 millioner dollar i juni, ledet av OakStone Ventures.
Høydepunktanalyse: Dynamisk sharding-teknologi samler ledige GPU-ressurser og støtter store modellslutninger som Llama3-405B, som er 40 % lavere enn AWS. Utformingen av tokeniserte datatransaksjoner er ganske interessant, og gjør hashrate-bidragsytere direkte til interessenter, og motiverer flere mennesker til å delta i nettverket.
Personlig kommentar: Den typiske modellen for «aggregering av ledige ressurser» gir logisk mening. Imidlertid er feilraten på 15 % krysskjedeverifisering faktisk litt høy, og den tekniske stabiliteten må poleres. Men i 3D-gjengivelse, som ikke krever sanntidsytelse, er det fordeler, og nøkkelen er om feilraten kan reduseres, ellers uansett hvor god forretningsmodellen er, vil den bli dratt ned av tekniske problemer.
5、 @olaxbt_terminal
Prosjektkort introduksjon: En AI-drevet høyfrekvent handelsplattform for kryptovaluta som fullførte en seed-runde på 3,38 millioner dollar i juni, ledet av @ambergroup_io.
Fremhev analyse: MCP-teknologi kan dynamisk optimalisere transaksjonsbaner, redusere glidning og øke den målte effektiviteten med 30 %. Å imøtekomme den #AgentFi trenden kan betraktes som å finne et inngangspunkt i det relativt tomme segmentet av DeFi kvantitativ handel, som kan betraktes som å fylle markedets etterspørsel.
Personlig kommentar: Retningen er fin, DeFi trenger smartere handelsverktøy. Høyfrekvent handel krever imidlertid ekstremt høy ventetid og nøyaktighet, og sanntidssynergien mellom AI-prediksjon og utførelse på kjeden må verifiseres. I tillegg er MEV-angrep en stor risiko, og tekniske beskyttelsestiltak må holde tritt.
Merk: For flere nye prosjekter i AI+Crypto-sporet, kan du legge dem til i kommentarfeltet, og jeg vil screene prosjekter med investeringsforskningsverdi for å følge opp og dele, takk.
8,53K
I tillegg til "senking" av AI-lokalisering, er den største endringen i AI-sporet i nyere tid at teknologien for multimodal videogenerering har gjort et gjennombrudd, fra den opprinnelige støtten for ren tekst for å generere video til den integrerte genereringsteknologien for tekst + bilde + lyd.
La oss snakke om noen få tilfeller av teknologiske gjennombrudd, og la oss føle det:
1) ByteDances åpen kildekode EX-4D-rammeverk: monokulær video blir gratis 4D-innhold på sekunder, og brukergjenkjenningsgraden når 70,7 %. Med andre ord, for en vanlig video kan AI automatisk generere en visningseffekt fra alle vinkler, noe som tidligere krevde et profesjonelt 3D-modelleringsteam for å håndtere;
2) Baidus "Drawing Imagination"-plattform: Et bilde genererer en 10-sekunders video, og hevder at det kan oppnå "kinoaktig" kvalitet. Men det er ikke en overdrevet komponent i markedsføringsemballasjen, og vi må vente på den faktiske effekten etter Pro-versjonsoppdateringen i august;
3) Google DeepMind Veo: Den kan oppnå samtidig generering av 4K-video + omgivelseslyd. Det viktigste tekniske høydepunktet er oppnåelsen av "synkroniserings"-evnen, som tidligere ble skjøtet av video- og lydsystemer, og det er nødvendig å overvinne store utfordringer for å oppnå ekte semantisk nivåmatching, for eksempel synkronisering av lyd og bilde som tilsvarer gangbevegelser og fottrinn i bildet i komplekse scener;
4) Douyin ContentV: 8 milliarder parametere, 2,3 sekunder for å generere 1080p-video, koster 3,67 yuan/5 sekunder. For å være ærlig er denne kostnadskontrollen grei, men for øyeblikket er ikke produksjonskvaliteten tilfredsstillende når man møter komplekse scenarier;
Hvorfor er disse tilfellene av stor verdi og betydning når det gjelder videokvalitet, genereringskostnader og applikasjonsscenarier?
1. Når det gjelder teknologiske verdigjennombrudd, er kompleksiteten til en multimodal videogenerering ofte eksponentiell, et enkeltrammebilde genereres med omtrent 10^6 piksler, og videoen bør sikre tidskoherens (minst 100 bilder), pluss lydsynkronisering (10^4 samplingspunkter per sekund), og 3D romlig konsistens bør vurderes.
Alt i alt er den tekniske kompleksiteten ikke lav, opprinnelig en superstor modell stiv alle oppgaver, det sies at Sora brente titusenvis av H100 for å ha muligheten til å generere video. Nå kan det oppnås gjennom modulær dekomponering + stor modellarbeidsdeling og samarbeid. For eksempel demonterer Bytes EX-4D faktisk komplekse oppgaver i: dybdeestimeringsmodul, perspektivkonverteringsmodul, tidsinterpolasjonsmodul, gjengivelsesoptimaliseringsmodul og så videre. Hver modul er dedikert til én ting, og deretter koordineres den gjennom en koordineringsmekanisme.
2. Kostnadsreduksjon: Faktisk inkluderer optimaliseringen av selve inferensarkitekturen den hierarkiske genereringsstrategien, som først genererer skjelettet med lav oppløsning og deretter forbedrer bildeinnholdet med høy oppløsning; Mekanismen for gjenbruk av cache er gjenbruk av lignende scenarier; Dynamisk ressursallokering er faktisk å justere dybden på modellen i henhold til kompleksiteten til det spesifikke innholdet.
Etter et slikt sett med optimalisering vil det være et resultat på 3,67 yuan/5 sekunder med Douyin ContentV.
3. Når det gjelder applikasjonspåvirkning, er tradisjonell videoproduksjon et aktivatungt spill: utstyr, arenaer, skuespillere og etterproduksjon, er det normalt at en 30-sekunders reklame koster hundretusenvis av dollar. Nå komprimerer AI denne prosessen til Prompt+ noen få minutters venting, og kan oppnå perspektiver og spesialeffekter som er vanskelige å oppnå med tradisjonell fotografering.
På denne måten har de tekniske og økonomiske barrierene for videoproduksjon blitt endret til kreativitet og estetikk, noe som kan fremme omstokking av hele skaperøkonomien.
Spørsmålet er, hva har det med web3AI å gjøre på grunn av så mange endringer i etterspørselssiden av web2AI-teknologi?
1. Først av alt har strukturen til etterspørselen etter datakraft endret seg, tidligere kjempet AI for omfanget av datakraft, og den som hadde mer homogene GPU-klynger ville vinne, men multimodal videogenerering krevde en diversifisert kombinasjon av datakraft, som kan etterspørres for distribuert ledig datakraft, samt ulike distribuerte finjusteringsmodeller, algoritmer og slutningsplattformer.
2. For det andre vil etterspørselen etter datakommentarer også styrkes, og behovet for å generere en video på profesjonelt nivå er nødvendig: nøyaktig scenebeskrivelse, referansebilde, lydstil, kamerabevegelsesspor, lysforhold, etc. vil bli et nytt krav til profesjonell datakommentar, og insentivmetoden til web3 kan stimulere fotografer, lydteknikere, 3D-artister, etc. til å gi profesjonelle datapiksler, og forbedre evnen til AI-videogenerering med profesjonell vertikal datakommentar;
3. Til slutt er det verdt å nevne at når AI gradvis beveger seg fra sentralisert storskala ressursallokering tidligere til modulært samarbeid, er det et nytt krav til desentraliserte plattformer. På det tidspunktet vil datakraft, data, modeller, insentiver, etc. kombineres for å danne et selvforsterkende svinghjul, som deretter vil drive integrasjonen av web3AI- og web2AI-scenarier.

Haotian | CryptoInsight2. juli, 10:37
Nylig, da jeg observerte AI-industrien, fant jeg ut at det er en stadig mer "synkende" endring: fra den opprinnelige mainstream-konsensus om datakraftkonsentrasjon og "store" modeller, har en gren som favoriserer lokale små modeller og edge computing utviklet seg.
Dette kan sees fra Apple Intelligences dekning av 500 millioner enheter, til Microsofts lansering av den 330 millioner parametere lille modellen Mu dedikert til Windows 11, til Googles DeepMinds robot "off-network"-operasjon, etc.
Hva er forskjellen? Cloud AI er basert på parameterskala og treningsdata, og evnen til å brenne penger er kjernekonkurransen. Lokal AI handler om teknisk optimalisering og scenariotilpasning, og vil gå lenger i å beskytte personvern, pålitelighet og gjennomførbarhet. (Hallusinasjonsproblemet til den generiske hovedmodellen vil alvorlig påvirke penetrasjonen av vertikale scener)
Faktisk vil dette ha en større mulighet for web3 AI, det viser seg at når alle kjemper om "generalisering" (databehandling, data, algoritmer) evner, blir de naturlig monopolisert av tradisjonelle gigantiske produsenter, og det er en dåres drøm å konkurrere med Google, AWS, OpenAI, etc.
Men i en verden av lokaliseringsmodell + edge computing er situasjonen for blokkjedeteknologitjenester veldig annerledes.
Når en AI-modell kjører på en brukers enhet, hvordan kan det bevises at utdataene ikke har blitt tuklet med? Hvordan samarbeider du om modeller uten at det går på bekostning av personvernet ditt? Disse spørsmålene er nettopp styrken til blokkjedeteknologi...
Noen nye prosjekter relatert til web3 AI, for eksempel Lattica, en datakommunikasjonsprotokoll som nylig ble lansert av Pantera 10Ms @Gradient_HQ, for å løse datamonopolet og black box-problemene til sentraliserte AI-plattformer; @PublicAI_ HeadCap, en hjernebølgeenhet, samler inn ekte menneskelige data og bygger et "manuelt verifiseringslag", som har oppnådd 14 millioner inntekter; Faktisk prøver de å løse problemet med "pålitelighet" til lokal AI.
Konklusjon: Først når AI virkelig "synker" til hver enhet, vil desentralisert samarbeid gå fra et konsept til en nødvendighet?
#Web3AI I stedet for å fortsette å rulle opp i generaliseringssporet, bør prosjektet seriøst tenke på hvordan man kan gi infrastrukturstøtte for bølgen av lokalisert AI.
10,84K
De siste dagene har annenhåndsmarkedet til @plumenetwork $PLUME prestert bra, noe som bekrefter det faktum at hvis det nåværende kryptomarkedet kan relateres til Trump-familien, kan det høste stabil lykke? Hva er det som foregår?
Nylig kunngjorde Plume et stort partnerskap med World Liberty Finance (WLFI) @worldlibertyfi, grunnlagt av Trump-familien, og ble den første RWA-kjeden som integrerte USD1 i sin opprinnelige stablecoin, pUSD-reserveeiendeler.
USD1 er en stablecoin støttet av Trump-familien med en 1:1 full bindingsgodkjenning av amerikanske statsobligasjoner, med en nåværende markedsverdi på 2,2 milliarder dollar og det nest største 24-timers handelsvolumet i stablecoin-markedet, nest etter USDT.
Med andre ord, USD1 er ikke et vanlig stablecoin-prosjekt, med dobbel støtte fra Trump-familien og SEC. Dette er i sammenheng med den nåværende kryptovennlige regjeringen, som tilsvarer at RWA-sporet får en "politikk gjennom tog".
Så, hva er de viktigste høydepunktene i dette samarbeidet?
1) Det har blitt et faktum at RWA foretar storskala kommersielle anvendelser av institusjonelle fond: Tidligere har MGX, som støttes av De forente arabiske emirater, gjort opp sin investering på 2 milliarder dollar i Binance med USD1, noe som bekrefter at RWA-fortellingen har en storskala kommersiell anvendelse.
Derfor, for Plume, er tilgang til USD1 ikke bare en likviditetsstøtte på 2,2 milliarder dollar, men betyr også at RWA har blitt trukket tilbake fra den rene DeFi-scenen for å bli en infrastruktur som kan påta seg enorme mengder midler i tradisjonell finans. I hovedsak representerer det RWA for å oppnå overgangen fra "proof of concept" til "kommersialisering";
2) Det er usikkerhet i stablecoin-markedslandskapet: USD1 har vokst fra null til 2,2 milliarder dollar i markedsverdi, og dets 24-timers handelsvolum kan overgå USDC for å bli nummer to. En så høy hastighet beviser faktisk at duopolkonkurransemønsteret som USDT og USDC lett utnyttes av USD1, som har "politisk støtte".
Åpenbart er Plumes tidlige tilgang til USD1 faktisk å strebe etter en tidlig posisjon i det nye markedsmønsteret for stablecoins. Mens andre RWA-prosjekter fortsatt sliter med USDT eller USDC, er Plume allerede på siden av politisk sikkerhet;
For å oppsummere: i det nåværende miljøet der krypto er sårbar for politiske påvirkninger, er det noen ganger mer sannsynlig at "politisk korrekthet" bringer kortsiktig alfa enn teknologisk innovasjon. Markedets jakt på konseptet med Trump-familien har dannet et sett med moden investeringslogikk, og denne bølgen av kortsiktig politisk utbytte må spises en stund.
Selvfølgelig kan politisk vennlighet bare betraktes som en kortsiktig katalysator, og i det lange løp må prosjekter fortsatt gå tilbake til testen av grunnleggende prinsipper. Spesielt kan RWA-økosystemet virkelig påta seg mer tradisjonelle eiendeler i kjeden, og om det kan lage differensierte produktinnovasjoner under samsvarsrammeverket.

Plume - RWAfi Chain1. juli, 08:20
Off the heels of our meetings with Treasury and SEC's Crypto Task Force last month, we are grateful that we got the privilege to spend time with Donald J. Trump, the president of the United States to discuss crypto policy, tokenization, and the future of RWAs in America.
The passing of the GENIUS Act sets the stage for the future of crypto in America. Our meeting with the SEC Crypto Task Force and the announcement from Paul Atkins referencing the innovation exemption that we introduced for onchain products like Nest underscore how serious this is.
We are excited to continue working with the President of the United States, Donald J. Trump, and the rest of the cabinet — including Scott Bessent, Vice President J.D. Vance, the SEC Crypto Task Force, and the Treasury to define and advance crypto policy in America, enabling a free, open, and permissionless world for everyone.
This is the start of much more, where permissionless innovation and regulatory clarity go hand-in-hand. Trillions of dollars of liquidity inbound.
Plumerica 🇺🇸

17,07K
Nylig, da jeg observerte AI-industrien, fant jeg ut at det er en stadig mer "synkende" endring: fra den opprinnelige mainstream-konsensus om datakraftkonsentrasjon og "store" modeller, har en gren som favoriserer lokale små modeller og edge computing utviklet seg.
Dette kan sees fra Apple Intelligences dekning av 500 millioner enheter, til Microsofts lansering av den 330 millioner parametere lille modellen Mu dedikert til Windows 11, til Googles DeepMinds robot "off-network"-operasjon, etc.
Hva er forskjellen? Cloud AI er basert på parameterskala og treningsdata, og evnen til å brenne penger er kjernekonkurransen. Lokal AI handler om teknisk optimalisering og scenariotilpasning, og vil gå lenger i å beskytte personvern, pålitelighet og gjennomførbarhet. (Hallusinasjonsproblemet til den generiske hovedmodellen vil alvorlig påvirke penetrasjonen av vertikale scener)
Faktisk vil dette ha en større mulighet for web3 AI, det viser seg at når alle kjemper om "generalisering" (databehandling, data, algoritmer) evner, blir de naturlig monopolisert av tradisjonelle gigantiske produsenter, og det er en dåres drøm å konkurrere med Google, AWS, OpenAI, etc.
Men i en verden av lokaliseringsmodell + edge computing er situasjonen for blokkjedeteknologitjenester veldig annerledes.
Når en AI-modell kjører på en brukers enhet, hvordan kan det bevises at utdataene ikke har blitt tuklet med? Hvordan samarbeider du om modeller uten at det går på bekostning av personvernet ditt? Disse spørsmålene er nettopp styrken til blokkjedeteknologi...
Noen nye prosjekter relatert til web3 AI, for eksempel Lattica, en datakommunikasjonsprotokoll som nylig ble lansert av Pantera 10Ms @Gradient_HQ, for å løse datamonopolet og black box-problemene til sentraliserte AI-plattformer; @PublicAI_ HeadCap, en hjernebølgeenhet, samler inn ekte menneskelige data og bygger et "manuelt verifiseringslag", som har oppnådd 14 millioner inntekter; Faktisk prøver de å løse problemet med "pålitelighet" til lokal AI.
Konklusjon: Først når AI virkelig "synker" til hver enhet, vil desentralisert samarbeid gå fra et konsept til en nødvendighet?
#Web3AI I stedet for å fortsette å rulle opp i generaliseringssporet, bør prosjektet seriøst tenke på hvordan man kan gi infrastrukturstøtte for bølgen av lokalisert AI.
7,19K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til