Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Oberoende forskare | Forskare | Tolkning av blockkedjans spjutspetsteknik ur ett tekniskt och affärsmässigt perspektiv | ZK、AI Agent、DePIN, etc | Hardcore Vetenskap | Tidigare:@ambergroup_io | @peckshield | DMs för Collab | Community är endast tillgängligt för Substack-medlemmar
@circle, som en gång investerade i Sei på ett lågmält sätt, har äntligen kommit att "stödja gamla vänner" efter att ha avancerat till Wall Street med lysande resultat? Efter att den inhemska USDC listar Sei kan många människor vara nyfikna, varför är det @SeiNetwork? Vad kommer effekten att bli av den "nya identiteten" för börsnoterade compliant stablecoin-utgivare?
1) Sei är en högpresterande layer1-blockkedja född specifikt för optimering av transaktioner med digitala tillgångar, som uppnår flera transaktioner samtidigt genom en parallell EVM-arkitektur och sedan uppnår 390 millisekunders slutgiltighet och 28 300 TPS parallellbearbetningskapacitet, vilket gör den till en typisk representant för banbrytande högpresterande blockkedjor.
Dessutom är nyckeln inte "running score"-poängen, målet med den högpresterande layer1-prestandamekanismen är faktiskt om den kan öppna upp ett nytt högfrekvent applikationsscenario som kan lösa högfrekventa betalningar på företagsnivå.
Seis differentiering ligger i dess underliggande optimering specifikt för handelsscenarier: den inbyggda inbyggda ordermatchningsmotorn (OME) bekämpar direkt MEV-problem, konsensusmekanismen med dubbelturbo och SeiDB-lagringslagret förhindrar dataexpansion på kedjan, etc., vilket gör det till ett "exklusivt" spår för högfrekvent cirkulation av stablecoins.
Därför går USDC samman med den gamla vännen Sei som ett nytt börsnoterat företag, det ena tillhandahåller motorvägar och det andra kommer till sportbilar, vilket är ett perfekt par partners? Om Circles tidiga investering i Sei var en strategisk investering, var lanseringen av USDC uppenbarligen för att göra den ursprungliga investeringen kommersiellt realiserad.
2) Som en noterad kompatibel stablecoin-utgivare kan USDC, som världens mest pålitliga och reglerade stablecoin, naturligtvis lansera Sei.
Men den stora fördelen är att jag känner att detta faktiskt är den "upphandlingsstandard" som utfärdats av Wall Street för kryptoinfrastruktur.
Kom ihåg att stablecoins ifrågasattes för tre år sedan, till BlackRock, Fidelity, etc. som tog initiativet till att lägga ut infrastrukturen för digitala tillgångar, till lanseringen av GENIUS Act, till stablecoin-utgivaren Circle har blivit den nya favoriten bland amerikanska aktier, och så vidare. Om inte annat så måste Wall Street sålla bort fler "kvalificerade leverantörer" som kan åta sig institutionella fonder?
Efter noteringen är Circle under press från resultattillväxt och offentliggörande av finansiella rapportdata, och det kan bara driva USDC till territoriet för "vanliga kommersiella applikationer" med större ansträngningar, och det finns bara ett sätt att välja det scenario som kan tillåta stablecoin-applikationsscenarier att skala av den interna cirkulationen av rena valutaspekulationstransaktioner: storskaliga genombrott i högfrekventa betalningsscenarier på företagsnivå, inklusive lönehantering i realtid, gränsöverskridande B2B-avveckling på millisekundnivå, finansiella betalningar i leveranskedjan och andra uppdelade scenarier.
Jag tror att detta är den centrala betydelsen av Circle, som en börsnoterad kompatibel stablecoin-utgivare, $SEI som ett banbrytande högpresterande transaktionsoptimeringslager 1 snabbt "äktenskap".
8,93K
Kan $ETH verkligen replikera det "positiva svänghjulet" i BTC:s mikrostrategi kring denna Ethereum-version av "Micro Strategy Summer"-hysterin? På tal om några personliga åsikter:
1) ETH mikrostrategi är verkligen en framgångsrik modell för att efterlikna BTC-mikrostrategi, och många amerikanska aktiebolag kommer att prova Fomo på kort sikt och bilda en våg av positivt svänghjul. Oavsett vilka enheter som handlar med amerikanska aktier, har det faktum att traditionella institutionella fonder med riktiga pengar och aktieägarnas köpkraft använder $ETH som en reservtillgång verkligen fört Ethereum ur ett långsiktigt svagt tillstånd.
Med andra ord driver Fomo uppgången, vilket är den oföränderliga järnlagen för tjurmarknaden i valutacirkeln, men den här gången är Fomos huvudkropp inte längre rena privatinvesterare i valutacirkeln, utan riktiga pengar på Wall Street, vilket åtminstone verifierar att ETH äntligen har blivit av med dilemmat att enbart förlita sig på den staplade berättelsen om valutacirkeln och började locka till sig inkrementella medel utanför cirkeln;
2) BTC är närmare positioneringen av "digitalt guld" som en reservtillgång, med relativt stabilt värde och tydliga förväntningar, medan ETH i huvudsak är en "produktiv tillgång", och dess värde är bundet till flera faktorer som utnyttjandegraden av Ethereum-nätverket, gasavgiftsintäkter och ekologisk utveckling. Detta innebär att ETH som reservtillgång är mer volatil och osäker.
När Ethereums ekosystem stöter på stora tekniska säkerhetsproblem, eller tillsynsmyndigheter sätter press på DeFi, staking och andra funktioner, är riskerna och volatilitetsvariablerna som ETH står inför som reservtillgång mycket högre än för BTC. Därför kan den narrativa logiken i BTC-versionen av mikrostrategin användas som referens, men det betyder inte att marknadsprissättningen och värderingslogiken också kan vara konsekvent.
3) Ethereums ekosystem har mer mogen DeFi-infraackumulering och rikare narrativ formbarhet jämfört med BTC. Genom insatsmekanismen kan ETH generera en inhemsk avkastning på cirka 3-4 %, vilket gör den likvärdig med "räntebärande statsobligationer på kedjan" i kryptovärlden.
På kort sikt är den här historien en baisse för den ursprungliga konstruktionen av BTC layer2 och andra infrastrukturer för att tillhandahålla inhemska tillgångar för BTC, men i det långa loppet är det tvärtom.
4) Den här omgången av mikrostrategisommar är i huvudsak en stor omblandning av den narrativa orienteringen av Crypto tidigare, och det ursprungliga projektteamet byggde projektet och spred teknikberättelsen till VC och privata investerare på marknaden, för att uttrycka det rakt på sak, allt berättas för de infödda i valutacirkeln.
Den viktigaste skillnaden är att Wall Street inte äter rena konceptpajer, de vill ha PMF - real user growth, revenue model, market size, etc. Detta tvingar kryptoprojekt att gå från "tekniskt narrativorienterade" till "affärsvärdesorienterade", är inte detta det tryck som den tidigare konkurrenten Solana förde till Ethereum? När allt kommer omkring måste du fortfarande möta det;
5) Den här omgången av amerikanska aktiehandlare med mikrostrategikoncept, inklusive SharpLink Gaming, Bitmine immersion Tech, Bit Digital, BTCS inc., etc., är mestadels företag med svag tillväxt i traditionell kapitalmarknadsverksamhet och behöver integrera krypto för att hitta nya genombrott.
Anledningen till att dessa handlare vågar vara så radikala är till stor del att använda "arbitragefönstret" innan den amerikanska regeringen drastiskt främjar omvandlingen av kryptoindustrin till mognaden av regleringsmekanismen. På kort sikt finns det många kryphål i lagstiftningen och efterlevnaden - t.ex. tvetydigheten i redovisningsstandarder för klassificering av kryptotillgångar, uppmjukningen av SEC:s krav på offentliggörande och gråzonen för skattebehandling.
Framgången för mikrostrategier skördar till stor del frukterna av BTC:s supertjurmarknad, men som kopist kanske de inte har samma tur och handelsförmåga. Därför skiljer sig marknadspopulariteten som handelsenheten ger den här gången inte mycket från den tidigare rena Crypto-berättelsens hype, och det är i huvudsak en chansning och försök och misstag, så kom ihåg att vara försiktig med investeringsrisker.
Notera: Den här omgången av mikrostrategisommar är mer som en "stor träning" för Crypto för att komma in i det vanliga finansiella systemet, alla är glada om det lyckas och en liten glädje när det misslyckas (experimentet som kan dra ETH ut ur träsket av svag berättelse är trots allt en framgång eller ett misslyckande!). )

16,32K
Tidigare, när $ETH steg, skulle det sätta igång en rotationsrunda i Ethereums ekosystem, och narrativa sektorer som MeMe-mynt, DeFi blue-chip layer2, NFT, GameFi, ZK och modularitet lanserades i tur och ordning, vilket kan beskrivas som hundra blommor som blommar;
Nu när $ETH har tagit fart igen har marknaden förändrats helt, och alla borde sluta uppmärksamma den innovativa berättelsen om Ethereums inhemska ekosystem, och istället leta efter TradiFi för att kapsla in ETH-tillgångar, eller till och med oavsett bakgrunden hos dessa institutioner/företag klädda i amerikansk aktietokenisering.
Tja, BTC har till och med nått en ny topp, och ETH är också redo att vänta på en ny topp, men kommer den sedan länge förlorade Crypto native altcoin-säsongsmarknaden att återvända? Är den nya omgången av traditionell finansledd RWA-konvergens verkligen mer sannolik än en fälla? Är den välbekanta Crypto-detaljhandelsmarknaden full av vildhet, innovation, möjligheter, volatilitet och fantasi fortfarande kvar?
60,23K
Haotian | CryptoInsight delade inlägget
AI påverkar Web3, kommer AgentFi att vara kärnvariabeln i nästa våg?
Imorgon kväll kommer vi att gå samman med branschalfas för att hålla en djupgående diskussion om "AgentFi: Nya möjligheter för Web3 Agent Economy under AI Wave":
Detaljer om 🔽 evenemanget
Datum: 18 juli (fredag)
Tid: 20:00
Språk: Kinesiska
Gästernas uppställning:
- Haotian @tmel0211 (oberoende forskare)
- 0xTodd @0x_Todd (partner, Nothing Research / medgrundare, Ebunker)
- LaoBai @wuhuoqiu (tidigare investerings- och forskningspartner, ABCDE)
- Howe @0xcryptoHowe (Praktikant i Amber Group)
- Anne @AnneXingxb (AI-forskare, Amber Group)
Ämnena inkluderar entreprenörsmöjligheter för agenter, strukturella variabler, AI+Crypto-integrationsvägar och framtidsutsikter.
Välkommen att lyssna och förutse nästa brytpunkt 👉 i agentekonomin
Vi ses imorgon kväll!

4,55K
Varför är $ETH:s nya toppar viktiga för altcoin-marknaden?
1) Som det ledande projektet för den tekniska berättelsen bör återkomsten av marknadens förtroende för den tekniska berättelsen om altcoin-marknaden baseras på marknadens återtro till ETH:s tekniska färdplan och visionen om tillämpningen av produktprotokollet.
2) ETH-produktion är inte bara ett enda tekniskt narrativt projekt, utan även det tekniska logiska förhållandet mellan dess stora ekologiska projekt, TVL-likviditetskomponerbarhet, ömsesidigt prissättnings- och utvärderingssystem, etc., bestäms alla av Ethereums marknadsfundamenta och påverkas direkt.
3) ETH-ekosystemet har fällt ut för många gamla berättelser som inte förväntas, om DeFi kan återupplivas igen, om NFT kan sätta igång en ny våg av litteratur och konst, om layer2 verkligen har värdet av Mass Adoption, om den nya berättelsen om RWA kan leda huvudvågen, etc. Under marknadsnedgången kan dessa narrativ som var överundertryckta av känslor starta en omgång av förödande rotation när värderingslogiken för ETH bryter nya toppar och repareras;
9,74K
Man kan se att det finns fler och fler projekt att TGE, men grunderna för altcoin-marknaden verkar inte ha förbättrats mycket:
1) Ethereum är fortfarande på en låg nivå och har ännu inte effektivt kunnat starta en ny omgång av copycat-säsongsmarknaden, och det är svårt att säga hur mycket den kommer att stiga, men känslorna måste vara på plats, åtminstone tills tron på den tekniska berättelsen som domineras av den stora etern återvänder;
2) Nu inför olika negativa buffar som utarmning av likviditeten, brist på teknisk berättelse och ingen airdrop word-of-mouth-effekt, sägs det att det är ett hjälplöst drag för projektparten, men ur en annan synvinkel är de projekt som för närvarande har modet att ge ut mynt under marknadens botten och sedan följa upp drift och underhåll för att bli större mycket mer tillförlitliga än de projekt som fortfarande väntar på utgivningen av mynt när likviditeten är riklig;
3) Kontrasten mellan Bitcoins solodans och ensamheten hos altcoins har länge varit polariserad, men vi kan inte förvänta oss att rädda altcoin-marknaden enbart genom att förlita oss på Bitcoins spridningseffekt.
21,19K
Efter att ha inventerat flera populära projekt i Crypto+AI-spåret under den senaste månaden konstaterades det att det finns tre betydande trendförändringar, med korta introduktioner och kommentarer om projekten:
1) Den tekniska vägen för projektet är mer pragmatisk, och det börjar fokusera på prestandadata snarare än ren konceptpaketering;
2) Vertikala indelningsscenarier har blivit fokus för expansion, och generaliserad AI har gett vika för specialiserad AI;
3) Kapitalet ägnar mer uppmärksamhet åt verifiering av affärsmodeller, och projekt med kassaflöde är uppenbarligen mer gynnade;
Bifogat: Projektintroduktion, Höjdpunktsanalys, Personliga kommentarer:
1、 @yupp_ai
Projektintroduktion: En decentraliserad plattform för utvärdering av AI-modeller, som slutförde en såddrunda på 33 miljoner dollar i juni, ledd av a16z och där Jeff Dean deltog.
Lyft fram analys: Tillämpa fördelarna med mänsklig subjektiv bedömning på utvärderingsbristerna hos AI. Genom artificiell crowdsourcing för att få 500+ stora modeller kan användarfeedback tas ut (1000 poäng = 1 USD), vilket har lockat företag som OpenAI att köpa data och ha ett riktigt kassaflöde.
Personlig kommentar: Ett projekt med en tydligare affärsmodell är inte en renodlad kassaförbränningsmodell. Anti-swiping-algoritmen är dock en stor utmaning, och anti-Sybil-attackalgoritmen måste optimeras kontinuerligt. Men att döma av storleken på finansieringen på 33 miljoner US-dollar är det uppenbart att kapitalet ägnar mer uppmärksamhet åt projekt med realiserbar verifiering.
2、 @Gradient_HQ
Introduktion i projektöversikt: Decentraliserat AI-datornätverk, som slutförde en såddrunda på 10 miljoner dollar i juni, ledd av Pantera Capital och Multicoin Capital.
Höjdpunktsanalys: Genom att förlita sig på Sentry Nodes webbläsartillägg finns det redan en viss marknadskonsensus inom området Solana DePIN, teammedlemmar från Helium, etc., det nyligen lanserade Lattica-dataöverföringsprotokollet och Parallax-inferensmotorn, som har gjort betydande utforskningar inom edge computing och dataverifierbarhet, vilket kan minska latensen med 40 % och stödja heterogen enhetsåtkomst.
Personlig kommentar: Riktningen är väldigt rätt, men har fastnat i den "sjunkande" trenden med AI-lokalisering. Men för att hantera komplexa uppgifter mer effektivt än centraliserade plattformar är stabiliteten hos kantnoder fortfarande ett problem. Edge computing är dock ett nytt krav för web2AI-involution, och det är också fördelen med web3AI:s distribuerade ramverk.
3、 @PublicAI_
Projektintroduktion: En decentraliserad AI-datainfrastrukturplattform som uppmuntrar globala användare att bidra med data inom flera områden (medicinsk, autonom körning, röst, etc.) genom tokens, med en kumulativ intäkt på mer än 14 miljoner US-dollar och ett nätverk av databidragsgivare på miljonnivå.
Höjdpunktsanalys: Den tekniska integrationen av ZK-verifiering och BFT-konsensusalgoritm säkerställer datakvalitet, och Amazon Nitro Enclaves teknik för integritetsbehandling används också för att uppfylla efterlevnadskraven. Vad som är mer intressant är lanseringen av hjärnvågsinsamlingsenheten HeadCap, som kan ses som en förlängning från mjukvara till hårdvara. Den ekonomiska modellen är också väl utformad, användare kan tjäna $16 + 500 000 poäng för 10 timmars röstkommentarer, och kostnaden för företagsprenumerationsdatatjänster kan minskas med 45%.
Personliga kommentarer: Jag känner att det största värdet med det här projektet är att möta de verkliga behoven av AI-dataannotering, särskilt inom områden som sjukvård och autonom körning, som har extremt höga krav på datakvalitet och efterlevnad. Felfrekvensen på 20 % är dock fortfarande lite högre än 10 % för traditionella plattformar, och fluktuationer i datakvaliteten är ett problem som måste lösas kontinuerligt. Riktningen för gränssnittet mellan hjärna och dator är ganska fantasifull, men det är inte lätt att utföra.
4、 @sparkchainai
Introduktion till projektet: Solanas distribuerade datorkraftsnätverk på kedjan slutförde en finansieringsrunda på 10,8 miljoner dollar i juni, ledd av OakStone Ventures.
Höjdpunktsanalys: Dynamic sharding-teknik aggregerar inaktiva GPU-resurser och stöder stor modellinferens som Llama3-405B, vilket är 40 % lägre än AWS. Utformningen av tokeniserade datatransaktioner är ganska intressant, eftersom den direkt förvandlar hashrate-bidragsgivare till intressenter och uppmuntrar fler människor att delta i nätverket.
Personlig kommentar: Den typiska modellen "aggregera inaktiva resurser" är logisk. Men felfrekvensen på 15 % över kedjan är faktiskt lite hög, och den tekniska stabiliteten måste poleras. I 3D-rendering, som inte kräver realtidsprestanda, finns det dock fördelar, och nyckeln är om felfrekvensen kan minskas, annars kommer den att dras ner av tekniska problem, oavsett hur bra affärsmodellen är.
5、 @olaxbt_terminal
Introduktion i projektkorthet: En AI-driven högfrekvent handelsplattform för kryptovaluta som slutförde en såddrunda på 3,38 miljoner dollar i juni, ledd av @ambergroup_io.
Höjdpunktsanalys: MCP-teknik kan dynamiskt optimera transaktionsvägar, minska glidning och öka den uppmätta effektiviteten med 30 %. Att tillgodose den #AgentFi trenden kan betraktas som att hitta en ingångspunkt i det relativt tomma segmentet av DeFi kvantitativ handel, som kan betraktas som att fylla marknadens efterfrågan.
Personlig kommentar: Riktningen är bra, DeFi behöver smartare handelsverktyg. Högfrekvenshandel kräver dock extremt hög latens och noggrannhet, och realtidssynergin mellan AI-förutsägelse och utförande i kedjan måste verifieras. Dessutom är MEV-attacker en stor risk, och de tekniska skyddsåtgärderna måste hålla jämna steg.
Obs: För fler nya projekt i AI+Crypto-spåret kan du lägga till dem i kommentarsfältet, och jag kommer att granska projekt med investeringsforskningsvärde för att följa upp och dela, tack.
8,52K
Förutom att AI-lokalisering har "sjunkit" är den största förändringen inom AI-området på senare tid att tekniken för multimodal videogenerering har gjort ett genombrott, från det ursprungliga stödet för vanlig text för att generera video till den integrerade tekniken för fulllänksgenerering av text + bild + ljud.
Låt oss prata om några fall av tekniska genombrott, och låt oss känna det:
1) ByteDances EX-4D-ramverk med öppen källkod: monokulär video blir 4D-innehåll med fri visning på några sekunder, och användarens igenkänningsgrad når 70,7 %. Med andra ord, för en vanlig video kan AI automatiskt generera en visningseffekt från vilken vinkel som helst, vilket tidigare krävde ett professionellt 3D-modelleringsteam för att hantera;
2) Baidus "Drawing Imagination"-plattform: En bild genererar en 10-sekunders video och hävdar att den kan uppnå "filmisk" kvalitet. Men det är inte en överdriven komponent i marknadsföringsförpackningen, och vi måste vänta på den faktiska effekten efter uppdateringen av Pro-versionen i augusti;
3) Google DeepMind Veo: Den kan uppnå samtidig generering av 4K-video + omgivande ljud. Den viktigaste tekniska höjdpunkten är uppnåendet av "synkroniseringsförmågan", som tidigare skarvades av video- och ljudsystem, och det är nödvändigt att övervinna stora utmaningar för att uppnå verklig semantisk nivåmatchning, såsom synkronisering av ljud och bild som motsvarar gångrörelser och fotsteg i bilden i komplexa scener;
4) Douyin ContentV: 8 miljarder parametrar, 2,3 sekunder för att generera 1080p-video, kostnad 3,67 yuan/5 sekunder. För att vara ärlig är denna kostnadskontroll okej, men för närvarande är produktionskvaliteten inte tillfredsställande när man stöter på komplexa scenarier;
Varför är dessa fall av stort värde och betydelse när det gäller videokvalitet, genereringskostnader och applikationsscenarier?
1. När det gäller tekniska värdegenombrott är komplexiteten i en multimodal videogenerering ofta exponentiell, en bild med en enda bildruta genereras med cirka 10^6 pixlar, och videon bör säkerställa tidskoherens (minst 100 bilder), plus ljudsynkronisering (10^4 samplingspunkter per sekund), och 3D-rumslig konsistens bör övervägas.
Sammantaget är den tekniska komplexiteten inte låg, ursprungligen en superstor modell som stelnade alla uppgifter, det sägs att Sora brände tiotusentals H100 för att ha förmågan att generera video. Nu kan det uppnås genom modulär nedbrytning + stor modellarbetsfördelning och samarbete. Till exempel demonterar Bytes EX-4D faktiskt komplexa uppgifter i: djupuppskattningsmodul, perspektivkonverteringsmodul, tidsinterpolationsmodul, renderingsoptimeringsmodul och så vidare. Varje modul är dedikerad till en sak, och sedan samordnas den genom en samordningsmekanism.
2. Kostnadsminskning: Faktum är att optimeringen av själva inferensarkitekturen inkluderar den hierarkiska genereringsstrategin, som först genererar skelettet med låg upplösning och sedan förbättrar bildinnehållet med hög upplösning; Mekanismen för återanvändning av cache är återanvändning av liknande scenarier. Dynamisk resursallokering är faktiskt att justera modellens djup efter komplexiteten i det specifika innehållet.
Efter en sådan uppsättning optimering kommer det att finnas ett resultat på 3,67 yuan/5 sekunder av Douyin ContentV.
3. När det gäller applikationseffekt är traditionell videoproduktion ett tillgångstungt spel: utrustning, arenor, skådespelare och efterproduktion, det är normalt att en 30-sekunders reklamfilm kostar hundratusentals dollar. Nu komprimerar AI denna process till Prompt+ några minuters väntan och kan uppnå perspektiv och specialeffekter som är svåra att uppnå med traditionell fotografering.
På så sätt har de tekniska och ekonomiska hindren för videoproduktion förändrats till kreativitet och estetik, vilket kan främja en ommöblering av hela kreatörsekonomin.
Frågan är vad det har att göra med web3AI på grund av så många förändringar på efterfrågesidan av web2AI-tekniken?
1. Först och främst har strukturen för efterfrågan på datorkraft förändrats, tidigare kämpade AI om datorkraftens skala, och den som hade mer homogena GPU-kluster skulle vinna, men multimodal videogenerering krävde en diversifierad kombination av datorkraft, som kan krävas för distribuerad inaktiv datorkraft, såväl som olika distribuerade finjusteringsmodeller, algoritmer och inferensplattformar.
2. För det andra kommer efterfrågan på dataannotering också att stärkas, och behovet av att generera en video på professionell nivå krävs: korrekt scenbeskrivning, referensbild, ljudstil, kamerarörelsespår, ljusförhållanden, etc. kommer att bli en ny efterfrågan på professionell dataannotering, och incitamentmetoden för web3 kan stimulera fotografer, ljudtekniker, 3D-artister, etc. för att tillhandahålla professionella datapixlar och förbättra förmågan till AI-videogenerering med professionell vertikal dataannotering;
3. Slutligen är det värt att nämna att när AI gradvis går från centraliserad storskalig resursallokering tidigare till modulärt samarbete, är det ett nytt krav på decentraliserade plattformar. Vid den tidpunkten kommer datorkraft, data, modeller, incitament etc. att kombineras för att bilda ett självförstärkande svänghjul, som sedan kommer att driva integrationen av web3AI- och web2AI-scenarier.

Haotian | CryptoInsight2 juli 10:37
Nyligen, när jag observerade AI-industrin, fann jag att det finns en alltmer "sjunkande" förändring: från den ursprungliga mainstream-konsensus om datorkraftskoncentration och "stora" modeller har en gren som gynnar lokala små modeller och edge computing utvecklats.
Detta kan ses från Apple Intelligences täckning av 500 miljoner enheter, till Microsofts lansering av den lilla modellen Mu med 330 miljoner parametrar som är dedikerad till Windows 11, till Googles DeepMinds robotoperation "off-network", etc.
Vad är skillnaden? Cloud AI baseras på parameterskala och träningsdata, och förmågan att bränna pengar är den viktigaste konkurrensen. Lokal AI handlar om teknisk optimering och anpassning av scenarier och kommer att gå längre när det gäller att skydda integritet, tillförlitlighet och genomförbarhet. (Hallucinationsproblemet för den huvudsakliga generiska modellen kommer allvarligt att påverka penetrationen av vertikala scener)
Faktum är att detta kommer att ha en större möjlighet för web3 AI, det visar sig att när alla kämpar för "generalisering" (databehandling, data, algoritmer) kapacitet, monopoliseras de naturligtvis av traditionella jättetillverkare, och det är en dåres dröm att konkurrera med Google, AWS, OpenAI, etc.
Men i en värld av lokaliseringsmodeller + edge computing är situationen för blockkedjetekniktjänster mycket annorlunda.
När en AI-modell körs på en användares enhet, hur kan det bevisas att utdata inte har manipulerats? Hur samarbetar du om modeller utan att kompromissa med din integritet? Det är just dessa frågor som är styrkan i blockkedjetekniken...
Några nya projekt relaterade till web3 AI, som Lattica, ett datakommunikationsprotokoll som nyligen lanserades av Pantera 10M:s @Gradient_HQ, för att lösa datamonopolet och problemen med svarta lådor för centraliserade AI-plattformar; @PublicAI_ HeadCap, en hjärnvågsenhet, samlar in riktiga mänskliga data och bygger ett "manuellt verifieringslager", som har uppnått 14 miljoner intäkter; Faktum är att de försöker lösa problemet med "pålitlighet" hos lokal AI.
Slutsats: Först när AI verkligen "sjunker" till varje enhet kommer decentraliserat samarbete att gå från ett koncept till en nödvändighet?
#Web3AI I stället för att fortsätta att rulla upp i generaliseringsspåret bör projektet allvarligt fundera på hur man kan tillhandahålla infrastrukturstöd för vågen av lokaliserad AI.
10,83K
Under de senaste dagarna har andrahandsmarknaden för @plumenetwork $PLUME presterat bra, vilket verifierar det faktum att om den nuvarande kryptomarknaden kan relateras till Trump-familjen kan den skörda stabil lycka? Vad är det som händer?
Nyligen tillkännagav Plume ett stort partnerskap med World Liberty Finance (WLFI) @worldlibertyfi, grundat av Trump-familjen, och blir den första RWA-kedjan som integrerar USD1 i sitt inhemska stablecoin, pUSD-reservtillgångar.
USD1 är ett stablecoin som backas upp av Trump-familjen med ett 1:1 fullt stöd för amerikanska statsobligationer, med ett nuvarande börsvärde på 2,2 miljarder dollar och den näst största 24-timmars handelsvolymen på stablecoin-marknaden, näst efter USDT.
Med andra ord är USD1 inte ett vanligt stablecoin-projekt, med dubbelt stöd från Trump-familjen och SEC. Detta är i samband med den nuvarande kryptovänliga regeringen, vilket motsvarar att RWA-spåret får en "policy genom tåg".
Så, vilka är de viktigaste höjdpunkterna i detta samarbete?
1) Det har blivit ett faktum att RWA åtar sig storskaliga kommersiella tillämpningar av fonder av institutionell kvalitet: Tidigare har MGX, som stöds av Förenade Arabemiraten, reglerat sin investering på 2 miljarder dollar i Binance med USD1, vilket verifierar att RWA-berättelsen har en storskalig kommersiell tillämpning.
För Plume är därför tillgången till USD1 inte bara ett likviditetsstöd på 2,2 miljarder dollar, utan innebär också att RWA har dragits tillbaka från den rena DeFi-scenen för att bli en infrastruktur som kan ta emot enorma summor pengar inom traditionell finans. I huvudsak representerar det RWA för att uppnå övergången från "proof of concept" till "kommersialisering";
2) Det finns osäkerhet i stablecoin-marknadslandskapet: USD1 har vuxit från noll till 2,2 miljarder dollar i börsvärde, och dess 24-timmars handelsvolym kan överträffa USDC för att rankas på andra plats. En sådan snabb hastighet bevisar faktiskt att duopolkonkurrensmönstret som USDT och USDC lätt kan utnyttjas av USD1, som har "politiskt stöd".
Uppenbarligen är Plumes tidiga tillgång till USD1 faktiskt att sträva efter en tidig position i det nya marknadsmönstret för stablecoins. Medan andra RWA-projekt fortfarande kämpar med USDT eller USDC, är Plume redan på den politiska säkerhetens sida;
För att sammanfatta: i den nuvarande miljön där krypto är sårbart för politiska influenser, är det ibland mer sannolikt att "politisk korrekthet" ger kortsiktig alfa än teknisk innovation. Marknadens strävan efter konceptet med Trump-familjen har format en uppsättning mogna investeringslogiker, och denna våg av kortsiktiga politiska utdelningar måste ätas upp ett tag.
Politisk vänlighet kan naturligtvis bara betraktas som en katalysator på kort sikt, och på lång sikt måste projekten fortfarande återgå till att testa de grundläggande principerna. I synnerhet kan RWA-ekosystemet verkligen ta sig an mer traditionella tillgångar i kedjan, och om det kan göra differentierade produktinnovationer inom ramen för efterlevnad.

Plume - RWAfi Chain1 juli 08:20
Efter våra möten med finansdepartementet och SEC:s Crypto Task Force förra månaden är vi tacksamma för att vi fick privilegiet att tillbringa tid med Donald J. Trump, USA:s president, för att diskutera kryptopolitik, tokenisering och framtiden för RWA:er i Amerika.
Antagandet av GENIUS Act sätter scenen för kryptons framtid i Amerika. Vårt möte med SEC Crypto Task Force och tillkännagivandet från Paul Atkins med hänvisning till det innovationsundantag som vi införde för onchain-produkter som Nest understryker hur allvarligt detta är.
Vi är glada över att fortsätta arbeta med USA:s president, Donald J. Trump, och resten av kabinettet – inklusive Scott Bessent, vicepresident J.D. Vance, SEC Crypto Task Force och finansdepartementet för att definiera och främja kryptopolitik i Amerika, vilket möjliggör en fri, öppen och tillståndslös värld för alla.
Det här är början på mycket mer, där tillståndslös innovation och tydlighet i regelverk går hand i hand. Biljoner dollar i inkommande likviditet.
Plumerica 🇺🇸

17,07K
Nyligen, när jag observerade AI-industrin, fann jag att det finns en alltmer "sjunkande" förändring: från den ursprungliga mainstream-konsensus om datorkraftskoncentration och "stora" modeller har en gren som gynnar lokala små modeller och edge computing utvecklats.
Detta kan ses från Apple Intelligences täckning av 500 miljoner enheter, till Microsofts lansering av den lilla modellen Mu med 330 miljoner parametrar som är dedikerad till Windows 11, till Googles DeepMinds robotoperation "off-network", etc.
Vad är skillnaden? Cloud AI baseras på parameterskala och träningsdata, och förmågan att bränna pengar är den viktigaste konkurrensen. Lokal AI handlar om teknisk optimering och anpassning av scenarier och kommer att gå längre när det gäller att skydda integritet, tillförlitlighet och genomförbarhet. (Hallucinationsproblemet för den huvudsakliga generiska modellen kommer allvarligt att påverka penetrationen av vertikala scener)
Faktum är att detta kommer att ha en större möjlighet för web3 AI, det visar sig att när alla kämpar för "generalisering" (databehandling, data, algoritmer) kapacitet, monopoliseras de naturligtvis av traditionella jättetillverkare, och det är en dåres dröm att konkurrera med Google, AWS, OpenAI, etc.
Men i en värld av lokaliseringsmodeller + edge computing är situationen för blockkedjetekniktjänster mycket annorlunda.
När en AI-modell körs på en användares enhet, hur kan det bevisas att utdata inte har manipulerats? Hur samarbetar du om modeller utan att kompromissa med din integritet? Det är just dessa frågor som är styrkan i blockkedjetekniken...
Några nya projekt relaterade till web3 AI, som Lattica, ett datakommunikationsprotokoll som nyligen lanserades av Pantera 10M:s @Gradient_HQ, för att lösa datamonopolet och problemen med svarta lådor för centraliserade AI-plattformar; @PublicAI_ HeadCap, en hjärnvågsenhet, samlar in riktiga mänskliga data och bygger ett "manuellt verifieringslager", som har uppnått 14 miljoner intäkter; Faktum är att de försöker lösa problemet med "pålitlighet" hos lokal AI.
Slutsats: Först när AI verkligen "sjunker" till varje enhet kommer decentraliserat samarbete att gå från ett koncept till en nödvändighet?
#Web3AI I stället för att fortsätta att rulla upp i generaliseringsspåret bör projektet allvarligt fundera på hur man kan tillhandahålla infrastrukturstöd för vågen av lokaliserad AI.
7,19K
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda