Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meta
Gamefi veteranspelare
Investeringar och investeringar i primära och sekundära projekt
🏅Medgrundare @Opensky_888
🏅 Kärnmedlemmar @InFuture_Web3
Sedan @0G_labs och Web3Labs lanserade 0G Global Accelerator har många startup-team runt om i världen skickat in sina egna projekt. Även om de utvalda projekten ännu inte har tillkännagivits, ser alla fram emot Demo Day i Hong Kong den 29 augusti. Vad dessa applikationer har gemensamt är att de alla är djupt integrerade kring 0G-teknikstacken.
Vissa nyckelområden har blivit riktningen 🎯 för 0G:s uppmärksamhet
1️⃣AI-drivna förutsägelsemarknader
Traditionella prognosmarknader som Polymarket förlitar sig fortfarande på mekanismer för tvistlösning som skapats av människor, medan dessa nya projekt utforskar självförbättrande orakelnätverk och lösningsmekanismer med flera modeller. Ett projekt håller till och med på att utveckla en ny modell som kopplar övertygelser till pris, med AI-driven marknadsskapande och resultatvalidering.
2️⃣ Inbyggd AI-handelsplattform
Det är inte för att lägga till AI-funktioner till befintliga DeFi-plattformar, utan för att bygga AI-agentens inbyggda exekveringsmiljö från grunden. Vissa projekt använder MCP för att dynamiskt integrera dataflöden över marknader så att systemet kontinuerligt kan anpassas till förändrade marknadsförhållanden.
3️⃣ Tokeniserade AI-agenter/smarta NFT:er
0G:s ERC-7857 iNFT-standard gör det möjligt att skapa, äga, träna och tjäna pengar på AI-agenter i kedjan. Det finns nu flera projekt som utforskar allt från marknadsplatser för agenter av konsumentkvalitet till tjänster som drivs helt av omsättbara iNFT:er.
4️⃣ Decentraliserad vetenskap
DeSci-projektet fokuserar på kombinationen av AI med ägande och lagring av data, vilket är i linje med 0G:s värderingar om lagringsapplikationsmoduler och AI som en kollektiv nyttighet.
@0G_labs Som den första AI-baserade L1 tillhandahåller den den saknade infrastrukturen för att helt on-chain AI genom modulär arkitektur, verifierbart resonemang och AI-specifikt exekveringslager.
Från dessa signaler kan man se att byggare letar efter en teknisk grund som gör det möjligt för agenter, modeller och data att fungera tillförlitligt, och att komponerbarhet är standardfunktionen. Detta sammanfaller med designfilosofin för 0G.

23,67K
Fler och fler människor börjar inse att AI går igenom en "hard fork". Från den "stora modellen" som tidigare ville göra allt har den långsamt skiftat till en mer fokuserad "professionell modell". @OpenledgerHQ De fem skälen som nämns i tweeten är flervalsfrågor som hela branschen håller på med.
Ur den praktiska tillämpningsnivån är allmän AI som ett universellt verktyg, det kan göra vad som helst, men det kan inte göra någonting. Specialiserad AI, å andra sidan, är en lösning som är skräddarsydd för specifika scenarier.
🎯 Lös problem på ett målinriktat sätt
Specialiserade AI-modeller är djupt optimerade för specifika områden. AI behöver inte bearbeta irrelevanta data och scenarier, och all datorkraft och alla parametrar är fokuserade på att lösa problem inom ett vertikalt område. Effekten av detta fokus är en exponentiell ökning.
🔍 Förklarbarhet blir ett stelbent behov
I högriskscenarier som ekonomi kan du inte bara förlita dig på den svarta lådan för att ge svar. Regelkrav, efterlevnadskrav och ansvarsbestämning kräver att varje steg i AI:s resonemangsprocess kan spåras och verifieras. Specialiserade modeller kan utforma motsvarande beslutsvägar för specifika scenarier.
⛓️ Verifiering i kedjan och förtroendemekanismer
Blockkedjeteknik gör det möjligt att permanent registrera och verifiera AI:s resonemangsprocess. Specialiserad AI med certifikatlagring i kedjan kan bygga en komplett förtroendekedja. Varje resonemang och varje beslutsnod har ett spår att följa, vilket bara behövs för företagsscenarier som kräver granskning och efterlevnad.
📊 Lös problemet med hallucinationer
Hallucinationen av AI för allmänna ändamål beror till stor del på komplexiteten och mångfalden i träningsdata. Specialiserad AI kan avsevärt minska hallucinationsfrekvensen genom att begränsa omfattningen och kvaliteten på träningsdata. I vertikala fält är datakvaliteten kontrollerbar, kunskapsgränserna är tydliga och modeller är mer benägna att ge korrekta och tillförlitliga svar.
💰 Omräkning av kostnadseffektivitet
Även om AI för allmänna ändamål kan verka som om en modell kan lösa alla problem, är den faktiska implementeringskostnaden extremt hög. Specialiserad AI kan uppnå bättre resultat med mindre modellskalor, lägre inferenskostnader och mer flexibel distribution.
Bakom dessa fem punkter som @OpenledgerHQ lägger fram är det i själva verket ett svar på branschens verkliga behov. Detta är inte bara en kamp om rutter, utan också ett val av effektivitet och landbarhet. Stora modeller representerar prospektering och professionella modeller representerar industrialisering.
Ett team som Openledger som distribuerar infrastruktur på kedjan kommer sannolikt att vara infrastrukturleverantören nedströms för denna våg av förändring.

35,69K
Efter att ha lyssnat på @anoma's AMA igår kände jag att anoma var riktigt snabb.
Från allra första början av att bygga anom till att gå till testnätet varje dag för att cykla
Det känns som att tiden flyger iväg, från spänningen i att se fram emot TGE till lugnet i nuet. Till och med lite ovillig att skiljas från testnätet som är på väg att ta slut.
Igår kväll lanserade även ett nytt spel "slot", som förväntades använda Fitcoin som ett chip i spelet precis som det tidigare spelet. Oväntat nog valde jag Points till slut.
Som vi alla vet är det det den totala mängden poäng som avgör rankningen av rankningar, och vikten av rankning är uppenbar och drivs av testnets varumärkesbelöningar. Jag är faktiskt den typ av person som har en rak rygg, och jag gick ut på nätet igår och förlorade 100 000 poäng, och resultatet återhämtade sig naturligtvis inte. Det sägs att det stora priset också kan få 1 miljon poäng.
Efter framgången med stud idag är det totala antalet poäng 5,56 miljoner, vilket rankar runt 500. Förbered 100 små bollar av stud och se vad som händer!
Stud slutade på totalt 5,79 miljoner poäng och hamnade på 427:e plats. Jämfört med Stud's 100 små bollar erhölls totalt 230 000 poäng. I genomsnitt tjänar man 2300 poäng per boll.
För närvarande har testnätet utfärdat totalt cirka 25 000 koder, och den officiella uppskattningen är att utfärda 30 000. Det finns fortfarande 5 000 som inte har skickats. Rankad bland de 500 bästa, nästan topp 2% av testnätet. Men för att vara ärlig, när jag beställde 100 bollar ville jag verkligen vara "avsiktsstyrd". Säg att jag vill beställa 100 bollar, och det kommer att pirra 🤣 i hårbotten
Förutom att följa upp interaktionen med @anoma testnätet varje dag, kom ihåg att gå till DC varje onsdag för att skicka in bevis på bidrag. Dc-rollen bör också finnas i ögonblicksbilden i det senare skedet, så kom ihåg att ta den om du har möjlighet. En annan punkt att notera är NFT, du måste hitta ett sätt att få det. Jag hoppas att alla kan få stora resultat i slutändan!



40,03K
När många människor nämner AI tänker de på LLM-modeller, intelligenta Q&A och AGI-färdplaner, men i själva verket är det få som verkligen inser en sak: AI:s kärnvärdesslagfält i framtiden ligger sannolikt inte i själva modellen, utan i det innehållsmaterial som den äter, det vill säga IP.
Den nuvarande värderingen av den globala IP-ekonomin är 61,9 biljoner dollar. Men problemet är att en så stor innehållsresurs i princip är låst i en massa kontrakt, centraliserade plattformar, juridiska ramverk och slutna system. AI vill använda den för att klara fem nivåer först för att döda sex generaler, och den kan också trampa på åska.
Därför kan de flesta nuvarande AI-modeller bara samla in data i hemlighet. Artiklar, bilder, ljud och videor på Internet matas tyst till modellen för lärande. Men på det här sättet, med utbrottet av upphovsrättsproblem, plattformsblockader och fler och fler rättsliga stämningar, pågår i princip inte.
@campnetworkxyz:s idé är tydlig: blockera eller stjäl inte, utan låt själva IP:n finnas i kedjan och bli en programmerbar tillgång som kan kombineras lagligt och licensieras på ett transparent sätt.
Detta är också den mest jordnära delen av lägret. Det handlar inte om att bygga en plattform för AI-innehåll, utan om att direkt bygga upp en uppsättning underliggande protokoll och infrastruktur, så att alla skapare och innehavare av immateriella rättigheter kan registrera sitt innehåll i kedjan, skriva ner licensvillkoren och definiera intäktsfördelningsmetoden. Om du vill använda en AI-modell betalar du direkt enligt villkoren.
Viktigast av allt är att hela processen är kombinerbar. Framtida AI-modeller absorberar inte data i en stor svart låda, utan är som byggstenar som fritt distribuerar licensierbara innehållsmoduler enligt olika innehållskällor, användningsområden och stilar. Utgångspunkten för allt detta är att varje IP läggs på kedjan och har licensvillkor + intäktslogik.
Denna fråga är viktig eftersom den omvandlar förhållandet mellan AI och IP från passiv utvinning och utnyttjande till ett slags peer-to-peer-samarbete. Kreatörer är inte längre offer för plagiat, utan blir leverantörer av AI-utbildning och deltagare i kommersiella vinster.
Personligen håller jag med @campnetworkxyz om att "Den största marknaden AI kommer att beröra är IP". Oavsett hur stark modellen är måste den underhållas av data. Det spelar ingen roll hur mycket innehåll det finns, om det inte används i enlighet med reglerna kommer det förr eller senare att lägga minor ⛺️ för sig själv
41,14K
När många pratar om handelsverktyg är det inget annat än snabbare, mer sparande och smidigare. Men om du ofta gör transaktioner med flera kedjor, särskilt över Solana, ETH, Base och BSC, kommer du att förstå att dessa ord är lätta att säga, och vad som verkligen kan göras är i princip ingenting.
@LABtrade_ vill i huvudsak vara ett infrastrukturlager för transaktioner med flera kedjor. Vilken handelsprogramvara används vanligtvis, men hastigheten är snabbare, hanteringsavgiften är lägre och funktionerna är starkare. Den här idén är faktiskt ganska smart, den tvingar inte användarna att ändra sina vanor, utan optimerar i botten. Ur datasynpunkt är 20-dagars handelsvolymen på 150 miljoner US-dollar, 700 000 US-dollar i intäkter fortfarande ganska stark.
LAB erbjuder fyra produkter: trading bots, appar, sidofält, webbläsarplugins. Dessa verktyg fungerar sömlöst på alla handelsterminaler. Du behöver inte byta plattform, du behöver inte anpassa dig till gränssnittet igen och du kan njuta av snabbare hastigheter och lägre avgifter direkt i den miljö du är bekant med.
Ur en affärslogisk synvinkel har LAB förstått en mycket praktisk smärtpunkt. Den största huvudvärken för alla att göra transaktioner på kedjan är dyra avgifter, långsam hastighet och komplexa operationer. Traditionella DEX-avgifter börjar på 1 %, och du måste vänta på bekräftelse, och upplevelsen är verkligen inte bra. LAB har sänkt avgiften till 0,5% och har ingen tröskel för handelsvolym, vilket fortfarande är mycket attraktivt för privata investerare.
Ur investerarnas perspektiv leds Lemniscap av Animoca, OKX Ventures och Mirana, som är välkända institutioner i cirkeln. Denna portfölj är ganska tillförlitlig, åtminstone visar den att projektet har klarat due diligence i institutionen.
Ur ett tekniskt perspektiv stöder LAB redan vanliga kedjor som Solana, Ethereum, Base och BSC. Stöd med flera kedjor är verkligen en nödvändighet i den nuvarande ekologiska fragmenteringsmiljön, och användarna behöver inte byta plånböcker och verktyg fram och tillbaka mellan olika kedjor.
I allmänhet är idén med LAB-projektet fortfarande bra, den fångar användarnas verkliga behov och dataprestandan är också okej. Men om den kan få ett fast fotfäste i den hårda konkurrensen kommer att ta tid att verifiera. För vänner som vill delta rekommenderas det att testa vattnet med en liten mängd först, uppleva produkten och sedan bestämma sig för om man ska delta djupt.
Portal:

34,71K
Idag lanserade @OpenledgerHQ sitt eget minispel Octoman, och jag tänkte spela avslappnat för att fördriva tiden, men jag kunde inte sluta så fort jag kom igång. Kärnan i det här spelet är att styra en bläckfiskman för att svinga sig runt i luften och flyga så långt som möjligt, men denna enkla mekanik är beroendeframkallande.
Kärnan i spelet är Timing Timing Timing!!
Operationen logik i spelet är inte komplicerad, bara två piltangenter på mobiltelefonen plus en knapp för att skjuta spindeltråd, och datorn kan göras med tre WAD-knappar. Men om du verkligen vill spela det här spelet bra är nyckeln att behärska rytmen i fysikmotorn. När du ska släppa spindeltråden och när du ska ta tag i den igen, om du behärskar denna timing kommer du att kunna flyga långt och stadigt i luften.
Det som är intressant är att varje gång du uppdaterar ditt personbästa kommer systemet automatiskt att generera ett exklusivt poängkort. Det här kortet är inte gjort slumpmässigt, utan kommer att låsa upp karaktärsbilder av olika sällsyntheter baserat på din poäng. Ju högre poäng, desto sällsyntare karaktär, och den här designen kommer verkligen att stimulera dig att fortsätta slå rekord.
Nu har de ett tvådagarsevenemang med enkla regler. Du kan twittra ditt poängkort, @OpenledgerHQ det och lägga till hashtaggen #iloveplayingoctoman. Det är tydligt att de vill att spelarna verkligen ska engagera sig.
Ur ett produktdesignperspektiv är Octoman ganska smart. Spelet i sig är tillräckligt enkelt för att vem som helst ska kunna ta till sig, men det krävs övning och skicklighet för att spela bra. Poängkortssystemet ger spelarna en anledning att visa upp sig, och spridning i sociala medier kan locka nya användare.
Jag spelade själv avslappnat och fick 551 poäng. Gav mig direkt en liten ninjabläckfisk! Den här bilden är direkt full, och den passar min avatar perfekt. Jag har inga planer på att slå igenom, må så vara. Kärlek, kärlek!!

22,68K
Reddit har officiellt blockerat Internet Archive från att skrapa innehåll för AI-träning, vilket på ytan är en rutinoperation för plattformar att skydda sina egna data, men bakom detta finns det grundläggande problemet med hela den ekonomiska AI-modellen.
Den nuvarande situationen är att AI-företag behöver enorma mängder data av hög kvalitet för att träna modeller, men innehållsplattformar och kreatörer får inga belöningar från denna process. Det surt förvärvade innehållet tränas gratis av AI-företag, och sedan tjänar stora företag pengar på de tränade modellerna, och skaparna får inte ett öre.
Fler och fler plattformar börjar sätta upp hinder, och Reddits förbud mot Internet Archive är bara början. Problemet är att enkel blockering inte löser det grundläggande problemet, det begränsar bara åtkomsten och etablerar inte en rimlig auktorisation och vinstdelningsmekanism.
Vad som verkligen behövs är en infrastruktur som gör det möjligt att genomdriva saker som användarvillkor, ägande och royalties på designnivå.
Camp föreslog en ny väg: i stället för att blockera skulle det vara bättre att omforma reglerna för användning av AI-träningsdata på ett annat sätt. Kärnlogiken är faktiskt mycket enkel:
1️⃣ Innehållet är registrerat i kedjan och har ursprungsbevis
2️⃣ Skapare definierar sina egna licensvillkor
3️⃣ Om du vill använda AI måste du betala
4️⃣ Royalties återbetalas automatiskt till kreatörer
Underliggande logik: I stället för att blockera AI från att använda innehåll bör du samordna alla parters intressen. AI-företag behöver data, kreatörer behöver intäkter, plattformar behöver ekologiskt värde och alla behöver vad de behöver.
För närvarande har mer än 1,5 miljoner skapelser registrerats på @campnetworkxyz, inte bara bilder, musik utan även videor, berättande innehåll etc., som har blivit en decentraliserad IP-originaldatabas. För AI-modeller ger det en legitim, hållbar och skalbar datakälla. För kreatörer är detta äntligen sättet att inte längre bli prostituerad gratis.

35,98K
Kärnan i samarbetet mellan IQ AI och NEAR är att göra det möjligt för AI-agenter att göra saker över kedjor på egen hand utan mänsklig inblandning.
Ur teknisk synvinkel bekräftar @NEARProtocol:s block på 600 ms och 1,2 sekunder att denna hastighet verkligen är tillräckligt snabb. För AI-agenter gäller att ju kortare väntetiden är, desto bättre, trots allt är AI:s beslutshastighet i sig snabbare än människors, och om det tar en viss tid att genomföra den kommer den totala effektiviteten att släpa efter. Nu kan denna hastighet i princip uppnå svar i realtid.
Tidigare var operationer över kedjan tillräckligt komplexa för vanliga användare, för att inte tala om att låta AI-agenter hantera olika överbryggningslogiker. AI-agenter, som nu är direkt integrerade i utvecklingskitet, kan självständigt slutföra åtgärder över kedjan, vilket praktiskt taget sänker tröskeln för drift.
Ur strategisk synvinkel håller den på att ta över infrastrukturpositionen i AI-ekonomin. Populariteten för AI-agenter ökar nu, men det finns inte mycket infrastruktur som verkligen kan tillåta AI-agenter att direkt komma åt transaktionslagret och delta i ekonomiska aktiviteter på kedjan. NEAR befäster sin låga position som en L1-infrastruktur för AI och agenter med detta partnerskap.
Faktum är att AI-agenternas behov skiljer sig från användarnas egna. Människor kan uthärda komplexa operativa processer, vänta på bekräftelsetid och manuellt hantera olika onormala situationer. Men AI-agenter behöver en standardiserad, automatiserad och effektiv körningsmiljö.
Ur tillämpningsscenariernas perspektiv är det verkligen mycket praktiskt att utföra transaktioner över kedjan. Om AI-agenten kan övervaka arbitragemöjligheter på flera kedjor samtidigt och automatiskt utföra arbitrage över kedjan efter att ha upptäckt möjligheten, kräver inte hela processen användardeltagande, i själva verket är arbitragemöjligheten mycket större än användarens egen operation. Om du kan ta hänsyn till samarbetet mellan flera agenter samtidigt kan det generera ännu större värde.
Detta är en bra differentiering för NEAR. I en tid då ett gäng L1:or kämpar om TPS och ekologi, genom att samarbeta med @IQAICOM och fokusera på det vertikala fältet av AI-agenter, är det fortfarande mycket meningsfullt att samla en bra grund i ett tidigt skede.


NEAR Protocol13 aug. 21:06
Tokeniserade AI-agenter är inte längre science fiction. @IQAICOM:s nya integration med NEAR låser upp autonoma åtgärder över kedjan som är snabba, slutgiltiga och säkra.
Så här ser Chain Abstraction i aktion ut.
7,3K
Jag såg precis att @boundless_xyz tillkännagav en detaljerad introduktion till ZK Coin igår, och som någon som har följt detta projekt känns det ganska intressant. När allt kommer omkring vill de göra en gemensam infrastruktur för ZK-bevis.
För det första, själva Boundless-projektet. Det är i huvudsak ett universellt ZK-bevisprotokoll som gör det möjligt för alla blockkedjor att använda kraften i ZK. Om varje kedja måste bygga sitt eget ZK-säkra system nu är kostnaden hög och effektiviteten är inte bra. Boundless tillhandahåller ZK-bevistjänster för varje kedja genom ett nätverk av oberoende bevisnoder. Det kan också helt enkelt förstås som outsourcing av databehandling.
Expansionsmetoden är mycket enklare och grov än den ursprungliga sharding- eller layer2-lösningen, och ökar direkt genomströmningen för hela nätverket genom att lägga till noder.
ZK Coin, som är den inhemska tokenen för detta system, är inte en ren styrningstoken. Varje bevisbegäran kräver att du satsar ZKC som säkerhet och minst 10 gånger den maximala avgiften. Detta innebär att i takt med att nätverksanvändningen ökar kommer den låsta ZKC också att växa exponentiellt, vilket direkt minskar det cirkulerande utbudet.
Det finns också den verifierbara proof-of-work PoVW-mekanismen, som i huvudsak gör det möjligt för bevisnoder att bryta och tjäna ZKC genom att generera ZK-bevis. För att delta i gruvdrift måste dock en viss mängd ZKC satsas. Detta skapar en positiv cirkel: mer efterfrågan på bevis→ fler ZKC-insatser→ bättre prestandaincitament→ mer noddeltagande.
När det gäller tokendistribution är 49 % för ekologisk utveckling. Men om man tittar närmare på fördelningslogiken används 31 % av de ekologiska medlen huvudsakligen i tre riktningar: finansiering för verifierbara applikationer, protokollintegration och utvecklingsverktyg, protokollunderhåll och infrastrukturutveckling. 18 % av den strategiska tillväxtfonden är dedikerad till företagsintegration och bevisnoder av institutionell kvalitet. Denna distributionsmetod visar att den verkligen bygger ett ekosystem.
Team och tidiga bidragsgivare tar 23,5 %, och 3,5 % av det går till RISC Zero för framtida rekrytering och forskning. Den här detaljen visar att Boundless har en djup relation med RISC Zero, och RISC Zero har en hel del ackumulering i zkVM-fältet.
Försäljning av community-token och airdrops står för endast 6 %, vilket inte är en hög andel. Med tanke på att detta är ett infrastrukturprojekt är dock detta förhållande rimligt. Jag vet bara inte hur mycket Yapper kan gå senare.
Investerarens allokering på 21,5 %, lock-up-mekanismen är densamma som teamet, 1 års klippa och sedan 2 års linjär frisläppning. Denna design kan säkerställa att de tidiga investerarnas och teamets intressen är bundna, och det kommer inte att bli någon krossning av marknaden när den går online.
Inflationsmekanismen är 7 procent under det första året och minskar sedan gradvis till 3 procent från och med det åttonde året. Men nyckeln är att eftersom varje bevisbegäran kräver staking av ZKC, krymper det faktiska cirkulerande utbudet när nätverksanvändningen ökar. Dessutom kommer 50 procent av de utlovade beloppen att brännas direkt, vilket bildar en balansmekanism mellan inflation och deflation.
Enligt min egen mening är höjdpunkten i @boundless_xyz två punkter
1️⃣ Inte en specifik ZK för en viss kedja, utan vill verkligen vara en universell ZK-infrastruktur för alla kedjor. Tillämpningen av ZK-teknik inom blockchain-området kommer bara att bli mer och mer utbredd, och det kommer att bli en oumbärlig botten.
2️⃣ Tokendesign och affärskrav är direkt bundna. Ju mer bevis, desto mer är ZKC låst, och efterfrågan på token och nätverksanvändning är linjärt korrelerade.
@TinaLiu333 @RiscZeroCN



46,12K
Igår såg jag en jämförelse av de två uppsättningarna data, och jag kände mig ganska intressant. Dela det med dig. Även om jag vet att den här jämförelsen kanske inte är särskilt exakt, finns det trots allt ett huvudnät och ett testnät, men Camps dataprestanda är riktigt bra.
1️⃣Uppgifter om Story Protocol
7,6 miljoner block
43,7 miljoner transaktioner
4 miljoner adresser
192 000 transaktioner per dag
Blocktid på 2,4 sekunder
2️⃣Data från Camp testnät
16,2 miljoner block
84,9 miljoner transaktioner
6,6 miljoner adresser
842 000 transaktioner per dag
0,9 sekunders blocktid
Ur datasynpunkt har @campnetworkxyz redan överträffat Storys mainnet-prestanda i flera dimensioner under testnätsstadiet. Antalet block är mer än dubbelt så stort som Story, transaktionsvolymen är nästan dubbelt så stor som Story, och antalet adresser är också uppenbart fördelaktigt, och den dagliga transaktionsvolymen är mer än fyra gånger så stor som Story.
Story har precis lanserats på huvudnätet, och Camp är fortfarande i testnätsstadiet, så mentaliteten och beteendemönstren för användardeltagande är definitivt annorlunda. Testnet-användare kanske föredrar att interagera ofta eftersom det inte finns något tryck från gas. Men användaraktiviteten och nätverksprocessorkraften som återspeglas bakom dessa siffror är ganska övertygande.
@campnetworkxyz:s arkitektur är verkligen unik i jämförelse. Proof of Provenance-protokollet handlar inte bara om att bekräfta IP-rättigheter, utan mer som att bygga ett värdeutbytessystem mellan AI och kreatörer. Användare kan registrera sitt innehåll som IP, och när AI sedan använder dessa data för att träna eller generera innehåll kan kreatörer få motsvarande intäktsfördelning.
Den här modellen har sitt eget unika värde i samband med den nuvarande stora konsumtionen av träningsdata av AI. Särskilt i takt med att högkvalitativa träningsdata blir allt mer sällsynta kan Camp, en mekanism som gör det möjligt för användare att aktivt bidra med data och få belöningar, bli ännu viktigare.
Ur en teknisk synvinkel är Camps blocktid på 0,9 sekunder faktiskt mycket snabbare än Storys 2,4 sekunder. Den här prestandafördelen kan vara användbar när du hanterar ett stort antal IP-registrerings- och auktoriseringstransaktioner. Och de stöder gasfri IP-registrering, vilket är en lägre barriär för vanliga användare.
Camp är fortfarande i testnätsstadiet, och att döma av prestandan hos dessa data kommer det definitivt att vara ett projekt som är värt att uppmärksamma efter att huvudnätet har lanserats. Särskilt i riktning mot att kombinera AI och IP ser vi fram emot Camps genombrott.


35,89K
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda

