Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meta
Gamefi veteraan speler
Investeringen en investeringen in primaire en secundaire projecten
🏅Mede-oprichter @Opensky_888
🏅 Kernleden @InFuture_Web3
Sinds @0G_labs en Web3Labs de 0G Global Accelerator hebben gelanceerd, hebben veel startende teams wereldwijd hun projecten ingediend. Hoewel de geselecteerde projecten nog niet zijn aangekondigd, kijkt iedereen uit naar de Demo Day op 29 augustus in Hong Kong. Een gemeenschappelijk kenmerk van deze ingediende projecten is dat ze zich diepgaand integreren met de technologie-stack van 0G.
Enkele belangrijke gebieden zijn de focus van 0G 🎯
1️⃣ AI-gedreven voorspellingsmarkten
Traditionele voorspellingsmarkten zoals Polymarket vertrouwen nog steeds op handmatig gemaakte en controversiële oplossingsmechanismen, terwijl deze nieuwe projecten zelfverbeterende oracle-netwerken en multi-model oplossingsmechanismen verkennen. Er is zelfs een project dat een nieuw model ontwikkelt dat geloof en prijs verbindt, in combinatie met AI-gedreven marktcreatie en resultaatvalidatie.
2️⃣ Native AI-handelsplatforms
Dit is niet het toevoegen van AI-functionaliteit aan bestaande DeFi-platforms, maar het vanaf de grond opbouwen van een uitvoeringsomgeving die native is voor AI-agenten. Er zijn projecten die MCP gebruiken om dynamisch gegevensstromen tussen markten te integreren, zodat het systeem zich voortdurend kan aanpassen aan veranderende marktomstandigheden.
3️⃣ Tokenized AI-agenten/Smart NFTs
De ERC-7857 iNFT-standaard van 0G maakt het mogelijk om AI-agenten op de blockchain te creëren, bezitten, trainen en te monetiseren. Momenteel zijn er verschillende projecten die verkennen van de consumentenmarkt voor agenten tot volledig door verhandelbare iNFT's aangedreven diensten.
4️⃣ Gedecentraliseerde wetenschap
DeDeSci-projecten richten zich voornamelijk op de combinatie van AI met gegevensbezit en -opslag, wat perfect aansluit bij de opslagtoepassingsmodules van 0G en de waarden van AI als een publiek goed.
@0G_labs, als de eerste AI-native L1, biedt via een modulaire architectuur, verifieerbare redenering en een speciaal uitvoeringslaag voor AI de ontbrekende infrastructuur om AI volledig op de blockchain te integreren.
Uit deze signalen blijkt dat bouwers op zoek zijn naar een technische basis die het mogelijk maakt voor agenten, modellen en gegevens om zonder vertrouwen te opereren, waarbij samenstelbaarheid de standaardkenmerk is. Dit sluit perfect aan bij de ontwerpfilosofie van 0G.

23,67K
Steeds meer mensen beginnen zich te realiseren dat AI een "hard fork" ondergaat. Van de "grote modellen" die vroeger alles wilden doen, verschuift de focus langzaam naar meer gespecialiseerde "professionele modellen". De vijf redenen die @OpenledgerHQ in een tweet noemt, zijn keuzes die de hele industrie maakt.
Vanuit het perspectief van praktische toepassingen is algemene AI als een universeel gereedschap dat alles kan doen, maar niets echt goed. Gespecialiseerde AI daarentegen is een oplossing die op maat is gemaakt voor specifieke scenario's.
🎯 Gerichte probleemoplossing
Gespecialiseerde AI-modellen zijn diep geoptimaliseerd voor specifieke domeinen. AI hoeft geen irrelevante gegevens en scenario's te verwerken; alle rekenkracht en parameters zijn gericht op het oplossen van een probleem in een verticaal domein. Deze focus leidt tot exponentiële verbeteringen.
🔍 Verklaarbaarheid wordt een noodzaak
In risicovolle financiële scenario's kan men niet alleen op een black box vertrouwen voor antwoorden. Regelgevingseisen, compliancebehoeften en aansprakelijkheidsbepalingen vereisen dat elke stap in het redeneringsproces van AI kan worden getraceerd en geverifieerd. Gespecialiseerde modellen kunnen beslissingspaden ontwerpen die zijn afgestemd op specifieke scenario's.
⛓️ On-chain verificatie en vertrouwensmechanismen
Blockchain-technologie maakt het mogelijk dat het redeneringsproces van AI permanent kan worden vastgelegd en geverifieerd. Gespecialiseerde AI in combinatie met on-chain bewijs kan een volledige vertrouwensketen opbouwen. Elke redenering en elk beslissingspunt is traceerbaar, wat essentieel is voor bedrijven die moeten voldoen aan audit- en compliance-eisen.
📊 Oplossing voor hallucinatieproblemen
De hallucinaties van algemene AI komen in grote mate voort uit de complexiteit en diversiteit van de trainingsgegevens. Gespecialiseerde AI kan de hallucinatiegraad aanzienlijk verlagen door het bereik en de kwaliteit van de trainingsgegevens te beperken. In verticale domeinen is de datakwaliteit beheersbaar, zijn de kennisgrenzen duidelijk en kan het model gemakkelijker nauwkeurige en betrouwbare antwoorden geven.
💰 Herberekening van kosten-batenverhouding
Hoewel algemene AI lijkt te suggereren dat één model alle problemen kan oplossen, zijn de werkelijke implementatiekosten extreem hoog. Gespecialiseerde AI kan met een kleiner model betere resultaten bereiken, met lagere redeneringskosten en meer flexibele implementatie.
@OpenledgerHQ's vijf punten zijn in feite een reactie op de werkelijke behoeften van de industrie. Dit is niet alleen een strijd om de richting, maar ook een keuze tussen efficiëntie en haalbaarheid. Grote modellen vertegenwoordigen exploratie, terwijl professionele modellen industrialisatie vertegenwoordigen. Teams zoals Openledger, die zich richten op on-chain infrastructuur, zijn waarschijnlijk de downstream infrastructuurleveranciers van deze transformatie.

35,7K
Gisteren luisterde ik naar de AMA van @anoma en het voelt alsof anoma echt snel gaat.
Van het begin van de bouw van anoma tot elke dag op het testnet fietsen.
De tijd lijkt zo snel te gaan, van de opwinding over de verwachte TGE tot de kalmte van nu. Ik heb zelfs een beetje moeite om afscheid te nemen van het bijna eindigende testnet.
Gisteravond werd ook het nieuwe spel "slots" gelanceerd. Ik dacht dat het, net als de vorige spellen, Fitcoin als inzet zou gebruiken. Tot mijn verbazing werd uiteindelijk voor Points gekozen.
Zoals we allemaal weten, bepaalt de totale hoeveelheid Points de ranking, en onder de druk van de beloningen op het testnet is het belang van de ranking vanzelfsprekend. Ik ben eigenlijk best een pechvogel, gisteravond net online en vol met goklust, verloor ik meteen 100.000 Points, en het resultaat was natuurlijk dat ik niets terugkreeg. Er wordt gezegd dat je met de grote prijs tot 1 miljoen Points kunt winnen.
Na een succesvolle gokronde vandaag heb ik in totaal 5.560.000 punten, met een ranking rond de 500. Ik ben van plan om 100 kleine ballen in te zetten, laten we zien wat er gebeurt!
Na de gokronde was het totaal aantal Points 5.790.000, met een ranking van 427. In vergelijking met de inzet van 100 kleine ballen, heb ik in totaal 230.000 Points gewonnen. Gemiddeld kreeg elke kleine bal 2.300 Points.
Momenteel zijn er in totaal ongeveer 25.000 Codes uitgegeven op het testnet, en de officiële verwachting is 30.000. Er zijn nog 5.000 in de status van niet verzonden. Om in de top 500 te komen, is het ongeveer 2% van het testnet. Maar om eerlijk te zijn, toen ik 100 kleine ballen aanraakte, wilde ik echt "intentie aandrijven". Ik vertelde het dat ik 100 kleine ballen wilde, en het gaf me kippenvel🤣
Naast het dagelijks volgen van de interactie op het @anoma testnet, vergeet niet dat als je een bijdrage hebt, je elke woensdag bewijs van bijdrage kunt indienen bij DC. De DC-rol zal later ook in de snapshot zijn, dus vergeet niet om het te pakken als je de kans krijgt. Een ander punt om op te letten is NFT, zorg ervoor dat je een manier vindt om het te verkrijgen. Ik hoop dat iedereen uiteindelijk grote resultaten kan behalen!



40,03K
Veel mensen denken bij AI aan LLM-modellen, slimme vraag-en-antwoord systemen en AGI-routekaarten, maar eigenlijk is er maar weinig bewustzijn over één ding: de kernwaarde-strijd van AI in de toekomst zal waarschijnlijk niet in het model zelf liggen, maar in de inhoudsmaterialen die het consumeert, oftewel IP.
Momenteel is de wereldwijde IP-economie gewaardeerd op 61,9 biljoen dollar. Maar het probleem is dat deze enorme inhoudsbronnen in wezen nog steeds opgesloten zitten in een hoop contracten, gecentraliseerde platforms, juridische kaders en gesloten systemen. AI moet eerst door talloze obstakels heen, en kan daarbij ook nog eens op mijnen stappen.
Dus de meeste huidige AI-modellen kunnen alleen stiekem data verzamelen. Artikelen, afbeeldingen, geluiden en video's op het internet worden allemaal stilletjes gebruikt om de modellen te voeden. Maar deze manier van werken kan niet langer doorgaan, nu de auteursrechtenkwesties toenemen, platforms blokkeren en juridische rechtszaken zich opstapelen.
@campnetworkxyz heeft een duidelijke visie: niet blokkeren, niet stelen, maar IP zelf op de blockchain zetten, zodat het kan worden gecombineerd en transparant geautoriseerd als programmeerbare activa.
Dit is ook het meest solide aspect van Camp. Het is niet de bedoeling om een AI-inhoudsplatform te creëren, maar om een set onderliggende protocollen en infrastructuur te bouwen, zodat alle makers en IP-houders hun inhoud op de blockchain kunnen registreren, de autorisatievoorwaarden duidelijk kunnen vastleggen en de verdelingsmethoden voor opbrengsten kunnen definiëren. Als AI-modellen gebruik willen maken van de inhoud, betalen ze gewoon volgens de voorwaarden.
Het belangrijkste is dat dit hele proces combineerbaar is. In de toekomst zullen AI-modellen niet in een enorme zwarte doos data verzamelen, maar zullen ze, net als met blokken, vrij kunnen schakelen tussen geautoriseerde inhoudsmodules op basis van verschillende inhoudsbronnen, toepassingen en stijlen. En het startpunt van dit alles is dat elk IP op de blockchain wordt gezet met autorisatievoorwaarden + opbrengstlogica.
De betekenis hiervan is enorm, omdat het de relatie tussen AI en IP verandert van passieve extractie en uitbuiting naar een gelijkwaardige samenwerking. Makers zijn niet langer slachtoffers van plagiaat, maar worden leveranciers voor AI-training en deelnemers aan commerciële opbrengsten.
Ik ben het ook volledig eens met de opmerking van @campnetworkxyz: "De grootste markt die AI zal aanraken is IP." Hoe sterk het model ook is, het moet worden gevoed met data. Hoeveel inhoud er ook is, als het niet op een conforme manier wordt gebruikt, zal het vroeg of laat problemen opleveren.⛺️
41,14K
Veel mensen zeggen dat het bij handelsinstrumenten vooral gaat om sneller, goedkoper en soepeler. Maar als je vaak multi-chain transacties doet, vooral over Solana, ETH, Base, BSC, dan begrijp je dat deze woorden gemakkelijk te zeggen zijn, maar dat er in werkelijkheid bijna niemand is die het echt kan waarmaken.
@LABtrade_ wil in wezen een basislaag voor multi-chain handel creëren. Je kunt gewoon de handelssoftware gebruiken die je gewend bent, maar dan sneller, met lagere kosten en meer functies. Dit idee is eigenlijk best slim; het dwingt gebruikers niet om hun gewoonten te veranderen, maar optimaliseert de onderliggende structuur. Uit de gegevens blijkt dat er in 20 dagen tijd 150 miljoen dollar aan handelsvolume is geweest en 700.000 dollar aan omzet, wat behoorlijk sterk is.
LAB biedt vier producten aan: handelsbots, applicaties, zijbalken en browserextensies. Deze tools kunnen naadloos draaien op elk handelsplatform. Je hoeft niet van platform te wisselen of je opnieuw aan te passen aan de interface; je kunt gewoon genieten van snellere snelheid en lagere kosten in de vertrouwde omgeving.
Vanuit commercieel perspectief heeft LAB een heel praktisch pijnpunt aangepakt. Iedereen die op de blockchain handelt, heeft het meest last van hoge kosten, trage snelheid en complexe operaties. Traditionele DEX's beginnen met een vergoeding van 1% en je moet wachten op bevestiging, wat de ervaring echt niet prettig maakt. LAB heeft de kosten verlaagd naar 0,5%, zonder drempel voor handelsvolume, wat voor retailbeleggers erg aantrekkelijk is.
Wat betreft de investeerders, Lemniscap is de hoofdinvesteerder, en Animoca, OKX Ventures, Mirana zijn allemaal bekende instellingen in de sector. Deze investeringsmix is behoorlijk betrouwbaar, wat in ieder geval aangeeft dat het project door de instellingen is goedgekeurd.
Vanuit technisch perspectief ondersteunt LAB al de belangrijkste chains zoals Solana, Ethereum, Base en BSC. Multi-chain ondersteuning is in deze gefragmenteerde ecologie echt een noodzaak, zodat gebruikers niet steeds hoeven te wisselen tussen wallets en tools op verschillende chains.
Al met al is het idee achter het LAB-project best goed; het pakt de echte behoeften van gebruikers aan en de gegevensprestaties zijn ook redelijk. Maar of het in de hevige concurrentie kan standhouden, moet nog blijken. Voor vrienden die willen deelnemen, is het aan te raden om eerst met een klein bedrag te experimenteren, de producten uit te proberen en dan te beslissen of ze dieper willen investeren.
Deel link:

34,71K
Vandaag heeft @OpenledgerHQ zijn eigen mini-game Octoman gelanceerd. Ik dacht dat ik het gewoon even zou spelen om de tijd te doden, maar eenmaal begonnen kon ik niet meer stoppen. De kern van het spel is het besturen van een octopus die door de lucht slingert, zo ver mogelijk proberen te vliegen, maar deze eenvoudige mechaniek maakt het juist verslavend.
De kern is Timing Timing Timing!!!
De bedieningslogica van het spel is niet ingewikkeld, op de telefoon heb je gewoon twee pijltoetsen en een knop om webben te schieten, op de computer kun je het met de WAD-toetsen doen. Maar om echt goed te worden in dit spel, ligt de sleutel in het beheersen van het ritme van de fysica-engine. Wanneer je de web loslaat, wanneer je weer grijpt, als je die timing onder de knie hebt, kun je ver en stabiel door de lucht vliegen.
Wat interessant is, is dat elke keer als je je persoonlijke record verbetert, het systeem automatisch een speciale scorekaart voor je genereert. Deze kaart is niet zomaar gemaakt, maar ontgrendelt verschillende zeldzaamheden van personages op basis van je score. Hoe hoger de score, hoe zeldzamer het personage, dit ontwerp stimuleert je echt om je record steeds opnieuw te verbeteren.
Nu hebben ze een evenement van twee dagen georganiseerd, de regels zijn heel eenvoudig. Je plaatst je scorekaart op Twitter, @OpenledgerHQ, en voegt de hashtag #iloveplayingoctoman toe. Je kunt zien dat ze willen dat spelers echt betrokken raken.
Vanuit het perspectief van productontwerp is Octoman best slim gedaan. Het spel zelf is eenvoudig genoeg, iedereen kan het spelen, maar om goed te worden, heb je oefening en vaardigheden nodig. Het scorekaartsysteem geeft spelers een reden om te pronken, en de verspreiding op sociale media kan nieuwe gebruikers aantrekken.
Ik heb zelf even gespeeld en 551 punten gehaald. Ik kreeg meteen een ninja-octopus! Dit beeld is echt perfect, het past zo goed bij mijn profielfoto. Ik ben niet van plan om verder te gaan, dit is het wel. Ik ben er helemaal weg van!!!

22,69K
Reddit heeft officieel Internet Archive geblokkeerd van het verzamelen van inhoud voor AI-training. Op het eerste gezicht lijkt dit een gebruikelijke maatregel van het platform om zijn eigen gegevens te beschermen, maar het weerspiegelt een fundamenteel probleem van het hele AI-economische model.
De huidige situatie is dat AI-bedrijven enorme hoeveelheden hoogwaardige gegevens nodig hebben om modellen te trainen, maar inhoudsplatforms en makers krijgen geen enkele beloning voor dit proces. De inhoud die met veel moeite is gemaakt, wordt gratis door AI-bedrijven gebruikt voor training, waarna grote bedrijven geld verdienen met de getrainde modellen, terwijl de makers geen cent ontvangen.
Steeds meer platforms beginnen barrières op te werpen; Reddit's blokkade van Internet Archive is slechts het begin. Het probleem is dat een simpele blokkade het fundamentele probleem niet oplost; het beperkt alleen de toegang en creëert geen redelijke autorisatie- en winstdelingsmechanismen.
Wat echt nodig is, is een infrastructuur die ervoor zorgt dat gebruiksvoorwaarden, eigendomsrechten en auteursrechten op ontwerpniveau kunnen worden afgedwongen.
Camp heeft een nieuwe route voorgesteld: in plaats van te blokkeren, kunnen we beter de gebruiksregels voor AI-trainingsdata opnieuw ontwerpen. De kernlogica is eigenlijk heel eenvoudig:
1️⃣ Inhoud wordt geregistreerd op de blockchain, met bewijs van herkomst.
2️⃣ Makers definiëren zelf de autorisatievoorwaarden.
3️⃣ Als AI het wil gebruiken, moet het betalen.
4️⃣ Royalty's stromen automatisch terug naar de makers.
De onderliggende logica: in plaats van AI te stoppen met het gebruiken van inhoud, kunnen we beter de belangen van alle partijen op één lijn brengen. AI-bedrijven hebben gegevens nodig, makers hebben inkomsten nodig, platforms hebben ecologische waarde nodig, en iedereen krijgt wat hij nodig heeft.
Momenteel zijn er al meer dan 1,5 miljoen creaties geregistreerd op @campnetworkxyz, niet alleen afbeeldingen en muziek, maar ook video's, narratieve inhoud, enzovoort. Het is al een gedecentraliseerde IP-database geworden. Voor AI-modellen biedt het een legale, duurzame en schaalbare gegevensbron. Voor makers is dit eindelijk een manier om niet langer gratis te worden gepakt.

35,99K
De samenwerking tussen IQ AI en NEAR is gebaseerd op de kernlogica dat AI-agenten zelfstandig cross-chain taken kunnen uitvoeren, zonder menselijke tussenkomst.
Vanuit technisch perspectief is de 600 ms blocktijd en 1,2 seconden bevestigingstijd van @NEARProtocol inderdaad snel genoeg. Voor AI-agenten is een kortere wachttijd beter, want de beslissingssnelheid van AI is al sneller dan die van mensen; als ze ook nog eens moeten wachten om uit te voeren, dan is de algehele efficiëntie relatief traag. Deze snelheid kan nu vrijwel in real-time reageren.
Voorheen waren cross-chain operaties al complex genoeg voor gewone gebruikers, laat staan dat AI-agenten verschillende bruglogica moesten verwerken. Nu is het direct geïntegreerd in de ontwikkelingskit, waardoor AI-agenten zelfstandig cross-chain operaties kunnen uitvoeren, wat de drempel voor gebruik verlaagt.
Strategisch gezien is dit een poging om een basisinfrastructuurpositie in de AI-economie te veroveren. De populariteit van AI-agenten stijgt, maar er zijn nog niet veel infrastructuren die AI-agenten direct toegang geven tot de transactielaag en deelname aan on-chain economische activiteiten. NEAR heeft door deze samenwerking zijn positie als L1-infrastructuur voor kunstmatige intelligentie en agenten versterkt.
Eigenlijk zijn de behoeften van AI-agenten en die van gebruikers zelf niet helemaal hetzelfde. Mensen kunnen complexe operationele processen verdragen, kunnen wachten op bevestigingstijden en kunnen handmatig verschillende uitzonderingssituaties afhandelen. Maar AI-agenten hebben een gestandaardiseerde, geautomatiseerde en efficiënte uitvoeringsomgeving nodig.
Vanuit het perspectief van toepassingsscenario's is de uitvoering van cross-chain transacties inderdaad zeer praktisch. Als AI-agenten gelijktijdig arbitragemogelijkheden op meerdere chains kunnen monitoren en na het ontdekken van kansen automatisch cross-chain arbitrage kunnen uitvoeren, is de hele procedure zonder gebruikersparticipatie, wat betekent dat de arbitragemogelijkheden veel groter zijn dan de handelingen van de gebruiker zelf. Als ze ook nog eens meerdere agenten kunnen laten samenwerken, kan dit nog meer waarde genereren.
Voor NEAR is dit een uitstekende differentiatiepositie. Terwijl veel L1's strijden om TPS en ecosystemen, richt NEAR zich door samen te werken met @IQAICOM op het verticale domein van AI-agenten, wat waardevol is voor de opbouw van een solide basis in de vroege fase voor de toekomst.


NEAR Protocol13 aug, 21:06
Tokenized AI-agenten zijn geen sciencefiction meer. De nieuwe integratie van @IQAICOM met NEAR ontgrendelt autonome cross-chain acties die snel, definitief en veilig zijn.
Dit is hoe Chain Abstraction in actie eruitziet.
7,31K
Ik zag net dat @boundless_xyz gisteren de gedetailleerde introductie van ZK Coin heeft gepresenteerd. Als iemand die dit project al een tijdje volgt, vind ik het best interessant. Tenslotte willen ze een algemene infrastructuur voor ZK-bewijzen opzetten.
Ten eerste het Boundless-project zelf. Het is in wezen een algemeen ZK-bewijsprotocol aan het ontwikkelen, zodat alle blockchains gebruik kunnen maken van de mogelijkheden van ZK. Als elke keten nu zelf een ZK-bewijsysteem moet opzetten, is dat niet alleen kostbaar, maar ook inefficiënt. Boundless biedt ZK-bewijsdiensten aan voor verschillende ketens via een onafhankelijk netwerk van bewijsnodes. Je kunt het ook eenvoudig begrijpen als uitbesteding van berekeningen.
De uitbreidingsmethode is veel eenvoudiger en brutaler dan de bestaande shard- of layer2-oplossingen, waarbij de totale doorvoer van het netwerk direct wordt verhoogd door het aantal nodes te vergroten.
ZK Coin, als de inheemse token van dit systeem, is niet echt een puur governance-token. Elke bewijsaanvraag vereist dat ZKC wordt gestaked als onderpand, en dat is minstens 10 keer de maximale kosten als onderpand. Dit betekent dat naarmate het gebruik van het netwerk toeneemt, de vergrendelde ZKC ook exponentieel zal toenemen, wat de circulerende voorraad direct vermindert.
Er is ook een verifieerbaar werkbewijs PoVW-mechanisme, dat in wezen betekent dat bewijsnodes ZK-bewijzen genereren om ZKC te minen. Maar om deel te nemen aan de mining, moet je eerst een bepaalde hoeveelheid ZKC staken. Dit creëert een positieve cyclus: meer bewijsbehoefte → meer ZKC wordt gestaked → betere prestatie-incentives → meer nodes doen mee.
Wat betreft de tokenverdeling, 49% is bestemd voor ecologische ontwikkeling. Maar als je de verdelingslogica goed bekijkt, is 31% van het ecologische fonds voornamelijk bedoeld voor drie richtingen: financiering van verifieerbare applicaties, protocolintegratie en ontwikkeltools, en protocolonderhoud en infrastructuurontwikkeling. 18% van het strategische groeifonds is specifiek gericht op bedrijfsintegratie en institutionele bewijsnodes. Deze verdelingswijze laat zien dat ze echt een ecosysteem aan het opbouwen zijn.
Het team en vroege bijdragers krijgen 23,5%, waarvan 3,5% speciaal voor RISC Zero is bedoeld voor toekomstige wervingen en onderzoek. Dit detail laat zien dat de relatie tussen Boundless en RISC Zero heel diep is, en RISC Zero heeft inderdaad veel ervaring in het zkVM-gebied.
De community-tokenverkoop en airdrop maken slechts 6% uit, wat niet hoog is. Maar gezien het feit dat dit een infrastructuurproject is, is dit percentage redelijk. Het is alleen niet duidelijk hoeveel Yapper later kan krijgen.
De verdeling voor investeerders is 21,5%, met een lock-upmechanisme dat hetzelfde is als dat van het team: 1 jaar cliff en daarna 2 jaar lineaire vrijgave. Dit ontwerp zorgt ervoor dat de belangen van vroege investeerders en het team aan elkaar zijn gekoppeld, zodat er geen dump plaatsvindt zodra het live gaat.
Het inflatiemechanisme is het eerste jaar 7%, en daalt geleidelijk naar 3% vanaf het 8e jaar. Maar het belangrijkste is dat elke bewijsaanvraag ZKC vereist om te staken, waardoor de werkelijke circulerende voorraad zal krimpen naarmate het gebruik van het netwerk toeneemt. Bovendien zal 50% van de gestakte tokens die worden gekapt, direct worden vernietigd, wat een evenwichtsmechanisme tussen inflatie en deflatie creëert.
Wat mij betreft, zijn de hoogtepunten van @boundless_xyz twee punten:
1️⃣ Het is niet specifiek voor een bepaalde keten, maar ze willen echt een algemene ZK-infrastructuur voor alle ketens opzetten. De gekozen richting is echt een noodzaak; de toepassing van ZK-technologie in de blockchain-ruimte zal alleen maar breder worden en zal een onmisbaar fundament worden.
2️⃣ Het tokenontwerp is direct gekoppeld aan de zakelijke behoeften. Hoe meer bewijzen, hoe meer ZKC wordt vergrendeld, de vraag naar tokens en het gebruik van het netwerk zijn lineair gerelateerd.
@TinaLiu333 @RiscZeroCN



46,12K
Gisteren zag ik twee sets gegevensvergelijkingen, en ik vond het eigenlijk best interessant. Ik wil het met jullie delen. Het zijn de gegevens van Story en Camp. Hoewel ik weet dat deze vergelijking misschien niet helemaal nauwkeurig is, aangezien de ene een mainnet en de andere een testnet is, presteert de data van Camp echt behoorlijk goed.
1️⃣ Story Protocol gegevens
7,6 miljoen blokken
43,7 miljoen transacties
4 miljoen adressen
Dagelijks 192.000 transacties
2,4 seconden bloktijd
2️⃣ Camp testnet gegevens
16,2 miljoen blokken
84,9 miljoen transacties
6,6 miljoen adressen
Dagelijks 842.000 transacties
0,9 seconden bloktijd
Uit de gegevens blijkt dat @campnetworkxyz in de testnetfase al op meerdere dimensies de prestaties van Story's mainnet heeft overtroffen. Het aantal blokken is meer dan twee keer dat van Story, het transactievolume is bijna twee keer zoveel, het aantal adressen heeft ook een duidelijke voorsprong, en het dagelijkse transactievolume is zelfs meer dan vier keer dat van Story.
Story is nog maar kort geleden live gegaan op het mainnet, terwijl Camp nog in de testnetfase is. De mindset en gedragsmodellen van gebruikers zullen zeker anders zijn. Testnetgebruikers zijn misschien meer geneigd om frequent te interageren, omdat er geen druk van gas is. Maar deze cijfers weerspiegelen wel de gebruikersactiviteit en de verwerkingscapaciteit van het netwerk, wat behoorlijk overtuigend is.
De architectuur van @campnetworkxyz heeft in vergelijking inderdaad enkele unieke kenmerken. Het Proof of Provenance-protocol doet niet alleen aan IP-rechten, maar lijkt meer een waarde-uitwisselingssysteem tussen AI en makers op te bouwen. Gebruikers kunnen hun inhoud registreren als IP, en wanneer AI deze gegevens gebruikt om inhoud te trainen of te genereren, kunnen de makers een overeenkomstige opbrengstverdeling ontvangen.
Dit model heeft zeker unieke waarde in de huidige context waarin AI veel trainingsdata verbruikt. Vooral nu hoogwaardige trainingsdata steeds schaarser worden, kan het mechanisme van Camp, dat gebruikers aanmoedigt om actief data bij te dragen en daarvoor beloond te worden, steeds belangrijker worden.
Vanuit technisch perspectief is de bloktijd van 0,9 seconden van Camp inderdaad veel sneller dan de 2,4 seconden van Story. Dit prestatievoordeel zal nuttig zijn bij het verwerken van een groot aantal IP-registraties en autorisatietransacties. Bovendien ondersteunen ze gasloze IP-registratie, wat de drempel voor gewone gebruikers verlaagt.
Camp is momenteel nog in de testnetfase, maar gezien deze gegevensprestaties zal het na de lancering op het mainnet zeker een project zijn om in de gaten te houden. Vooral in de richting van de combinatie van AI en IP, kijk ik uit naar de doorbraken van Camp.


35,9K
Boven
Positie
Favorieten
Populair op onchain
Populair op X
Recente topfinanciering
Belangrijkste

