Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meta
Gamefin veteraanipelaaja
Investointitutkimus ja investoinnit ensimmäisen ja toisen tason hankkeisiin
🏅Yksi perustajista @Opensky_888
🏅 Ydinjäsenet @InFuture_Web3
Sen jälkeen, kun @0G_labs ja Web3Labs lanseerasivat 0G Global Acceleratorin, monet startup-tiimit ympäri maailmaa ovat lähettäneet omia projektejaan. Vaikka valittuja projekteja ei ole vielä julkistettu, kaikki odottavat innolla Demo-päivää Hongkongissa 29. elokuuta. Yhteistä näille sovelluksille on se, että ne kaikki on integroitu syvälle 0G-teknologiapinon ympärille.
Joistakin avainalueista on tullut 0G:n huomion suunta 🎯
1️⃣Tekoälyllä toimivat ennustemarkkinat
Perinteiset ennustemarkkinat, kuten Polymarket, luottavat edelleen ihmisen luomiin ja riidanratkaisumekanismeihin, kun taas nämä uudet hankkeet tutkivat itseään parantavia oraakkeliverkostoja ja monimallisia ratkaisumekanismeja. Eräässä hankkeessa kehitetään jopa uutta mallia, joka yhdistää uskomukset hintaan tekoälypohjaisen markkinoiden luomisen ja tulosten validoinnin avulla.
2️⃣ Alkuperäinen AI-kaupankäyntialusta
Sen tarkoituksena ei ole lisätä tekoälytoimintoja olemassa oleviin DeFi-alustoihin, vaan rakentaa AI Agentin alkuperäinen suoritusympäristö tyhjästä. Joissakin projekteissa käytetään MCP:tä markkinoiden välisten tietovirtojen dynaamiseen integrointiin, jotta järjestelmä voi jatkuvasti mukautua muuttuviin markkinaolosuhteisiin.
3️⃣ Tokenisoidut tekoälyagentit/älykkäät NFT:t
0G:n ERC-7857 iNFT-standardi mahdollistaa ketjussa olevien tekoälyagenttien luomisen, omistajuuden, koulutuksen ja kaupallistamisen. Nyt on käynnissä useita projekteja, joissa tutkitaan kaikkea kuluttajatason agenttimarkkinapaikoista palveluihin, jotka toimivat kokonaan vaihdettavilla iNFT:illä.
4️⃣ Hajautettu tiede
DeSci-projekti keskittyy tekoälyn yhdistämiseen datan omistajuuteen ja tallentamiseen, mikä on linjassa 0G:n arvojen kanssa, jotka koskevat tallennussovellusmoduuleja ja tekoälyä julkisena hyödykkeenä.
@0G_labs Ensimmäisenä tekoälynatiivina L1:nä se tarjoaa puuttuvan infrastruktuurin täysin ketjussa olevalle tekoälylle modulaarisen arkkitehtuurin, todennettavissa olevan päättelyn ja tekoälykohtaisen suorituskerroksen avulla.
Näistä signaaleista voidaan nähdä, että rakentajat etsivät teknistä perustaa, jonka avulla agentit, mallit ja tiedot voivat toimia luotettavasti, ja että koottavuus on oletusominaisuus. Tämä on yhteneväinen 0G:n suunnittelufilosofian kanssa.

23,67K
Yhä useammat ihmiset alkavat ymmärtää, että tekoäly käy läpi "kovaa haaraa". "Suuresta mallista", joka halusi tehdä kaiken aiemmin, se on hitaasti siirtynyt keskittyneempään "ammattimalliin". @OpenledgerHQ Twiitissä mainitut viisi syytä ovat monivalintakysymyksiä, joita koko ala tekee.
Käytännön sovellustasolla yleinen tekoäly on kuin universaali työkalu, se voi tehdä mitä tahansa, mutta se ei voi tehdä mitään. Erikoistunut tekoäly puolestaan on tiettyihin skenaarioihin räätälöity ratkaisu.
🎯 Ratkaise ongelmat kohdennetusti
Erikoistuneet tekoälymallit on optimoitu syvästi tietyille aloille. Tekoälyn ei tarvitse käsitellä epäolennaista dataa ja skenaarioita, ja kaikki laskentateho ja parametrit keskittyvät ongelmien ratkaisemiseen yhdellä vertikaalisella kentällä. Tämän fokuksen vaikutus on eksponentiaalinen kasvu.
🔍 Selitettävyydestä tulee jäykkä tarve
Korkean riskin skenaarioissa, kuten rahoituksessa, et voi luottaa vain mustaan laatikkoon vastausten antamisessa. Sääntelyvaatimukset, vaatimustenmukaisuusvaatimukset ja vastuullisuuden määrittäminen edellyttävät, että tekoälyn päättelyprosessin jokainen vaihe voidaan jäljittää ja todentaa. Erikoistuneet mallit voivat suunnitella vastaavia päätöspolkuja tietyille skenaarioille.
⛓️ Ketjussa tapahtuva todentaminen ja luottamusmekanismit
Lohkoketjuteknologian avulla tekoälyn päättelyprosessi voidaan tallentaa ja todentaa pysyvästi. Erikoistunut tekoäly ja ketjun varmenteiden tallennus voivat rakentaa täydellisen luottamusketjun. Jokaisella päättelyllä ja päätöksenteon solmulla on seurattava jälki, jota tarvitaan vain yritysskenaarioissa, jotka vaativat auditointia ja vaatimustenmukaisuutta.
📊 Ratkaise hallusinaatioiden ongelma
Yleiskäyttöisen tekoälyn hallusinaatiot johtuvat suurelta osin koulutustietojen monimutkaisuudesta ja monimuotoisuudesta. Erikoistunut tekoäly voi vähentää merkittävästi hallusinaatioiden määrää rajoittamalla koulutustietojen laajuutta ja laatua. Vertikaalisilla aloilla datan laatu on hallittavissa, tiedon rajat ovat selkeät ja mallit antavat todennäköisemmin tarkkoja ja luotettavia vastauksia.
💰 Kustannustehokkuuden uudelleenlaskenta
Vaikka yleiskäyttöinen tekoäly saattaa vaikuttaa siltä, että yksi malli voi ratkaista kaikki ongelmat, todelliset käyttöönottokustannukset ovat erittäin korkeat. Erikoistunut tekoäly voi saavuttaa parempia tuloksia pienemmillä mallimittakaavoilla, pienemmillä päättelykustannuksilla ja joustavammalla käyttöönotolla.
Näiden @OpenledgerHQ esittämien viiden kohdan takana se on itse asiassa vastaus alan todellisiin tarpeisiin. Kyse ei ole vain taistelusta reiteistä, vaan myös tehokkuuden ja maihinnousun valinnasta. Suuret mallit edustavat tutkimusta ja ammattimaiset mallit teollistumista.
Openledgerin kaltainen tiimi, joka ottaa käyttöön ketjun sisäisen infrastruktuurin, on todennäköisesti tämän muutosaallon loppupään infrastruktuurin tarjoaja.

35,7K
Kuunneltuani eilen @anoma's AMA:ta, minusta tuntui, että anooma oli todella nopea.
Anooman rakentamisen alusta aina testiverkkoon menemiseen joka päivä pyöräilemään
Tuntuu kuin aika lentäisi, TGE:n odottamisen jännityksestä nykyhetken rauhaan. Jopa hieman haluton luopumaan testiverkosta, joka on päättymässä.
Eilen illalla julkaistiin myös uusi pelikone, jonka odotettiin käyttävän Fitcoinia pelimerkkinä pelissä edellisen pelin tapaan. Yllättäen valitsin lopulta Pointsin.
Kuten me kaikki tiedämme, pisteiden kokonaismäärä määrää sijoitusten sijoituksen, ja sijoituksen tärkeys on itsestään selvää testiverkon brändipalkkioiden ohjaamana. Olen itse asiassa sellainen ihminen, jolla on suora selkä, ja menin juuri eilen nettiin ja menetin 100 000 pistettä, eikä tulos tietenkään palautunut. Sanotaan, että pääpalkinnosta voi saada myös 1 miljoona pistettä.
Studin tämän päivän menestyksen jälkeen kokonaispisteet ovat 5,56 miljoonaa, mikä on noin 500. Valmista 100 pientä nastapalloa ja katso mitä tapahtuu!
Stud päättyi yhteensä 5,79 miljoonalla pisteellä ja sijoittui sijalle 427. Studin 100 pieneen palloon verrattuna saatiin yhteensä 230 000 pistettä. Keskimäärin 2300 pistettä per pallo ansaitaan.
Tällä hetkellä testiverkko on julkaissut yhteensä noin 25 000 koodia, ja virallinen arvio on 30 000. Edelleen on 5 000, joita ei lähetetä. Sijoittui 500 parhaan joukkoon, lähes testiverkon parhaan 2 prosentin joukkoon. Mutta ollakseni rehellinen, kun tilasin 100 palloa, halusin todella olla "aikomuslähtöinen". Kerro sille, että haluan tilata 100 palloa, ja päänahkaani kihelmöi 🤣
Sen lisäksi, että seuraat @anoma testiverkon vuorovaikutusta joka päivä, muista mennä DC:hen joka keskiviikko toimittamaan todiste panoksesta. DC-roolin pitäisi olla myös tilannekuvassa myöhemmässä vaiheessa, joten muista ottaa se, jos sinulla on mahdollisuus. Toinen huomioitava seikka on NFT, sinun on löydettävä tapa hankkia se. Toivon, että kaikki saavat lopulta suuria tuloksia!



40,03K
Kun monet ihmiset mainitsevat tekoälyn, he ajattelevat LLM-malleja, älykkäitä kysymyksiä ja vastauksia sekä AGI-tiekarttoja, mutta itse asiassa harva todella tajuaa yhtä asiaa: tekoälyn ydinarvotaistelukenttä tulevaisuudessa ei todennäköisesti ole itse mallissa, vaan sen syömissä sisältömateriaaleissa eli IP:ssä.
Globaalin IPR-talouden nykyinen arvo on 61,9 biljoonaa dollaria. Mutta ongelmana on, että tällainen valtava sisältöresurssi on periaatteessa lukittu joukkoon sopimuksia, keskitettyjä alustoja, oikeudellisia kehyksiä ja suljettuja järjestelmiä. Tekoäly haluaa käyttää sitä läpäistäkseen ensin viisi tasoa tappaakseen kuusi kenraalia, ja se voi myös astua ukkosen päälle.
Siksi useimmat nykyiset tekoälymallit voivat kaapata tietoja vain salaa. Internetissä olevat artikkelit, kuvat, äänet ja videot syötetään kaikki hiljaa oppimismalliin. Mutta tämä tapa, tekijänoikeusongelmien, alustojen saartojen ja yhä useampien oikeusjuttujen puhkeamisen myötä, on periaatteessa käynnissä.
@campnetworkxyz idea on selvä: älä estä tai varasta, vaan anna itse IP:n olla ketjussa ja siitä tulee ohjelmoitava omaisuus, joka voidaan laillisesti yhdistää ja läpinäkyvästi lisensoida.
Tämä on myös leirin maanläheisin osa. Tarkoituksena ei ole rakentaa tekoälyn sisältöalustaa, vaan rakentaa suoraan joukko taustalla olevia protokollia ja infrastruktuuria, jotta kaikki sisällöntuottajat ja teollis- ja tekijänoikeuksien haltijat voivat rekisteröidä sisältönsä ketjuun, kirjoittaa ylös lisensointiehdot ja määritellä tulonjakomenetelmän. Jos haluat käyttää tekoälymallia, maksat suoraan ehtojen mukaan.
Mikä tärkeintä, koko prosessi on yhdistettävissä. Tulevaisuuden tekoälymallit eivät ime dataa valtavaan mustaan laatikkoon, vaan ovat kuin rakennuspalikoita, jotka ottavat vapaasti käyttöön lisensoitavia sisältömoduuleja eri sisältölähteiden, käyttötarkoitusten ja tyylien mukaan. Kaiken tämän lähtökohtana on, että jokainen IPR laitetaan ketjuun ja sillä on lisenssiehdot + tulologiikka.
Tämä asia on merkittävä, koska se muuttaa tekoälyn ja IPR:n välisen suhteen passiivisesta poimintasta ja hyödyntämisestä eräänlaiseksi vertaisyhteistyöksi. Sisällöntuottajat eivät ole enää plagioinnin uhreja, vaan heistä tulee tekoälykoulutuksen tarjoajia ja kaupallisten hyötyjen osallistujia.
Olen henkilökohtaisesti samaa mieltä @campnetworkxyz:n kanssa siitä, että "Suurin markkina, jolla tekoäly koskee, on IP". Riippumatta siitä, kuinka vahva malli on, sitä on ylläpidettävä datalla. Riippumatta siitä, kuinka paljon sisältöä on, jos sitä ei käytetä sääntöjen mukaisesti, se ennemmin tai myöhemmin tuhoaa ⛺️ itselleen
41,14K
Kun monet ihmiset puhuvat kaupankäyntityökaluista, se ei ole muuta kuin nopeampaa, säästävämpää ja sujuvampaa. Mutta jos teet usein moniketjuisia transaktioita, erityisesti Solanan, ETH:n, Basen ja BSC:n välillä, ymmärrät, että nämä sanat on helppo sanoa, ja se, mitä todella voidaan tehdä, on periaatteessa mitään.
@LABtrade_ haluavat pohjimmiltaan olla infrastruktuurikerros moniketjuisille liiketoimille. Mitä kaupankäyntiohjelmistoa yleensä käytetään, mutta nopeus on nopeampi, käsittelymaksu pienempi ja toiminnot ovat vahvempia. Tämä idea on itse asiassa varsin fiksu, sillä se ei pakota käyttäjiä muuttamaan tottumuksiaan, vaan optimoi alareunassa. Datan näkökulmasta 20 päivän kaupankäyntivolyymi 150 miljoonaa Yhdysvaltain dollaria, 700 000 Yhdysvaltain dollarin liikevaihto on edelleen melko vahva.
LAB tarjoaa neljä tuotetta: kaupankäyntibotit, sovellukset, sivupalkit, selainlaajennukset. Nämä työkalut toimivat saumattomasti missä tahansa kaupankäyntipäätteessä. Sinun ei tarvitse vaihtaa alustaa, ei tarvetta sopeutua uudelleen käyttöliittymään, ja nauti nopeammista nopeuksista ja alhaisemmista maksuista suoraan tutussa ympäristössä.
Liiketoimintalogiikan näkökulmasta LAB on käsittänyt hyvin käytännöllisen kipupisteen. Suurin päänsärky kaikille ketjun sisäisten tapahtumien tekemisessä ovat kalliit maksut, hidas nopeus ja monimutkaiset toiminnot. Perinteiset DEX-maksut alkavat 1 prosentista, ja sinun on odotettava vahvistusta, eikä kokemus todellakaan ole hyvä. LAB on alentanut palkkion 0,5 prosenttiin, eikä sillä ole kaupankäyntivolyymikynnystä, mikä on edelleen erittäin houkuttelevaa yksityissijoittajille.
Sijoittajakokoonpanon näkökulmasta Lemniscapia johtavat Animoca, OKX Ventures ja Mirana, jotka ovat tunnettuja instituutioita piirissä. Tämä salkku on varsin luotettava, ainakin se osoittaa, että projekti on läpäissyt laitoksen due diligence -tarkastuksen.
Teknisestä näkökulmasta LAB tukee jo valtavirran ketjuja, kuten Solana, Ethereum, Base ja BSC. Moniketjutuki on todellakin välttämättömyys nykyisessä ekologisessa pirstoutumisympäristössä, eikä käyttäjien tarvitse vaihtaa lompakkoa ja työkaluja edestakaisin eri ketjujen välillä.
Yleisesti ottaen LAB-projektin idea on edelleen hyvä, se vangitsee käyttäjien todelliset tarpeet ja myös datan suorituskyky on ok. Mutta sen tarkistaminen vie aikaa, voiko se saada vankan jalansijan kovassa kilpailussa. Ystäville, jotka haluavat osallistua, on suositeltavaa testata vesiä ensin pienellä määrällä, kokea tuote ja päättää sitten, osallistuvatko syvästi.
Portaali:

34,71K
Tänään @OpenledgerHQ julkaisi oman minipelinsä Octomanin, ja ajattelin pelata rennosti ajanvietteeksi, mutta en voinut lopettaa heti, kun aloitin. Tämän pelin ydinpelattavuus on ohjata mustekalamiestä heilumaan ilmassa ja lentämään niin pitkälle kuin mahdollista, mutta tämä yksinkertainen mekaniikka aiheuttaa riippuvuutta.
Pelin ydin on ajoitus ajoitus ajoitus!!
Pelin toimintalogiikka ei ole monimutkainen, vain kaksi nuolinäppäintä matkapuhelimessa sekä painike hämähäkkisilkin ampumiseen, ja tietokone voidaan tehdä kolmella WAD-painikkeella. Mutta jos haluat todella pelata tätä peliä hyvin, tärkeintä on hallita fysiikkamoottorin rytmi. Milloin hämähäkkisilkki vapautetaan ja milloin siihen tarttuu uudelleen, jos hallitset tämän ajoituksen, pystyt lentämään pitkälle ja tasaisesti ilmassa.
Mielenkiintoista on, että joka kerta kun päivität henkilökohtaisen ennätyksesi, järjestelmä luo automaattisesti eksklusiivisen tuloskortin. Tätä korttia ei tehdä satunnaisesti, vaan se avaa eri harvinaisuuksien hahmokuvia pisteesi perusteella. Mitä korkeampi pistemäärä, sitä harvinaisempi hahmo, ja tämä muotoilu todella stimuloi sinua rikkomaan ennätyksiä.
Nyt heillä on kaksipäiväinen tapahtuma, jossa on suoraviivaiset säännöt. Voit twiitata tuloskorttisi, @OpenledgerHQ sen ja lisätä hashtagin #iloveplayingoctoman. On selvää, että he haluavat pelaajien todella osallistuvan.
Tuotesuunnittelun näkökulmasta Octoman on varsin fiksu. Peli itsessään on tarpeeksi yksinkertainen kenelle tahansa, mutta se vaatii harjoittelua ja taitoa pelatakseen hyvin. Tuloskorttijärjestelmä antaa pelaajille syyn esitellä, ja sosiaalisen median leviäminen voi tuoda uusia käyttäjiä.
Pelasin itse rennosti ja tein 551 pistettä. Antoi minulle suoraan pienen ninjamustekalan! Tämä kuva on suoraan täynnä, ja se sopii avatariini täydellisesti. En aio murtautua läpi, olkoon niin. Rakkaus, rakkaus!!

22,69K
Reddit on virallisesti estänyt Internet Archiven sisällön kaapimisen tekoälykoulutusta varten, mikä on pinnalla alustojen rutiinioperaatio omien tietojensa suojaamiseksi, mutta tämän takana on koko tekoälyn talousmallin perusongelma.
Nykytilanne on se, että tekoälyyritykset tarvitsevat valtavia määriä laadukasta dataa mallien kouluttamiseen, mutta sisältöalustat ja sisällöntuottajat eivät saa tästä prosessista mitään palkintoja. Tekoälyyritykset kouluttavat kovalla työllä ansaitun sisällön ilmaiseksi, ja sitten suuret yritykset tienaavat rahaa koulutetuilla malleilla, eivätkä tekijät saa penniäkään.
Yhä useammat alustat alkavat asettaa esteitä, ja Redditin Internet Archiven kielto on vasta alkua. Ongelmana on, että pelkkä estäminen ei ratkaise perusongelmaa, se vain rajoittaa pääsyä eikä luo järkevää valtuutus- ja voitonjakomekanismia.
Todella tarvitaan infrastruktuuria, joka mahdollistaa esimerkiksi käyttöehtojen, omistusoikeuksien ja rojaltien täytäntöönpanon suunnittelutasolla.
Camp ehdotti uutta reittiä: estämisen sijaan olisi parempi suunnitella tekoälyn koulutusdatan käytön säännöt uudelleen eri tavalla. Ydinlogiikka on itse asiassa hyvin yksinkertainen:
1️⃣ Sisältö on rekisteröity ketjuun ja sillä on alkuperätodistus
2️⃣ Sisällöntuottajat määrittelevät omat lisensointiehtonsa
3️⃣ Jos haluat käyttää tekoälyä, sinun on maksettava
4️⃣ Rojaltit palautetaan automaattisesti sisällöntuottajille
Taustalla oleva logiikka: Sen sijaan, että estäisit tekoälyä käyttämästä sisältöä, kohdista kaikkien osapuolten edut. Tekoälyyritykset tarvitsevat dataa, sisällöntuottajat tarvitsevat tuloja, alustat ekologista arvoa ja kaikki tarvitsevat sitä, mitä tarvitsevat.
Tällä hetkellä @campnetworkxyz on rekisteröity yli 1,5 miljoonaa luomusta, ei vain kuvia, musiikkia, vaan myös videoita, kerronnallista sisältöä jne., josta on tullut hajautettu IP-alkuperäinen tietokanta. Tekoälymalleille se tarjoaa laillisen, kestävän ja skaalautuvan tietolähteen. Sisällöntuottajille tämä on vihdoin tapa olla enää prostituoitu ilmaiseksi.

35,98K
IQ AI:n ja NEAR:n yhteistyön ydinlogiikka on antaa tekoälyagenteille mahdollisuus tehdä asioita ketjujen yli yksin ilman ihmisen väliintuloa.
Teknisestä näkökulmasta @NEARProtocol:n 600 ms:n lohko ja 1.2 sekuntia vahvistavat, että tämä nopeus on todellakin riittävän nopea. Tekoälyagenteille mitä lyhyempi odotusaika, sitä parempi, loppujen lopuksi tekoälyn päätöksentekonopeus on luonnostaan nopeampi kuin ihmisillä, ja jos sen suorittaminen vie tietyn ajan, yleinen tehokkuus jää jälkeen. Nyt tällä nopeudella voidaan periaatteessa saavuttaa reaaliaikainen vaste.
Aiemmin ketjujen väliset toiminnot olivat riittävän monimutkaisia tavallisille käyttäjille, puhumattakaan siitä, että tekoälyagentit antoivat hoitaa erilaisia siltalogiikoita. Nyt suoraan kehityspakettiin integroitu tekoälyagentit voivat suorittaa itsenäisesti ketjujen välisiä toimintoja, mikä käytännössä madaltaa toimintakynnystä.
Strategisesta näkökulmasta se on tarttumassa tekoälytalouden infrastruktuuriasemaan. Tekoälyagenttien suosio on nyt kasvussa, mutta ei ole paljon infrastruktuuria, jonka avulla tekoälyagentit voisivat todella päästä suoraan transaktiokerrokseen ja osallistua ketjussa tapahtuvaan taloudelliseen toimintaan. NEAR vahvistaa matalaa asemaansa tekoälyn ja agenttien L1-infrastruktuurina tällä kumppanuudella.
Itse asiassa tekoälyagenttien tarpeet eroavat käyttäjien tarpeista. Ihmiset voivat kestää monimutkaisia toimintaprosesseja, odottaa vahvistusaikaa ja käsitellä manuaalisesti erilaisia epänormaaleja tilanteita. Tekoälyagentit tarvitsevat kuitenkin standardoidun, automatisoidun ja tehokkaan suoritusympäristön.
Sovellusskenaarioiden näkökulmasta ketjujen välinen transaktioiden toteuttaminen on todellakin erittäin käytännöllistä. Jos tekoälyagentti pystyy seuraamaan arbitraasimahdollisuuksia useissa ketjuissa samanaikaisesti ja suorittamaan automaattisesti ketjujen välisen arbitraasin löydettyään mahdollisuuden, koko prosessi ei vaadi käyttäjän osallistumista, itse asiassa arbitraasimahdollisuus on paljon suurempi kuin käyttäjän oma toiminta. Jos pystyt huomioimaan useiden toimijoiden yhteistyön samanaikaisesti, se voi tuottaa vielä enemmän arvoa.
Tämä on hyvä ero NEAR:lle. Aikana, jolloin joukko L1:itä taistelee TPS:n ja ekologian puolesta, tekemällä yhteistyötä @IQAICOM kanssa ja keskittymällä tekoälyagenttien vertikaaliseen kenttään, on edelleen erittäin mielekästä kerätä hyvä perusta alkuvaiheessa.


NEAR Protocol13.8. klo 21.06
Tokenisoidut tekoälyagentit eivät ole enää tieteiskirjallisuutta. @IQAICOM:n uusi integraatio NEAR:n kanssa avaa autonomisia ketjujen välisiä toimintoja, jotka ovat nopeita, lopullisia ja turvallisia.
Tältä Chain Abstraction näyttää toiminnassa.
7,3K
Näin juuri, että @boundless_xyz ilmoitti eilen yksityiskohtaisesta esittelystä ZK Coiniin, ja tätä projektia seuranneena se tuntuu varsin mielenkiintoiselta. Loppujen lopuksi he haluavat tehdä yhteisen infrastruktuurin ZK-todisteille.
Ensinnäkin itse Boundless-projekti. Se on pohjimmiltaan universaali ZK-proof-protokolla, jonka avulla kaikki lohkoketjut voivat käyttää ZK:n tehoa. Jos jokaisen ketjun on nyt rakennettava oma ZK-suojausjärjestelmänsä, kustannukset ovat korkeat ja tehokkuus ei ole hyvä. Boundless tarjoaa ZK-todistepalveluita jokaiselle ketjulle itsenäisten todistesolmujen verkoston kautta. Se voidaan ymmärtää myös yksinkertaisesti tietojenkäsittelyn ulkoistamiseksi.
Laajennusmenetelmä on paljon yksinkertaisempi ja karkeampi kuin alkuperäinen sirpalointi- tai layer2-ratkaisu, ja se lisää suoraan koko verkon suorituskykyä lisäämällä solmuja.
ZK Coin, tämän järjestelmän alkuperäisenä tokenina, ei ole puhdas hallintotoken. Jokainen todistuspyyntö edellyttää ZKC:n panostamista vakuudeksi ja vähintään 10-kertaista enimmäismaksua. Tämä tarkoittaa, että verkon käytön lisääntyessä myös lukittu ZKC kasvaa eksponentiaalisesti, mikä vähentää suoraan kiertävää tarjontaa.
On myös todennettavissa oleva proof-of-work PoVW -mekanismi, jonka avulla todistesolmut voivat louhia ja ansaita ZKC:tä luomalla ZK-todistuksia. Kaivostoimintaan osallistuminen edellyttää kuitenkin tietyn määrän ZKC:n panostamista. Tämä luo positiivisen kierteen: enemmän todistettavaa kysyntää→ enemmän ZKC:n panostamista→ parempia suorituskykykannustimia→ enemmän solmujen osallistumista.
Token-jakelun osalta 49 % on tarkoitettu ekologiseen kehitykseen. Jos kuitenkin tarkastellaan tarkasti jakologiikkaa, 31 % ekologisista varoista käytetään pääasiassa kolmeen suuntaan: todennettavissa olevien sovellusten rahoitukseen, protokollien integrointi- ja kehitystyökaluihin, protokollan ylläpitoon ja infrastruktuurin kehittämiseen. 18 % strategisen kasvun rahastosta on omistettu yritysintegraatioon ja institutionaalisiin todisteisiin solmukohtiin. Tämä jakelumenetelmä osoittaa, että se todella rakentaa ekosysteemiä.
Tiimit ja varhaiset avustajat saavat 23,5 %, ja 3,5 % siitä menee RISC Zerolle tulevaa rekrytointia ja tutkimusta varten. Tämä yksityiskohta osoittaa, että Boundlessilla on syvä suhde RISC Zeroon, ja RISC Zerolla on paljon kertymää zkVM-kentässä.
Yhteisön tokenien myynnin ja airdropien osuus on vain 6 %, mikä ei ole suuri osuus. Ottaen huomioon, että kyseessä on infrastruktuurihanke, tämä suhde on kuitenkin kohtuullinen. En vain tiedä, kuinka paljon Yapper voi mennä myöhemmin.
Sijoittajan 21,5 %:n allokaatio, lukitusmekanismi on sama kuin tiimillä, 1 vuoden jyrkänne ja sitten 2 vuoden lineaarinen vapautus. Tämä suunnittelu voi varmistaa, että varhaisten sijoittajien ja tiimin edut ovat sidottuja, eikä markkinoita tuhota, kun ne siirtyvät verkkoon.
Inflaatiomekanismi on 7 % ensimmäisenä vuonna, minkä jälkeen se laskee vähitellen 3 %:iin kahdeksannesta vuodesta alkaen. Mutta tärkeintä on, että koska jokainen todistuspyyntö vaatii ZKC:n panostamisen, todellinen kiertävä tarjonta kutistuu verkon käytön kasvaessa. Lisäksi 50 % luvatusta poltetaan suoraan, mikä muodostaa tasapainomekanismin inflaation ja deflaation välille.
Omasta mielestäni @boundless_xyz kohokohta on kaksi asiaa
1️⃣ Ei tietty ZK tietylle ketjulle, mutta haluaa todella olla universaali ZK-infrastruktuuri kaikille ketjuille. ZK-teknologian soveltaminen lohkoketjualalla tulee vain yleistymään, ja siitä tulee välttämätön pohja.
2️⃣ Tokenin suunnittelu ja liiketoiminnan vaatimukset ovat suoraan sidottuja. Mitä enemmän todisteita, sitä enemmän ZKC on lukittu, ja tokenin kysyntä ja verkon käyttö korreloivat lineaarisesti.
@TinaLiu333 @RiscZeroCN



46,12K
Eilen näin vertailun näiden kahden tietojoukon välillä, ja tunsin itseni varsin mielenkiintoiseksi. Jaa se kanssasi. Vaikka tiedän, että tämä vertailu ei ehkä ole erityisen tarkka, loppujen lopuksi on olemassa pääverkko ja testiverkko, mutta Campin datan suorituskyky on todella hyvä.
1️⃣Tarinan protokollan tiedot
7,6 miljoonaa lohkoa
43,7 miljoonaa tapahtumaa
4 miljoonaa osoitetta
192 000 tapahtumaa päivässä
2,4 sekunnin lohkoaika
2️⃣Leirin testiverkon tiedot
16,2 miljoonaa lohkoa
84,9 miljoonaa tapahtumaa
6,6 miljoonaa osoitetta
842 000 tapahtumaa päivässä
0,9 sekunnin lohkoaika
Datan näkökulmasta @campnetworkxyz on jo ohittanut Storyn pääverkon suorituskyvyn useissa ulottuvuuksissa testiverkkovaiheessa. Lohkojen määrä on yli kaksinkertainen Storyyn verrattuna, transaktiovolyymi on lähes kaksinkertainen Storyyn verrattuna, ja osoitteiden määrä on myös selvästi edullinen, ja päivittäinen transaktiovolyymi on yli neljä kertaa Storyn määrä.
Story on juuri julkaistu pääverkossa, ja Camp on vielä testiverkkovaiheessa, joten käyttäjien osallistumisen mentaliteetti ja käyttäytymismallit ovat ehdottomasti erilaisia. Testnet-käyttäjät saattavat haluta olla vuorovaikutuksessa usein, koska kaasusta ei tule painetta. Mutta näiden lukujen takana heijastuva käyttäjien aktiivisuus ja verkon prosessointiteho ovat varsin vakuuttavia.
@campnetworkxyz arkkitehtuuri on todellakin ainutlaatuinen siihen verrattuna. Proof of Provenance -protokollassa ei ole kyse vain IP-oikeuksien vahvistamisesta, vaan pikemminkin arvonvaihtojärjestelmän rakentamisesta tekoälyn ja tekijöiden välille. Käyttäjät voivat rekisteröidä sisältönsä IP-osoitteeksi, ja kun tekoäly käyttää näitä tietoja sisällön kouluttamiseen tai luomiseen, sisällöntuottajat voivat saada vastaavan tulonjaon.
Tällä mallilla on oma ainutlaatuinen arvonsa, kun tekoäly kuluttaa tällä hetkellä paljon koulutusdataa. Varsinkin kun korkealaatuinen koulutusdata käy yhä niukemmaksi, Camp, mekanismi, jonka avulla käyttäjät voivat aktiivisesti syöttää tietoja ja saada palkintoja, voi tulla entistä tärkeämmäksi.
Teknisestä näkökulmasta Campin 0,9 sekunnin lohkoaika on todellakin paljon nopeampi kuin Storyn 2,4 sekuntia. Tämä suorituskykyetu voi olla hyödyllinen, kun käsitellään suurta määrää IP-rekisteröinti- ja valtuutustapahtumia. Ja ne tukevat kaasutonta IP-rekisteröintiä, mikä on alhaisempi kynnys tavallisille käyttäjille.
Camp on vielä testiverkkovaiheessa, ja näiden tietojen suorituskyvystä päätellen se on ehdottomasti huomion arvoinen projekti pääverkon käynnistämisen jälkeen. Erityisesti tekoälyn ja IP:n yhdistämisen suuntaan odotamme innolla Campin läpimurtoa.


35,89K
Johtavat
Rankkaus
Suosikit
Ketjussa trendaava
Trendaa X:ssä
Viimeisimmät suosituimmat rahoitukset
Merkittävin

