Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Gradient
Laten we het hebben over gedecentraliseerde AI-infrastructuur. De projecten in deze sector zijn allemaal financieringsmonsters, omdat ze zeer goed zijn in het vertellen van verhalen. Maar waar kunnen ze momenteel echt worden toegepast en wat voor verschillende ervaringen kunnen ze bieden? Vanuit het perspectief van @Gradient_HQ:
Als we AI in de eenvoudigste structuur opsplitsen, kunnen we het in vier lagen verdelen: applicatielaag / uitvoeringscoördinatie / modeltraining / data. Dit is letterlijk te begrijpen.
De meeste DeAI-projecten zijn voornamelijk geconcentreerd op de uitvoeringscoördinatielaag, terwijl ze daarbovenop crypto-gerelateerde kenmerken toevoegen, zoals afrekeningen en stimulansen, ZK-verifieerbaarheid, enz. De modeltraining en uitvoeringszijde zijn momenteel het meest geconcentreerd en ook het duurst, en het is op dit moment moeilijk om te decentraliseren.
Voor nieuwkomers is het goed om eerst wat basiskennis op te doen; wie over professionele kennis beschikt, kan deze sectie overslaan. Uitvoering en coördinatie kunnen worden begrepen als het verdelen van de vraag naar rekenkracht en modellen, zoals rekenkrachtmarkten, taakplanning, enz. Laten we eerst begrijpen wat "rekenkracht" is. In eenvoudige bewoordingen, om een model te laten draaien, zijn veel wiskundige berekeningen nodig, en de capaciteit om deze berekeningen uit te voeren is rekenkracht. In de traditionele AI-wereld, bijvoorbeeld wanneer je met ChatGPT chat, is er rekenkracht nodig om de redeneringen uit te voeren, en deze komt voornamelijk van cloud-datacenters (GPU/AI-versnellers op servers). Je voert inhoud in → wordt via het netwerk naar de backend gestuurd → een groep GPU's/versnellers in het datacenter van de backend draait het model om de redenering te voltooien → het resultaat wordt teruggestuurd naar de browser.
De huidige focus van Gradient is Infra: Parallax. In tegenstelling tot de rekenstructuren die we normaal zien, zoals H100 en H20, doet het iets dat vergelijkbaar is met het splitsen van redeneringen op apparaten met verschillende modellen, verschillende geheugens en verschillende netwerkomstandigheden. Het splitst automatisch het model in geschikte groottes, zodat elke machine het kan draaien. De belangrijkste uitdaging is de communicatie-efficiëntie tussen machines en de optimalisatie van hoge prestaties in een heterogene hardwareomgeving. De meeste projecten proberen nog steeds de offline H100 "op de blockchain af te rekenen", terwijl Gradient hier een gedurfder experiment heeft gedaan, waardoor twee 4090's van 4000 dollar samen een effect kunnen bereiken dat dicht bij dat van een enkele A100 van 20.000 dollar ligt.
Hier worden twee use cases mogelijk gemaakt:
1/ Iedereen kan thuis met een paar computers zelf grote modellen redeneren, wat de persoonlijke privacy volledig waarborgt. 2/ Iedereen kan zich aansluiten bij een netwerkcluster voor redeneringen, samen met vrienden modellen redeneren, en zelfs een groter redeneringsnetwerk opbouwen. Gradient heeft hier ook een vrij complex algoritme ontworpen, inclusief optimalisatie van het aantal gesplitste segmenten en dynamische routering van de vraag. Dit wordt hier niet verder uitgelegd; geïnteresseerden kunnen het paper lezen.
Natuurlijk doet Gradient niet alleen dit; ik ga hier niet verder op in. Het is een open-source AI-infrastructuur. Het bevat ook een reeks momenteel vooraanstaande onderwerpen in de AI-wereld, zoals versterkend leren. Het is duidelijk een ambitieus team dat goed op de hoogte is van AI-innovaties. Onlangs is het team erkend en ondersteund door organisaties zoals Moonlight, Alibaba Qianwen, enz., wat vrij zeldzaam is in de sector. Deze aanpak voor de verbetering van AI heeft eerst heterogene middelen aangetrokken en een open-source systeem opgebouwd, waardoor meer mensen gemakkelijk grote modellen kunnen draaien en meer leuke toepassingen kunnen creëren. In vergelijking met het huren van rekenkracht verlaagt het in zekere mate de kosten, vermindert het enkelpunt risico's en verhoogt het de weerstand tegen censuur, wat bekend is in de crypto-wereld. Bovendien kan het gevoelige gegevens eerst in het lokale gebied/aan de rand verwerken.
Veel grote bedrijven hebben ook een positieve houding ten opzichte van DeAI. David O. Sacks, een van de grootste supporters van het DeAI-narratief, heeft herhaaldelijk benadrukt: AI zal de wereld hervormen, maar de gecentraliseerde ontwikkelingsroute is vol risico's. Gedecentraliseerde AI-infrastructuur is de enige manier om voortdurende innovatie en vrije concurrentie te waarborgen.
Gradient heeft momenteel 10 miljoen dollar aan investeringen ontvangen, geleid door sterreninvesteerders zoals Multicoin Capital, Pantera, HSG (voorheen Sequoia China).
"Als AI monopolistisch wordt, is het spel voorbij.
De toekomst hangt af van de vraag of intelligentie open kan zijn - gedecentraliseerd, gedistribueerd en toegankelijk voor iedereen."
— David O. Sacks

Boven
Positie
Favorieten

