Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Gradient
Når vi snakker om desentralisert AI-infrastruktur, er prosjektene i dette sporet alle finansieringsmonstre, fordi evnen til å fortelle historier er veldig sterk, men hvor det kan implementeres på dette stadiet er gjennomførbart, og hvilke ulike opplevelser som kan tilbys, fra et @Gradient_HQ perspektiv:
Ved å bruke den enkleste strukturen for å bryte ned AI, kan det i bunn og grunn deles inn i fire lag: applikasjons-/utførelsesorkestrering/modelltrening/data, som kan forstås bokstavelig.
De fleste DeAI-prosjekter fokuserer på utførelsesorkestreringslaget, samtidig som de legger til kryptorelaterte funksjoner som oppgjør og insentiver, ZK-verifiserbarhet, osv. Modelllagets opplæring og gjennomføring er for øyeblikket den mest konsentrerte og dyreste, og det er vanskelig å desentralisere på dette stadiet.
For nybegynnere, gjør grunnleggende vitenskapelig popularisering først, og du kan hoppe over denne delen hvis du har profesjonell kunnskap. Utførelse og orkestrering kan forstås som fordeling av krav til regnekraft, og modeller, som datakraftmarked, oppgaveplanlegging osv., forstå først «regnekraft», for å få modellen til å fungere kreves mange matematiske operasjoner, og evnen til å utføre disse operasjonene er regnekraft. I det tradisjonelle AI-feltet, for eksempel, når du chatter med ChatGPT, trenger du datakraft bak kulissene for å utføre inferensoperasjoner, som hovedsakelig kommer fra datasenteret i skyen (GPU/AI-akselerator på serveren), og inndatainnholdet ditt →sendes til backend via nettverket → et sett GPU/akseleratorer i backend-datasenteret for å kjøre modellen for å fullføre slutningen → og sende resultatene tilbake til nettleseren.
Gradients nåværende hoved Infra: Parallax, som skiller seg fra H100- og H20-datasystemene vi vanligvis ser, er at det den gjør tilsvarer å splitte inferenser på enheter med forskjellige modeller, ulik videominne og ulike nettverksforhold, og den deler automatisk modellen i passende størrelser, slik at hver maskin kan kjøre. De fleste prosjekter prøver fortsatt å «slå seg til ro» på kjeden» til offline H100, men Gradient har gjort et dristigere forsøk her, og tillater at to 4090-er verdt 4 000 dollar kan kombineres for å lage en enkelt A100 verdt nær 20 000 dollar.
Her aktiveres to bruksområder:
1/ Alle kan bruke noen datamaskiner hjemme for å selvbetjene store modeller, noe som fullt ut beskytter personvernet. 2/ Alle kan bli med i en slutningsnettverksklynge, samarbeide med venner for å resonnere modeller, og til og med danne et større slutningsnettverk. Her har Gradient også designet et sett med relativt komplekse algoritmer, inkludert optimalisering av antall snitt og segmenter, og krav om dynamisk ruting.
Selvfølgelig gjør ikke Gradient bare dette, det er en åpen kildekode AI-infrastruktur. Den inkluderer også en rekke temaer som for tiden står i front i AI-kretsen, som forsterkningslæring, noe som viser at det er et team som er svært ambisiøst og følger AI-innovasjon tett på nytt. Nylig har teamet også blitt anerkjent og støttet av AI Labs som Dark Side of the Moon, Ali Qianwen, osv., som fortsatt er relativt sjeldent i denne kretsen, og denne måten å forbedre AI på absorberer først heterogene ressurser og bygger et åpen kildekode-system som gjør det enkelt for flere å kjøre store modeller og skape morsommere applikasjoner. Sammenlignet med å leie datakraft reduserer det kostnadene til en viss grad, reduserer risikoen for enkeltstående punkter og forbedrer sensurmotstanden, som er mer kjent for krypto, og når det gjelder personvern kan sensitiv data bli liggende i regionen/nærområdet for behandling.
Mange bransjegiganter er også positive til DeAI, og David O. Sacks, en av de største støttespillerne for DeAI Narrative, har gjentatte ganger offentlig understreket at AI vil omforme verden, men at dens sentraliserte utviklingsvei er full av risikoer. Desentralisert AI-infrastruktur er den eneste måten å sikre at innovasjon fortsetter å konkurrere fritt.
Gradient har for øyeblikket en investering på 10 millioner dollar, ledet av stjerneinvestorer som Multicoin Capital, Pantera, HSG (tidligere Sequoia China) og andre.
"Hvis AI blir monopolisert, er det game over.
Fremtiden avhenger av om etterretning kan være åpen — desentralisert, distribuert og tilgjengelig for alle.»
— David O. Sacks

Topp
Rangering
Favoritter

