Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
GPU-mangelen i AI handlet aldri om brikkene. Vi har nok.
Den virkelige krisen er at vi fortsatt ikke kan bruke de fleste av dem.
Her er hvorfor 🧵

@cot_research 2/ Se på gapet: Frivillig databehandling som Folding@Home fungerer fint på forbrukermaskinvare. Selv @pewdiepie gjør en flott jobb og bidrar!
Moderne AI-arbeidsbelastninger vil imidlertid feile.
Samme maskinvarepool. Veldig annerledes utfall. Hvorfor?

3/ Moderne AI-kjøretider (inferens- eller treningstider) antar sterile forhold:
- Identiske GPU-er
- Lav-latens, stabile lenker
Den virkelige verden, derimot, er et rot av heterogene maskiner og tregt internett
Den vanlige teknologistakken kollapser her.
4/ Mange såkalte «desentraliserte» datanettverk har ikke nådd produkt-markeds-tilpasning fordi de behandler dette rotet som et kanttilfelle.
De bygger markedsplasser for å aggregere inaktive GPU-er, men aggregering er ikke koordinering.
Hvis maskinvaren ikke kan oppføre seg som én sammenhengende maskin, er det... Litt ubrukelig

5/ Koordinasjonen skjer oppstrøms.
I datanettverk: hvis du ikke løser koordineringen av fragmentert maskinvare først, spiller ingenting annet du bygger noen rolle.
Pålitelighet og utvikleropplevelse er problemer nedstrøms.
6/@YottaLabs er det første laget jeg har sett ta tak i dette fra bunnen av og gjøre sterke fremskritt.
Ved å bygge om AI-stakken, fra planleggeren til kommunikasjonslaget, har de brakt desentralisert beregningsytelse til innenfor ~15 % av sentraliserte klynger.

7/ Det som er enda mer interessant er @YottaLabs forretningsmodell. Markedet er sekundært.
De bygger en datavollgrav i operasjonell robusthet som Google ikke kan gjenskape – den intelligente optimalisatoren
Yotta mater hver termisk spike og nettverksfeil tilbake til sin optimalisator. Mer om dette senere.
50
Topp
Rangering
Favoritter
