Noen nåværende tanker om TPU og $GOOG Først: Avvis ugyldig parameterbenchmarking Ikke krangle om hvor mye GPU- og TPU-parameterne er forskjellige, hvor dyr migreringen er og hvem som er best. Hva er poenget med dette? $GOOG er ikke et halvlederselskap i utgangspunktet, og TPU er ikke en vare som er klar til å selges overalt. De begynte å legge ut for nesten et tiår siden og er utelukkende for å betjene virksomheten deres. De har ikke engang nok av dette selv, så hvordan kan de ha tid til å selge det til deg? Det er som om Amazon driver med logistikk, for sin egen hastighet, ikke for å selge lastebiler. På samme måte kan ikke dette brukes til FUD $nvda Dazi til å selge kort, $goog ikke til å selge kort, hvordan sammenligne? Det er urimelig av deg å bruke denne FUD-Dazi. For det andre: Kjernen i Gemini er «industrialiseringsevner» Alle ruller sammen modellen selv, men ignorerer det viktigere punktet med kommersiell landing: kostnad og hastighet (enhetsøkonomi). Geminis erfaring forteller meg at Google utnytter de innebygde fordelene med TPU-er for å presse kostnaden for AI-inferenser ned til gulvpris, samtidig som de holder latenstiden ekstremt lav. Hvis AI blir en «infrastruktur» i fremtiden, er «enkel å bruke, billig og svarer i sanntid» langt viktigere enn «ekstremt smart, men uresponsiv» i 95 % av brukersituasjonene (sjekker informasjon, skriver e-poster og lager sammendrag). Vennligst merk at ovenstående er en hypotese om fremtiden, AI er ubesluttsom, og ingen vet hvordan fremtiden skal se ut. $GOOG Det er som årets Ford eller Toyota. De introduserte samlebånd (TPU-klynger) og skapte en slank produksjonslinje (JAX/væskekjøling) som integrerte programvare og maskinvare, og gjorde biler til en rimelig vare for alle husholdninger, i stedet for en luksusvare for de rike i begynnelsen. Til slutt: Jeg sa ikke at $NVDA er dårlig, eller at andre modeller ikke kan det. ...