Google er selskapet som ikke mangler datakraft, og han mangler ikke mer enn Nvidia. Selv NVIDIA-GPU-er følger sannsynligvis TPU (den gjennomsiktige konsensusen i sirkelen) 1️⃣ Tensorkjerne NVIDIAs fulle introduksjon etter Volta nærmer seg i praksis matrisemultiplikasjonsspesialiseringen av TPU-er 2️⃣ Lavpresisjonsberegning (FP16 / BF16 / INT8) TPU ble tidlig optimalisert for lav presisjon for inferens, og GPU ble senere "tvunget" til å støtte modellkrav 3️⃣ Massiv klustring + kompilator-samarbeid TPU er hele «maskinvare × kompilator × planlegging», og NVIDIA har så vidt begynt å satse seriøst på Triton/CUDA Graph/NVLink-nivå samarbeid Nvidia tjener penger på chip-datakraft, mens Google i mange år er avhengig av et stabilt økosystem, reklame, søkemotorer, YouTube, nettlesere, Android og andre nettverksfenomener for å levere blod, og datakraft er bare kostnaden, ikke forbruket av profitt. TPU har alltid vært Googles alt-i-ett-forskning som tillater lang nok forskning og omgjøring. Jeff Deans forståelse av TPU er at hvis modellen defineres av deg, så bør også maskinvaren defineres av deg, så TPU er et komplett sett med systemutvikling fra kompilatoren (XLA), beregningsgraf (TensorFlow), datasentertopologi og planleggingssystem Når det gjelder risiko, siden NVIDIA selger GPU-er, må de betjene alle kunder, og feiltoleransen er ekstremt lav. Hvilken amerikansk aksje jeg skal kjøpe er klart igjen