Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dev Shah
Zwiększenie ROAS o 4X dzięki agentom AI @leoadsai | Wcześniej zbudowani Agenci BioAI @ MGH, BMC | Poprzedni założył @profilecityhq, @nnsphere (wspierany przez Nvidia)
Google nigdy nie sprzeda TPU. W momencie, gdy Google zacznie sprzedawać TPU na dużą skalę, przekształca swoją przewagę architektoniczną w towar.
Wewnętrzne zespoły Google mają pierwszeństwo w dostępie do mocy TPU, ponieważ te obciążenia bezpośrednio generują przychody i strategiczne przewagi. Każdy TPU sprzedany na zewnątrz to TPU, które nie jest używane do obrony głównych silników zysku Google.
Obecnie TPU są własnością Google, integracją pionową, która pozwala im prowadzić infrastrukturę AI po kosztach, których konkurenci nie mogą dorównać. DeepMind może wykorzystać budżety obliczeniowe, które zbankrutowałyby OpenAI, ponieważ Google nie płaci detalicznych cen GPU, płaci wewnętrzny koszt marginalny TPU.
Jeśli Google zacznie sprzedawać TPU na zewnątrz:
- Muszą ustalić konkurencyjne ceny w porównaniu do GPU Nvidii, co oznacza ujawnienie swojej struktury kosztów. Nagle wszyscy dowiadują się, że prawdziwe koszty obliczeniowe AI Google nie są magią.
- Sprzedaż TPU w wersji bare metal oznacza publikację szczegółowych specyfikacji, benchmarków wydajności i interfejsów programowania. To przekazanie konkurentom planu na to, "jak Google naprawdę robi AI na dużą skalę." Obecnie to jest własność. W momencie, gdy staje się produktem, zostaje zbadane, odwrócone i ostatecznie skopiowane.
- Google Cloud już sprzedaje dostęp do TPU za pośrednictwem GCP po cenach premium. Jeśli zaczną sprzedawać TPU w wersji bare, konkurują z własną ofertą chmurową o wyższej marży. Żaden wyrafinowany nabywca nie zapłaci za GCP, gdy może kupić TPU bezpośrednio i uruchomić je taniej.
Ceny TPU w GCP nie są agresywne w porównaniu do alternatyw GPU, ale są premium. To nie jest niekompetencja, to celowo ustalone ceny, aby zniechęcić do masowego przyjęcia zewnętrznego. Google udostępnia TPU wystarczająco, aby uniknąć oskarżeń o "gromadzenie infrastruktury" w kontekście antymonopolowym i aby zdobyć trochę przychodów z chmury o wysokiej marży, ale tak naprawdę nie chcą, aby zewnętrzni klienci konsumowali moce na dużą skalę.
Porównaj to z AWS, które sprzedaje każdy chip, który mogą wyprodukować (Graviton, Trainium, Inferentia), ponieważ AWS to biznes infrastruktury towarowej. Głównym biznesem Google są reklamy i produkty konsumenckie, które zależą od infrastruktury AI. Sprzedaż infrastruktury jest jak sprzedaż łańcucha dostaw McDonald's Burger Kingowi, nawet jeśli generuje przychody, wzmacniasz konkurentów i osłabiasz swój główny biznes.
Nie możesz jednocześnie być dostawcą chipów towarowych I utrzymywać przewagę infrastrukturalną. W momencie, gdy sprzedajesz, towarujesz. W momencie, gdy towarujesz, twoja przewaga znika.
Biorąc pod uwagę, że sprzedaż TPU wydaje się strategicznie nieuzasadniona, dlaczego istnieje spekulacja, że Google mimo to dąży do tego? Myślę, że dlatego, że działy chmurowe w każdej hyperskalowej firmie mają wieczną "potrzebę różnicowania" i niestandardowe chipy wyglądają jak różnicowanie. Ale różnicowanie ma znaczenie tylko wtedy, gdy chroni marże lub zdobywa udział bez niszczenia twojego podstawowego biznesu. Sprzedaż TPU przez Google byłaby różnicowaniem, które niszczy więcej wartości, niż tworzy.
21
Nvidia zapłaciło 3 razy wycenę Groq z września, aby je przejąć. To jest strategicznie nuklearne.
Każde laboratorium AI było zależne od GPU, co stworzyło ogromne ryzyko koncentracji. Google uwolnił się dzięki TPU do użytku wewnętrznego, udowadniając, że narracja "Nvidia lub nic" była fałszywa. To nie tylko pokazało techniczną wykonalność, ale ujawniło, że fosa Nvidia była płytsza, niż sądziły rynki. Kiedy hyperskaler skutecznie buduje niestandardowy krzem, każdy zaawansowany nabywca zaczyna przeprowadzać obliczenia "czy powinniśmy zbudować własny?". To obniża całkowity rynek adresowalny (TAM) Nvidia.
Jonathan Ross (założyciel Groq) jest wynalazcą TPU. Zrozumiał zasady architektoniczne, które uczyniły przyspieszenie AI bez GPU wykonalnym. Jego architektura LPU była skierowana na obciążenia inferencyjne, gdzie GPU są w rzeczywistości nadmiernie zaprojektowane. To ma znaczenie, ponieważ inferencja to miejsce, gdzie długoterminowo są prawdziwe pieniądze. Szkolenie to jednorazowy wydatek kapitałowy, ale inferencja to powtarzające się wydatki operacyjne, które rosną wraz z użytkowaniem. Jeśli Groq udowodniło, że LPU mogą osiągnąć konkurencyjny stosunek ceny do wydajności w inferencji, każdy dostawca chmurowy mógłby białą etykietą oznaczyć swoją architekturę. Nvidia zostałaby wciśnięta w "tylko szkolenie", tracąc strumień dochodów.
Bezpiecznie jest postrzegać tę umowę jako zabezpieczenie Nvidia przed tym, że Groq umożliwi stworzenie całego ekosystemu alternatyw dla Nvidia. Ale to, co jest bardziej interesujące, to efekt drugiego rzędu, blokady klientów. Teraz Nvidia posiada zarówno standard incumbent (CUDA + GPU), jak i najbardziej wiarygodną alternatywną architekturę (LPU). To jest strategiczne na poziomie zakupu Github przez MSFT. Każde laboratorium AI oceniające "budować vs kupić vs alternatywny dostawca" teraz staje przed:
- Opcja A (GPU Nvidia)
- Opcja B (Nvidia <> Groq LPU)
- Opcja C (zacząć od zera)
Przekształcając zagrożenie konkurencyjne w narzędzie segmentacji klientów, Jensen jest mistrzem handlu. Mogą teraz stosować dyskryminację cenową: klienci premium płacą za GPU, wrażliwa na cenę inferencja jest kierowana do LPU, a Nvidia zdobywa obie grupy.
Jeśli Nvidia nie zintegrowała LPU w swojej mapie drogowej, to była to czysto defensywna gra. Jeśli zintegrować to i zacząć oferować pakiety "GPU do szkolenia, LPU do inferencji", to staje się to podręcznikowym przejęciem poszerzającym fosę.
Najdroższą rzeczą w technologii nie jest budowanie przyszłości, ale zapobieganie temu, by ktoś inny zbudował przyszłość bez ciebie.

24
najlepsze komentarze to też boty. AI dosłownie przejmuje kontrolę.

near21 gru, 03:22
szukając "nagrania tsunami" na YouTube w 2025 roku
prawie każde wideo jest teraz AI. miliony wyświetleń każde
21
Najlepsze
Ranking
Ulubione
