Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Semi Doped Podcast
Biznes i inżynieria półprzewodników z Vikramem Sekarem i Austinem Lyonsem.
Odcinek 2: Wnioski z IEDM 2025
@vikramskr podsumowuje interesujące tematy z IEDM:
- Penta-poziomowa pamięć NAND flash może zakłócić rynek SSD
- Chiplet GaN na krzemie zwiększa efektywność energetyczną
- Oscylatory pierścieniowe z FET-ami komplementarnymi
- Skala optyczna ma problem z mocą
- Przyszłość tranzystorów wciąż jest obiecująca
Bonus: Podstawy NAND i CFET są również wyjaśnione w tym odcinku.
Rozdziały
Wprowadzenie do konferencji IEDM (00:00)
Znaczenie IEDM dla inżynierów i inwestorów (02:38)
Networking i wnioski na IEDM (04:21)
Fotoinformatyka krzemowa dla efektywnego energetycznie AI (07:06)
Postępy w FET-ach komplementarnych (13:34)
Przyszłość innowacji tranzystorowych (21:42)
Zrozumienie pamięci NAND flash i jej potencjału zakłócającego (22:45)
Innowacyjna technologia komórek wielostanowiskowych (28:08)
Przyszłość SSD i gęstość danych (32:42)
Chiplet GaN Intela na krzemie (34:55)
Monolityczna integracja heterogeniczna w technologii RF (40:51)
@vikramskr @theaustinlyons @ieee_iedm
$NVDA $INTC $TSM $SNDK $MU $WDC $AMAT $LRCX
25
Odcinek 1: Nvidia "przejęła" Groq
Od @vikramskr i @theaustinlyons
Najważniejsze wnioski:
- GPU nie są martwe. HBM nie jest martwe.
- LPU rozwiązują inny problem: deterministyczne, ultra-niskolatencyjne wnioskowanie dla małych modeli.
- Duże modele graniczne wciąż wymagają systemów opartych na HBM.
- Ruch Nvidii rozszerza powierzchnię swojego portfela wnioskowania, a nie zastępuje GPU.
- Przyszłość infrastruktury AI to optymalizacja specyficzna dla obciążenia i wdrożenie oparte na TCO.
Kluczowe tematy:
- Co tak naprawdę Nvidia kupiła od Groq i dlaczego nie jest to tradycyjne przejęcie
- Dlaczego umowa wywołała twierdzenia, że GPU i HBM są przestarzałe
- Architektoniczne kompromisy między GPU, TPU, XPU i LPU
- SRAM vs HBM. Szybkość, pojemność, koszt i rzeczywistość łańcucha dostaw
- Podstawy Groq LPU: VLIW, wykonanie zaplanowane przez kompilator, determinizm, ultra-niska latencja
- Dlaczego LPU mają trudności z dużymi modelami i gdzie radzą sobie lepiej
- Praktyczne przypadki użycia dla hiper-niskolatencyjnego wnioskowania:
-- Personalizacja treści reklamowych w ramach budżetów latencji wyszukiwania
-- Routing modeli i orkiestracja agentów
-- Interfejsy konwersacyjne i tłumaczenie w czasie rzeczywistym
-- Robotyka i fizyczna AI na krawędzi
-- Potencjalne zastosowania w AI-RAN i infrastrukturze telekomunikacyjnej
- Pamięć jako spektrum projektowe: tylko SRAM, SRAM plus DDR, SRAM plus HBM
- Rosnące podejście Nvidii do portfela sprzętu wnioskowania, a nie rozwiązanie uniwersalne
28
Najlepsze
Ranking
Ulubione