Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Semi Doped Podcast
Afaceri și inginerie cu semiconductori cu Vikram Sekar și Austin Lyons.
Episodul 2: Perspective din IEDM 2025
@vikramskr rezumă subiecte interesante din IEDM:
- Memoria flash NAND la nivel de Penta ar putea perturba piața SSD-urilor
- Chipletele GaN-on-Silicon îmbunătățesc eficiența energetică
- Oscilatoare inelare cu FET-uri complementare
- Scalarea optică are o problemă de alimentare
- Viitorul tranzistorilor este încă luminos
Bonus: Elementele de bază ale NAND și CFET sunt explicate și în acest episod.
Capitole
Introducere la Conferința IEDM (00:00)
Importanța IEDM pentru ingineri și investitori (02:38)
Rețelistică și perspective la IEDM (04:21)
Fotonica siliciului pentru AI eficientă energetic (07:06)
Progrese în FET-urile complementare (13:34)
Viitorul inovațiilor în tranzistori (21:42)
Înțelegerea memoriei flash NAND și a potențialului său de perturbare (22:45)
Tehnologie inovatoare a celulelor multi-sit (28:08)
Viitorul SSD-urilor și densității datelor (32:42)
GaN Intel despre cipletele de siliciu (34:55)
Integrare monolitică eterogenă în tehnologia RF (40:51)
@vikramskr @theaustinlyons @ieee_iedm
$NVDA $INTC $TSM $SNDK $MU $WDC $AMAT $LRCX
6
Episodul 1: Nvidia "Achiziționează" Groq
Din @vikramskr și @theaustinlyons
Concluzii de bază:
- GPU-urile nu sunt moarte. HBM nu e mort.
- LPU-urile rezolvă o problemă diferită: inferența deterministă, cu latență ultra-scăzută, pentru modele mici.
- Modelele mari de frontieră necesită în continuare sisteme bazate pe HBM.
- Mutarea Nvidia extinde aria de suprafață a portofoliului de inferență în loc să înlocuiască plăcile video.
- Viitorul infrastructurii AI este optimizarea specifică sarcinii de lucru și implementarea condusă de TCO.
Subiecte cheie:
- Ce a cumpărat de fapt Nvidia de la Groq și de ce nu este o achiziție tradițională
- De ce tranzacția a declanșat afirmații că GPU-urile și HBM sunt depășite
- Compromisuri arhitecturale între GPU-uri, TPU-uri, XPU-uri și LPU-uri
- SRAM vs HBM. Viteză, capacitate, costuri și realitățile lanțului de aprovizionare
- Fundamentele Groq LPU: VLIW, execuție programată de compilator, determinism, latență ultra-scăzută
- De ce LPU-urile se confruntă cu modele mari și unde excelează în schimb
- Cazuri practice de utilizare pentru inferența cu latență hiper-scăzută:
-- Personalizarea textului reclamelor la bugetele de latență în căutare
-- Rutarea modelului și orchestrarea agenților
-- Interfețe conversaționale și traducere în timp real
-- Robotica și inteligența artificială fizică la margine
-- Aplicații potențiale în infrastructura AI-RAN și telecomunicații
- Memoria ca spectru de proiectare: doar SRAM, SRAM plus DDR, SRAM plus HBM
- Abordarea în creștere a portofoliului Nvidia pentru hardware-ul de inferență, mai degrabă decât standardul universal
20
Limită superioară
Clasament
Favorite