Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Semi Doped Podcast
Attività e ingegneria dei semiconduttori con Vikram Sekar e Austin Lyons.
Episodio 2: Approfondimenti da IEDM 2025
@vikramskr riassume argomenti interessanti da IEDM:
- La memoria flash NAND a cinque livelli potrebbe sconvolgere il mercato degli SSD
- I chiplet GaN-on-Silicon migliorano l'efficienza energetica
- Oscillatori ad anello con FET complementari
- La scalabilità ottica ha un problema di potenza
- Il futuro dei transistor è ancora luminoso
Bonus: Le basi di NAND e CFET sono spiegate anche in questo episodio.
Capitoli
Introduzione alla Conferenza IEDM (00:00)
Importanza di IEDM per ingegneri e investitori (02:38)
Networking e approfondimenti a IEDM (04:21)
Fotonica al silicio per un'IA energeticamente efficiente (07:06)
Avanzamenti nei FET complementari (13:34)
Futuro delle innovazioni nei transistor (21:42)
Comprendere la memoria flash NAND e il suo potenziale di interruzione (22:45)
Tecnologia innovativa delle celle multi-sito (28:08)
Il futuro degli SSD e la densità dei dati (32:42)
Chiplet GaN su silicio di Intel (34:55)
Integrazione eterogenea monolitica nella tecnologia RF (40:51)
@vikramskr @theaustinlyons @ieee_iedm
$NVDA $INTC $TSM $SNDK $MU $WDC $AMAT $LRCX
20
Teaser: Episodio 2 di Semi Doped.
Vik analizza la memoria flash NAND partendo dai principi fondamentali.
Rimanete sintonizzati per l'episodio completo, in cui @vikramskr spiega perché il "multi-site" penta-level cell di SK hynix potrebbe aumentare la densità degli SSD senza il consueto penalità in termini di latenza e durata.
9
Episodio 1: Nvidia "Acquisisce" Groq
Da @vikramskr e @theaustinlyons
Punti chiave:
- Le GPU non sono morte. L'HBM non è morto.
- Le LPU risolvono un problema diverso: inferenza deterministica a latenza ultra-bassa per modelli piccoli.
- I grandi modelli di frontiera richiedono ancora sistemi basati su HBM.
- La mossa di Nvidia espande l'area del suo portafoglio di inferenza piuttosto che sostituire le GPU.
- Il futuro dell'infrastruttura AI è l'ottimizzazione specifica per carichi di lavoro e il deployment guidato dal TCO.
Argomenti chiave:
- Cosa ha effettivamente comprato Nvidia da Groq e perché non è un'acquisizione tradizionale
- Perché l'accordo ha innescato affermazioni che le GPU e l'HBM sono obsolete
- Compromessi architettonici tra GPU, TPU, XPU e LPU
- SRAM vs HBM. Velocità, capacità, costi e realtà della catena di approvvigionamento
- Fondamenti delle LPU di Groq: VLIW, esecuzione programmata dal compilatore, determinismo, latenza ultra-bassa
- Perché le LPU faticano con i grandi modelli e dove eccellono invece
- Casi d'uso pratici per inferenze a latenza iper-bassa:
-- Personalizzazione dei testi pubblicitari nei budget di latenza di ricerca
-- Routing dei modelli e orchestrazione degli agenti
-- Interfacce conversazionali e traduzione in tempo reale
-- Robotica e AI fisica al bordo
-- Potenziali applicazioni in AI-RAN e infrastruttura telecom
- La memoria come spettro di design: solo SRAM, SRAM più DDR, SRAM più HBM
- L'approccio crescente di Nvidia al portafoglio di hardware per inferenza piuttosto che una soluzione unica per tutti.
25
Principali
Ranking
Preferiti