Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Semi Doped Podcast
Halvledarverksamhet och teknik med Vikram Sekar och Austin Lyons.
Avsnitt 2: Insikter från IEDM 2025
@vikramskr sammanfattar intressanta ämnen från IEDM:
- Penta-nivå NAND-flashminne kan störa SSD-marknaden
- GaN-on-Silicon-chiplets förbättrar energieffektiviteten
- Ringoscillatorer med komplementära FET
- Optisk uppskalning har ett strömproblem
- Transistorernas framtid är fortfarande ljus
Bonus: NAND- och CFET-grunderna förklaras också i detta avsnitt.
Kapitel
Introduktion till IEDM-konferensen (00:00)
IEDM:s betydelse för ingenjörer och investerare (02:38)
Nätverkande och insikter på IEDM (04:21)
Kiselfotonik för energieffektiv AI (07:06)
Framsteg inom kompletterande FET (13:34)
Transistorinnovationers framtid (21:42)
Förståelse av NAND-flashminne och dess störningspotential (22:45)
Innovativ multi-site cell-teknologi (28:08)
SSD:ernas framtid och datatäthet (32:42)
Intels GaN om kiselchiplets (34:55)
Monolitisk heterogen integration i RF-teknik (40:51)
@vikramskr @theaustinlyons @ieee_iedm
$NVDA $INTC $TSM $SNDK $MU $WDC $AMAT $LRCX
1
Avsnitt 1: Nvidia "förvärvar" Groq
Från @vikramskr och @theaustinlyons
Kärnpunkter:
- GPU:er är inte döda. HBM är inte död.
- LPU:er löser ett annat problem: deterministisk, ultralåg latensinferens för små modeller.
- Stora frontier-modeller kräver fortfarande HBM-baserade system.
- Nvidias drag utökar dess inferensportföljyta istället för att ersätta GPU:er.
- Framtiden för AI-infrastruktur är arbetsbelastningsspecifik optimering och TCO-driven distribution.
Nyckelämnen:
- Vad Nvidia faktiskt köpte från Groq och varför det inte är ett traditionellt förvärv
- Varför avtalet utlöste påståenden om att GPU:er och HBM är föråldrade
- Arkitektoniska kompromisser mellan GPU:er, TPU:er, XPU:er och LPU:er
- SRAM vs HBM. Hastighet, kapacitet, kostnad och verklighet i leveranskedjan
- Groq LPU-grunder: VLIW, kompilatorschemalagd exekvering, determinism, ultralåg latens
- Varför LPU:er har svårt med stora modeller och var de istället utmärker sig
- Praktiska användningsfall för hyperlåg-latens inferens:
-- Annonstextanpassning vid söklatensbudgetar
-- Modellroutning och agentorkestrering
-- Konversationsgränssnitt och realtidsöversättning
-- Robotik och fysisk AI vid kanten
-- Potentiella tillämpningar inom AI-RAN och telekominfrastruktur
- Minne som designspektrum: endast SRAM, SRAM plus DDR, SRAM plus HBM
- Nvidias växande portföljstrategi för inferenshårdvara snarare än en lösning som passar alla
12
Topp
Rankning
Favoriter