Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Semi Doped Podcast
Halbleitergeschäft und -technik mit Vikram Sekar und Austin Lyons.
Episode 2: Einblicke von IEDM 2025
@vikramskr fasst interessante Themen von IEDM zusammen:
- Penta-Level NAND-Flash-Speicher könnte den SSD-Markt stören
- GaN-on-Silicon-Chipletts verbessern die Energieeffizienz
- Ringoszillatoren mit komplementären FETs
- Optische Skalierung hat ein Energieproblem
- Die Zukunft der Transistoren ist weiterhin vielversprechend
Bonus: Die Grundlagen von NAND und CFET werden in dieser Episode ebenfalls erklärt.
Kapitel
Einführung in die IEDM-Konferenz (00:00)
Bedeutung von IEDM für Ingenieure und Investoren (02:38)
Networking und Einblicke bei IEDM (04:21)
Silizium-Photonik für energieeffiziente KI (07:06)
Fortschritte bei komplementären FETs (13:34)
Zukunft der Transistorinnovationen (21:42)
Verständnis von NAND-Flash-Speicher und seinem Störungspotenzial (22:45)
Innovative Multi-Site-Zelltechnologie (28:08)
Die Zukunft von SSDs und Datendichte (32:42)
Intels GaN auf Silizium-Chipletts (34:55)
Monolithische heterogene Integration in der RF-Technologie (40:51)
@vikramskr @theaustinlyons @ieee_iedm
$NVDA $INTC $TSM $SNDK $MU $WDC $AMAT $LRCX
22
Episode 1: Nvidia "erwirbt" Groq
Von @vikramskr und @theaustinlyons
Wichtige Erkenntnisse:
- GPUs sind nicht tot. HBM ist nicht tot.
- LPUs lösen ein anderes Problem: deterministische, ultra-niedrig-latente Inferenz für kleine Modelle.
- Große Frontier-Modelle benötigen weiterhin HBM-basierte Systeme.
- Nvidias Schritt erweitert die Oberfläche seines Inferenzportfolios, anstatt GPUs zu ersetzen.
- Die Zukunft der KI-Infrastruktur ist arbeitslastspezifische Optimierung und TCO-gesteuerte Bereitstellung.
Schlüsselthemen:
- Was Nvidia tatsächlich von Groq gekauft hat und warum es sich nicht um eine traditionelle Übernahme handelt
- Warum der Deal Behauptungen ausgelöst hat, dass GPUs und HBM obsolet sind
- Architektonische Kompromisse zwischen GPUs, TPUs, XPUs und LPUs
- SRAM vs HBM. Geschwindigkeit, Kapazität, Kosten und Realitäten der Lieferkette
- Groq LPU-Grundlagen: VLIW, compiler-gesteuerte Ausführung, Determinismus, ultra-niedrige Latenz
- Warum LPUs bei großen Modellen Schwierigkeiten haben und wo sie stattdessen glänzen
- Praktische Anwendungsfälle für hyper-niedrig-latente Inferenz:
-- Personalisierung von Werbetexten bei Suchlatenzbudgets
-- Modellrouting und Agentenorchestrierung
-- Konversationelle Schnittstellen und Echtzeitübersetzung
-- Robotik und physische KI am Edge
-- Potenzielle Anwendungen in AI-RAN und Telekom-Infrastruktur
- Speicher als Entwurfsspektrum: Nur SRAM, SRAM plus DDR, SRAM plus HBM
- Nvidias wachsender Portfolioansatz für Inferenzhardware anstelle von Lösungen für alle
27
Top
Ranking
Favoriten