Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Semi Doped Podcast
Activité et ingénierie des semi-conducteurs avec Vikram Sekar et Austin Lyons.
Épisode 2 : Perspectives de l'IEDM 2025
@vikramskr résume des sujets intéressants de l'IEDM :
- La mémoire flash NAND à cinq niveaux pourrait perturber le marché des SSD
- Les chiplets GaN sur silicium améliorent l'efficacité énergétique
- Oscillateurs à anneau avec FETs complémentaires
- L'échelle optique a un problème de puissance
- L'avenir des transistors est encore prometteur
Bonus : Les bases de la NAND et des CFET sont également expliquées dans cet épisode.
Chapitres
Introduction à la conférence IEDM (00:00)
Importance de l'IEDM pour les ingénieurs et les investisseurs (02:38)
Réseautage et perspectives à l'IEDM (04:21)
Photonique silicium pour une IA économe en énergie (07:06)
Avancées dans les FETs complémentaires (13:34)
Avenir des innovations en transistors (21:42)
Comprendre la mémoire flash NAND et son potentiel de disruption (22:45)
Technologie innovante de cellules multi-sites (28:08)
L'avenir des SSD et de la densité des données (32:42)
Chiplets GaN sur silicium d'Intel (34:55)
Intégration hétérogène monolithique dans la technologie RF (40:51)
@vikramskr @theaustinlyons @ieee_iedm
$NVDA $INTC $TSM $SNDK $MU $WDC $AMAT $LRCX
7
Teaser : Épisode 2 de Semi Doped.
Vik explique la mémoire flash NAND à partir des principes de base.
Restez à l'écoute pour l'épisode complet, où @vikramskr explique pourquoi la cellule penta-niveau « multi-site » de SK hynix pourrait augmenter la densité des SSD sans la pénalité habituelle en termes de latence et d'endurance.
5
Épisode 1 : Nvidia "acquiert" Groq
De @vikramskr et @theaustinlyons
Principaux enseignements :
- Les GPU ne sont pas morts. HBM n'est pas mort.
- Les LPU résolvent un problème différent : l'inférence déterministe à ultra-faible latence pour les petits modèles.
- Les grands modèles de frontière nécessitent toujours des systèmes basés sur HBM.
- Le mouvement de Nvidia élargit la surface de son portefeuille d'inférence plutôt que de remplacer les GPU.
- L'avenir de l'infrastructure AI est l'optimisation spécifique aux charges de travail et le déploiement axé sur le TCO.
Sujets clés :
- Ce que Nvidia a réellement acheté à Groq et pourquoi ce n'est pas une acquisition traditionnelle
- Pourquoi l'accord a déclenché des affirmations selon lesquelles les GPU et HBM sont obsolètes
- Compromis architecturaux entre GPU, TPU, XPU et LPU
- SRAM vs HBM. Vitesse, capacité, coût et réalités de la chaîne d'approvisionnement
- Fondamentaux des LPU de Groq : VLIW, exécution planifiée par le compilateur, déterminisme, ultra-faible latence
- Pourquoi les LPU ont du mal avec les grands modèles et où ils excellent à la place
- Cas d'utilisation pratiques pour l'inférence à hyper-faible latence :
-- Personnalisation des annonces publicitaires dans les budgets de latence de recherche
-- Routage de modèles et orchestration d'agents
-- Interfaces conversationnelles et traduction en temps réel
-- Robotique et AI physique à la périphérie
-- Applications potentielles dans l'AI-RAN et l'infrastructure télécom
- Mémoire comme un spectre de conception : uniquement SRAM, SRAM plus DDR, SRAM plus HBM
- L'approche croissante de Nvidia en matière de matériel d'inférence plutôt qu'une solution universelle
21
Meilleurs
Classement
Favoris