Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Semi Doped Podcast
Negócio e engenharia de semicondutores com Vikram Sekar e Austin Lyons.
Episódio 2: Perspectivas do IEDM 2025
@vikramskr resume tópicos interessantes do IEDM:
- A memória flash NAND de cinco níveis pode perturbar o mercado de SSDs
- Chiplets de GaN sobre silício melhoram a eficiência energética
- Osciladores em anel com FETs complementares
- A escalabilidade óptica tem um problema de potência
- O futuro dos transistores ainda é promissor
Bônus: Os fundamentos de NAND e CFET são explicados neste episódio também.
Capítulos
Introdução à Conferência IEDM (00:00)
Importância do IEDM para Engenheiros e Investidores (02:38)
Networking e Perspectivas no IEDM (04:21)
Fotonica de Silício para IA Eficiente em Energia (07:06)
Avanços em FETs Complementares (13:34)
Futuro das Inovações em Transistores (21:42)
Compreendendo a Memória Flash NAND e seu Potencial de Disrupção (22:45)
Tecnologia de Célula Multi-Site Inovadora (28:08)
O Futuro dos SSDs e Densidade de Dados (32:42)
Chiplets de GaN sobre Silício da Intel (34:55)
Integração Heterogênea Monolítica em Tecnologia RF (40:51)
@vikramskr @theaustinlyons @ieee_iedm
$NVDA $INTC $TSM $SNDK $MU $WDC $AMAT $LRCX
5
Teaser: Episódio 2 de Semi Doped.
Vik analisa a memória flash NAND a partir dos princípios básicos.
Fique atento para o episódio completo, onde @vikramskr explica por que a célula penta-nível "multi-site" da SK hynix pode aumentar a densidade dos SSDs sem a habitual penalização de latência e durabilidade.
3
Episódio 1: Nvidia "Adquire" Groq
De @vikramskr e @theaustinlyons
Principais Conclusões:
- As GPUs não estão mortas. O HBM não está morto.
- Os LPUs resolvem um problema diferente: inferência determinística e de ultra-baixa latência para modelos pequenos.
- Modelos de fronteira grandes ainda requerem sistemas baseados em HBM.
- O movimento da Nvidia expande a área de superfície do seu portfólio de inferência em vez de substituir as GPUs.
- O futuro da infraestrutura de IA é a otimização específica para carga de trabalho e a implementação orientada pelo TCO.
Tópicos Chave:
- O que a Nvidia realmente comprou da Groq e por que não é uma aquisição tradicional
- Por que o acordo desencadeou alegações de que as GPUs e o HBM estão obsoletos
- Compromissos arquitetônicos entre GPUs, TPUs, XPUs e LPUs
- SRAM vs HBM. Velocidade, capacidade, custo e realidades da cadeia de suprimentos
- Fundamentos do LPU da Groq: VLIW, execução programada por compilador, determinismo, ultra-baixa latência
- Por que os LPUs têm dificuldades com modelos grandes e onde eles se destacam em vez disso
- Casos de uso práticos para inferência de hiper-baixa latência:
-- Personalização de anúncios em orçamentos de latência de busca
-- Roteamento de modelos e orquestração de agentes
-- Interfaces conversacionais e tradução em tempo real
-- Robótica e IA física na borda
-- Aplicações potenciais em AI-RAN e infraestrutura de telecomunicações
- Memória como um espectro de design: apenas SRAM, SRAM mais DDR, SRAM mais HBM
- A abordagem crescente da Nvidia ao portfólio de hardware de inferência em vez de uma solução única para todos
19
Top
Classificação
Favoritos