Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Semi Doped Podcast
Halvledervirksomhet og ingeniørfag med Vikram Sekar og Austin Lyons.
Episode 2: Innsikter fra IEDM 2025
@vikramskr oppsummerer interessante temaer fra IEDM:
- Penta-nivå NAND-flashminne kan forstyrre SSD-markedet
- GaN-on-Silicon-chiplets forbedrer energieffektiviteten
- Ringoscillatorer med komplementære FET-er
- Optisk oppskalering har et strømproblem
- Fremtiden for transistorer er fortsatt lys
Bonus: NAND og CFET-grunnleggende blir også forklart i denne episoden.
Kapitler
Introduksjon til IEDM-konferansen (00:00)
Viktigheten av IEDM for ingeniører og investorer (02:38)
Nettverksbygging og innsikt på IEDM (04:21)
Silisiumfotonikk for energieffektiv AI (07:06)
Fremskritt innen komplementære FET-er (13:34)
Fremtiden for transistorinnovasjoner (21:42)
Forståelse av NAND-flashminne og dets forstyrrelsespotensial (22:45)
Innovativ multi-site celleteknologi (28:08)
Fremtiden for SSD-er og datatetthet (32:42)
Intels GaN på silisiumbrikker (34:55)
Monolitisk heterogen integrasjon i RF-teknologi (40:51)
@vikramskr @theaustinlyons @ieee_iedm
$NVDA $INTC $TSM $SNDK $MU $WDC $AMAT $LRCX
29
Episode 1: Nvidia "overtar" Groq
Fra @vikramskr og @theaustinlyons
Kjernepunkter:
- GPU-er er ikke døde. HBM er ikke død.
- LPU-er løser et annet problem: deterministisk, ultralav-latens inferens for små modeller.
- Store frontier-modeller krever fortsatt HBM-baserte systemer.
- Nvidias trekk utvider sin inferensportefølje i stedet for å erstatte GPU-er.
- Fremtiden for AI-infrastruktur er arbeidsbelastningsspesifikk optimalisering og TCO-drevet implementering.
Nøkkeltemaer:
- Hva Nvidia faktisk kjøpte fra Groq og hvorfor det ikke er et tradisjonelt oppkjøp
- Hvorfor avtalen utløste påstander om at GPU-er og HBM er utdaterte
- Arkitektoniske kompromisser mellom GPU-er, TPU-er, XPU-er og LPU-er
- SRAM vs HBM. Hastighet, kapasitet, kostnad og realiteter i forsyningskjeden
- Groq LPU-grunnprinsipper: VLIW, kompilatorplanlagt utførelse, determinisme, ultralav latens
- Hvorfor LPU-er sliter med store modeller og hvor de utmerker seg i stedet
- Praktiske brukstilfeller for inferenser med hyperlav latens:
-- Annonseteksttilpasning ved søkeforsinkelsesbudsjetter
-- Modellruting og agentorkestrering
-- Konversasjonsgrensesnitt og sanntidsoversettelse
-- Robotikk og fysisk AI i utkanten
-- Potensielle anvendelser innen AI-RAN og telekominfrastruktur
- Minne som designspektrum: kun SRAM, SRAM pluss DDR, SRAM pluss HBM
- Nvidias voksende porteføljetilnærming til inferensmaskinvare fremfor én løsning som passer alle
32
Topp
Rangering
Favoritter