Oggi voglio scrivere su Comunicazione Ottica, ispirato dalla conversazione tra @woodycryptow e @xingpt. Cos'è la comunicazione ottica? Qual è la differenza rispetto alla comunicazione tradizionale? È la prima volta che studio questo settore, benvenuti correzioni. 1️⃣ Cos'è la comunicazione ottica? In cosa differisce dalla comunicazione tradizionale? La comunicazione ottica si basa generalmente su fibre ottiche per trasmettere dati, con velocità elevate e basse perdite. Dalle reti internazionali ai data center, la comunicazione ottica è la spina dorsale delle telecomunicazioni moderne e di Internet, aiutandoci a realizzare trasmissioni di dati rapide e stabili. In passato, utilizzavamo cavi in rame per la trasmissione (interconnessione elettrica), che è anche uno dei motivi dell'aumento del prezzo del rame quest'anno. 2️⃣ Perché la comunicazione ottica sta emergendo, mentre il rame sta diminuendo? L'esplosione della potenza di calcolo dell'AI (soprattutto per l'addestramento di grandi modelli) ha posto richieste senza precedenti sulla larghezza di banda della trasmissione dei dati all'interno e tra i data center. La trasmissione tradizionale tramite cavi in rame non riesce più a soddisfare le esigenze di velocità, consumo energetico e distanza; pertanto, i centri di calcolo AI si stanno rapidamente spostando dalla "trasmissione di segnali elettrici" alla "trasmissione di segnali ottici", il cosiddetto "ottica in, rame fuori". 3️⃣ Tre fasi chiave dell'AI che guidano "ottica in, rame fuori" Trasmissione di informazioni all'interno del data center - Trasmissione di informazioni tra data center - Interconnessione ottica a livello di chip (direzione rivoluzionaria della prossima generazione) 🌟 Iniziamo a parlare della trasmissione di informazioni all'interno del data center: Comunicazione interna tra server → GPU → switch Ogni cluster di addestramento AI contiene migliaia di schede GPU (H100/B200), e le GPU devono comunicare ad alta velocità e bassa latenza. Es. Un cluster NVIDIA Hopper potrebbe contenere 10.000 schede H100 GPU, che devono scambiare centinaia di TB di dati al secondo. Se la latenza di comunicazione o la larghezza di banda non sono sufficienti, l'efficienza di addestramento diminuisce direttamente del 30-50%. Direzioni tecnologiche principali: 400G → 800G → 1.6T moduli ottici Co-Packaged Optics (CPO, ottica co-incapsulata) Linear-Drive optics (LPO, moduli ottici senza DSP) Aziende beneficiarie: USA: Broadcom ( $AVGO), Coherent ( $COHR), Marvell ( $MRVL ) Cina: Zhongji Xuchuang, NewEase, Tianfu Communication, Guangxun Technology 4️⃣ A che punto siamo ora (progressi reali e notizie) Rete AI completamente ottica NVIDIA Spectrum-X Pubblicazione GTC 2024, basata su architettura completamente ottica 400 G InfiniBand / Ethernet. Obiettivo: supportare l'addestramento sincronizzato di migliaia di GPU, ridurre la latenza del 30%, migliorare l'efficienza energetica del 40%. Fonte: Pubblicazione della rete ottica NVIDIA GTC 2025 Broadcom lancia una soluzione di interconnessione ottica da 1.6 Tbps Promuove la transizione interna del data center da 800 G a 1.6 T, per l'interconnessione AI. Fonte: – Broadcom Avanza la Tecnologia di Interconnessione nei Data Center AI Produzione di massa di Marvell LPO (moduli ottici lineari) Rimozione dei costosi chip DSP, riduzione del consumo energetico del 30%, già adottato da diversi cluster AI. Fonte: Comunicato stampa ufficiale di Marvell 2025. Zhongji Xuchuang/Tianfu Communication Ha fornito in grandi quantità moduli ottici da 800G ai fornitori di cloud nordamericani (Microsoft, Amazon, Google). Si prevede una transizione alla nuova linea di prodotti da 1.6 T nel 2025-2026. Silicon Photonics Intel, Ayar Labs e altri stanno promuovendo "Chip-to-Chip Optical I/O", In futuro, le GPU/CPU saranno interconnesse direttamente tramite ottica, riducendo la latenza del 90%.
$COHR e $MRVL a confronto
9,36K