На CES 2026 老黄 представил новую точку зрения: давление на центры обработки данных, которое раньше было связано с "недостаточной вычислительной мощностью", теперь стало "недостаточным контекстом", и он заявил: "Контекст — это новое узкое место — хранилище должно быть переработано." 1️⃣ Так что же конкретно подразумевается под контекстом? Контекст — это очень важная концепция в ИИ! Говоря простыми словами: Длина контекста — это общее количество предыдущего текста (или истории диалога), которое ИИ-модель может "увидеть" и учесть при обработке вашего текущего вопроса. Вы можете представить это как "краткосрочную рабочую память" модели или "количество страниц справочника". Предположим, у вас есть учитель с ограниченной памятью: Короткая длина контекста (например, 4K токенов): этот учитель может помнить только ваш разговор за последние несколько минут. Если вы вдруг спросите его: "Что еще написал автор той книги, о которой мы только что говорили?", если в его "окне памяти" уже нет этой информации, он не сможет ответить. Длинная длина контекста (например, 128K токенов): этот учитель может помнить ваш полный разговор за последние несколько часов или даже дней. Он может легко вспомнить детали, упомянутые давно, и на их основе проводить сложные рассуждения и обобщения. 2️⃣ Технически длина контекста обычно измеряется в "токенах". Один токен примерно равен 0.75 английского слова или одному китайскому символу. 🌟4K токенов: около 3000 английских слов или короткое эссе. 🌟128K токенов: около 100000 английских слов, что соответствует длине средней повести. 🌟1M токенов: около 750000 английских слов, что соответствует нескольким длинным романам. 3️⃣ Почему это так важно? Длина контекста напрямую определяет сложность и связность задач, которые модель может обрабатывать: - Обработка длинных документов: для обобщения, анализа или перевода книги в несколько сотен страниц требуется очень длинное окно контекста. - Сложные многократные диалоги: в службе поддержки, психологическом консультировании или сложном креативном сотрудничестве диалог может длиться десятки или даже сотни раундов. Длинный контекст помогает модели не забывать первоначальные установки и цели, поддерживая согласованность и глубину диалога. - Способность "найти иголку в стоге сена": это ключевой тест для оценки эффективности модели с длинным контекстом. То есть, если в тексте в десятки тысяч слов намеренно скрыть факт, мощная модель с длинным контекстом сможет точно найти ответ. - Снижение потери информации: в коротком контексте, когда вводится новая информация, старая "вытесняется". Это может привести к тому, что модель теряет память и возникает противоречие. Длинный контекст значительно смягчает эту проблему. 4️⃣ Так что же произойдет, когда контекст станет новым узким местом, и какие технологические революции и инвестиционные возможности это принесет? На самом деле, уже сейчас на рынке это очень очевидно, независимо от того, насколько сильны $SDNK, $MU от Micron, Samsung и SK. Новые технологические узкие места также принесут новые возможности. Это приведет к революции в архитектуре хранения и подсистемах памяти (таких как HBM с высокой пропускной способностью, протокол CXL, платформа ICMS от NVIDIA и т.д.). 5️⃣ Возможно, действительно наступает суперцикл хранения! Эта волна логики изменила положение памяти и хранения, которые раньше были "второстепенными", на "главные роли" в цикле инфраструктуры ИИ. Сектор памяти ($MU, Samsung, Hynix): больше не просто циклические акции, колеблющиеся вместе с мобильными телефонами/ПК, а "основа расширения" ИИ-систем....