Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

rick awsb ($people, $people)
Слепое чтение, случайные объяснения, покупка чего терять и потеря, макро ученики начальной школы, работники доставки политических и экономических комментариев, медленно теряют себя в ИИ, держатель криптовалюты, defi фармер, не финансовый совет Неинвестиционные советы
С сентября по хранению, после резкого роста в январе снова подтверждено, что хранение по-прежнему недооценено
Первый человек, который призывает к хранению в Zhongchui, это именно он
Объект ясен, логика четкая
"Практически все основные маршруты AGI "подразумевают" взрыв хранения"
Все улучшения возможностей организаций/индивидов требуют повышения памяти
Это самая жесткая логика хранения



ariel reyez romero9 янв., 14:03
К концу сентября эта твит о Micron, с тех пор цена акций mu удвоилась.
Так что сейчас она все еще недооценена?
Скорее всего, она все еще недооценена, и даже сильно недооценена.
Причина в том, что,
независимо от известного пути AGI, "хранение" станет жестким ограничением с суперлинейным или даже фазовым экспоненциальным ростом.
1) Практически все основные пути AGI "подразумевают" взрыв хранения.
Известные пути включают:
Большие мировые модели (World Models)
LLM + многомодальные базовые модели
Воплощенный интеллект (Embodied AI)
Системы многомодульного сотрудничества / многопользовательские системы
Долгосрочная память + планирование + система размышлений.
Они приведут к суперлинейному росту потребностей в хранении и одновременно повысят три типа хранения:
Хранение параметров (веса модели, контрольные точки)
Хранение промежуточных состояний / состояний мира (временные состояния, процесс вывода)
Хранение долгосрочного опыта / памяти (внешние хранилища памяти, траектории, знания и опыт).
2) Почему "мировая модель" естественным образом является убийцей хранения.
(a) Мировая модель не "вход → выход", а "воспроизводимая вселенная".
Что должна делать мировая модель: заданное состояние мира → вывод будущего → откат → сравнение → повторный вывод. Поэтому необходимо сохранить:
Состояние мира (S_t)
Отношения перехода состояния (P(S_{t+1}|S_t, A_t))
Множественные ветвящиеся гипотезы (counterfactuals)
Последовательности с длительным временным интервалом (долгий горизонт).
Ключевой момент: это не линейная цепь, а древовидная структура с разветвлениями — рост хранения станет линейным временем × коэффициент разветвления → фактически проявится как суперлинейный.
(b) Как только модель начинает "обобщаться", потребность в хранении претерпевает скачок.
На этапе низкой точности можно хорошо сжимать; но когда модель ближе к "истинному пониманию мира":
Правила можно сжимать,
но длинные хвосты, аномалии, крайние случаи и сложные причинно-следственные связи не поддаются сжатию.
Поэтому возникает ошибочное мнение, что "чем умнее, тем меньше нужно хранения" — на самом деле все выглядит так: чем умнее, тем больше необходимо сохранять больше непредсказуемых исключений и опыта.
3) LLM + многомодальность: хранение не уменьшилось, а "поменяло место" и стало больше.
Многие думают, что LLM — это просто большие параметры и мало состояний, но тенденция меняется:
(a) От "параметры = знания" к "параметры + внешняя память".
Долгий контекст, RAG, Memory Bank, Эпизодическая память и т.д. перемещают знания из весов в доступное внешнее хранилище. Это обычно "перемещение", а не "уменьшение общего объема".
(b) Многомодальность значительно увеличивает "плотность данных" каждого опыта.
Опыт больше не является одной фразой, а может быть: видео + аудио + действия + состояние окружающей среды. Чем больше модальностей, тем больше эффективная информация в одном образце, тем больше давление на хранение.
4) Воплощенный интеллект: давление на хранение еще более выражено.
Воплощенный интеллект зависит от:
Потока больших датчиков (визуальные/тактильные/IMU и т.д.)
Временные многомодальные траектории.
Полные записи успешных/неудачных эпизодов.
Сравнение:
Основная единица образца LLM — это токен.
Мировая модель — это траектория.
Робот — это траектория × непрерывные сигналы.
И ключевой факт: редкие неудачи и опыт, связанный с безопасностью, особенно ценны и часто не могут быть легко выброшены, что еще больше увеличивает объем хранения, который "необходимо сохранить".
5) Многопользовательские / кооперативные системы: легко возникает "квадратный эффект" или даже иллюзия экспоненты.
Если есть N агентов, каждый с M опытом:
Только их собственное хранение: около (N×M).
Но как только требуется делиться, выравнивать, моделировать друг друга (предсказывать, "как другой агент думает"), хранение будет расширяться в пространстве отношений, возможно, приближаясь к (O(N^2×M)).
Особенно в задачах социального/игрового/экономического моделирования многопользовательская + мировая модель значительно увеличит потребности в хранении.
6) Есть ли пути AGI, которые "обходят взрыв хранения"?
Наши выводы таковы: в настоящее время нет ни одного серьезно рассматриваемого пути AGI, который действительно мог бы обойти проблему масштабов хранения. Можно только сделать три типа "отсрочки/перемещения":
Более агрессивное сжатие (но часто с потерей обобщения).
Более частое забывание (в ущерб долгосрочной согласованности).
Передача хранения на окружение/инструменты/сеть (по сути, это перемещение, а не уничтожение).
7) Резюме: будет ли предложение долго отставать от спроса?
Оценка следующая:
"Уровень интеллекта" все больше зависит от доступного эффективного объема памяти (не только вычислительной мощности).
Расширение хранения ограничено реальными факторами, такими как материалы, производство, надежность, энергопотребление, стоимость и т.д.
Поэтому в обозримом будущем потребность ИИ в эффективном хранении, вероятно, будет долго опережать возможности предложения хранения.
Соответствующие выводы включают:
Способность запускать полные мировые модели/масштабные системы памяти становится более дефицитной и сосредоточенной.
Отраслевые ограничения могут перейти от "вычислительной мощности" к "системам хранения" (иерархия, доступность, долгосрочная согласованность).
Таким образом,
независимо от того, является ли это мировой моделью, воплощенным интеллектом или многомодальностью + агентом, ключевое жесткое ограничение AGI постепенно переходит от "вычислительной мощности" к "масштабируемым, доступным и долгосрочно согласованным системам хранения"; эта потребность в хранении структурно проявляется как суперлинейный рост и может в определенные моменты проявляться как приближенное экспоненциальное давление.
nfa dyor
26
В 2026 году закон масштабирования не только не столкнулся с препятствием, но и ускорился еще больше. Ранее это было только масштабирование предобучения, теперь добавились вывод и агенты.
Все это общие узкие места, которые указывают на хранение.
Дело не только в емкости, но и в пропускной способности и скорости.
Компания, которая ближе всего или может преодолеть пределы, станет следующей в десять раз, а может и в сто раз.
Вот почему на данный момент акции сектора хранения в США стремительно растут.
И, возможно, это еще далеко не конец.

rick awsb ($people, $people)26 янв., 02:28
Если говорить о 26 годах AI и выбрать одно ключевое слово для описания, я думаю, это будет "возвратная самопереработка".
Для конечных пользователей, самосовершенствование clawdbot является самым наглядным пониманием этого слова.
85
Топ
Рейтинг
Избранное

