Дваркеш готовил с этим, по моему мнению: - Парадокс RLVR: Лаборатории тратят миллиарды на предварительное обучение конкретным навыкам, что создает фундаментальное напряжение: если мы близки к обучающимся, подобным человеку, то все это предварительное обучение становится бессмысленным, поскольку они будут учиться на практике. - Реальная ценность человеческого труда: Нам не нужны индивидуальные обучающие конвейеры для каждой микро-задачи; текущий ИИ это делает. - Задержка диффузии = справляться: Если бы модели были эквивалентны человеку, они бы интегрировались быстрее, чем сотрудники [Можно обсудить это - происхождение данных, уверенность бизнеса в надежности, страхи замены и т.д. могут разумно задерживать развертывание ИИ; но мы все равно были бы убеждены, что это лучший вариант, и это еще не так, так что, по моему мнению, это утверждение остается в силе]. - Произошло смещение целей: Мы решили то, что считали узкими местами AGI (например, рассуждение), но пока не можем автоматизировать 95% знаний. Интеллект больше, чем мы осознавали и ранее определяли, и это нормально признать. - Узкое место непрерывного обучения: Будущее взрывного роста ИИ зависит от решения проблемы непрерывного обучения - агенты, развернутые, обучающиеся на опыте, объединяющие знания обратно в "коллективный разум". Мы далеки от этого, но оптимистично настроены, что сможем это сделать!