В 2026 году ИИ перейдет от хайпа к прагматизму | Ребекка Беллан и Рам Айер, TechCrunch Если 2025 год был годом проверки настроения ИИ, то 2026 год станет годом, когда технологии станут практичными. Внимание уже смещается от создания все более крупных языковых моделей к более сложной задаче — сделать ИИ удобным для использования. На практике это включает в себя развертывание меньших моделей там, где это уместно, внедрение интеллекта в физические устройства и проектирование систем, которые гармонично интегрируются в человеческие рабочие процессы. Эксперты, с которыми поговорил TechCrunch, видят 2026 год как год перехода, который эволюционирует от грубой силы масштабирования к исследованию новых архитектур, от эффектных демонстраций к целевым развертываниям и от агентов, обещающих автономию, к тем, которые действительно дополняют работу людей. Праздник еще не закончился, но индустрия начинает трезветь. Законы масштабирования не сработают В 2012 году статья Алекса Крижевского, Ильи Сутскевера и Джеффри Хинтона о ImageNet показала, как ИИ-системы могут "учиться" распознавать объекты на изображениях, рассматривая миллионы примеров. Этот подход был вычислительно затратным, но стал возможным благодаря GPU. Результат? Десятилетие интенсивных исследований в области ИИ, когда ученые работали над созданием новых архитектур для различных задач. Это culminировалось около 2020 года, когда OpenAI запустила GPT-3, который показал, как простое увеличение модели в 100 раз открывает возможности, такие как кодирование и рассуждение, без необходимости в явном обучении. Это ознаменовало переход в то, что Кян Катанфурош, генеральный директор и основатель платформы ИИ-агентов Workera, называет "эпохой масштабирования": период, определяемый верой в то, что больше вычислений, больше данных и более крупные трансформерные модели неизбежно приведут к следующим крупным прорывам в ИИ. Сегодня многие исследователи считают, что индустрия ИИ начинает исчерпывать пределы законов масштабирования и снова перейдет в эпоху исследований. Янн ЛеКун, бывший главный научный сотрудник ИИ Meta, давно выступает против чрезмерной зависимости от масштабирования и подчеркивает необходимость разработки лучших архитектур. А Сутскевер в недавнем интервью сказал, что текущие модели достигают плато, и результаты предварительного обучения выровнялись, что указывает на необходимость новых идей. "Я думаю, что в следующие пять лет мы, скорее всего, найдем лучшую архитектуру, которая будет значительным улучшением по сравнению с трансформерами," — сказал Катанфурош. "И если мы этого не сделаем, не стоит ожидать значительных улучшений моделей." Иногда меньше — это больше Большие языковые модели отлично обобщают знания, но многие эксперты говорят, что следующая волна принятия ИИ в бизнесе будет двигаться к меньшим, более гибким языковым моделям, которые можно настроить для специфических решений в области. "Настроенные SLM станут большой тенденцией и станут основным инструментом, используемым зрелыми ИИ-компаниями в 2026 году, поскольку преимущества по стоимости и производительности будут способствовать их использованию по сравнению с готовыми LLM," — сказал Энди Маркус, главный директор по данным AT&T, в интервью TechCrunch. "Мы уже видели, как компании все больше полагаются на SLM, потому что, если их правильно настроить, они соответствуют большим, обобщенным моделям по точности для бизнес-приложений и превосходят их по стоимости и скорости." Мы уже слышали этот аргумент от французского стартапа Mistral: он утверждает, что его маленькие модели на самом деле показывают лучшие результаты, чем большие модели по нескольким критериям после настройки. "Эффективность, экономичность и адаптивность SLM делают их идеальными для специализированных приложений, где точность имеет первостепенное значение," — сказал Джон Книсли, стратег ИИ в ABBYY, компании по разработке ИИ для бизнеса, расположенной в Остине. ...