2026年、AIは誇大宣伝から実用主義へと移行します。レベッカ・ベラン&ラム・アイヤー、TechCrunch もし2025年がAIにバイブチェックされた年なら、2026年はこの技術が実用化される年になるでしょう。焦点はすでに、より大きな言語モデルの構築から、AIを使いやすくするというより困難な作業へとシフトしています。実際には、適合する小さなモデルを展開し、物理的なデバイスに知能を組み込み、人間のワークフローにクリーンに統合できるシステムを設計することを含みます。 TechCrunchの専門家たちは、2026年を変革の年と見ており、ブルートフォーススケーリングから新しいアーキテクチャの研究へ、派手なデモからターゲットを絞った展開へ、そして自律性を約束するエージェントから、実際に人々の作業を補助するエージェントへと進化する年だと述べています。 パーティーはまだ終わっていませんが、業界は徐々に正気を取り戻し始めています。 スケーリング法則では足りません 2012年、アレックス・クリジェフスキー、イリヤ・サツケバー、ジェフリー・ヒントンのImageNet論文は、AIシステムが数百万の例を見て画像中の物体を「学習」できることを示しました。この方法は計算コストが高かったものの、GPUによって可能となりました。その結果は?科学者たちが異なるタスクのための新しいアーキテクチャを発明するために取り組んだ10年間の本格的なAI研究。 その成果は2020年頃にOpenAIがGPT-3をリリースしたことで頂点に達しました。このモデルは、モデルを100倍に大きくするだけで、明示的な訓練を必要とせずにコーディングや推論能力が解放されることを示しました。これは、AIエージェントプラットフォームWorkeraのCEO兼創業者であるKian Katanforoosh氏が「スケーリングの時代」と呼ぶ移行を示しました。これは、より多くの計算量、より多くのデータ、そしてより大きなトランスフォーマーモデルが、AIの次の大きなブレークスルーを必然的に推進すると信じる時代です。 今日、多くの研究者はAI業界がスケーリング法の限界を使い果たしつつあり、再び研究の時代へと移行すると考えています。 Metaの元チーフAIサイエンティストであるヤン・ルカンは、スケーリングへの過度な依存に長らく反対し、より良いアーキテクチャの開発の必要性を強調してきました。また、サツケバーは最近のインタビューで、現在のモデルは停滞しており、事前学習の結果は横ばいになっているため、新しいアイデアの必要性を示していると述べました。 「おそらく今後5年以内に、トランスフォーマーよりも大幅に改善されたより良いアーキテクチャが見つかると思います」とKatanforooshは語りました。「もしそうでなければ、モデルの改善は期待できない。」 時には少ない方が良いこともあります 大規模言語モデルは知識の一般化に優れていますが、多くの専門家は、次世代のエンタープライズAI導入は、より小さくてアジャイルな言語モデルによって推進され、ドメイン特有のソリューションに最適化できると述べています。 AT&Tの最高データ責任者アンディ・マーカス氏はTechCrunchに対し、「ファインチューニングされたSLMは2026年には成熟したAI企業が使用する定番となるでしょう。コストと性能の優位性が、既製品のLLMよりも利用を促すでしょう」と語りました。「SLMに適切に調整すれば、企業向けビジネスアプリケーションにおけるより大規模で一般的なモデルに準じる精度を持ち、コストとスピードの面でも優れたため、企業がますますSLMに依存するようになっています。」 フランスのオープンウェイトAIスタートアップMistralが以前にもこの主張をしています。同社は、ファインチューニング後の複数のベンチマークで自社の小型モデルが大きなモデルよりも実際に優れていると主張しています。 「SLMの効率性、コスト効率、適応性は、精度が最重要となるカスタマイズされたアプリケーションに理想的です」と、オースティン拠点のエンタープライズAI企業ABBYYのAIストラテジスト、ジョン・ニスリー氏は述べています。 ...