En 2026, l'IA passera de l'engouement au pragmatisme | Rebecca Bellan & Ram Iyer, TechCrunch Si 2025 a été l'année où l'IA a subi un test de tendance, 2026 sera l'année où la technologie deviendra pratique. L'accent est déjà en train de se déplacer de la construction de modèles linguistiques toujours plus grands vers le travail plus difficile de rendre l'IA utilisable. En pratique, cela implique de déployer des modèles plus petits là où ils s'intègrent, d'incorporer de l'intelligence dans des dispositifs physiques et de concevoir des systèmes qui s'intègrent harmonieusement dans les flux de travail humains. Les experts avec qui TechCrunch a parlé voient 2026 comme une année de transition, une année qui évolue d'une mise à l'échelle brute à la recherche de nouvelles architectures, de démonstrations flashy à des déploiements ciblés, et d'agents qui promettent l'autonomie à ceux qui augmentent réellement la façon dont les gens travaillent. La fête n'est pas finie, mais l'industrie commence à se ressaisir. Les lois de mise à l'échelle ne suffiront pas En 2012, l'article ImageNet d'Alex Krizhevsky, Ilya Sutskever et Geoffrey Hinton a montré comment les systèmes d'IA pouvaient "apprendre" à reconnaître des objets dans des images en regardant des millions d'exemples. L'approche était coûteuse en calcul, mais rendue possible grâce aux GPU. Le résultat ? Une décennie de recherche intensive sur l'IA alors que les scientifiques s'efforçaient d'inventer de nouvelles architectures pour différentes tâches. Cela a culminé autour de 2020 lorsque OpenAI a lancé GPT-3, qui a montré comment simplement rendre le modèle 100 fois plus grand débloque des capacités comme le codage et le raisonnement sans nécessiter d'entraînement explicite. Cela a marqué la transition vers ce que Kian Katanforoosh, PDG et fondateur de la plateforme d'agents IA Workera, appelle "l'ère de la mise à l'échelle" : une période définie par la croyance que plus de calcul, plus de données et des modèles de transformateurs plus grands entraîneraient inévitablement les prochaines grandes percées en IA. Aujourd'hui, de nombreux chercheurs pensent que l'industrie de l'IA commence à épuiser les limites des lois de mise à l'échelle et va une fois de plus passer à une ère de recherche. Yann LeCun, ancien chef scientifique de l'IA chez Meta, a longtemps plaidé contre la dépendance excessive à la mise à l'échelle et a souligné la nécessité de développer de meilleures architectures. Et Sutskever a déclaré dans une récente interview que les modèles actuels atteignent un plateau et que les résultats de préentraînement se sont aplatis, indiquant un besoin de nouvelles idées. "Je pense qu'il est très probable que dans les cinq prochaines années, nous allons trouver une meilleure architecture qui est une amélioration significative par rapport aux transformateurs," a déclaré Katanforoosh. "Et si nous ne le faisons pas, nous ne pouvons pas nous attendre à beaucoup d'amélioration des modèles." Parfois, moins c'est plus Les grands modèles linguistiques sont excellents pour généraliser les connaissances, mais de nombreux experts affirment que la prochaine vague d'adoption de l'IA en entreprise sera menée par des modèles linguistiques plus petits et plus agiles qui peuvent être ajustés pour des solutions spécifiques à un domaine. "Les SLMs ajustés seront la grande tendance et deviendront un élément de base utilisé par les entreprises d'IA matures en 2026, car les avantages en termes de coût et de performance favoriseront leur utilisation par rapport aux LLMs prêts à l'emploi," a déclaré Andy Markus, directeur des données d'AT&T, à TechCrunch. "Nous avons déjà vu les entreprises s'appuyer de plus en plus sur les SLMs car, si elles sont correctement ajustées, elles égalent les modèles plus grands et généralisés en précision pour les applications commerciales, et sont excellentes en termes de coût et de rapidité." Nous avons déjà vu cet argument de la part de la startup française d'IA à poids ouvert Mistral : elle soutient que ses petits modèles fonctionnent en réalité mieux que les modèles plus grands sur plusieurs benchmarks après ajustement. "L'efficacité, le rapport coût-efficacité et l'adaptabilité des SLMs les rendent idéaux pour des applications sur mesure où la précision est primordiale," a déclaré Jon Knisley, stratège en IA chez ABBYY, une entreprise d'IA d'entreprise basée à Austin. ...