Question aléatoire (je ne sais pas grand-chose sur les internals des modèles d'IA) Un grand modèle intelligent pourrait-il efficacement avoir des modèles de long contexte en demandant à un modèle bête, mais petit et rapide, de lire le contexte plus long et de résumer pour le modèle intelligent ?