Random q (weet niet veel over de interne werking van AI-modellen) Zou een groot slim model efficiënt lange contextmodellen kunnen hebben door een dom, maar klein en snel model te vragen de langere context te lezen en samen te vatten voor het slimme model?