Könnte ein großes, intelligentes Modell effizient lange Kontextmodelle haben, indem es ein dummes, aber kleines und schnelles Modell bittet, den längeren Kontext zu lesen und für das intelligente Modell zusammenzufassen?