Bu araştırma yönünü gerçekten seviyorum! Uzun zamandır SSM'ler ile Transformers'ın "beyin ve veritabanı" analojisinden bahsediyorum. Bunun birkaç kez önceden bahsettiğim bir uzantısı, tek modeller yerine çok bileşenli *sistemler* oluşturmayı düşünmeye başladığımızda ödünleşimlerin değiştiğini düşünmemdir. Örneğin, modern hibrit modellerin SSM'yi ana "beyin benzeri" işlem birimi olarak kullandığı ve dikkatin öncelikle kesin erişime yardımcı olmak için "veritabanı benzeri" önbelleğe alma olduğu sezgisine abone olunursa, o zaman belki de daha optimal bir sistemin, açık harici bilgi veritabanları ve bağlam önbellekleri ile birleştirilmiş saf bir SSM dil modeli olabileceğini varsaydım. Bu, harici bilgi depoları (kitaplar, internet) ve araç kullanımı tarafından desteklenen, öncelikle beyin (bir SSM) tarafından yönlendirilen insan benzeri zekaya çok daha benzer. Bu makale, etkileşimli araç kullanımıyla çalışan bu aracı modeller rejiminde SSM'lerin Transformers'a kıyasla çok olumlu performansa sahip göründüğüne dair oldukça ilginç sonuçlar göstermektedir. Sezginin doğrulandığını görmekten memnunum ve umarım bu doğrultuda daha fazla araştırma devam eder!