Google hanya memberi model bahasa memori jangka panjang yang nyata. Arsitektur baru belajar selama inferensi dan menjaga konteks di jutaan token. Ini memegang akurasi ~70 persen pada 10 juta token. Arsitektur ini belajar saat berjalan Titans menambahkan memori jangka panjang saraf yang diperbarui selama generasi. Bukan bobot. Bukan pelatihan ulang. Pembelajaran langsung. • Jaringan saraf kecil menyimpan konteks jarak jauh • Ini diperbarui hanya ketika sesuatu yang tidak terduga muncul • Token rutin diabaikan agar tetap cepat Ini memungkinkan model mengingat fakta dari teks yang jauh lebih awal tanpa memindai semuanya lagi. Ini menjaga kecepatan saat menskalakan konteks Perhatian tetap lokal. Memori menangani masa lalu. • Biaya inferensi linier • Tidak ada ledakan perhatian kuadrat • Akurasi stabil melewati dua juta token Ini memungkinkan Anda untuk membangun jenis aplikasi baru Anda dapat memproses buku, log, atau genom lengkap dalam satu lintasan. Anda dapat mempertahankan status di seluruh sesi panjang. Anda dapat menghentikan pemotongan konteks hanya untuk bertahan dari batas.