Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Membuka kunci model pondasi sel tunggal dengan parameter 96% lebih sedikit
Model bahasa besar sel tunggal (scLLM) telah mempelajari pengetahuan biologis yang luar biasa dari jutaan sel. Tetapi mereka memiliki kelemahan kritis: membawa mereka keluar dari konteks pelatihan mereka—penyakit baru, spesies yang tidak terlihat, populasi sel yang tidak dicirikan—dan prediksi mereka menjadi tidak dapat diandalkan.
Perbaikan standar adalah penyetelan halus. Tetapi penyetelan halus menimpa parameter model asli, menyebabkan "kelupaan bencana" dari pengetahuan biologis yang telah dipelajari sebelumnya. Dan itu mahal secara komputasi, membutuhkan sumber daya GPU yang besar yang tidak dimiliki banyak peneliti.
Fei He dan rekan penulis mengusulkan scPEFT—kerangka kerja penyetelan halus yang efisien parameter yang membekukan tulang punggung scLLM asli dan hanya melatih adaptor kecil berdimensi rendah. Empat jenis adaptor (adaptor token, adaptor awalan, LoRA, adaptor Encoder) masuk ke bagian yang berbeda dari arsitektur model, mempelajari penyesuaian khusus tugas tanpa menyentuh bobot yang telah dilatih sebelumnya.
Peningkatan efisiensinya sangat mencolok: scPEFT mengurangi parameter yang dapat dilatih lebih dari 96% dan mengurangi penggunaan memori GPU lebih dari setengahnya. Tapi inilah yang penting—itu benar-benar berkinerja lebih baik daripada penyempurnaan penuh. Pada kumpulan data khusus penyakit (NSCLC, MS, COVID-19), scPEFT mencapai peningkatan akurasi 39,7–81,7% dibandingkan model asli dan keuntungan 4,3–15% dibandingkan versi yang disesuaikan, justru karena mempertahankan daripada menimpa pengetahuan yang telah dilatih sebelumnya.
Kerangka kerja ini juga memungkinkan transfer lintas spesies dari model yang dilatih manusia: peningkatan 14% pada neuron tikus, 39% pada sel germinal kera, dan 144% pada C. elegans — semuanya menggunakan pemetaan gen ortolog. Analisis perhatian mengidentifikasi gen terkait COVID dalam keadaan sel T tertentu dan mengungkap subpopulasi yang relevan secara biologis yang tidak terlihat oleh model yang disetel dengan baik.
Implikasi yang lebih luas: ketika model fondasi berkembang biak di seluruh biologi, kita membutuhkan cara yang efisien untuk menyesuaikannya tanpa menghancurkan apa yang telah mereka pelajari. scPEFT menunjukkan bahwa terkadang, memperbarui lebih sedikit berarti belajar lebih banyak.
Kertas:

Teratas
Peringkat
Favorit
