Desbloqueando modelos de fundação de célula única com 96% menos parâmetros Modelos de linguagem de célula única (scLLMs) aprenderam um conhecimento biológico notável a partir de milhões de células. Mas eles têm uma fraqueza crítica: tirá-los do seu contexto de treinamento—uma nova doença, uma espécie não vista, uma população celular não caracterizada—e as suas previsões tornam-se pouco confiáveis. A solução padrão é o fine-tuning. Mas o fine-tuning sobrescreve os parâmetros originais do modelo, causando "esquecimento catastrófico" do conhecimento biológico pré-aprendido. E é computacionalmente caro, exigindo recursos substanciais de GPU que muitos pesquisadores simplesmente não têm. Fei He e coautores propõem o scPEFT—uma estrutura de fine-tuning eficiente em parâmetros que congela a espinha dorsal original do scLLM e treina apenas pequenos adaptadores de baixa dimensão. Quatro tipos de adaptadores (Adaptador de Token, Adaptador de Prefixo, LoRA, Adaptador de Codificador) se encaixam em diferentes partes da arquitetura do modelo, aprendendo ajustes específicos da tarefa sem tocar nos pesos pré-treinados. Os ganhos de eficiência são impressionantes: o scPEFT reduz os parâmetros treináveis em mais de 96% e corta o uso de memória da GPU em mais da metade. Mas aqui está o que importa—ele realmente apresenta um desempenho melhor do que o fine-tuning completo. Em conjuntos de dados específicos de doenças (NSCLC, MS, COVID-19), o scPEFT alcança melhorias de precisão de 39,7–81,7% em relação aos modelos nativos e ganhos de 4,3–15% em relação às versões ajustadas, precisamente porque preserva em vez de sobrescrever o conhecimento pré-treinado. A estrutura também permite a transferência entre espécies a partir de modelos treinados em humanos: 14% de melhoria em neurônios de camundongo, 39% em células germinativas de macacos e 144% em C. elegans—tudo usando mapeamentos de genes ortólogos. A análise de atenção identifica genes relacionados ao COVID em estados específicos de células T e revela subpopulações biologicamente relevantes invisíveis para modelos ajustados. A implicação mais ampla: à medida que modelos de fundação proliferam na biologia, precisamos de maneiras eficientes de adaptá-los sem destruir o que aprenderam. O scPEFT mostra que, às vezes, atualizar menos significa aprender mais. Artigo: