狂ってる この新しい論文は基本的にこう言っています セルはLLMのように「プロンプト」されるようになりました。 STACKは、1億4,900万個のヒト単細胞で訓練された生物学の基礎モデルです。 各セルを孤立して扱うのではなく、文の中でトークンが意味を持つように文脈の中でセルを理解します。推論の段階では、細胞はモデルに新しい細胞について考える方法を教えます。 なぜこれが大きな問題なのか ほとんどの単一セルモデル=「ここにセルがある、何だと思うか」 STACK = 「ここにセルの近傍がある。今度はそれらを摂動させたら何が起こるか予測する。」 それは以下の通りです: 新しい生物学的条件を即座に学べる 化学的摂動の影響を予測する ドナー、組織、疾患にまたがる一般化 ゼロショットで、箱から出したままです これは文脈学習ですが、人間の生物学に関するものです。 👀 驚くべきことに、彼らはそれを使ってパーターブ・サピエンスを作り出しました: 攪乱細胞の初のヒト全アトラス 28組織...