トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
このプロジェクトの数学は、世界中のすべてのAIラボを一気に削り落とすべきです。
1立方ミリメートル。人間の脳の百万分の一です。ハーバードとグーグルは10年かけてこの地図を作成した。画像診断だけで326日かかりました。彼らは組織を5,000枚の厚さ30ナノメートルのウェハーに分割し、600万ドルの電子顕微鏡にかけ、3D再構築にはGoogleの機械学習モデルを使わなければならなかった。なぜなら、人間のチームが出力を処理できなかったからだ。
その結果、57,000個の細胞、1億5,000万個のシナプス、230ミリメートルの血管が1.4ペタバイトの生データに圧縮されました。参考までに、1.4ペタバイトはおよそ140万ギガバイトに相当します。米粒より小さい粒からだ。
それをスケールで拡大します。人間の脳全体は100万倍も大きいのです。この解像度で全体をマッピングすると、約1.4ゼタバイトのデータが得られます。これは地球上で1年間に生成されるすべてのデータにほぼ匹敵します。ストレージだけで推定500億ドルの費用がかかり、140エーカーのデータセンターが必要で、これは地球上で最大の規模となる。
そして教科書には載っていないものも見つけました。あるニューロンは5,000以上の接続点を持っていました。いくつかの軸索は、全く理由が分からないままぎゅっと巻きついていた。細胞クラスターのペアが互いに鏡像のように成長しました。ハーバードのリード、ジェフ・リヒトマンは「既に知っていることと知る必要があることの間には溝がある」と述べました。
だから次のステップは人間の脳ではないのです。これはマウスの海馬で、今後5年間で10立方ミリメートルの大きさです。マウスの脳でさえ、彼らがマッピングしたものの1000倍も大きいため、完全なマウスコネクトームは人間のものを試みる前の概念実証です。
私たちはニューラルネットワークをゆるく模倣しながらも、模倣しようとしているものの1立方ミリメートルの配線図を完全に読み取れないAIシステムを構築しています。オリジナルは1.4ペタバイト/100万分の1の容量です。地球上のすべてのAIモデルはそのほんの一部に収まります。
脳は20ワットで動いていて、頭蓋骨に収まる。そのうち100万分の1を記述するだけでもデータセンターは140エーカーに及びます。
トップ
ランキング
お気に入り
