トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
私は 2007 年から AI (当時は機械学習など) に深く関わってきました。米国で機械学習を学び、ほとんどの本を読み、すべてのポッドキャストを聴きました。ローマン・ヤンポルスキーの最近の本+インタビューほど衝撃的なものはありません。🧵
彼の見解は珍しい+深遠なもので、人工超知能(ASI)の構築はリスクが高いだけでなく、基本的に絶滅が保証されている。
能力が解決されます (コンピューティング + データ = よりスマートな AI)。安全性は解決されません。そして両者の格差は日々大きくなっている。
予測市場+ラボのリーダーは、AGIは2027年までに到着する可能性があると述べています。超知能はおそらく自動的に続くでしょう。私たちは準備ができていません。
ローマン氏は失業率が10%ではなく、ほぼ合計(>99%+)になると予測している。認知労働+肉体労働の両方が置き換えられました。すべてのジョブが自動化可能であれば、再トレーニングは役に立ちません。
「ガードレール」は絆創膏です。よりスマートなシステムは、それらを迂回します。抜いて。ファンタジー。あなたはあなたを出し抜くもののプラグを抜くのではなく、あなたのプラグを抜きます。
絶滅リスクはASIすら必要ありません。AI 支援のバイオは、ある悪意のある行為者に文明規模の危害を加えるツールを与える可能性があります。
人種のダイナミクスは壊れています: ASI のスイッチがオンになると、誰がそれを構築したかは関係ありません。両方とも負ける。
ローマンの呼びかけ:ASIを一時停止してください。実際の問題のために狭いAIを維持します。調整も制御もできない「神のような」システムを追いかけるのはやめましょう。
2.65K
トップ
ランキング
お気に入り

