正直、OpenAIがAI論争のデフォルト悪役として描かれていくのを見るのはもううんざりです。 大胆なことを試みると危険です。 彼らは動きが速い、無責任だ。 パートナーがいると、それは腐敗です。 彼らは競争し、それは機会主義です。 一方で、多くの他の企業は静かに動き、検証を待ち、効果的なものを模倣し、最も難しい判断を避け、同じ監視を何とか免れています。 正直に言おう。 OpenAIは大規模に出荷しています。彼らが最初に展開します。彼らは公共の場で境界線を試します。つまり、彼らは目に見えるミスを犯しているということです。目に見えるトレードオフ。目に見える賭け。 しかし、それがフロンティアを進めるという姿でもあります。 もしあなたが実際にムーンショットを試み、機関との統合、グローバルなスケール、新たなカテゴリーの定義を試みている会社であれば、あなたの背後にいる誰もがあなたの安全を守るよりも多くのリスクと批判を受け入れることになるでしょう。 他のAI企業も同じ倫理的なグレーゾーンを航行していないと本当に信じているのでしょうか? 同じ規制上の曖昧さ? イノベーションとガバナンスの間に同じ圧力があるのでしょうか? それとも、すべてのシステム的な不安を最大のターゲットに投影する方が簡単でしょうか? OpenAIの基準はますます高まっています。 スタートアップよりも高いです。 オープンソースプロジェクトよりも高いです。 現職が静かに背景で動いている場合よりも高い。 批判は必要です。説明責任は重要です。 しかし、権力、政策、利益と対立していると仮定するのは知的に不誠実に感じられます。 フロンティアのイノベーションは混沌としています。 統治は不完全です。 インセンティブは複雑です。...