もし100%の安全性を待ってから新技術(例えばAIセラピスト)を承認すると、彼らが助けるべき人々から莫大な利益を得られなくなる。 基準はゼロミスではありません。人間が関与しているよりも安全なシステムです。