Po pierwsze, skalowanie AI stworzyło lukę w odpowiedzialności. Teraz Japonia buduje systemy agentów, w których nadzór ludzki jest domyślny. Wzór: odpowiedzialność musi być zaprojektowana w krytycznym AI, a nie dodawana później.