Кто-то вставил данные клиента в ChatGPT. Результат оказался полезным. Они поделились им внутри компании. Никто не придал этому значения… до тех пор, пока через шесть недель клиент не спросил, почему его информация появилась где-то неожиданно. Затем началась суета: Какой инструмент, какая модель/версия, кто это сделал, какие данные были введены, что было в выводе, где это распространилось? Худшая часть в том, что большая часть этого была невосстановима. То, что у них было, это тикет в службу поддержки, разбросанные электронные письма и никаких четких ответов. Вот как выглядит риск ИИ в большинстве компаний. Риск становится видимым только тогда, когда кто-то начинает задавать вопросы. Им нужна запись, доказательство на блокчейне, которое существует до того, как кто-то узнает, чтобы спросить. Это одна из ролей Number в индустрии ИИ: аудит инфраструктуры для выводов ИИ. Когда в последний раз ваша компания проводила аудит того, какие инструменты ИИ используют сотрудники?