Qualcuno ha incollato dati dei clienti in ChatGPT. L'output è stato utile. L'hanno condiviso internamente. Nessuno ci ha pensato molto... fino a sei settimane dopo, quando un cliente ha chiesto perché le sue informazioni fossero apparse da qualche parte inaspettata. Poi è iniziata la corsa: Quale strumento, quale modello/versione, chi l'ha fatto, quali dati sono stati inseriti, cosa diceva l'output, dove si è diffuso? La parte peggiore è che la maggior parte di esso era irrecuperabile. Quello che avevano era un ticket di supporto, thread di email sparsi e nessuna risposta chiara. Questo è ciò che il rischio dell'AI sembra nella maggior parte delle aziende. Il rischio diventa visibile solo quando qualcuno inizia a fare domande. Quello di cui hanno bisogno è un registro, una prova on-chain che esista prima che qualcuno sappia di dover chiedere. Questo è uno dei ruoli di Number nell'industria dell'AI: audit dell'infrastruttura per gli output dell'AI. Quando è stata l'ultima volta che la tua azienda ha auditato quali strumenti AI stanno usando i dipendenti?