Quelqu'un a collé des données clients dans ChatGPT. La sortie était utile. Ils l'ont partagée en interne. Personne n'y a vraiment pensé… jusqu'à six semaines plus tard, lorsqu'un client a demandé pourquoi ses informations apparaissaient quelque part de manière inattendue. Puis est venue la panique : Quel outil, quel modèle/version, qui l'a fait, quelles données ont été utilisées, ce que disait la sortie, où cela s'est répandu ? Le pire, c'est que la plupart des informations étaient irrécupérables. Ce qu'ils avaient, c'était un ticket de support, des fils de discussion par email éparpillés, et pas de réponses claires. C'est à quoi ressemble le risque de l'IA dans la plupart des entreprises. Le risque ne devient visible que lorsque quelqu'un commence à poser des questions. Ce dont ils ont besoin, c'est d'un enregistrement, d'une preuve on-chain qui existe avant que quiconque ne sache poser des questions. C'est l'un des rôles de Number dans l'industrie de l'IA : auditer l'infrastructure pour les sorties de l'IA. Quand est la dernière fois que votre entreprise a audité les outils d'IA que les employés utilisent ?