Cineva a lipit datele clienților în ChatGPT. Rezultatul a fost util. Împărtășeau asta în interior. Nimeni nu a dat prea multă importanță... Până la șase săptămâni după, când un client a întrebat de ce informațiile lui au apărut undeva neașteptat. Apoi a urmat agitația: Ce unealtă, ce model/versiune, cine a făcut-o, ce date au intrat, ce a spus rezultatul, unde s-a răspândit? Partea cea mai rea este că majoritatea a fost de nerecuperat. Au avut un tichet de suport, fire de email împrăștiate și niciun răspuns clar. Așa arată riscul AI în majoritatea companiilor. Riscul devine vizibil doar când cineva începe să pună întrebări. Ceea ce au nevoie este un dosar, o dovadă on-chain care există înainte ca cineva să știe să întrebe. Acesta este unul dintre rolurile lui Number în industria AI: auditarea infrastructurii pentru rezultatele AI. Când a fost ultima dată când compania dumneavoastră a auditat ce instrumente AI folosesc angajații?