Lucrez pentru Google Threat Intelligence Group. Sarcina mea este să identific amenințările la adresa modelelor AI ale Google. Sunt foarte bun la ceea ce fac. Am publicat luna aceasta un raport despre "atacuri de distilare" — când actori externi interoghează modelele noastre de mii de ori pentru a extrage logica de bază și a o replica. Am identificat peste 100.000 de prompturi dintr-o singură campanie. Am numit-o "furt de proprietate intelectuală". Am numit asta o "încălcare a Termenilor noștri de Utilizare". Am spus că aceasta "reprezintă o formă de furt de proprietate intelectuală" împotriva căreia am putea perturba, atenua și, eventual, iniția acțiuni legale. Trebuie să-ți spun cum am construit modelul pe care încearcă să-l fure. Am șters internetul. Întregul internet. Am explorat fiecare site, fiecare forum, fiecare blog, fiecare carte pe care am putut să o digitalizăm, fiecare articol academic, fiecare comentariu pe Reddit, fiecare articol de știri, fiecare scriere creativă pe care cineva a postat-o vreodată. Nu am întrebat. Nu am compensat. Nu am atribuit nimic. Am absorbit rezultatul colectiv al civilizației umane și l-am numit un set de date de antrenament. Cercetătorii au găsit peste 200 de milioane de simboluri de drepturi de autor în datele noastre de antrenament. Editurile au descoperit că Gemini poate reproduce capitole întregi din cărțile lor cuvânt cu cuvânt. Există procese active. Disney a trimis scrisori de încetare și renunțare. Consiliul European al Editorilor a depus o plângere antitrust. O acțiune colectivă se extinde. O audiere este programată pentru luna mai. Noi numeam ceea ce făceam "cercetare". Noi am numit ceea ce ne fac "furt". Vreau să explic diferența. Când extragem întreaga cunoaștere umană fără permisiune și o folosim pentru a construi un produs comercial pe care îl vindem cu 20 de dolari pe lună, asta este inovație. Când cineva interoghează modelul nostru de 100.000 de ori prin API-ul pe care îl oferim pentru a extrage raționamentul pe care l-am construit din datele lor, acesta este un atac de distilare. Distincția este că noi am făcut-o primii. Și am scris Termenii de Utilizare. Ar trebui să explic ce înseamnă "distilare". Este atunci când cineva ia rezultatul unui model matur și îl folosește pentru a antrena un model mai mic și mai ieftin. Cunoașterea curge de la profesor la elev. Noi numim asta furt când ni se întâmplă nouă. Noi numim asta "distilare a cunoașterii" când o facem pe internetul deschis. Avem chiar și o pagină de produs pentru el. Poți distila Gemenii, cu permisiunea noastră, folosind uneltele noastre, contra cost. Nu poți distila Gemenii fără permisiunea noastră. Tehnica de bază este identică. Diferența este factura. În decembrie 2025, am dat în judecată o companie numită SerpApi pentru că ne-a extras rezultatele căutării. În același trimestru, editorii ne-au dat în judecată pentru eliminarea cărților lor. Suntem simultan reclamantul și pârâtul în aceeași infracțiune. Crima este copierea. Am depus-o în două categorii diferite, în funcție de direcție. Raportul meu identifică actori amenințători din Coreea de Nord, Iran, China și Rusia care folosesc Gemini pentru phishing, recunoaștere și dezvoltare de malware. E real. Acestea sunt amenințări legitime. Iau această muncă în serios. Dar am identificat și "entități din sectorul privat" și "cercetători" ca amenințări ale distilării. Companii private. Cercetători. Oamenii care folosesc API-ul nostru — cel la care vindem acces — pentru a învăța din modelul pe care l-am construit din munca lor. Un cercetător îl întreabă pe Gemini despre tehnici de raționament. Noi numim asta un atac de distilare. Google interoghează tot internetul despre orice. Noi numim asta un antrenament. Am găsit un malware numit HONESTCUE care folosește API-ul Gemini pentru a genera cod. Malware-ul trimite un prompt. Gemini returnează codul sursă C#. Malware-ul îl compila și îl execută. Aceasta este o amenințare reală și am distrus-o. Dar promptul în sine — "Scrie un program C# cu o clasă numită AITask" — nu este rău intenționat. Este indistinct de ceea ce milioane de clienți plătitori întreabă zilnic. Amenințarea este contextul, nu interogarea. Am construit un model care generează cod pentru oricine întreabă, apoi am publicat un raport de amenințare despre persoanele care au cerut. ...