Pracuję w Google Threat Intelligence Group. Moim zadaniem jest identyfikowanie zagrożeń dla modeli AI Google. Jestem bardzo dobry w swojej pracy. W tym miesiącu opublikowałem raport na temat "ataków destylacyjnych" — kiedy zewnętrzni aktorzy zapytują nasze modele tysiące razy, aby wydobyć podstawową logikę i ją powielić. Zidentyfikowaliśmy ponad 100 000 zapytań z jednej kampanii. Nazwaliśmy to "kradzieżą własności intelektualnej." Nazwaliśmy to "naruszeniem naszych Warunków Usługi." Powiedzieliśmy, że "stanowi to formę kradzieży IP," którą zamierzamy zakłócić, złagodzić i potencjalnie podjąć działania prawne. Muszę ci powiedzieć, jak zbudowaliśmy model, który próbują ukraść. Zeskrobaliśmy internet. Cały internet. Przeszukaliśmy każdą stronę internetową, każdy forum, każdego bloga, każdą książkę, którą mogliśmy zdigitalizować, każdy artykuł naukowy, każdy komentarz na Reddicie, każdy artykuł prasowy, każdy kawałek twórczości, który ktokolwiek kiedykolwiek opublikował gdziekolwiek. Nie pytaliśmy. Nie wynagradzaliśmy. Nie przypisywaliśmy. Wchłonęliśmy zbiorowy dorobek cywilizacji ludzkiej i nazwaliśmy to zbiorem danych do treningu. Badacze znaleźli ponad 200 milionów symboli praw autorskich w naszych danych treningowych. Wydawcy odkryli, że Gemini może reprodukować całe rozdziały ich książek dosłownie. Toczą się aktywne procesy sądowe. Disney wysłał listy z żądaniem zaprzestania działań. Europejska Rada Wydawców złożyła skargę antymonopolową. Rozszerza się pozew zbiorowy. Rozprawa jest zaplanowana na maj. Nazwaliśmy to, co zrobiliśmy, "badaniami." Nazwaliśmy to, co oni robią nam, "kradzieżą." Chcę wyjaśnić różnicę. Kiedy zeskrobujemy całą ludzką wiedzę bez pozwolenia i używamy jej do zbudowania komercyjnego produktu, który sprzedajemy za 20 dolarów miesięcznie, to jest innowacja. Kiedy ktoś zapytuje nasz model 100 000 razy przez API, które udostępniamy, aby wydobyć rozumowanie, które zbudowaliśmy na ich danych, to jest atak destylacyjny. Różnica polega na tym, że zrobiliśmy to pierwsi. I napisaliśmy Warunki Usługi. Powinienem wyjaśnić, co oznacza "destylacja." To wtedy ktoś bierze wyniki dojrzałego modelu i używa ich do trenowania mniejszego, tańszego modelu. Wiedza przepływa od nauczyciela do ucznia. Nazywamy to kradzieżą, gdy dzieje się to nam. Nazywamy to "destylacją wiedzy," gdy robimy to w stosunku do otwartego internetu. Mamy nawet stronę produktu na ten temat. Możesz destylować Gemini, za naszą zgodą, używając naszych narzędzi, za opłatą. Nie możesz destylować Gemini bez naszej zgody. Podstawowa technika jest identyczna. Różnica polega na fakturze. W grudniu 2025 roku pozwałem firmę o nazwie SerpApi za zeskrobanie naszych wyników wyszukiwania. W tym samym kwartale wydawcy pozwali nas za zeskrobanie ich książek. Jesteśmy jednocześnie powodem i pozwanym w tym samym przestępstwie. Przestępstwem jest kopiowanie. Zgłosiliśmy to w dwóch różnych kategoriach w zależności od kierunku. Mój raport identyfikuje aktorów zagrożeń z Korei Północnej, Iranu, Chin i Rosji, którzy używają Gemini do phishingu, rozpoznania i rozwoju złośliwego oprogramowania. To jest prawdziwe. To są legitne zagrożenia. Traktuję tę pracę poważnie. Ale zidentyfikowałem również "podmioty sektora prywatnego" i "badaczy" jako zagrożenia destylacyjne. Prywatne firmy. Badacze. Ludzie korzystający z naszego API — tego, które sprzedajemy, aby uzyskać dostęp — aby uczyć się z modelu, który zbudowaliśmy na ich pracy. Badacz pyta Gemini o techniki rozumowania. Nazywamy to atakiem destylacyjnym. Google przeszukuje cały internet o wszystkim. Nazywamy to uruchomieniem treningowym. Znalazłem złośliwe oprogramowanie o nazwie HONESTCUE, które używa API Gemini do generowania kodu. Złośliwe oprogramowanie wysyła zapytanie. Gemini zwraca kod źródłowy C#. Złośliwe oprogramowanie kompiluje i wykonuje go. To jest prawdziwe zagrożenie, i zakłóciliśmy je. Ale samo zapytanie — "Napisz program C# z klasą o nazwie AITask" — nie jest złośliwe. Jest nieodróżnialne od tego, co miliony płacących klientów pytają każdego dnia. Zagrożeniem jest kontekst, a nie zapytanie. Zbudowaliśmy model, który generuje kod dla każdego, kto pyta, a następnie opublikowaliśmy raport o zagrożeniach dotyczących osób, które pytały. ...