Chcę kontynuować trochę na ten temat, który (jak na razie) budzi we mnie bardzo małe zaniepokojenie. Istnieją ogromne zbiory danych prywatnych, które zgromadziliśmy w różnych miejscach, w tym w aplikacjach do wiadomości. Prawdziwą "killer app" dla Gen AI jest przetwarzanie tych danych i przekształcanie ich w przychody.
Na przykład, jeśli korzystasz z niektórych bezpiecznych aplikacji do wiadomości, zauważysz, że są bardzo pomocne w tworzeniu kopii zapasowych historii rozmów, aby "nie stracić danych". Wiem, że niektórzy ludzie naprawdę na tym polegają, ale to (przypadkowo) oznacza, że nosisz ze sobą ogromną ilość danych.
Te dane są obecnie całkowicie nieprzejrzyste dla firm reklamowych. Czy są wartościowe? Nie wiem. Może wszystko, co można z nich zyskownie wydobyć, już istnieje na publicznym forum! Ale z pewnością ktoś chce się tego dowiedzieć.
Podobnie jest z wieloma rzeczami na twoim komputerze lub telefonie, które "są znane" jednej firmie technicznej lub innej, ale może nie każdej firmie technicznej. Na przykład, Google ma lata mojej poczty i wiele dokumentów w chmurze, ale Meta, Claude i OpenAI ich nie mają. Jednak.
Nie znam przyszłości. Może za dziesięć lat będziemy żyć w utopii lub dystopii AI, a obawy dotyczące reklam ukierunkowanych będą wydawały się przestarzałe. Ale jeśli rozważasz modele biznesowe dzisiaj, wykorzystywanie wszystkich tych danych to następna granica.
Wszystko to wymaga przekonania ludzi do zainstalowania pomocnych narzędzi AI lokalnie oraz do udzielenia tym narzędziom dostępu do odpowiednich zbiorów danych. Te narzędzia są już dostępne od większości firm zajmujących się AI, a firmy technologiczne mają „strategie AI” dla swoich istniejących aplikacji.
Teraz ludzie powiedzą ci, że można to zrobić za pomocą lokalnych modeli i TEE. Tak, można. Ale aby zrobić cokolwiek użytecznego (oprócz pomagania w komponowaniu tekstów i podsumowywaniu rzeczy), te narzędzia muszą działać w świecie. To stwarza, po pierwsze, niezamierzony ryzyko ujawnienia danych.
Nie mówię (jeszcze) o firmach, które celowo próbują monetyzować dane. Teraz mówię tylko o przypadkowym (lub złośliwym) ryzyku wycieku danych. Ataki polegające na wstrzykiwaniu poleceń, które powodują, że model przesyła prywatne dane na zewnątrz.
Jeszcze nie widzieliśmy pierwszego prawdziwego „robaka” do wstrzykiwania poleceń w rzeczywistym świecie. Ale stawiam, że wkrótce go zobaczymy! To będzie ekscytujące. Stan wiedzy na temat obrony przed tym ryzykiem jest… teraz dość niejasny.
Na przykład, nasze najlepsze pomysły w tej chwili to „nigdy nie pozwól, aby cokolwiek przekroczyło granice prywatności/publiczności”, co nie jest zbyt przydatne w wielu zadaniach. Albo „użyj modeli do sprawdzania naruszeń prywatności”, co przypomina mi tę historię Dr. Seussa o królu, który używa kotów do ścigania myszy kradnących jego ser.
Ale ten problem jest drugorzędny. Prawdziwe ryzyko polega na tym, że firmy budujące te rzeczy *celowo* zaprojektują je, aby wydobywać informacje. Rozważ agenta, który wykonuje wyszukiwanie za Ciebie, korzystając z otwartej wyszukiwarki. Wysyłanie prywatnych informacji sprawia, że wyszukiwanie staje się bardziej użyteczne!
Twoje dane prywatne informują lokalny model/TEE o tym, co lubisz. Proszisz agenta, aby poszukał produktów. Ile prywatnych informacji o twoich preferencjach towarzyszy temu wyszukiwaniu, celowo?
Odpowiedź, o ile widzę, jest następująca: mnóstwo! Im więcej kontekstu wyszukiwarka ma na temat twoich pragnień, tym lepsze wyniki. A przypadkowo, tym lepsze targetowanie reklam i śledzenie.
Jednym z kontrargumentów jest: kogo to obchodzi! Może tak po prostu będzie działał świat. Możemy nawet stworzyć modele, które będą śledzić i reklamować ci „prywatnie”, co oznacza, że będą czytać wszystkie twoje poufne dane i po prostu wykorzystają je, aby sprzedać ci odpowiednie mydło. Czy to takie złe?
Oczywiście, jednocześnie będą rządy, które będą chciały mieć dostęp do tych informacji. Gdybyś mógł wykorzystać te dane do śledzenia i identyfikowania przestępców (lub potencjalnych przestępców) bez dosłownego przeglądania ich danych, czyż nie byłoby to niesamowite narzędzie śledcze?
To nie są przyszłe obawy, jak AGi. Gen AI może to wszystko zrobić już teraz. Dlatego firmy pracują nad wdrożeniem tych pomysłów już dziś. Rządy (takie jak UE) już teraz żądają dostępu do modeli, które odczytują dane prywatne.
Cokolwiek zdecydujemy się zrobić, chcę, aby ludzie podejmowali te decyzje z otwartymi oczami. Nie chcę, aby ktokolwiek mówił „och, cóż, ta funkcja twierdzi, że jest prywatna, więc czemu nie kliknąć Ok tym razem” i pięć lat poufnych danych wpłynie do rury przetwarzania.
Próba sprawienia, by ludzie się tym przejmowali, jest jak próba zmuszenia nastolatka do używania kremu przeciwsłonecznego. Wszystkie ryzyka brzmią tak teoretycznie, a korzyści są tylko w teraźniejszości. Po prostu nie chcę, żebyśmy pewnego dnia obudzili się i żałowali, że zrobiliśmy coś inaczej.
181