Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Я хочу немного продолжить эту тему, по поводу которой (пока что) я вижу очень мало беспокойства. Существуют огромные хранилища личных данных, которые мы накопили в различных местах, включая мессенджеры. Настоящее "убийственное приложение" для Генеративного ИИ — это поглощение этих данных и превращение их в доход.
Например, если вы используете некоторые безопасные мессенджеры, вы заметите, что они очень полезны для резервного копирования вашей истории сообщений, чтобы "вы не потеряли данные". Я знаю, что некоторые люди действительно полагаются на это, но также это (совпадение) означает, что вы носите с собой огромный объем данных.
Эти данные в настоящее время полностью недоступны для рекламных компаний. Они ценны? Не знаю. Возможно, все, что можно извлечь из них с прибылью, уже существует на публичном форуме! Но кто-то, безусловно, хочет это выяснить.
Аналогично, на вашем компьютере или телефоне есть много информации, которая "известна" одной технологической компании или другой, но, возможно, не всем технологическим компаниям. Например, у Google есть годы моей почты и множество облачных документов, но у Meta, Claude и OpenAI их нет. Однако.
Теперь я не знаю, что нас ждет в будущем. Возможно, через десять лет мы будем жить в утопии или дистопии с ИИ, и беспокойства о целевой рекламе будут казаться устаревшими. Но если вы рассматриваете бизнес-модели сегодняшнего дня, использование всех этих данных — это следующий рубеж.
Все это требует убеждения людей установить полезные инструменты ИИ локально и предоставить этим инструментам доступ к соответствующим хранилищам данных. Эти инструменты уже доступны у большинства компаний ИИ, и технологические фирмы все имеют "стратегии ИИ" для своих существующих приложений.
Теперь, ребята, скажут вам, что это можно сделать с помощью локальных моделей и TEE. Да, можно. Но чтобы сделать что-то полезное (кроме помощи в составлении текстов и суммировании информации), этим инструментам нужно действовать в реальном мире. Это создает, во-первых, непреднамеренный риск утечки данных.
Я пока не говорю о компаниях, которые намеренно пытаются монетизировать данные. Сейчас я говорю только о риске случайной (или злонамеренной) эксфильтрации. Атаки с инъекцией команд, которые заставляют модель передавать частные данные наружу.
Мы еще не видели первого реального «червя» с инъекцией подсказок. Но я уверен, что мы увидим! Это будет захватывающе. Современные методы защиты от этого риска... сейчас довольно расплывчаты.
Например, наши лучшие идеи на данный момент — это «никогда не позволяйте ничему пересекать границы частного/публичного», что на самом деле не очень полезно для многих задач. Или «используйте модели для проверки нарушений конфиденциальности», что напоминает мне ту историю Доктора Сьюза о короле, который использует кошек, чтобы поймать мышей, крадущих его сыр.
Но эта проблема второстепенна. Реальный риск заключается в том, что компании, создающие это, *умышленно* разработают его для извлечения инсайтов. Представьте себе агента, который выполняет поиск для вас, используя открытый поисковый движок. Отправка частных инсайтов делает поиск более полезным!
Итак, ваши личные данные сообщают локальной/TEE модели, что вам нравится. Вы просите агента искать продукты. Сколько личной информации о ваших предпочтениях передается с этим запросом, намеренно?
Ответ, насколько я вижу, таков: много! Чем больше контекста у поисковой системы о ваших желаниях, тем лучше результаты. И, кстати, тем лучше таргетинг и отслеживание рекламы.
Одним из возражений на это является: кому это интересно! Возможно, именно так теперь будет работать мир. Мы даже можем создать модели, которые отслеживают и рекламируют вам «приватно», что означает, что они читают все ваши конфиденциальные данные и просто используют их, чтобы продать вам правильное мыло. Это так уж плохо?
Конечно, в то же время будут правительства, которые захотят получить доступ к этим данным. Если бы вы могли использовать эти данные для отслеживания и идентификации преступников (или потенциальных преступников), не читая их данные буквально, разве это не было бы удивительным инструментом для расследования?
Это не будущие проблемы, как AGi. Генеративный ИИ может сделать все это прямо сейчас. Поэтому компании уже работают над внедрением этих идей сегодня. Государства (например, ЕС) уже запрашивают доступ к моделям, которые читают частные данные.
Что бы мы ни выбрали, я хочу, чтобы люди принимали эти решения с открытыми глазами. Я не хочу, чтобы кто-то сказал: "О, ну, эта функция утверждает, что она приватная, так почему бы не нажать ОК в этот раз", и пять лет конфиденциальных данных попадают в поток обработки.
Попытка заставить людей заботиться об этом похожа на попытку заставить подростка использовать солнцезащитный крем. Все риски кажутся такими теоретическими, а преимущества существуют только в настоящем. Я просто не хочу, чтобы мы все однажды проснулись и пожалели, что поступили иначе.
187
Топ
Рейтинг
Избранное
