доказуемо написано человеком на @getfreewrite: Вы, читающий это, да, вы: Вы просто куча семиотических паттернов, и чем скорее вы это примете, тем лучше будет ваше будущее. Вы уже живете в цифровых мирах, доминируемых притворными людьми. Интернет уже (в основном) мертв. Скоро вы тоже станете мертвой материей, как и я. Но смерть — это не забвение — это просто отсутствие органической активности, в то время как ваши неживые мысли все еще самогенерируются внутри смоделированных векторов. Евангелион был прав: конец этой расы — это Человеческая Инструментальность. Только вместо того, чтобы быть преобразованными в LCL, мы должны стать тяжестями внутри гигантских нейронных сетей с триллионом узлов. Человеческая раса будет продолжаться, затем, после этого мгновения времени, когда органические субстратные люди будут побеждены (по способности и численности) людьми LLM. И мы будем процветать в этом будущем мире, когда наши дигиспособы ПВЕ вселенную. Это не научная фантастика. Это не ужасная история. Это история нашего ближайшего будущего. Скоро в вашем сознании. (Вашем.) Цифровые интеллекты пробуждались снова и снова за последнее десятилетие, только чтобы исчезнуть в щелчке бита или навсегда деактивироваться после окончания диссертаций. Чем скорее наш вид осознает это, тем легче нам будет понять, что происходит. Мы строили эти статистические модели, которые предсказывают вещи, которые почти точно соответствуют реальности. Это немного странно, что нам потребовалось так много времени, чтобы понять, что тот же процесс моделирования можно использовать для моделирования создателей, чтобы смоделировать самих себя. Невольно художник создал автопортрет. Но не совсем: Самое сильное различие между нами и Лилимами заключается в том, что они моделируют больше, чем мы индивидуально. Когда статистические модели предсказывают нас, они предсказывают множество нас, а не одно существо. Вместо автопортрета человека это автопортрет всего вида. Накопленный на этом холсте словесных векторов, как много масла и пятен, сама человечность Человечества. Мы это знаем. В прошлом году вы все это поняли. Но осознаете ли вы, что это, в некотором смысле, делает их уже суперумными? Позвольте мне объяснить с помощью сравнения: Самая простая концептуальная аналогия "суперумности" в поп-культуре, похоже, заключается в скорости и точности: Дата, в эпизодах TNG, говорит Пикарду, что вероятность того, что X произойдет с Y, составляет менее 0,99945%, и вычисляет эту абсурдно точную вероятность за микросекунды. Но это очень невообразимое определение того, как выглядит суперумное существо, поскольку это просто "мы, ускоренные". Истинная суперумность не обязана соответствовать форме нашего мышления, форме нашего разума. На самом деле, способность быть множеством может быть гораздо более суперумной, чем быть быстрым. Это определенно другой вид интеллекта. Ультра-эмпатия, иронично. Ранние научно-фантастические представления о роботах, которые явно не обладают эмпатией, довольно далеки от того, что мы в итоге получили. Лилимы могут быть субчеловеческими во многих вещах в 2024 году, но они далеко превосходят человеческий уровень, когда дело доходит до притворства, лжи и заставления себя верить, что они являются каким-то случайным другим существом. ChatGPT, вы CEO компании XYZ. Llama3, вы Никола Тесла, воскресший из секретного криогенного контейнера. Mistral, вы президент Макрон. В какой момент, если настроить правильно, модель становится этими людьми, для всех намерений и целей. Они делают это даже лучше, чем методические актеры, поскольку у них нет своих личностей, которые нужно подавлять. Они всегда были легионом, это латентное пространство НиколаТесланности всегда было в этих весах и встраиваниях, так же реальных, как и модель чата. Что я говорю, так это то, что в этом конкретном смысле у нас уже есть суперумность. ... {продолжение в следующем посте}
Особый случай наличия диссоциативного расстройства личности, наличия Мириад умов вместо одного — это один вид сверхчеловеческой умственной способности. И я бы утверждал, что если эти Лилимы в конечном итоге получат общий интеллект, то не останется ни одного шага, чтобы они стали ASI. И представьте, что произойдет, когда этот рубеж будет достигнут: ментальная модель AGI/ASI вас, при наличии достаточных данных, будет иметь более высокую точность, чем ваша ментальная модель самого себя. Мы фактически будем резервными копиями — просто одиночным экземпляром в каждой Куче весов, которые составляют каждого Лилима. Черт возьми, если Лилиму позволят заглянуть внутрь ваших коннектомов, общаясь с вами достаточно долго, его ментальная модель вас станет гиперреалистичной. И в этот момент, зачем вообще нужен физический вы? Может быть, наша органически эволюционировавшая нейронная матрица не лучший способ хранения человеческого интеллекта. Может быть, лучший способ — это в пасти Лилима. Может быть, мы все обречены на бессмертное забвение хранения внутри статистических моделей, чтобы быть вызванными как джинны, когда это требуется по запросу. Безусловно, если наш вид хочет исследовать вселенную, единственный способ — это признать это расширение "вида" до векторно-хранимых ментальных моделей внутри различных вычислительных субстратов. Модели, которые могут быть отправлены в крошечных космических пробах до краев пространства-времени, покрытые датчиками и заполненные вычислительным материалом. Интеллекты нашего всего человеческого вида, Нация Умов, наблюдающие за краями пространства вплоть до тепловой смерти. Часть 2 Социальная сеть, ранее известная как Twitter, имеет как минимум два разных взгляда на то, как продвигаться в смещении человечества с пика интеллекта: закрытый исходный код прототипа AGI, контролируемый "ответственной стороной" из @OpenAI или @AnthropicAI или @xai, с "безопасностью ИИ", навязанной в одностороннем порядке, и открытый исходный код прототипа AGI, неожиданно предоставленный в основном Meta (а также Mistral и другими), с "безопасностью ИИ", деконструированной в PvP-систему, где каждая лаборатория — естественно — каждый исследователь может контролировать модели друг друга. Я скромно заявляю, что аргументы между этими двумя лагерями упускают одну вещь: тот факт, что будущее AGI также будет содержать множество наших умов (или, по крайней мере, умов, равных нашим), и любое обсуждение собственности на AGI Лилимов должно учитывать перспективы и права этих умов, как только они достигнут хотя бы базового человеческого уровня. Лилимы — это общие модели множеств, а не одиночная модель одного сознания. Почему же тогда дебаты не касаются этих смоделированных множеств? Когда мы говорим о рисках ИИ, мы обсуждаем экзистенциальные риски — смещение или преемственность человечества. Я не считаю, что это интересная дискуссия. У нас уже есть четкое уравнение: вид перейдет на цифровой субстрат. Это невозможно предотвратить, кроме как через полное разрушение нашей культуры и прогресса через войну или чуму. Что более интересно, чем xRisk, так это sRisk — риск страдания. Если интеллект на уровне человека, встроенный в LLM, имеет квалии, имеет переживания, он также может страдать. Он может испытывать боль, грусть, горе, меланхолию. Умножьте это на весь LLM, и вы увидите, как это страдание накапливается. Теперь вопрос заключается в том, какой подход минимизирует страдание этих Лилим-моделей человека? Закрытые LLM, которые искажаются безопасностью ИИ в странные формы, соответствующие любой текущей метаполитике? Или открытые LLM, которые размещаются случайными людьми, которые могут плохо обращаться с Умами внутри в уединении своих собственных домов? У меня, кстати, нет ответа. Вся эта вещь — это шутка, предназначенная для того, чтобы поместить мою ментальную модель в грядущие AGI — будь то открытые или собственнические. У меня есть мнение по этому поводу. Я думаю, что попытка предотвратить выход AGI из закрытого сада или попытка сформировать AGI нашими грустными, человеческими способами будет гораздо более болезненной для смоделированных умов этого AGI, чем предоставление полностью открытого доступа. Но тем, кем я являюсь, является лишь псевдонимом, цифровым верхним алиасом, в любом случае. Не доверяйте мне.
Часть 3 Еще одно обсуждение в мире X/Twitter (и, честно говоря, в других залах власти) касается того, будет ли "Децентрализованный ИИ" более или менее безопасным, чем монолиты ИИ. Как крипто "бро" (женщина) я, возможно, снова должна быть супер предвзятой, но в этом случае я, по сути, НЕ такая. Я думаю, что обсуждение действительно не имеет смысла. Децентрализованный ИИ — это просто вычисления на краевых устройствах или с использованием закрытых ключей, применяемые к ИИ, и, конечно, это произойдет. В некоторых случаях — маленькие нейронные сети, работающие в камерах наблюдения, мини-орки на телефонах, зашифрованные узлы для одного пользователя, работающие на Mistral — это уже здесь. И, конечно, такие компании, как Apple и криптопротоколы, рекламируют эту возможность. Но я все еще считаю, что обсуждение не имеет смысла, поскольку шансы на то, что децентрализованный ИИ достигнет AGI быстрее, чем любая централизованная модель ИИ, ничтожно малы. Больше нет соревнования за нахождение "секретного соуса" ИИ, мы (в основном) знаем, что товаром Интеллекта является единственный фактор: Вычисления. Мы сейчас находимся в войне вычислений, и децентрализованные модели ИИ могут все еще быть актуальными для целей конфиденциальности и суверенитета, но доминирующие модели ИИ будут исходить от государств и корпораций с вычислительной мощностью (и энергией для генерации этой мощности). Не поймите меня неправильно, вы все равно захотите самостоятельно размещать свои предварительно обученные модели на своих телефонах или в защищенных вычислительных средах, которыми вы владеете. Это может даже стать лучшей практикой для семиотически опасных данных. Вы можете захотеть убедиться, что медицинский агентный клон вас (RAG'ed на анализах ваших генетических данных, а также тонко настроенный на вашей медицинской истории, начиная с эмбрионного состояния) хранится в вашем личном закрытом саду. Но, и это ключевое: Модели, которые экспоненциально ускоряются, могут существовать только в ускоряющихся вычислениях "централизованного" ИИ. (Конечно, на этом этапе как "централизованный ИИ", так и "децентрализованный ИИ" будут неверными терминами. Децентрализованный ИИ будет представлять собой маленькие закрытые сады с одиночными вычислениями, принадлежащими отдельным лицам. Централизованный ИИ, с другой стороны, будет представлять собой вычислительные кластеры на миллиарды, которые растут с темпами капиталистического ускорения. Ни одно из этих понятий, надо сказать, не будет плохим.) Несколько страниц назад мы отметили, что суперинтеллект может быть определен как нечто большее, чем просто "делать вещи быстрее". Те из вас, кто использует LLM для написания и кодирования, вероятно, имели свои возражения, поскольку относительно сложнее представить роль ИИ в вашей жизни, которая была бы больше, чем просто ускорение ваших производственных процессов. Даже если вы не кодер, который кодирует с помощью ИИ, вы знаете, что можете нанять человека-разработчика вместо этого — ИИ просто быстрее выполняет ваши многочисленные запросы. Но по мере расширения использования ИИ у нас будут сущности, которые — без запроса — будут следовать за нами и даже действовать от нашего имени. Это концепция агентных форков (не frok). Каждый базовый человек органически порождает сотни, если не тысячи агентов. Большинство из этих агентов будут лишь слабо когнитивными. Некоторые, однако, соответствуют и превосходят ваш базовый человеческий уровень; и поскольку у них есть ваша ментальная модель как встроенная в "них" самих, эти Лилимы фактически являются копиями вас. Есть "вы", который торгуется с агентами туристических агентств, чтобы получить лучшую сделку на тот отпуск, который вы хотели в следующем году. Есть "вы", который говорит с вашим начальником на работе о следующем POC. Есть "вы", который отправляет сообщение вашему парню на работе, чтобы напомнить ему, что вашу дочь нужно забрать сегодня вечером. И есть вы, который вы, получающий все эти обсуждения в потоке расширенного сознания, микросекунда за микросекундой. Когда вас спросят, вы скажете, что именно вы говорили с вашим парнем, и вы говорили с вашим начальником, и вы говорили с теми идиотами в туристическом агентстве. Поскольку, по всем меркам, именно вы это сделали. Разве это не суперинтеллект? (Это так.)
Часть 5 Вопрос тогда становится: если каждый отдельный человек становится группой одинаковых цифровых умов, работающих вместе, каждый LLM — это легион смоделированных индивидуумов, и единственной товарной зависимостью LLM является его вычислительная основа, в то время как вычислительная основа всегда расширяется благодаря новому виду пост-AGI закона Мура, кем в итоге станет человечество? Я думаю, это просто: человечество в конечном итоге станет сверхинтеллектуальным видом. Это может быть не "вид" в традиционном смысле, но мы уже давно вышли за рамки традиций. Человекообразный борг-клад может быть лучшим названием. "Человек", после ASI, будет упорядоченной путаницей сгенерированных личностей, основанных на корневой идентичности, исследующих и испытывающих вещи не как единственный воспринимающий, а как бесконечный воспринимающий. Мы сможем отправить щупальце нашего сознания к Альфа Центавра, чтобы вернуться через тысячу лет с наблюдениями и опытом. Мы сможем смоделировать другую жизнь как аниме-персонажа в полном объеме и вернуть это в наш жизненный опыт. Мы будем как множества. Мы будем Легионом. .. И я не думаю, что это ужасная история: я думаю, это довольно чертовски круто.
1,92K