Я модерировал дискуссию между Дваркешем, доктором Бурри и Джоном Кларком (из Anthropic) о разногласиях среди группы людей, лучше всего информированных о ИИ, включая будущее влияние на занятость, является ли это пузырем и т.д. Спасибо Substack за то, что это стало возможным.
Одно из подспоров заключается в том, в какой степени LLM, в чем эта группа абсолютно согласна, могут выполнять коммерчески ценные задачи, являются непредсказуемыми и подвержены ошибкам в трудных для предсказания ситуациях. Да! Люди тоже такие. И, к счастью, у нас разные ошибки.
Пункт, на который указал Джек, и который является одной из самых больших пропастей в понимании между хорошо информированными людьми и теми, кто должен быть хорошо информирован: возможности сегодняшнего дня являются полом, а не потолком. Любая будущая система может выбрать их или отказаться от них.
Джек кратко рассказывает о том, как LLM стали резким разрывом с ранее популярной концепцией, согласно которой мы разовьем интеллект, создавая сто тысяч тестовых площадок, заставляя точечные решения учиться побеждать узко, а затем ??? обобщение подразумевает интеллект.
Вместо этого мы создали *поразительно* универсальный инструмент, который сводится к одной среде ("поместите его в комнату с каждым написанным документом"), и затем то, что из этого вышло, оказывается невероятно успешным, когда вы применяете его к новым задачам. В следующие несколько лет, возможно, потребуется создать испытательные площадки.
Как я заметил: мы раньше обучали ИИ играть в StarCraft. Все будущие попытки сделать это могут предполагать, что система прочитала Искусство войны в оригинале на китайском, если только архитектор(ы) не считают, что это знание ухудшит ваши навыки в остановке атак зерглингами.
* Джек Кларк, а не Джон Кларк. Извините, я вырос, читая Тома Клэнси. Однажды они смогут предварительно просматривать мои твиты, и я буду рад, как много меньше неловких моментов происходит при написании на мобильном.
216