Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Я глибоко вивчаю штучний інтелект (машинне навчання тоді...) з 2007 року. вивчав машинне навчання в США, читав більшість книг, слухав кожен подкаст. Ніщо так не шокувало мене, як нещодавня книга+інтерв'ю Романа Ямпольського. 🧵
Його думка рідкісна + глибока: створення штучного суперінтелекту (ASI) не просто ризиковане, це в основному гарантоване вимирання.
здатність вирішується (обчислення + дані = розумніший штучний інтелект). Безпека не вирішується. І прірва між ними зростає з кожним днем.
Лідери Predicty Markets + Lab кажуть, що AGI може з'явитися до 2027 року. Суперінтелект, швидше за все, слідує автоматично. Ми не готові.
Роман прогнозує не 10% безробіття, а майже повне (>99%+). Замінено як когнітивну, так і фізичну працю. Перекваліфікація не допоможе, якщо всі професії можна автоматизувати.
«Огородження» – це пластир. Розумніші системи прокладають маршрут навколо них. Відключення? Фантазії. Ви не витягуєте вилку з чогось, що перехитрило вас, вона тягне ваше.
Для ризику вимирання навіть не потрібен ASI. Біографія за допомогою штучного інтелекту може дати одному поганому актору інструменти для заподіяння шкоди масштабу цивілізації.
Динаміка перегонів порушується: як тільки ASI включається, не має значення, хто його побудував. Програють обидві сторони.
Дзвінок Романа: Пауза АСІ. Тримайте вузький ШІ для реальних проблем. Перестаньте гнатися за «богоподібними» системами, які ми не можемо вирівняти або контролювати.
2,66K
Найкращі
Рейтинг
Вибране

