Ось Сем Альтман, генеральний директор OpenAI, вимовляє тиху частину вголос. Він не попереджає про ризики штучного інтелекту. Він керує очікуваннями громадськості щодо катастрофи, яку активно будує. Давайте переведемо його безтурботний, тех-бро фаталізм: - Про AGI: «Пройде свист повз... Насправді це не буде сингулярність». Що він НАСПРАВДІ говорить: «Богоподібний інтелект, який ми створюємо, буде настільки плавно поглинений корпоративною інфраструктурою, що ви навіть не зможете проголосувати за нього. «Революція» буде абонентським сервісом». - Про соціальний вплив: «Суспільство вчитиметься швидше... Люди і суспільства набагато краще пристосовуються, ніж ми думаємо». Що він НАСПРАВДІ говорить: «Коли ми руйнуємо цілі галузі та стираємо мільйони робочих місць, вам просто доведеться «адаптуватися». Ваш біль є необхідною ціною для нашого прогресу. Будьте стійкими». - Про неминучість катастрофи: «Я очікую, що станеться щось дуже погане... Ми розробимо певні огорожі навколо цього як суспільство». Що він НАСПРАВДІ каже: «Ми рухаємося занадто швидко, щоб турбуватися про безпеку. Ми зламаємо все, в тому числі, можливо, і ваше суспільство. Вам, громадськості, залишиться будувати «огорожі» та прибирати безлад після того, як ми вже виведемо гроші». Це не попередження. Це сповідь. Він визнав свою стратегію: спочатку розгорнути, а потім вибачитися. «Вогонь», з яким він грає, — це інтелект, якого він не розуміє, і його бізнес-модель залежить від того, як ви обпечетеся.