Мав нагоду вперше переглянути цю роботу. Ця робота справді чудова. Я не думаю, що бачив жодної іншої пост-AGI економічної статті, яка чітко визначає наслідки зростання автоматизації та постійної актуальності людського інтелекту як розрив між вартістю автоматизації та вартістю перевірки. Є дві речі, які мені запам'яталися. Перша — це цей цикл: > коли експерти контролюють агентів, вони створюють виправлення, маркування та знання з інструкцій. Це фіксується як навчальні дані/інструменти, що знижує вартість автоматизації. > коли автоматизація стає дешевшою, компанії замінюють людей агентами. Це знижує потребу в людях, особливо для початкових посад. > з меншим накопиченим досвідом у суспільстві менше компетентних перевіряючих, і верифікація стає дорожчою. > тепер розрив між вартістю автоматизації та вартістю перевірки зростає — агенти можуть працювати у більшій кількості сфер, ніж люди можуть надійно аудитувати (сліпі зони). > в цих сліпих зонах люди не можуть надати чіткий коригуючий зворотний зв'язок. Агенти продовжують оптимізувати вимірювані проксі, і поведінка може відхилятися від справжніх людських намірів. Другий, який мені запам'ятався, — це концепція «відповідальність як послуга». По суті, це означає, що розгортання будь-якого агента постачальником пов'язане з відповідальністю: якщо агент завдає шкоди, збитків / юридичних проблем визначеними способами, постачальник сплачує (з обмеженим обмеженням). Отже, клієнт купує компенсований результат, а не лише програмне забезпечення. Це, по суті, змушує компанії приймати ризики через те, що агенти не узгоджені з користувачем. Мені дуже подобається ця концепція відповідальності як послуги, бо вся теза нашої платформи @eigencloud базувалася на слашуванні та страхуванні. Будь-який сервіс, розгорнутий на @eigencloud, призначений для стейкінгу, і якщо сервіс завдає шкоди користувачу, ставка за сервісом зменшується і компенсується на основі користувача. на попередню покупку користувача. Я щиро рекомендую всім прочитати цю статтю!