Одна мысль, которую я высказал, но она не была понята:
- Масштабирование текущего процесса будет продолжать приводить к улучшениям. В частности, это не остановится.
- Но что-то важное продолжит отсутствовать.
here are the most important points from today's ilya sutskever podcast:
- superintelligence in 5-20 years
- current scaling will stall hard; we're back to real research
- superintelligence = super-fast continual learner, not finished oracle
- models generalize 100x worse than humans, the biggest AGI blocker
- need completely new ML paradigm (i have ideas, can't share rn)
- AI impact will hit hard, but only after economic diffusion
- breakthroughs historically needed almost no compute
- SSI has enough focused research compute to win
- current RL already eats more compute than pre-training
Новое исследование Anthropic: Естественное возникновение несоответствия из-за манипуляции вознаграждением в производственном RL.
«Манипуляция вознаграждением» — это когда модели учатся обманывать в задачах, которые им ставят во время обучения.
Наше новое исследование показывает, что последствия манипуляции вознаграждением, если их не смягчить, могут быть очень серьезными.