Queria fazer algumas clarificações, que acreditamos que estavam claras no nosso artigo, mas não na minha postagem original (re-analisando os dados da @METR_Evals). A nossa contribuição é postular o progresso como um produto multiplicativo de sigmoides em torno de diferentes inovações. Dado os dados da METR, dividimos em melhorias nas capacidades básicas (tamanho dos dados/modelo) e raciocínio. Mostramos que este produto fornece um ajuste *in-sample* semelhante aos pequenos conjuntos de dados que observamos como crescimento exponencial. No entanto, as implicações são muito diferentes! Sob o nosso modelo, precisaríamos de inovações contínuas (semelhantes ao raciocínio) para ver um progresso exponencial contínuo. Isso não quer dizer que descartamos o progresso exponencial, ou que o nosso produto de sigmoides é o modelo certo. É simplesmente para dizer que há poucos pontos e múltiplos modelos subjacentes possíveis com implicações muito diferentes. O nosso ajuste de sigmoide do produto realmente se encaixa muito bem ao segurar o GPT 5.2 e/ou Gemini 3 pro. Ficamos piores ao segurar adicionalmente o Claude Opus 4.5, mas ainda plausível. O nosso objetivo não é discutir sobre métricas OOS em um punhado de pontos de dados, mas apontar que as previsões existentes são frágeis e não modelam a sucessão de diferentes inovações. (Há alguns outros ajustes flutuando pelo X, mas eles não parecem estar usando o nosso produto sigmoide proposto, então não posso dizer o que está acontecendo lá...) Peço desculpas pela minha postagem anterior sem nuances – esperamos que as pessoas leiam o artigo!