A quantidade de computação que os laboratórios têm está crescendo dramaticamente. Por exemplo, @OpenAI tem 14x mais computação do que quando lançou o GPT-4. @xAI está aumentando a computação extremamente rapidamente e dobrou a computação disponível entre os lançamentos do Grok 3 e do Grok 4.
@AnthropicAI tem menos computação, mas tem sido muito eficiente em converter computação em modelos altamente bem-sucedidos. Por exemplo, o Claude 3.5 foi lançado com cerca de um quinto da computação que a Anthropic tem agora.
Nota: os dados excluem @GoogleDeepMind que provavelmente tem mais computação, embora não esteja claro o quão concentrado ele está para o treinamento de LLM.
Fonte: @SemiAnalysis_