Sam Altman está a dizer que a OpenAI precisa de aumentar a receita rapidamente o suficiente para pagar os enormes custos de computação que estão a construir. Neste momento, a OpenAI não tem GPUs suficientes para atender à demanda, o que é, na verdade, um bom problema. Isso significa que as pessoas querem o que estão a construir. O verdadeiro risco não é a escassez, mas sim a construção excessiva de computação antes de haver clientes pagantes suficientes para a utilizar de forma lucrativa. A OpenAI está a gastar bilhões antecipadamente em centros de dados e GPUs, apostando que pode preencher essa capacidade com receita de assinaturas do ChatGPT, clientes empresariais que incorporam os seus modelos e empresas que constroem na API. É como construir um cinema caro; lugares vazios são um desastre, lugares cheios transformam-no numa máquina de dinheiro. A chave é que os custos de treinamento continuarão a aumentar em dólares absolutos, mas diminuirão como uma porcentagem da receita se a demanda escalar corretamente. Três forças tornam isso possível: assinaturas de consumidores, acordos empresariais e ganhos de eficiência que tornam cada dólar de computação mais produtivo ao longo do tempo. A empresa é a alavanca mais crítica porque as empresas pagarão muito mais por unidade de computação do que os usuários individuais. O risco que Sam Altman reconhece é construir computação demais muito rapidamente e ter a demanda a ficar para trás. Se isso acontecer, a OpenAI ficará com bilhões em infraestrutura subutilizada e a tese quebra. Mas a sua confiança vem de ver várias fontes de demanda independentes a puxar pela computação ao mesmo tempo, juntamente com flexibilidade suficiente para ajustar se o tempo ou a economia escorregarem ligeiramente.