a minha visão contrária é que a ideia de que "os modelos são mercadorias, basta trocar" é uma visão terminalmente ingênua, mantida quase exclusivamente por pessoas aqui que nunca realmente lançaram produtos baseados em llm em qualquer profundidade. essas pessoas geralmente são apenas pontificadores. a minha opinião pessoal é que a vala existe e é o ajuste acumulado... que são coisas como bibliotecas de prompts, manuseio de casos extremos, intuição institucional sobre modos de falha e calibração de confiança embutida. e os custos de mudança se acumulam de forma não linear com a profundidade da integração. um consumidor de API em nível superficial pode ser trivial. mas para coisas profundamente integradas, como lógica de direcionamento, pipelines de comunicação, fluxos de trabalho classificados, etc., o custo de mudança é basicamente um ciclo completo de reengenharia disfarçado como uma decisão de fornecedor. a situação da dow/anthropic especificamente é interessante porque as organizações militares provavelmente têm a versão mais extrema desse problema. elas não podem simplesmente testar no prod, e cada caso extremo de comportamento precisa ser revalidado de maneiras que são lentas, caras e requerem expertise especializada que não necessariamente se transfere entre famílias de modelos. estou bem ciente disso porque nossa startup tem a capacidade de mudar para qualquer modelo, mas é uma dor de cabeça porque tudo ou quebra ou fica estranhamente complicado.