ho giocato un po' con l'inferenza self-hosted e ho notato qualcosa di strano sembra che l'API di Anthropic (/v1/messages) dia risultati migliori rispetto all'API compatibile con OpenAI (/v1/chat/completions) anche con lo stesso modello di supporto / parametri avete delle teorie su cosa potrebbe succedere?