LOGIC est le résultat de plus d'un an de travail acharné de l'équipe @inference_net. C'est le moyen le plus robuste de s'assurer que votre fournisseur d'inférence ne fait rien de louche. Il fonctionne directement avec @vllm_project, @OpenRouterAI, et tout fournisseur qui renvoie des logprops.
Inference
Inference8 nov. 2025
Aujourd'hui, nous lançons LOGIC : une méthode novatrice pour vérifier l'inférence des LLM dans des environnements sans confiance. - Détecte la substitution de modèle, la quantification et les attaques au moment du décodage - Fonctionne directement avec @vllm_project, @sgl_project, @OpenRouterAI, et plus (il suffit de logprops) - Robuste sur différents types de GPU et configurations matérielles - Faible surcharge computationnelle (~1% du coût total) Blog : Code :
@inference_net @vllm_project @OpenRouterAI C'était un problème incroyablement difficile à résoudre, avec de nombreuses nuances et cas particuliers. Un grand merci à @AmarSVS, @francescodvirga et @bonham_sol pour tout leur travail acharné sur cela.
4,1K