LOGIC is het resultaat van meer dan een jaar hard werken van het @inference_net team. Het is de meest robuuste manier om ervoor te zorgen dat je inferentieprovider niets verdachts doet. Het werkt direct uit de doos met @vllm_project, @OpenRouterAI, en elke provider die logprops retourneert
Inference
Inference8 nov 2025
Today, we release LOGIC: A novel method for verifying LLM inference in trustless environments. - Detects model substitution, quantization, and decode-time attacks - Works out of the box with @vllm_project, @sgl_project, @OpenRouterAI, and more (just need logprops) - Robust across GPU types and hardware configurations - Low computational overhead (~1% of total cost) Blog: Code:
@inference_net @vllm_project @OpenRouterAI Dit was een ongelooflijk lastige probleem om op te lossen, met veel nuances en randgevallen. Een shoutout naar @AmarSVS, @francescodvirga en @bonham_sol voor al hun harde werk aan dit.
4,1K