LOGIC является результатом более года упорной работы команды @inference_net. Это самый надежный способ убедиться, что ваш провайдер вывода не делает ничего подозрительного. Он работает сразу же с @vllm_project, @OpenRouterAI и любым провайдером, который возвращает logprops
Inference
Inference8 нояб. 2025 г.
Today, we release LOGIC: A novel method for verifying LLM inference in trustless environments. - Detects model substitution, quantization, and decode-time attacks - Works out of the box with @vllm_project, @sgl_project, @OpenRouterAI, and more (just need logprops) - Robust across GPU types and hardware configurations - Low computational overhead (~1% of total cost) Blog: Code:
@inference_net @vllm_project @OpenRouterAI Это была невероятно сложная задача, с множеством нюансов и крайних случаев. Выражаю благодарность @AmarSVS, @francescodvirga и @bonham_sol за их усердную работу над этим.
4,1K