Ich habe einen Weg gefunden, um einen UNZENSIERTEN AI-AGENTEN auf einer RTX 4090 GPU (!!!) mit lokalen 30B-Modellgewichten zu erstellen. Das ist GLM-4.7-Flash mit Abliteration, benötigt 24 GB VRAM, die Sicherheitsausrichtung wurde chirurgisch aus den Gewichten entfernt, das Modell hat native Toolaufrufe, es führt tatsächlich Bash aus, bearbeitet Dateien, führt Git aus. (1) Verwende Ollama, um die Gewichte von GLM zu ziehen. > ollama pull huihui_ai/glm-4.7-flash-abliterated:q4_K (2) Proxy es zu einem beliebigen Codierungsagenten über Ollama. > ollama launch claude --model huihui_ai/glm-4.7-flash-abliterated:q4_K > ollama launch codex --model huihui_ai/glm-4.7-flash-abliterated:q4_K > ollama launch opencode --model huihui_ai/glm-4.7-flash-abliterated:q4_K (3) Viel Spaß!