> 385ms selezione media degli strumenti. > 67 strumenti su 13 server MCP. > 14.5GB di memoria utilizzata. > Zero chiamate di rete. LocalCowork è un agente AI che gira su un MacBook. Open source. 🧵
Costruire un agente AI locale sembra fantastico fino a quando non provi a usarne uno per tutto il giorno. La parte difficile non è far capire a un modello cosa dici. È fargli scegliere lo strumento giusto e farlo abbastanza velocemente da far sembrare l'esperienza interattiva. Quindi abbiamo messo alla prova LFM2-24B-A2B su laptop, costruendo un agente desktop open-source chiamato LocalCowork.
Tutto funziona localmente: > il modello > gli strumenti > i dati Niente cloud. Niente chiavi API. Nulla esce dalla macchina.
Abbiamo valutato il modello in un contesto realistico: > 67 strumenti > 13 server MCP Compiti come scansioni di sicurezza, elaborazione di documenti, operazioni sul filesystem e utilità di sistema. Tutto in esecuzione su un singolo laptop Apple M4 Max con 36 GB di memoria. In questa configurazione, LFM2-24B-A2B ha avuto una media di ~385 ms per risposta alla selezione dello strumento, utilizzando circa ~14,5 GB di memoria. Questo significa: > nessuna chiamata API in uscita > nessun subprocessore del fornitore > nessun dato che lascia il dispositivo
34