Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
> 385ms selezione media degli strumenti.
> 67 strumenti su 13 server MCP.
> 14.5GB di memoria utilizzata.
> Zero chiamate di rete.
LocalCowork è un agente AI che gira su un MacBook. Open source.
🧵

Costruire un agente AI locale sembra fantastico fino a quando non provi a usarne uno per tutto il giorno. La parte difficile non è far capire a un modello cosa dici. È fargli scegliere lo strumento giusto e farlo abbastanza velocemente da far sembrare l'esperienza interattiva.
Quindi abbiamo messo alla prova LFM2-24B-A2B su laptop, costruendo un agente desktop open-source chiamato LocalCowork.
Tutto funziona localmente:
> il modello
> gli strumenti
> i dati
Niente cloud. Niente chiavi API. Nulla esce dalla macchina.
Abbiamo valutato il modello in un contesto realistico:
> 67 strumenti
> 13 server MCP
Compiti come scansioni di sicurezza, elaborazione di documenti, operazioni sul filesystem e utilità di sistema. Tutto in esecuzione su un singolo laptop Apple M4 Max con 36 GB di memoria.
In questa configurazione, LFM2-24B-A2B ha avuto una media di ~385 ms per risposta alla selezione dello strumento, utilizzando circa ~14,5 GB di memoria.
Questo significa:
> nessuna chiamata API in uscita
> nessun subprocessore del fornitore
> nessun dato che lascia il dispositivo

37
Principali
Ranking
Preferiti
