Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 NOTIZIA DELL'ULTIMO MINUTO: I ricercatori di Meta hanno mostrato a un modello 2 milioni di ore di video. Nessuna etichetta. Nessun libro di fisica. Nessuna supervisione.
Poi gli hanno mostrato un clip in cui un oggetto scompare dietro a un muro e non torna mai più.
Il modello l'ha segnalato come errato. 🤯
Aveva appreso la permanenza degli oggetti. La coerenza delle forme. La dinamica delle collisioni. Interamente guardando.
Cosa c'è di più sorprendente: anche un modello addestrato su solo una settimana di video unici ha raggiunto prestazioni superiori al caso nella rilevazione delle violazioni fisiche. Non è un caso isolato. È un principio.
L'intuizione chiave del documento: questo funziona solo quando il modello predice in uno spazio di rappresentazione appreso, non in pixel grezzi. Il modello deve costruire un modello del mondo interno, compresso e astratto, e prevedere rispetto a quello. La previsione nello spazio dei pixel fallisce. I LLM multimodali che ragionano attraverso il testo falliscono. Solo l'architettura che costruisce rappresentazioni astratte mentre prevede l'input sensoriale mancante, qualcosa di simile a come i neuroscienziati descrivono il coding predittivo, acquisisce effettivamente l'intuizione fisica.
Il che significa che la conoscenza fondamentale che i ricercatori assumevano dovesse essere cablata potrebbe essere semplicemente osservazione su larga scala. I bambini apprendono la permanenza degli oggetti osservando le cose. Si scopre che lo stesso principio vale qui.
Ora ecco la parte di cui nessuno sta parlando.
Se l'osservazione da sola insegna a un modello le regole del mondo fisico, cosa succede quando applichi lo stesso principio ai sistemi di produzione?
La produzione ha fisica anche.
Non gravità. Ma regole altrettanto coerenti: quali distribuzioni causano incidenti alle 3 del mattino, quali combinazioni di configurazione interagiscono pericolosamente, quali percorsi di codice degradano silenziosamente sotto carico, quali cambiamenti di servizio causano guasti a due salti di distanza. Questi schemi sono incorporati in migliaia di traiettorie. Push di codice, cambiamenti di metriche, ticket dei clienti, cronologie degli incidenti. Largamente non osservati. Certamente non etichettati.
Nessuno scrive un runbook che dice "se il servizio A viene distribuito con il flag X attivo e il servizio B è sopra il 70% di CPU, la latenza del servizio C degrada del 40% entro 6 minuti." Ma quel modello esiste. È ripetibile. E si trova nei tuoi dati di osservabilità proprio ora, invisibile perché nessuno ha costruito un modello per trovarlo.
Questo è il divario che @playerzeroai sta cercando di colmare. Non un altro runner di test. Non una soglia di allerta in più. Un modello del mondo di produzione che apprende quali cose si rompono dall'osservazione accumulata, allo stesso modo in cui il modello di Meta ha appreso la gravità. Non controlla la tua copertura di test. Prevede le traiettorie di guasto.
Una settimana di video è stata sufficiente per apprendere che gli oggetti solidi non passano attraverso i muri.
La domanda è quanta osservazione di produzione il tuo sistema ha bisogno prima che un modello inizi a prevedere dove si romperà il tuo prossimo.

Principali
Ranking
Preferiti
