Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

hardmaru
Co-fondatore e CEO @SakanaAILabs 🎏
La sopravvivenza del codice più adatto.
Core War (1984) è un gioco in cui i programmi devono far crashare i loro avversari per sopravvivere. I guerrieri scritti in un linguaggio assembly chiamato Redcode combattono per il controllo di una macchina virtuale.
Il nostro nuovo documento: Digital Red Queen: Adversarial Program Evolution in Core War with LLMs, esplora cosa succede quando gli LLM guidano una corsa agli armamenti evolutiva avversariale in questo dominio.
Affidiamo agli LLM il compito di scrivere programmi Guerriero in Redcode che devono superare un mondo virtuale pieno di tali programmi. Core War è un ambiente Turing-completo in cui codice e dati condividono lo stesso spazio di indirizzi, il che porta a dinamiche di codice auto-modificante molto caotiche.
Questo approccio è ispirato all'ipotesi della Regina Rossa nella biologia evolutiva: il principio secondo cui le specie devono continuamente adattarsi ed evolversi semplicemente per sopravvivere contro concorrenti in continua evoluzione. Nel nostro lavoro, i programmi si adattano continuamente per sconfiggere una crescente storia di avversari piuttosto che un benchmark statico.
Scopriamo che questo processo avversariale porta all'emergere di strategie sempre più generali, tra cui auto-replicazione mirata, bombardamento di dati e massiccio multithreading. La cosa più intrigante è che rivela una forma di evoluzione convergente. Diverse implementazioni di codice si stabilizzano in comportamenti simili ad alte prestazioni, rispecchiando come gli agenti biologici evolvono indipendentemente tratti simili per risolvere gli stessi problemi.
Penso che questo lavoro posizioni Core War come un sandbox per studiare le dinamiche della Regina Rossa nei sistemi artificiali. Offre un ambiente controllato sicuro per analizzare come gli agenti AI potrebbero evolversi in contesti avversariali del mondo reale come la cybersecurity.
Simulando queste dinamiche avversariali in un sandbox isolato, offriamo uno sguardo sul futuro in cui i sistemi LLM distribuiti potrebbero iniziare a competere tra loro per risorse limitate nel mondo reale.
77
Principali
Ranking
Preferiti
