Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ho avuto la possibilità di dare una prima lettura a questo documento. Questo documento è davvero ottimo.
Non credo di aver visto altri documenti di economia post-AGI che definiscano chiaramente le conseguenze dell'aumento dell'automazione e della continua rilevanza dell'intelligenza umana come il divario tra il costo di automazione e il costo di verifica.
Ci sono due cose che mi hanno colpito.
La prima è questo ciclo:
> quando gli esperti supervisionano gli agenti, producono correzioni, etichette e conoscenze "come fare". Questo viene catturato come dati di addestramento / strumenti che riducono il costo di automazione.
> man mano che l'automazione diventa più economica, le aziende sostituiscono gli esseri umani con agenti. Questo riduce la necessità di umani, specialmente per i ruoli di livello base.
> con meno esperienza accumulata, la società ha meno verificatori capaci e la verifica diventa più costosa.
> ora si ha l'aumento del divario tra il costo di automazione e il costo di verifica, il che significa che gli agenti possono operare in più domini di quanto gli umani possano auditare in modo affidabile (zone cieche).
> in quelle zone cieche, gli umani non possono fornire feedback correttivi precisi. Gli agenti continuano a ottimizzare proxy misurabili e il comportamento può allontanarsi dalla vera intenzione umana.
La seconda cosa che mi ha colpito è il concetto di "responsabilità come servizio". Fondamentalmente si dice che il dispiegamento di qualsiasi agente da parte di un fornitore comporta una responsabilità allegata che, se l'agente causa danni / perdite / problemi legali in modi definiti, il fornitore paga (fino a un limite). Quindi il cliente sta acquistando un risultato indennizzato, non solo software. Questo costringe fondamentalmente le aziende a internalizzare il rischio derivante dagli agenti che non sono allineati con l'utente. Mi piace molto questo concetto di responsabilità come servizio perché l'intera tesi della nostra piattaforma @eigencloud si basava su slashing e assicurazione. Qualsiasi servizio dispiegato su @eigencloud è destinato a essere staked e se il servizio danneggia l'utente, lo stake dietro il servizio viene ridotto e compensa l'utente in base all'acquisto pre-acquisto dell'utente.
Consiglio vivamente a tutti di leggere questo documento!
Principali
Ranking
Preferiti
