Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Mange separate ting utspilte seg over tid, slik at algoritmer ble årsaksmessige i stedet for konsekvensfulle
Mennesker optimaliserer nå for algoritmen, som igjen går i en tilbakemeldingssløyfe på det som blir lagt inn, noe som har bygget seg opp til en negativ tilbakekoblingssløyfe utover all reparasjon
De tingene som lå til grunn for [grunnen til at algoritmer hadde] verdi i sine slutninger, har helt avtatt
Et mikrokosmos (ikke-omfattende) eksempel: Du pleide å følge 100 personer du faktisk kjenner. De fulgte alle de 100 personene de faktisk kjenner. Gjensidighet på andre grad var nødvendigvis relevant for deg. Noe som betydde at hvem som skulle følge algoritmene rekurserte på høyt inferensverdi-input for en dydig syklus av sin påfølgende graf
Dette gjelder ikke lenger for noen opptjening, eller der den i små grad også er irreversibelt avtagende (og allerede forbi vippepunktet for dårlig vekting)
Dette ligner omtrent på Jeff Bezos-samtalen om optimalisering av metrikker (opprinnelig finnes det en *grunn*, et første prinsippsett, du faktisk optimaliserer for, og metrikkene er en proxy for det. Til slutt blir metrikkene frakoblet, men er fortsatt optimalisert for)
Algoritmer, for et veldig kort øyeblikk, var tilbakemeldingssløyfer på (det som nå ser ut til å være tilfeldige) høyt inferensverdi-input som forårsaket en dydig syklus av egne handlingsutfall (og indeks der, som så er sammenvevd tilbakemeldingssløyfe)
Data er bare så bra som det som faktisk kan utledes, og overmodellering og overindeksering basert på oppmerksomhet i stedet for tilkoblingsvektorer har gjort dem onde sirkel borte fra deres egen inndataverdi
Dette vil (har allerede begynt å) skje for AI, som også bare er en tilbakemeldingssløyfe på input. Bortsett fra at dette skjer mye raskere
72
Topp
Rangering
Favoritter
