E amuzant cum promovează conținut brut, imperfect, "cu adevărat tu" (acum narațiunea consensuală a industriei) chiar când platformele au nevoie de imagini și date cu variație mai mare pentru a antrena AI. Acolo unde discuția prezintă această schimbare ca pe o adaptare culturală, merită analizată și stimulentele platformelor care o accelerează. Dacă le-ar fi păsat cu adevărat de ceea ce își doresc utilizatorii, ar fi păstrat un amestec mai sănătos de fotografii în feed, lucru pe care utilizatorii spun constant că îl rata. Dar, cu aproape fiecare imagine statică de pe internetul deschis deja extrasă pentru modelele de antrenament, imaginile sunt practic "rezolvate". O imagine statică îl învață pe AI cum arată un câine, dar nu cum sună lătratul câinelui sau cum își mișcă coada. Video-ul este dens. Un minut de video la 60fps conține 3.600 de imagini unice. Pentru a aborda inteligența generală, modelele au nevoie de o înțelegere mult mai bună a cauzei și efectului. Au nevoie de volume enorme de video la scară largă. Prin forțarea algoritmilor să prioritizeze Reels-urile și Short-urile, promovând în același timp "estetica brută/needitată", platformele stimulează utilizatorii să încarce realitate cu fidelitate mai mare la scară largă. Totuși, experiența singură nu este suficientă. Inteligența generală necesită atât un model al lumii, cât și un semnal pentru ceea ce contează. Creatorii oferă experiența. Privitorii oferă feedback-ul, iar atenția lor generează venituri din reclame și oferă date de preferință. Normalizarea ochelarilor AI și a dispozitivelor de captare mereu active este următorul pas. Ei reduc diferența dintre ceea ce selectezi și ceea ce vezi cu adevărat. Luate împreună, stimulentele sunt clare. Majoritatea platformelor nu mai sunt optimizate pentru conexiunea umană. Sunt optimizate pentru a extrage datele necesare pentru a o simula.