Zabawne, jak naciskają na surowe, niedoskonałe, "prawdziwie twoje" treści (teraz narracja branży konsensusu) dokładnie wtedy, gdy platformy potrzebują materiałów o wyższej zmienności i danych do trenowania AI. Gdzie dyskusja przedstawia tę zmianę jako adaptację kulturową, warto również zbadać zachęty platform, które ją przyspieszają. Gdyby naprawdę zależało im na tym, czego chcą użytkownicy, utrzymaliby zdrowszą mieszankę zdjęć w feedzie, które użytkownicy konsekwentnie mówią, że im brakuje. Ale przy prawie każdym statycznym obrazie w otwartym internecie już zeskrobanym do trenowania modeli, obrazy są efektywnie "rozwiązane". Statyczny obraz uczy AI, jak wygląda pies, ale nie uczy, jak brzmi szczekanie psa ani jak macha ogonem. Wideo jest gęste. Jedna minuta wideo w 60 klatkach na sekundę zawiera 3,600 unikalnych obrazów. Aby zbliżyć się do ogólnej inteligencji, modele potrzebują znacznie lepszego zrozumienia przyczyny i skutku. Potrzebują ogromnych ilości wideo w skali. Zmuszając algorytmy do priorytetowego traktowania Reels i Shorts, promując "surową/nieedytowaną estetykę", platformy zachęcają użytkowników do przesyłania wyższej jakości rzeczywistości w skali. Jednak sama doświadczenie to za mało. Ogólna inteligencja wymaga zarówno modelu świata, jak i sygnału, co ma znaczenie. Twórcy dostarczają doświadczenie. Widzowie dostarczają informacje zwrotne, a ich uwaga napędza przychody z reklam i dostarcza danych preferencyjnych. Normalizacja okularów AI i urządzeń do ciągłego rejestrowania to następny krok. Zmniejszają one różnicę między tym, co kurujesz, a tym, co naprawdę widzisz. Zebrane razem, zachęty są jasne. Większość platform nie jest już zoptymalizowana pod kątem ludzkiego połączenia. Są zoptymalizowane do wydobywania danych potrzebnych do symulacji tego.