wiele oddzielnych rzeczy rozgrywało się w czasie, aż algorytmy zaczęły działać w sposób przyczynowy, a nie skutkowy ludzie teraz optymalizują pod kątem algorytmu, który z kolei tworzy pętlę sprzężenia zwrotnego na podstawie tego, co jest do niego wprowadzane, co skumulowało się do tego stopnia, że stało się negatywną pętlą sprzężenia zwrotnego
rzeczy, które stanowiły podstawę [powodu, dla którego algorytmy miały] wartość w swoich wnioskach, całkowicie zniknęły przykład mikroświata (nieobejmujący): kiedyś śledziłeś 100 osób, które naprawdę znasz. wszyscy oni śledzili 100 osób, które naprawdę znają. wzajemność na drugim stopniu była koniecznie istotna dla ciebie. co oznaczało, że algorytmy dotyczące tego, kogo śledzić, rekurrowały na podstawie wartościowych danych wejściowych dla cnotliwego cyklu ich wynikowego grafu to już nie jest prawdą w przypadku jakiejkolwiek akumulacji, a tam, gdzie to ma miejsce w małych sposób, również nieodwracalnie maleje (i już przekroczyło punkt krytyczny złego ważenia) co jest w przybliżeniu podobne do rozmowy jeffa bezosa na temat optymalizacji metryk (pierwotnie istnieje *powód*, zestaw pierwszych zasad, dla którego rzeczywiście optymalizujesz, a metryki są tego pośrednikiem. ostatecznie metryki stają się odłączone, ale wciąż są optymalizowane)
algorytmy, przez bardzo krótki moment, były pętlami sprzężenia zwrotnego na (co teraz wydaje się przypadkowymi) wejściami o wysokiej wartości inferencyjnej, powodującymi błogosławiony cykl ich własnych wyników działania (i indeks w tym, który następnie jest splecioną pętlą sprzężenia zwrotnego) dane są tylko tak dobre, jak to, co można faktycznie wywnioskować, a nadmierne modelowanie i nadmierne indeksowanie na uwadze zamiast wektorach połączeń zmniejszyło je do vicious cycles, oddalając je od ich własnej wartości wejściowej
to się wydarzy (już się zaczęło) w przypadku AI, które również jest po prostu pętlą sprzężenia zwrotnego na podstawie danych wejściowych. z wyjątkiem tego, że to wydarzy się znacznie szybciej
69