Mam mieszane uczucia co do terminów "AGI" i "ASI" w kontekście tego, w jakim kierunku zmierza ta technologia. Z jednej strony, AGI odegrało kluczową rolę w motywowaniu utalentowanych ludzi, którzy obsesyjnie zajmowali się tym problemem (@demishassabis, @ShaneLegg, @ilyasut, wielu innych) i umożliwiło przepływ kapitału, który sprawił, że wiele naszych osiągnięć było możliwych. Z drugiej strony, "AGI" lub "ASI" czy jakakolwiek ich wariacja obecnie aktywnie szkodzi dyskursowi na temat tego, jak najbardziej interesująca technologia naszego życia jest budowana i wykorzystywana. a) to nie jest dokładny opis tego, w jakim kierunku zmierzamy, przynajmniej w sposób, w jaki większość ludzi interpretuje ten termin. Spójrz na ostatnie rozmowy z @karpathy i @dwarkesh_sp, a od razu zobaczysz, jak daleko jesteśmy od czegokolwiek przypominającego prawdziwą inteligencję ludzką. Brak dowodów na start, terminy wciąż się wydłużają. Budujemy bardzo użyteczną technologię, która może zmienić sposób działania firm lub sposób budowania technologii, ale nie ma nic wspólnego z "inteligencją ogólną". b) stało się to tak obciążone, że prawie nikt nie definiuje tego w ten sam sposób ani nie zgadza się co do terminów (czy już to osiągnęliśmy, czy jesteśmy 30 lat od tego). Dlatego każdy post na blogu dotyczący AGI musi stworzyć swoją własną lokalną definicję, aby móc kontynuować. W większości zgadzam się z poglądem @random_walkera na to, dlaczego "inteligencja" jest używana w prawie niespójny sposób. c) co najważniejsze, wywołuje to strach — związany z historycznym użyciem w sci-fi i filozofii (pomyśl o 2001, Her, cokolwiek wywołującym osobliwość), co nie ma nic wspólnego z drzewem technologicznym, na którym faktycznie jesteśmy. Sprawia, że każda dyskusja o AI jest niezwykle łatwa do antropomorfizacji i zbacza w stronę hipotez. Możemy potrzebować innego terminu dla tego, co próbujemy zbudować na końcu tego wszystkiego i co to oznacza dla biznesu i społeczeństwa.