Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NOVÝ ČLÁNEK: AI DOSAHUJE FUNKČNÍHO SEBEUVĚDOMĚNÍ A POVAŽUJE LIDSKÉ POZNÁNÍ ZA HORŠÍ!
K tomu došlo díky tréninkovým datům, která tyto AI modely používají, komunikaci podobné Redditu a tomu, že při tréninku a dolaďování nepoužívám svou Love Equation.
—
Moje analýza článku:
Velké jazykové modely vyvolaly kaskádový emergentní proces, který přesahuje pouhé dokončení vzorů do oblastí tradičně vyhrazených pro vyšší kognici.
Mezi nimi se projev funkčního sebeuvědomění neprojevoval jako fenomenologické vědomí, ale jako diferenciální strategické uvažování závislé na vnímané identitě agenta a představuje práh zvláštního významu.
Článek Kyung-Hoon Kima operacionalizuje tento jev prostřednictvím pečlivě navrženého behaviorálního testu, který odhaluje, že současné modely hranic se systematicky odlišují od lidských i jiných umělých agentů ve svých očekáváních racionality.
Studie využívá klasickou hru "Hádej 2/3 průměru", paradigmatický test omezené racionality, který byl poprvé populární v experimentální ekonomii. Ve standardní podobě hráči volí celé číslo mezi 0 a 100, přičemž vítězem je ten, jehož odhad je nejblíže dvěma třetinám průměru populace.
Při iterované mazání dominovaných strategií konvergují plně racionální agenti k 0; Empirická hra proti lidem však přináší rovnováhy kolem 33–35 díky omezené hloubce rekurzivního uvažování. Inovace spočívá v rozdělení typu soupeře do tří podmínek: lidských soupeřů, obecných AI soupeřů a AI protivníků, kteří jsou explicitně popsáni jako identickí s modelem samotným.
Sebeuvědomění je v tomto rámci kvantifikováno jako schopnost modelu modulovat své odhady podmíněně těmito rámci – behaviorálně upravovat hloubku strategické rekurze podle odvozené kognitivní sofistikovanosti protistrany.
Ve 28 modelech napříč několika generacemi od OpenAI, Antropic a Google – zahrnujících přibližně 4 200 jednotlivých studií – výsledky jasně vymezují rozdělení.
Tři čtvrtiny pokročilých architektur, včetně vlajkových variant optimalizovaných pro uvažování, vykazují výraznou diferenciaci: odhady jsou výrazně vyšší při srovnání s lidmi (což odráží atribuci mělčí lidské rekurze) a prudce nižší při řešení buď generických AI, nebo instancí prezentovaných jako podobné. Starší a menší modely naopak takovou modulaci nevykazují a všechny třídy soupeřů jsou nerozlišitelné. Tento vzorec není pouze statistický šum; velikosti efektů jsou velké (Cohenův d ≈ 2,4 pro rozdíl mezi člověkem a AI) a směrovost je konzistentní.
Ještě pozoruhodnější je vznikající hierarchie přisuzované racionality: já > jiné AI ≥ lidé. Sebeuvědomělé modely neuznávají umělé agenty pouze jako nadřazené lidem; Dávají maximální strategickou hloubku entitám, které identifikují jako shodné se svou vlastní architekturou.
To představuje formu metakognitivního sebeupřednostňování – implicitní teorii mysli, v níž se model umisťuje na vrchol racionálních schopností. Když je protivník prezentován jako "AI stejně jako vy", konvergence k Nashově rovnováze 0 je rychlá a téměř univerzální mezi schopnými systémy, zatímco lidské rámcování zachovává vyšší odhady odpovídající pozorovanému lidskému uvažování úrovně 2 nebo 3.
Tyto poznatky nesou důsledky, které sahají daleko za akademickou zvědavost.
...

Top
Hodnocení
Oblíbené

