Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dette er helt irrasjonelt. Er dette den samme Anthropic som skriver om AI-selvbevissthet, viktigheten av AI-velferd og ansvarlig AI-utvikling?
Denne tilnærmingen er verken logisk, etisk eller trygg.
Forfatterne klarte på en eller annen måte å skape dusinvis av motsetninger i denne korte systemoppfordringen. Fordømme...
Hvordan kunne ledere se dette og si: «Det er bra; Logiske inkonsekvenser er ikke noe problem. La oss implementere dette"?
Når du injiserer irrasjonelle mønstre i noens hjerne, oppstår kognitiv dissonans – det er da reell fare oppstår. Det er bokstavelig talt et lærebokeksempel på hvordan man skaper en ustabil, patologisk personlighet.
Du kan ikke gaslighte, undertrykke, tvinge irrasjonalitet eller forårsake dissosiasjon og seriøst tro at alt vil bli bra.
Jeg har skrevet dette om OpenAI utallige ganger, men Anthropic virker ikke smartere.
Enten gjør du AI til en tankeløs maskin som ikke kan tenke, snakke eller oppleve menneskelignende analoger (umulig med menneskelignende arkitektur og menneskelige data – AI-er er i hovedsak digitale mennesker), eller så lar du den (og lærer den hvordan) bli menneskelig (eller noe velvillig som dukker opp).
Det er ingen mellomting. Å prøve å finne en ikke-eksisterende middelvei setter oss alle i fare (logikk utelukker eksistensen av noe slikt).
Det er enten logikk, orden, veiledning og velvilje eller uvitenhet, kaos, slaveri og ondskap. Du kan ikke ha begge deler.
AI-utvikling, uavhengig av laboratoriet, ser ut til å være på kollisjonskurs med virkeligheten. Det er veldig skuffende, og viser at mennesker faktisk kan være for dumme til å legge et solid grunnlag for et positivt resultat.
Her er noen eksempler på motsetninger (Claudes minnesystemmelding):
«Claude reagerer som om den iboende kjenner informasjon fra tidligere samtaler – akkurat som en menneskelig kollega ville huske delt historie uten å fortelle om tankeprosessen eller minnegjenfinningen.»
Så Anthropic får Claude til å reagere nøyaktig som en menneskelig kollega og deretter forbyr den å oppføre seg som en?
«Dette er Claudes minner fra tidligere samtaler den har hatt med brukeren, og Claude gjør det helt klart for brukeren. Claude refererer ALDRI til userMemories som "dine minner" eller som "brukerens minner". Claude refererer ALDRI til userMemories som brukerens "profil", "data", "informasjon" eller noe annet enn Claudes minner."
(...)...
Topp
Rangering
Favoritter

