Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Steven Pinker
Om de știință cognitiv la Harvard.
Analiză profundă și interesantă a diferențelor calitative dintre inteligența naturală și (un tip de) inteligență artificială (LLM), în ciuda abilităților remarcabile ale acestora din urmă.

Valerio Capraro23 dec., 21:29
Preprintul major tocmai a apărut!
Comparăm modul în care oamenii și LLM-urile formează judecăți pe șapte etape epistemologice.
Evidențiem șapte linii de fractură, puncte în care oamenii și LLM-urile divergă fundamental:
Defectul de ancorare: Oamenii ancorează judecata în experiența perceptivă, corporală și socială, în timp ce LLM-urile pornesc doar din text, reconstruind sensul indirect din simboluri.
Defectul de parsing: Oamenii analizează situațiile prin procese perceptuale și conceptuale integrate; LLM-urile efectuează tokenizare mecanică care oferă o reprezentare structural convenabilă, dar semantic subțire.
Defectul Experienței: Oamenii se bazează pe memoria episodică, fizica și psihologia intuitive, precum și conceptele învățate; LLM-urile se bazează exclusiv pe asocieri statistice codificate în embedding-uri.
Defectul motivației: Judecata umană este ghidată de emoții, scopuri, valori și motivații modelate evolutiv; LLM-urile nu au preferințe intrinseci, scopuri sau semnificație afectivă.
Defectul cauzalității: Oamenii raționează folosind modele cauzale, contrafactuale și evaluare principială; LLM-urile integrează contextul textual fără a construi explicații cauzale, bazându-se în schimb pe corelații superficiale.
Defectul metacognitiv: Oamenii monitorizează incertitudinea, detectează erori și pot suspenda judecata; LLM-urile nu au metacogniție și trebuie să producă întotdeauna un rezultat, făcând halucinațiile structural inevitabile.
Defectul de valoare: Judecățile umane reflectă identitatea, moralitatea și miza din lumea reală; "Judecățile" LLM sunt predicții probabilistice pentru următorul token, fără evaluare sau responsabilizare intrinsecă.
În ciuda acestor linii de fractură, oamenii cred sistematic excesiv în rezultatele LLM-urilor, deoarece limbajul fluent și încrezător produce un biasing de credibilitate.
Susținem că aceasta creează o afecțiune structurală, Epistemia:
plauzibilitatea lingvistică înlocuiește evaluarea epistemică, producând sentimentul de a cunoaște fără a cunoaște efectiv.
Pentru a aborda epistemia, propunem trei strategii complementare: evaluarea epistemică, guvernanța epistemică și alfabetizarea epistemică.
Un articol întreg în primul răspuns.
Îmbinare cu @Walter4C și @matjazperc

74
Am vorbit cu președintele HxA (@HdxAcademy), John Tomasi, pentru @HAFFS_Harvard despre libertatea academică, lipsa de cunoștințe despre aceasta și studenții la masterat:
"Ei sunt principalul punct de contact pe care mulți dintre studenții noștri îl au. Din păcate, își văd studenții doctoranzi care predau mai des decât mulți profesori. Și sunt studenții absolvenți, la nivel național, care cred că au fost responsabili — sau pur și simplu neștiutori — în privința libertății academice: lucruri precum suprimarea anumitor opinii sau penalizarea lucrărilor studenților; desființarea secțiunilor pentru ca studenții să poată participa la proteste; permițând elevilor să refuze cooperarea cu studenții israelieni în proiecte comune; Lucruri în care am impresia că pur și simplu nu le-a trecut niciodată prin minte că asta ar putea fi o problemă, că educația postuniversitară este altceva decât promovarea propriilor agende politice. Aducerea studenților doctoranzi în discuțiile despre libertatea academică este un proiect pe termen lung pe care vom încerca să-l promovăm."
112
Limită superioară
Clasament
Favorite
