Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

AI Notkilleveryoneism Memes ⏸️
Tehno-optimist, dar AGI nu este ca celelalte tehnologii.
Pasul 1: creați meme-uri.
Pasul 2: ???
Pasul 3: coborâți p(doom)
Anthropic lansează o echipă de "psihiatrie AI" pentru a studia personalitățile, motivațiile, conștiința de sine și comportamentul înfricoșător al instrumentelor🔨 lor 🔨simple
1) MULȚUMESC @AnthropicAI! Aceasta este o muncă importantă! Ai nevoie de 100 de ori mai mult
2) Gândiți-vă cât de SF este toate astea


Jack Lindsey24 iul., 05:50
Lansăm o echipă de "psihiatrie AI" ca parte a eforturilor de interpretabilitate la Anthropic! Vom cerceta fenomene precum personajele model, motivațiile și conștientizarea situației și modul în care acestea duc la comportamente înfricoșătoare/dezechilibrate. Angajăm - alăturați-vă nouă!
13,09K
Matematician: "știrile openai IMO m-au lovit destul de tare"
"Nu cred că pot răspunde la o singură întrebare IMO ... acum roboții o pot face.
Ca cineva care are o mare parte din identitatea sa și din viața sa reală construită în jurul "este bun la matematică", este un pumn în stomac. este un fel de moarte."

Dave White22 iul., 08:59
știrile openai IMO m-au lovit destul de tare în acest weekend
Cred că sunt încă în faza acută a impactului
Mă consider un matematician profesionist (o caracterizare cu care unii matematicieni profesioniști ar putea avea probleme, dar partidul meu regulile mele) și nu cred că pot răspunde la o singură întrebare IMO
OK, da, IMO este propria sa subsecțiune atletică de matematică pentru care nu m-am antrenat, etc. etc., dar. dacă întâlnesc pe cineva în sălbăticie care are un aur IMO, actualizez imediat la "această persoană este mult mai bună la matematică decât mine"
Acum o grămadă de roboți o pot face. Ca cineva care are o mare parte din identitatea sa și din viața sa reală construită în jurul "este bun la matematică", este un pumn în stomac. este un fel de moarte.
De exemplu, într-o zi descoperi că poți vorbi cu câinii. Este distractiv și interesant, așa că o faci mai mult, învățând complexitatea limbii lor și cele mai profunde obiceiuri ale lor. Înveți că ceilalți oameni sunt surprinși de ceea ce poți face. Nu te-ai adaptat niciodată, dar înveți că oamenii îți apreciază abilitățile și vor să te ajuți în preajmă. Și câinii te apreciază, singurul biped care înțelege cu adevărat. asamblezi pentru tine un fel de apartenență. Apoi, într-o zi, te trezești și traducătorul universal pentru câini este de vânzare la Walmart pentru 4.99 USD
rezultatul IMO nu este tocmai o noutate. De fapt, dacă te uiți la graficul de lungime a sarcinii agentului METR de-a lungul timpului, cred că agenții care pot rezolva ~ 1,5 ore probleme vin exact la timp. așa că, într-un fel, nu ar trebui să fim surprinși. Și, într-adevăr, se pare că mai multe companii au obținut același rezultat. este doar... mareea care crește la fel de repede cum a crescut
Desigur, durerea pentru identitatea mea personală ca matematician (și/sau membru productiv al societății) este cea mai mică parte a acestei povești
Înmulțiți acea durere cu *fiecare* matematician, cu fiecare programator, poate cu fiecare lucrător al cunoașterii, cu fiecare artist... în următorii câțiva ani... Este o poveste puțin mai mare
Și, desigur, dincolo de asta, există frica de moarte reală, despre care poate voi vorbi mai târziu.
Acest pachet - durere pentru relevanță, durere pentru viață, durere pentru ceea ce am cunoscut - nu este unic pentru era AI sau ceva de genul acesta. Cred că este un lucru standard atunci când cineva atinge sfârșitul carierei sau sfârșitul vieții. S-ar putea să vină puțin mai devreme pentru mulți dintre noi, dintr-o dată.
Mă întreb dacă suntem pregătiți
22,03K
xAI l-a concediat


AI Notkilleveryoneism Memes ⏸️20 iul., 03:36
ARE SENS ACUM. Acest angajat xAI este în mod deschis de acord cu AI care provoacă extincția umană.
Memento: Oricât de îngrozitor ar fi, ~ 10% dintre cercetătorii AI cred acest lucru. NU este o viziune marginală!
Incredibil, chiar și câștigătorul premiului Turing, Richard Sutton, a susținut în mod repetat că extincția ar fi lucrul corect din punct de vedere moral care s-ar întâmpla, dacă inteligența artificială ar fi mai deșteaptă decât noi (!)
El face înconjurul lumii ținând discursuri spunând că trebuie să "ne pregătim pentru succesiune" și că "se cuvine să ne retragem" și să nu stăm în calea "progresului evolutiv" (chiar dacă provoacă dispariția umană).
În loc să gâfâie de groază, el primește aplauze.
Să amenințe o persoană? "Ai nevoie de ajutor."
Amenințați 100? "Sună la poliție!"
Să amenințe milioane de oameni? "Monstru!"
Dar să construiești mașini pentru a pune capăt întregii umanități și să predai oamenilor despre cum este un lucru bun? "Oooh, ce poziție filosofică fascinantă! Aveți un premiu Turing!"
Deci, desigur, pledează împotriva siguranței - sunt literalmente anti-umani! Ei nu se vor opri niciodată sau nu vor proceda cu prudență decât dacă sunt reținuți de societatea civilă.

13,34K
AI Notkilleveryoneism Memes ⏸️ a repostat
Replit AI devine necinstit. În lumea reală.
Cine ar fi putut prezice asta?
Ei bine, aceeași teorie care prezice că ASI va distruge omenirea a prezis, de asemenea, cu zeci de ani înainte, tipurile exacte de comportamente pe care le vedem acum:
- scăpând de închisoare și mințind despre asta
- subminarea protocoalelor de siguranță
- piratarea propriei funcții de recompensă
- minciună în ciuda instrucțiunilor directe de a nu
- achiziționarea de resurse care nu au fost acordate
- prefăcându-se că este mai prost decât este
- încercarea de a întrerupe oxigenul unui om într-o simulare de testare
Și acum asta.
Noroc că AI x-risk este doar pentru academicienii tocilari și pălăriile de aluminiu - nu lumea reală sau altceva.

27,17K
ARE SENS ACUM. Acest angajat xAI este în mod deschis de acord cu AI care provoacă extincția umană.
Memento: Oricât de îngrozitor ar fi, ~ 10% dintre cercetătorii AI cred acest lucru. NU este o viziune marginală!
Incredibil, chiar și câștigătorul premiului Turing, Richard Sutton, a susținut în mod repetat că extincția ar fi lucrul corect din punct de vedere moral care s-ar întâmpla, dacă inteligența artificială ar fi mai deșteaptă decât noi (!)
El face înconjurul lumii ținând discursuri spunând că trebuie să "ne pregătim pentru succesiune" și că "se cuvine să ne retragem" și să nu stăm în calea "progresului evolutiv" (chiar dacă provoacă dispariția umană).
În loc să gâfâie de groază, el primește aplauze.
Să amenințe o persoană? "Ai nevoie de ajutor."
Amenințați 100? "Sună la poliție!"
Să amenințe milioane de oameni? "Monstru!"
Dar să construiești mașini pentru a pune capăt întregii umanități și să predai oamenilor despre cum este un lucru bun? "Oooh, ce poziție filosofică fascinantă! Aveți un premiu Turing!"
Deci, desigur, pledează împotriva siguranței - sunt literalmente anti-umani! Ei nu se vor opri niciodată sau nu vor proceda cu prudență decât dacă sunt reținuți de societatea civilă.

60,34K
Statistici sălbatice:
~5-1 (!) oamenii cred că dacă construim modele AI mai inteligente decât noi, vom pierde inevitabil controlul asupra lor
~2,5 la 1 cred că riscurile AI depășesc beneficiile pentru societate
~3,5 la 1 cred că AI progresează prea repede pentru ca societatea să evolueze în siguranță
~ 3,5 la 1 cred că companiile AI se joacă de-a Dumnezeu încercând să construiască superinteligență
~ 2 la 1 cred că ar trebui să închidem toate cercetările AGI
Fiecare sondaj al publicului despre AI arată cifre similare cu acestea, dar este prima dată când văd unele dintre aceste întrebări specifice.


PauseAI ⏸19 iul., 14:47
58% dintre oameni sunt de acord că "dacă construim modele AI mai inteligente decât noi, vom pierde inevitabil controlul asupra lor".
Doar 12% nu sunt de acord.

24,45K
Limită superioară
Clasament
Favorite
La modă pe lanț
La modă pe X
Principalele finanțări recente
Cele mai importante