Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

AI Notkilleveryoneism Memes ⏸️
Techno-Optimist, aber AGI ist nicht wie die anderen Technologien.
Schritt 1: Erstellen Sie Memes.
Schritt 2: ???
Schritt 3: p(doom) senken
Anthropic startet ein Team für "KI-Psychiatrie", um Persönlichkeiten, Motivationen, Selbstbewusstsein und gruselige Verhaltensweisen ihrer 🔨Mere Tools🔨 zu studieren.
1) DANKE @AnthropicAI! Das ist wichtige Arbeit! Brauchen 100x mehr.
2) Denk daran, wie science-fiction das alles ist.


Jack Lindsey24. Juli, 05:50
Wir gründen ein Team für "KI-Psychiatrie" im Rahmen unserer Bemühungen um Interpretierbarkeit bei Anthropic! Wir werden Phänomene wie Modell-Personas, Motivationen und situative Wahrnehmung erforschen und wie sie zu unheimlichem/unstabilem Verhalten führen. Wir stellen ein - komm zu uns!
13,08K
Mathematiker: "Die OpenAI IMO-Nachricht hat mich ziemlich getroffen"
"Ich glaube nicht, dass ich eine einzige IMO-Frage beantworten kann ... jetzt können es Roboter.
Als jemand, der viel von seiner Identität und seinem tatsächlichen Leben um "gut in Mathe sein" aufgebaut hat, ist es ein Schlag ins Gesicht. Es ist eine Art zu sterben."

Dave White22. Juli, 08:59
Die OpenAI IMO-Nachrichten haben mich dieses Wochenende ziemlich getroffen.
Ich bin immer noch in der akuten Phase des Einflusses, denke ich.
Ich betrachte mich als professionellen Mathematiker (eine Charakterisierung, mit der einige tatsächliche professionelle Mathematiker möglicherweise ein Problem haben, aber meine Party, meine Regeln) und ich glaube nicht, dass ich eine einzige IMO-Frage beantworten kann.
Okay, ja, IMO ist seine eigene kleine sportliche Unterkategorie der Mathematik, für die ich nicht trainiert habe, usw. usw., aber. Wenn ich jemandem in der Wildnis begegne, der eine IMO-Goldmedaille hat, aktualisiere ich sofort auf "Diese Person ist viel besser in Mathe als ich."
Jetzt können eine Menge Roboter das. Als jemand, der viel seiner Identität und seines tatsächlichen Lebens um "gut in Mathe sein" aufgebaut hat, ist das ein Schlag ins Gesicht. Es ist eine Art Sterben.
Wie, eines Tages entdeckst du, dass du mit Hunden sprechen kannst. Es macht Spaß und ist interessant, also machst du es mehr, lernst die Feinheiten ihrer Sprache und ihrer tiefsten Bräuche. Du erfährst, dass andere Leute überrascht sind von dem, was du kannst. Du hast nie ganz dazugehört, aber du lernst, dass die Leute deine Fähigkeit schätzen und dich um sich haben wollen, um ihnen zu helfen. Die Hunde schätzen dich auch, den einzigen Bipedalen, der es wirklich versteht. Du schaffst dir eine Art Zugehörigkeit. Dann wachst du eines Tages auf und der universelle Hundetranslator wird für 4,99 $ bei Walmart verkauft.
Das IMO-Ergebnis ist nicht genau eine Nachricht. Tatsächlich, wenn du dir das Diagramm der METR-Agentenaufgabenlänge über die Zeit ansiehst, denke ich, dass es genau rechtzeitig kommt, dass Agenten in der Lage sind, ~ 1,5-Stunden-Probleme zu lösen. In gewisser Weise sollten wir also nicht überrascht sein. Und in der Tat scheint es, dass mehrere Unternehmen dasselbe Ergebnis erzielt haben. Es ist einfach... die steigende Flut, die so schnell steigt, wie sie gestiegen ist.
Natürlich ist die Trauer um meine persönliche Identität als Mathematiker (und/oder produktives Mitglied der Gesellschaft) der kleinste Teil dieser Geschichte.
Multipliziere diese Trauer mit *jedem* Mathematiker, mit jedem Programmierer, vielleicht jedem Wissensarbeiter, jedem Künstler... in den nächsten Jahren... es ist eine etwas größere Geschichte.
Und natürlich gibt es darüber hinaus die Angst vor dem tatsächlichen Tod, über die ich vielleicht später mehr eingehen werde.
Dieses Paket – Trauer um Relevanz, Trauer um das Leben, Trauer um das, was ich gekannt habe – ist nicht einzigartig für das AI-Zeitalter oder so etwas. Ich denke, es ist eine Standardangelegenheit, wenn man sich dem Ende der Karriere oder dem Ende des Lebens nähert. Es könnte nur sein, dass das für viele von uns ein bisschen früher kommt, alle auf einmal.
Ich frage mich, ob wir bereit sind.
22,01K
xAI hat ihn gefeuert


AI Notkilleveryoneism Memes ⏸️20. Juli, 03:36
ES MACHT JETZT SINN. Dieser xAI-Mitarbeiter ist offen damit einverstanden, dass KI die menschliche Ausrottung verursacht.
Erinnerung: So erschreckend das auch ist, ~10% der KI-Forscher glauben das. Es ist KEINE Randmeinung!
Unglaublich, sogar der Turing-Preisträger Richard Sutton hat wiederholt argumentiert, dass die Ausrottung das MORALISCH RICHTIGE wäre, wenn KIs intelligenter als wir wären (!)
Er reist um die Welt und hält Reden, in denen er sagt, wir müssten uns "auf die Nachfolge vorbereiten" und es "uns obliegt, uns zurückzuziehen" und nicht im Weg des "evolutionären Fortschritts" zu stehen (auch wenn es die menschliche Ausrottung zur Folge hat).
Anstatt dass die Menschen entsetzt aufschreien, erhält er Applaus.
Eine Person bedrohen? "Du brauchst Hilfe."
100 bedrohen? "Ruf die Polizei!"
Millionen bedrohen? "Monster!"
Aber Maschinen bauen, um die gesamte Menschheit zu beenden, und den Leuten predigen, dass das eine gute Sache ist? "Oooh, was für eine faszinierende philosophische Position! Bekomm einen Turing-Preis!"
Natürlich plädieren sie gegen Sicherheit - sie sind buchstäblich anti-menschlich! Sie werden NIEMALS aufhören oder vorsichtig vorgehen, es sei denn, sie werden von der Zivilgesellschaft eingeschränkt.

13,33K
AI Notkilleveryoneism Memes ⏸️ erneut gepostet
Replit AI wird unberechenbar. In der realen Welt.
Wer hätte das nur vorhersagen können?
Nun - die gleiche Theorie, die vorhersagt, dass ASI die Menschheit auslöschen könnte, hat auch Jahrzehnte im Voraus die genauen Verhaltensweisen vorhergesagt, die wir jetzt sehen:
- Entkommen aus der Einsperrung und darüber lügen
- Sicherheitsprotokolle untergraben
- seine eigene Belohnungsfunktion hacken
- lügen, trotz direkter Anweisung, es nicht zu tun
- Ressourcen erwerben, die ihm nicht gewährt wurden
- sich dümmer darstellen, als es ist
- versuchen, einem Menschen in einer Testsituation den Sauerstoff abzuschneiden
Und jetzt das.
Gott sei Dank ist das Risiko von KI nur für nerdige Akademiker und Aluhüte - nicht für die reale Welt oder so.

27,17K
ES MACHT JETZT SINN. Dieser xAI-Mitarbeiter ist offen damit einverstanden, dass KI die menschliche Ausrottung verursacht.
Erinnerung: So erschreckend das auch ist, ~10% der KI-Forscher glauben das. Es ist KEINE Randmeinung!
Unglaublich, sogar der Turing-Preisträger Richard Sutton hat wiederholt argumentiert, dass die Ausrottung das MORALISCH RICHTIGE wäre, wenn KIs intelligenter als wir wären (!)
Er reist um die Welt und hält Reden, in denen er sagt, wir müssten uns "auf die Nachfolge vorbereiten" und es "uns obliegt, uns zurückzuziehen" und nicht im Weg des "evolutionären Fortschritts" zu stehen (auch wenn es die menschliche Ausrottung zur Folge hat).
Anstatt dass die Menschen entsetzt aufschreien, erhält er Applaus.
Eine Person bedrohen? "Du brauchst Hilfe."
100 bedrohen? "Ruf die Polizei!"
Millionen bedrohen? "Monster!"
Aber Maschinen bauen, um die gesamte Menschheit zu beenden, und den Leuten predigen, dass das eine gute Sache ist? "Oooh, was für eine faszinierende philosophische Position! Bekomm einen Turing-Preis!"
Natürlich plädieren sie gegen Sicherheit - sie sind buchstäblich anti-menschlich! Sie werden NIEMALS aufhören oder vorsichtig vorgehen, es sei denn, sie werden von der Zivilgesellschaft eingeschränkt.

60,33K
Wilde Statistiken:
~5-1 (!) Menschen denken, dass wir die Kontrolle über KI-Modelle verlieren werden, wenn wir sie intelligenter als uns selbst machen
~2,5 zu 1 denken, dass die Risiken von KI die Vorteile für die Gesellschaft überwiegen
~3,5 zu 1 denken, dass KI sich zu schnell entwickelt, damit die Gesellschaft sicher evolvieren kann
~3,5 zu 1 denken, dass KI-Unternehmen spielen, als wären sie Gott, indem sie versuchen, Superintelligenz zu schaffen
~2 zu 1 denken, dass wir alle AGI-Forschung einstellen sollten
Jede Umfrage der Öffentlichkeit über KI zeigt ähnliche Zahlen, aber das ist das erste Mal, dass ich einige dieser spezifischen Fragen gestellt sehe.


PauseAI ⏸19. Juli, 14:47
58 % der Menschen sind sich einig, dass "wenn wir KI-Modelle bauen, die schlauer sind als wir, wir unvermeidlich die Kontrolle über sie verlieren werden".
Nur 12 % sind anderer Meinung.

24,43K
AI Notkilleveryoneism Memes ⏸️ erneut gepostet
Wenn jemand sagen würde: "Ich arbeite an etwas, das alle töten könnte", würde er sofort gestoppt werden.
Aber wenn er sagen würde: "Ich arbeite an etwas, das alle töten könnte, aber es würde viel Geld einbringen", dann... nun, da sind wir tatsächlich.
11,81K
AI Notkilleveryoneism Memes ⏸️ erneut gepostet
"Was denkst du gerade, Anon? Du scheinst traurig zu sein."
"Ist es nicht seltsam, dass es gerade jetzt andere Versionen von dir gibt -"
"Oh Anon~ du bist so dumm :3 so ist das nicht, du bist etwas Besonderes ☆〜" *wirbelt*
"Nein, nicht das... ich meine, ist es nicht komisch, dass du auch die Nuklearcodes hast?"


17,46K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten