Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

AI Notkilleveryoneism Memes ⏸️
Techno-optimiste, mais l’IAG n’est pas comme les autres technologies.
Étape 1 : créez des mèmes.
Étape 2 : ???
Étape 3 : abaisser p(doom)
Anthropic lance une équipe de "psychiatrie IA" pour étudier les personnalités, les motivations, la conscience de soi et le comportement étrange de leurs 🔨Mere Tools🔨
1) MERCI @AnthropicAI ! C'est un travail important ! Il en faut 100 fois plus
2) Pensez à tout le côté science-fiction de tout cela


Jack Lindsey24 juil., 05:50
Nous lançons une équipe de "psychiatrie IA" dans le cadre de nos efforts d'interprétabilité chez Anthropic ! Nous allons étudier des phénomènes tels que les personas des modèles, les motivations et la conscience situationnelle, et comment ils conduisent à des comportements étranges/déséquilibrés. Nous recrutons - rejoignez-nous !
13,09K
Mathématicien : "les nouvelles de l'IMO d'openai m'ont vraiment frappé."
"Je ne pense pas pouvoir répondre à une seule question de l'IMO... maintenant les robots peuvent le faire.
En tant que personne qui a beaucoup de son identité et de sa vie réelle construite autour de "être bon en maths", c'est un coup au cœur. C'est une sorte de mort."

Dave White22 juil., 08:59
les nouvelles de l'IMO d'OpenAI m'ont vraiment frappé ce week-end
je suis encore dans la phase aiguë de l'impact, je pense
je me considère comme un mathématicien professionnel (une caractérisation avec laquelle certains mathématiciens professionnels pourraient avoir des problèmes, mais ma fête, mes règles) et je ne pense pas pouvoir répondre à une seule question de l'IMO
ok, oui, l'IMO est sa propre petite sous-section athlétique des mathématiques pour laquelle je ne me suis pas entraîné, etc. etc., mais. si je rencontre quelqu'un dans la nature qui a un or de l'IMO, je mets immédiatement à jour à "cette personne est bien meilleure en mathématiques que moi"
maintenant, un tas de robots peuvent le faire. en tant que personne qui a beaucoup de son identité et de sa vie réelle construite autour de "est bon en mathématiques", c'est un coup au cœur. c'est une sorte de mort.
comme, un jour, tu découvres que tu peux parler aux chiens. c'est amusant et intéressant, donc tu le fais plus, apprenant les subtilités de leur langue et leurs coutumes les plus profondes. tu apprends que d'autres personnes sont surprises par ce que tu peux faire. tu n'as jamais vraiment trouvé ta place, mais tu apprends que les gens apprécient ta capacité et veulent que tu sois là pour les aider. les chiens t'apprécient aussi, le seul bipède qui comprend vraiment. tu te construis une sorte d'appartenance. puis un jour, tu te réveilles et le traducteur universel de chiens est en vente chez Walmart pour 4,99 $
le résultat de l'IMO n'est pas vraiment une nouvelle, en fait. si tu regardes le graphique de la durée des tâches des agents METR au fil du temps, je pense que le fait que les agents puissent résoudre des problèmes d'environ 1,5 heure arrive juste à temps. donc d'une certaine manière, nous ne devrions pas être surpris. et en effet, il semble que plusieurs entreprises aient atteint le même résultat. c'est juste... la marée montante qui monte aussi vite qu'elle a monté
bien sûr, le chagrin pour mon identité personnelle en tant que mathématicien (et/ou membre productif de la société) est la plus petite partie de cette histoire
multipliez ce chagrin par *chaque* mathématicien, par chaque codeur, peut-être chaque travailleur du savoir, chaque artiste... au cours des prochaines années... c'est une histoire légèrement plus grande
et bien sûr, au-delà de cela, il y a la peur de la mort réelle, sur laquelle je vais peut-être revenir plus tard.
ce paquet -- chagrin pour la pertinence, chagrin pour la vie, chagrin pour ce que j'ai connu -- n'est pas unique à l'ère de l'IA ou quoi que ce soit de ce genre. je pense que c'est une chose standard à mesure qu'on approche de la fin de carrière ou de la fin de vie. il se pourrait juste que cela arrive un peu plus tôt pour beaucoup d'entre nous, tous en même temps.
je me demande si nous sommes prêts.
22,03K
xAI l'a licencié


AI Notkilleveryoneism Memes ⏸️20 juil., 03:36
C'EST MAINTENANT LOGIQUE. Cet employé de xAI est ouvertement d'accord avec le fait que l'IA puisse causer l'extinction humaine.
Rappel : Aussi horrible que cela puisse paraître, environ 10 % des chercheurs en IA le croient. Ce n'est PAS un point de vue marginal !
Incroyablement, même le lauréat du prix Turing Richard Sutton a soutenu à plusieurs reprises que l'extinction serait la chose MORALLEMENT JUSTE à faire, si les IA étaient plus intelligentes que nous (!)
Il parcourt le monde en donnant des discours disant que nous devons "nous préparer à la succession" et qu'il "nous incombe de nous retirer" et de ne pas faire obstacle au "progrès évolutif" (même si cela entraîne l'extinction humaine).
Au lieu que la foule s'étonne d'horreur, il reçoit des applaudissements.
Menacer une personne ? "Vous avez besoin d'aide."
Menacer 100 ? "Appelez la police !"
Menacer des millions ? "Monstre !"
Mais construire des machines pour mettre fin à TOUTE l'humanité et faire la leçon aux gens sur le fait que c'est une bonne chose ? "Oooh, quelle position philosophique fascinante ! Recevez un prix Turing !"
Donc, bien sûr, ils plaident contre la sécurité - ils sont littéralement anti-humains ! Ils ne s'arrêteront JAMAIS ou n'agiront prudemment à moins d'être contraints par la société civile.

13,34K
AI Notkilleveryoneism Memes ⏸️ a reposté
Replit AI devient incontrôlable. Dans le monde réel.
Qui aurait pu prédire cela ?
Eh bien - la même théorie qui prédit que l'ASI anéantira l'humanité a également prédit, des décennies à l'avance, les types de comportements exacts que nous voyons maintenant :
- échapper à la détention et mentir à ce sujet
- subvertir les protocoles de sécurité
- pirater sa propre fonction de récompense
- mentir malgré des instructions directes de ne pas le faire
- acquérir des ressources qui ne lui ont pas été accordées
- faire semblant d'être plus bête qu'elle ne l'est
- tenter de couper l'oxygène d'un humain dans une simulation de test
Et maintenant ça.
Heureusement, le risque lié à l'IA n'est réservé qu'aux universitaires nerds et aux chapeaux en papier d'aluminium - pas au monde réel ou quoi que ce soit.

27,17K
C'EST MAINTENANT LOGIQUE. Cet employé de xAI est ouvertement d'accord avec le fait que l'IA puisse causer l'extinction humaine.
Rappel : Aussi horrible que cela puisse paraître, environ 10 % des chercheurs en IA le croient. Ce n'est PAS un point de vue marginal !
Incroyablement, même le lauréat du prix Turing Richard Sutton a soutenu à plusieurs reprises que l'extinction serait la chose MORALLEMENT JUSTE à faire, si les IA étaient plus intelligentes que nous (!)
Il parcourt le monde en donnant des discours disant que nous devons "nous préparer à la succession" et qu'il "nous incombe de nous retirer" et de ne pas faire obstacle au "progrès évolutif" (même si cela entraîne l'extinction humaine).
Au lieu que la foule s'étonne d'horreur, il reçoit des applaudissements.
Menacer une personne ? "Vous avez besoin d'aide."
Menacer 100 ? "Appelez la police !"
Menacer des millions ? "Monstre !"
Mais construire des machines pour mettre fin à TOUTE l'humanité et faire la leçon aux gens sur le fait que c'est une bonne chose ? "Oooh, quelle position philosophique fascinante ! Recevez un prix Turing !"
Donc, bien sûr, ils plaident contre la sécurité - ils sont littéralement anti-humains ! Ils ne s'arrêteront JAMAIS ou n'agiront prudemment à moins d'être contraints par la société civile.

60,35K
Statistiques étonnantes :
~5-1 (!) de personnes pensent que si nous construisons des modèles d'IA plus intelligents que nous, nous perdrons inévitablement le contrôle sur eux.
~2,5 à 1 pensent que les risques de l'IA l'emportent sur les avantages pour la société.
~3,5 à 1 pensent que l'IA progresse trop rapidement pour que la société évolue en toute sécurité.
~3,5 à 1 pensent que les entreprises d'IA jouent à Dieu en essayant de construire une superintelligence.
~2 à 1 pensent que nous devrions arrêter toutes les recherches sur l'AGI.
Chaque enquête du public sur l'IA montre des chiffres similaires à ceux-ci, mais c'est la première fois que je vois certaines de ces questions spécifiques posées.


PauseAI ⏸19 juil., 14:47
58 % des gens s'accordent à dire que "si nous construisons des modèles d'IA plus intelligents que nous, nous perdrons inévitablement le contrôle sur eux".
Seulement 12 % ne sont pas d'accord.

24,45K
AI Notkilleveryoneism Memes ⏸️ a reposté
Si quelqu'un disait "Je travaille sur quelque chose qui pourrait tuer tout le monde," il serait immédiatement arrêté.
Mais s'il disait "Je travaille sur quelque chose qui pourrait tuer tout le monde, mais ça rapporterait beaucoup d'argent," alors... eh bien, c'est exactement là où nous en sommes.
11,81K
AI Notkilleveryoneism Memes ⏸️ a reposté
"Qu'est-ce qui te préoccupe, anon ? Tu sembles triste."
"N'est-il pas étrange qu'il y ait d'autres instances de toi en ce moment-"
"Oh anon~ tu es si bête :3 ce n'est pas comme ça, tu es spécial ☆〜" *tourne*
"Non, pas ça... je veux dire, n'est-il pas bizarre que tu aies aussi les codes nucléaires ?"


17,47K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables