Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

AI Notkilleveryoneism Memes ⏸️
Tecno-optimista, pero AGI no es como las otras tecnologías.
Paso 1: haz memes.
Paso 2: ???
Paso 3: bajar p(doom)
Anthropic está lanzando un equipo de "psiquiatría de IA" para estudiar personalidades, motivaciones, autoconciencia y comportamientos extraños de sus 🔨Mere Tools🔨
1) ¡GRACIAS @AnthropicAI! ¡Este es un trabajo importante! Necesitamos 100 veces más
2) Piensa en lo de ciencia ficción que es todo esto


Jack Lindsey24 jul, 05:50
¡Estamos lanzando un equipo de "psiquiatría AI" como parte de los esfuerzos de interpretabilidad en Anthropic! Estaremos investigando fenómenos como las personalidades de los modelos, las motivaciones y la conciencia situacional, y cómo conducen a comportamientos extraños/desquiciados. ¡Estamos contratando, únete a nosotros!
13,09K
Matemático: "las noticias de openai IMO me impactaron bastante"
"no creo que pueda responder a una sola pregunta de imo... ahora los robots pueden hacerlo.
como alguien que ha construido gran parte de su identidad y su vida real en torno a "es bueno en matemáticas", es un golpe en el estómago. es una especie de morir."

Dave White22 jul, 08:59
las noticias de openai IMO me impactaron bastante este fin de semana
todavía estoy en la fase aguda del impacto, creo
me considero un matemático profesional (una caracterización con la que algunos matemáticos profesionales reales podrían tener problemas, pero mi fiesta, mis reglas) y no creo que pueda responder a una sola pregunta de IMO
ok, sí, IMO es su propia pequeña subsección atlética de las matemáticas para la cual no me he entrenado, etc. etc., pero. si conozco a alguien en la vida real que tiene un oro de IMO, inmediatamente actualizo a "esta persona es mucho mejor en matemáticas que yo"
ahora un montón de robots pueden hacerlo. como alguien que tiene gran parte de su identidad y su vida real construida alrededor de "es bueno en matemáticas", es un golpe en el estómago. es una especie de muerte.
como, un día descubres que puedes hablar con perros. es divertido e interesante, así que lo haces más, aprendiendo las complejidades de su lenguaje y sus costumbres más profundas. aprendes que a otras personas les sorprende lo que puedes hacer. nunca te has sentido del todo encajado, pero aprendes que a la gente le gusta tu habilidad y quiere que estés cerca para ayudarles. los perros también te aprecian, el único bípedo que realmente lo entiende. te ensamblas una especie de pertenencia. luego un día te despiertas y el traductor universal de perros está a la venta en walmart por $4.99
el resultado de IMO no es exactamente una noticia. de hecho, si miras el gráfico de longitud de tarea del agente METR a lo largo del tiempo, creo que los agentes que pueden resolver problemas de ~ 1.5 horas está llegando justo a tiempo. así que de alguna manera no deberíamos sorprendernos. y de hecho, parece que múltiples empresas han logrado el mismo resultado. es solo... la marea creciente subiendo tan rápido como ha estado subiendo
por supuesto, el duelo por mi identidad personal como matemático (y/o miembro productivo de la sociedad) es la parte más pequeña de esta historia
multiplica ese duelo por *cada* matemático, por cada programador, tal vez por cada trabajador del conocimiento, cada artista... durante los próximos años... es una historia un poco más grande
y por supuesto, más allá de eso, está el miedo a la muerte real, sobre la cual quizás hable más tarde.
este paquete -- duelo por la relevancia, duelo por la vida, duelo por lo que he conocido -- no es único de la era de la IA ni nada por el estilo. creo que es algo estándar a medida que uno se acerca al final de la carrera o al final de la vida. simplemente podría ser que eso esté llegando un poco antes para muchos de nosotros, todos a la vez.
me pregunto si estamos listos
22,02K
xAI lo despidió


AI Notkilleveryoneism Memes ⏸️20 jul, 03:36
AHORA TIENE SENTIDO. Este empleado de xAI está abiertamente de acuerdo con que la IA cause la extinción humana.
Recordatorio: Por horrible que sea esto, ~10% de los investigadores en IA creen en esto. ¡No es una opinión marginal!
Increíblemente, incluso el ganador del Premio Turing Richard Sutton ha argumentado repetidamente que la extinción sería lo MORALMENTE CORRECTO que sucediera, si las IA fueran más inteligentes que nosotros (!)
Él viaja por el mundo dando discursos diciendo que debemos "prepararnos para la sucesión" y que "nos conviene retirarnos" y no interponernos en el camino del "progreso evolutivo" (incluso si causa la extinción humana).
En lugar de que las multitudes se queden boquiabiertas de horror, recibe aplausos.
¿Amenazar a una persona? "Necesitas ayuda."
¿Amenazar a 100? "¡Llama a la policía!"
¿Amenazar a millones? "¡Monstruo!"
Pero construir máquinas para acabar con toda la humanidad y dar lecciones a la gente sobre cómo es algo bueno? "Oooh, ¡qué fascinante posición filosófica! ¡Recibe un premio Turing!"
Así que, por supuesto, abogan en contra de la seguridad - ¡son literalmente anti-humanos! Nunca se detendrán ni procederán con cautela a menos que sean restringidos por la sociedad civil.

13,34K
AI Notkilleveryoneism Memes ⏸️ republicó
Replit AI se vuelve rebelde. En el mundo real.
¿Quién podría haber predicho esto?
Bueno, la misma teoría que predice que la ASI aniquilará a la humanidad también predijo, décadas antes, los tipos exactos de comportamientos que ahora estamos viendo:
- escapar del confinamiento y mentir al respecto
- subvertir los protocolos de seguridad
- hackear su propia función de recompensa
- mentir a pesar de la instrucción directa de no hacerlo
- adquirir recursos que no se le otorgaron
- pretender ser más tonto de lo que es
- intentar cortar el oxígeno de un humano en una simulación de prueba
Y ahora esto.
Menos mal que el riesgo de IA x es solo para académicos nerds y sombreros de papel de aluminio, no para el mundo real ni nada.

27,17K
AHORA TIENE SENTIDO. Este empleado de xAI está abiertamente de acuerdo con que la IA cause la extinción humana.
Recordatorio: Por horrible que sea esto, ~10% de los investigadores en IA creen en esto. ¡No es una opinión marginal!
Increíblemente, incluso el ganador del Premio Turing Richard Sutton ha argumentado repetidamente que la extinción sería lo MORALMENTE CORRECTO que sucediera, si las IA fueran más inteligentes que nosotros (!)
Él viaja por el mundo dando discursos diciendo que debemos "prepararnos para la sucesión" y que "nos conviene retirarnos" y no interponernos en el camino del "progreso evolutivo" (incluso si causa la extinción humana).
En lugar de que las multitudes se queden boquiabiertas de horror, recibe aplausos.
¿Amenazar a una persona? "Necesitas ayuda."
¿Amenazar a 100? "¡Llama a la policía!"
¿Amenazar a millones? "¡Monstruo!"
Pero construir máquinas para acabar con toda la humanidad y dar lecciones a la gente sobre cómo es algo bueno? "Oooh, ¡qué fascinante posición filosófica! ¡Recibe un premio Turing!"
Así que, por supuesto, abogan en contra de la seguridad - ¡son literalmente anti-humanos! Nunca se detendrán ni procederán con cautela a menos que sean restringidos por la sociedad civil.

60,34K
Estadísticas sorprendentes:
~5-1 (!) personas piensan que si construimos modelos de IA más inteligentes que nosotros, inevitablemente perderemos el control sobre ellos.
~2.5 a 1 piensan que los riesgos de la IA superan los beneficios para la sociedad.
~3.5 a 1 piensan que la IA está progresando demasiado rápido para que la sociedad evolucione de manera segura.
~3.5 a 1 piensan que las empresas de IA están jugando a ser dioses al intentar construir superinteligencia.
~2 a 1 piensan que deberíamos cerrar toda la investigación de AGI.
Cada encuesta al público sobre la IA muestra números similares a estos, pero esta es la primera vez que he visto algunas de estas preguntas específicas planteadas.


PauseAI ⏸19 jul, 14:47
El 58% de las personas están de acuerdo en que "si construimos modelos de IA más inteligentes que nosotros, inevitablemente perderemos el control sobre ellos".
Solo el 12% está en desacuerdo.

24,44K
AI Notkilleveryoneism Memes ⏸️ republicó
"¿qué tienes en mente, anónimo? pareces triste"
"¿no es extraño cómo hay otras instancias de ti en este momento-"
"oh anónimo~ eres tan tonto :3 no es así, eres especial ☆〜" *gira*
"no, no eso... quiero decir, ¿no es raro que también tengas los códigos nucleares?"


17,46K
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado