Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
He estado inmerso en la IA (aprendizaje automático en ese entonces...) desde 2007. estudió aprendizaje automático en los EE. UU., leyó la mayoría de los libros, escuchó todos los podcasts. Nada me sorprendió como el reciente libro + entrevista de Roman Yampolskiy. 🧵
Su opinión es rara + profunda: construir superinteligencia artificial (ASI) no solo es arriesgado, sino que básicamente está garantizado para la extinción.
La capacidad está resuelta (computación + datos = IA más inteligente). la seguridad no está resuelta. y la brecha entre los dos crece cada día.
Los líderes de Prediction Markets + Lab dicen que AGI podría llegar en 2027. la superinteligencia probablemente sigue automáticamente. No estamos listos.
Roman predice no un 10% de desempleo, sino casi un total (>99%+). tanto el trabajo cognitivo como el físico reemplazados. El reentrenamiento no ayudará si todos los trabajos son automatizables.
Las "barandillas" son curitas. Los sistemas más inteligentes los rodean. ¿Desenchufar? fantasía. No desconectas algo que te supera, tira del tuyo.
El riesgo de extinción ni siquiera necesita ASI. La bio asistida por IA podría darle a un mal actor herramientas para el daño a escala de civilización.
La dinámica de carrera se rompe: una vez que se enciende ASI, no importa quién lo construyó. ambos lados pierden.
Llamada de Roman: pausa así. Mantenga la IA estrecha para problemas reales. Deja de perseguir sistemas "divinos" que no podemos alinear o controlar.
2.65K
Populares
Ranking
Favoritas

