Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
He estado profundamente involucrado en la IA (aprendizaje automático en ese entonces...) desde 2007. Estudié aprendizaje automático en EE. UU., leí la mayoría de los libros, escuché todos los podcasts. Nada me sorprendió como el reciente libro + entrevista de Roman Yampolskiy. 🧵
su opinión es rara y profunda: construir una superinteligencia artificial (ASI) no solo es arriesgado, es básicamente una extinción garantizada.
la capacidad está resuelta (cómputo + datos = IA más inteligente). la seguridad no está resuelta. y la brecha entre los dos crece cada día.
los mercados de predicción + los líderes de laboratorio dicen que la AGI podría llegar para 2027. La superinteligencia probablemente seguirá automáticamente. No estamos listos.
roman predice no un 10% de desempleo, sino cerca del total (>99%+). tanto el trabajo cognitivo como el físico serán reemplazados. la reentrenamiento no ayudará si todos los trabajos son automatizables.
"los "guardrails" son soluciones temporales. los sistemas más inteligentes los evitan. ¿desconectar? fantasía. no desconectas algo que te supera, es él quien desconecta tu sistema."
el riesgo de extinción ni siquiera necesita de la IA. La biotecnología asistida por IA podría darle a un mal actor herramientas para causar daño a escala civilizacional.
las dinámicas de carrera están rotas: una vez que se activa asi, no importa quién lo construyó. ambas partes pierden.
la llamada de roman: pausa así. mantén la IA estrecha para problemas reales. deja de perseguir sistemas "divinos" que no podemos alinear o controlar.
2,67K
Parte superior
Clasificación
Favoritos

