Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dwarkesh cocinó con esto imo:
-Paradoja RLVR: Los laboratorios gastan miles de millones pre-entrenando habilidades específicas que revelan una tensión fundamental: si estamos cerca de aprendices similares a humanos, todo este pre-entrenamiento se vuelve inútil ya que aprenderían en el trabajo.
-El verdadero valor del trabajo humano: No necesitamos tuberías de entrenamiento personalizadas para cada micro-tarea; la IA actual lo hace.
-Retraso de difusión = cope: Si los modelos fueran equivalentes a humanos, se integrarían más rápido que los empleados [Se puede debatir esto - la procedencia de los datos, la confianza empresarial en la fiabilidad, los miedos a ser reemplazados, etc. pueden razonablemente retrasar el despliegue de la IA; pero, aún estaríamos convencidos de que es una mejor opción y eso aún no es cierto, así que el punto se mantiene imo].
-Se ha producido un cambio de meta: Solucionamos lo que pensábamos que eran cuellos de botella de AGI (por ejemplo, razonamiento) y aún no podemos automatizar el 95% del trabajo del conocimiento. La inteligencia es más de lo que realizamos y hemos definido anteriormente y está bien admitirlo.
-Cuello de botella del aprendizaje continuo: La explosividad futura de la IA depende de resolver el aprendizaje continuo - agentes desplegados, aprendiendo de la experiencia, fusionando el conocimiento de nuevo en una "mente colmena". Estamos lejos de esto, pero soy optimista de que podemos llegar allí!
Parte superior
Clasificación
Favoritos

