Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Una escalera de sigmoides
Me puse a investigar una referencia tras leer el artículo de los Dwarkesh que me preocupó bastante. En la publicación menciona:
"Toby Ord tiene una gran publicación donde conecta inteligentemente los puntos entre diferentes gráficos de benchmark de la serie o, que sugería que necesitamos algo así como una escalada de 1.000.000 de veces del cálculo total de RL para dar un impulso similar al nivel de GPT"."
Esto da la impresión de que las cosas se van a estancar.
Toby llega a decir dos cosas que me preocuparon:
1. "Hemos visto avances impresionantes, pero solo fueron viables partiendo de una base tan baja. Hemos llegado al punto en que es demasiado caro ir mucho más allá."
2. "Ahora que el entrenamiento en RL se acerca a su límite efectivo, puede que hayamos perdido la capacidad de convertir eficazmente más computación en más inteligencia."
Pregunté qué tan legítima era esta afirmación y cuál era el argumento toro opuesto para escalar el RL.
Un buen amigo dijo: "Sí, si sigues escalando ingenuamente la computación RL, escalará mal. ¡Pero no deberíamos hacer eso! Por eso hay tantas empresas de medio ambiente en la vida real. Un enfoque mejor es escalar a entornos nuevos y más difíciles. "
Después de reflexionar un poco, encontré una forma de condensar esto aún más en: "Imaginarlo como una escalera son sigmoides para nuevas tareas, mundos, objetivos es la forma más útil de pensar en cómo puede seguir funcionando durante un tiempo."
Populares
Ranking
Favoritas

