Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jason Wei
Investigador de IA @openai
Jason Wei reposteó
📣 Emocionado de compartir nuestro estudio del mundo real de un copiloto clínico de LLM, una colaboración entre @OpenAI y @PendaHealth.
En 39,849 visitas de pacientes en vivo, los médicos con IA tuvieron una reducción relativa del 16% en los errores de diagnóstico y una reducción del 13% en los errores de tratamiento en comparación con los que no lo tenían. 🧵
296.97K
Jason Wei reposteó
Esta es mi conferencia de hace 2 meses en @Cornell
"¿Cómo puedo aumentar mi producción?" Una respuesta natural es: "Solo trabajaré unas horas más". Trabajar más tiempo puede ayudar, pero eventualmente llegas a un límite físico.
Una mejor pregunta es: "¿Cómo puedo aumentar mi producción sin aumentar tanto la entrada?" Eso es apalancamiento.
Escuchamos "apalancamiento" tan a menudo que su implicación es fácil de pasar por alto. Mi categorización personal favorita de apalancamiento es la de Naval Ravikant: trabajo humano, capital y código / medios. Cada uno de ellos ha impulsado grandes olas de creación de riqueza en la historia.
Sin embargo, una vez que una fuente de apalancamiento se vuelve popular (piense en los canales de YouTube de hoy en comparación con los de hace diez años), la competencia comprime el margen. Por lo tanto, cuando aparece un nuevo apalancamiento, es una rara oportunidad de obtener ganancias descomunales.
En esta charla, describo la IA como esa palanca emergente. Un agente de IA combina el apalancamiento de mano de obra (funciona para usted y no tiene permisos) con el apalancamiento de código (puede copiarlo y pegarlo).
Es un cliché decir que la IA creará una riqueza masiva. Pero el uso de esta lente de apalancamiento nos permite interpretar el ruidoso ciclo de noticias de IA de una manera coherente y detectar las oportunidades reales.
¡Gracias @unsojo por recibirme!
402.41K
Nueva entrada de blog sobre la asimetría de la verificación y la "ley del verificador":
La asimetría de la verificación, la idea de que algunas tareas son mucho más fáciles de verificar que de resolver, se está convirtiendo en una idea importante a medida que tenemos RL que finalmente funciona en general.
Grandes ejemplos de asimetría de verificación son cosas como los rompecabezas de sudoku, escribir el código para un sitio web como Instagram y los problemas de BrowseComp (se necesitan ~ 100 sitios web para encontrar la respuesta, pero fácil de verificar una vez que tiene la respuesta).
Otras tareas tienen casi simetría de verificación, como sumar dos números de 900 dígitos o algunos scripts de procesamiento de datos. Sin embargo, es mucho más fácil proponer soluciones factibles para otras tareas que verificarlas (por ejemplo, verificar un ensayo largo o establecer una nueva dieta como "solo come bisonte").
Una cosa importante que hay que entender sobre la asimetría de la verificación es que se puede mejorar la asimetría haciendo un poco de trabajo de antemano. Por ejemplo, si tienes la clave de respuestas para un problema de matemáticas o si tienes casos de prueba para un problema de Leetcode. Esto aumenta en gran medida el conjunto de problemas con la asimetría de verificación deseable.
La "ley del verificador" establece que la facilidad de entrenar a la IA para resolver una tarea es proporcional a la verificabilidad de la tarea. Todas las tareas que sean posibles de resolver y fáciles de verificar serán resueltas por la IA. La capacidad de entrenar a la IA para resolver una tarea es proporcional a si la tarea tiene las siguientes propiedades:
1. Verdad objetiva: todo el mundo está de acuerdo en lo que son las buenas soluciones
2. Rápido de verificar: cualquier solución dada se puede verificar en unos segundos
3. Escalable para verificar: se pueden verificar muchas soluciones simultáneamente
4. Bajo nivel de ruido: la verificación está lo más estrechamente relacionada posible con la calidad de la solución
5. Recompensa continua: es fácil clasificar la bondad de muchas soluciones para un solo problema
Un ejemplo obvio de la ley del verificador es el hecho de que la mayoría de los puntos de referencia propuestos en IA son fáciles de verificar y hasta ahora se han resuelto. Tenga en cuenta que prácticamente todos los puntos de referencia populares en los últimos diez años se ajustan a los criterios # 1-4; Los puntos de referencia que no cumplan con los criterios #1-4 tendrían dificultades para volverse populares.
¿Por qué es tan importante la verificabilidad? La cantidad de aprendizaje en IA que se produce se maximiza cuando se cumplen los criterios anteriores; Puede tomar muchos pasos de gradiente donde cada paso tiene mucha señal. La velocidad de iteración es fundamental: es la razón por la que el progreso en el mundo digital ha sido mucho más rápido que el progreso en el mundo físico.
AlphaEvolve de Google es uno de los mejores ejemplos de cómo aprovechar la asimetría de la verificación. Se centra en configuraciones que se ajustan a todos los criterios anteriores y ha dado lugar a una serie de avances en matemáticas y otros campos. A diferencia de lo que hemos estado haciendo en IA durante las últimas dos décadas, es un nuevo paradigma en el que todos los problemas se optimizan en un entorno en el que el conjunto de entrenamiento es equivalente al conjunto de prueba.
La asimetría de la verificación está en todas partes y es emocionante considerar un mundo de inteligencia irregular donde cualquier cosa que podamos medir se resolverá.

298.79K
Directamente banger, leí de inmediato

Kevin Lu10 jul, 00:01
Por qué deberías dejar de trabajar en la investigación de RL y en su lugar trabajar en el producto //
La tecnología que desbloqueó el gran cambio de escala en la IA es Internet, no los transformadores
Creo que es bien sabido que los datos son lo más importante en la IA, y también que los investigadores eligen no trabajar en ellos de todos modos. ... ¿Qué significa trabajar con datos (de forma escalable)?
Internet proporcionaba una rica fuente de datos abundantes, que eran diversos, proporcionaban un plan de estudios natural, representaban las competencias que realmente interesan a la gente y era una tecnología económicamente viable para implementar a escala: se convirtió en el complemento perfecto para la predicción del próximo token y fue la sopa primordial para el despegue de la IA.
Sin transformadores, cualquier número de enfoques podría haber despegado, probablemente podríamos tener CNN o modelos de espacio de estados al nivel de GPT-4.5. Pero no ha habido una mejora dramática en los modelos base desde GPT-4. Los modelos de razonamiento son excelentes en dominios estrechos, pero no un salto tan grande como lo fue GPT-4 en marzo de 2023 (hace más de 2 años...)
Tenemos algo genial con el aprendizaje por refuerzo, pero mi miedo profundo es que repitamos los errores del pasado (RL de la era 2015-2020) y hagamos investigaciones de RL que no importan.
De la misma manera que Internet fue el dual del preentrenamiento supervisado, ¿cuál será el dual de RL que conducirá a un avance masivo como GPT-1 > GPT-4? Creo que se parece a un codiseño de productos de investigación.

18.64K
Consejo de citas de personas normales: No te cases temprano si estás creciendo y cambiando mucho cada año
Amigo de IA (@YiTayML): Eres como una red neuronal en medio del entrenamiento y la pérdida sigue mejorando. Es mejor entrenar para la convergencia en lugar de tomar una instantánea de punto de control temprana
185.82K
Todavía no tenemos automejoras de la IA, y cuando lo hagamos, cambiará las reglas del juego. Con más sabiduría ahora en comparación con los días de GPT-4, es obvio que no será un "despegue rápido", sino más bien extremadamente gradual a lo largo de muchos años, probablemente una década.
Lo primero que hay que saber es que la superación personal, es decir, los modelos que se entrenan a sí mismos, no es binaria. Considere el escenario de GPT-5 entrenando a GPT-6, que sería increíble. ¿GPT-5 pasaría de repente de no poder entrenar a GPT-6 en absoluto a entrenarlo de manera extremadamente competente? Definitivamente no. Las primeras ejecuciones de entrenamiento de GPT-6 probablemente serían extremadamente ineficientes en tiempo y computación en comparación con los investigadores humanos. Y solo después de muchos ensayos, GPT-5 sería realmente capaz de entrenar a GPT-6 mejor que los humanos.
En segundo lugar, incluso si un modelo pudiera entrenarse a sí mismo, no mejoraría repentinamente en todos los dominios. Hay un gradiente de dificultad en lo difícil que es mejorarse a sí mismo en varios dominios. Por ejemplo, puede que la superación personal solo funcione al principio en dominios que ya sabemos arreglar fácilmente en el post-entrenamiento, como las alucinaciones básicas o el estilo. Lo siguiente serían las matemáticas y la codificación, que requieren más trabajo, pero han establecido métodos para mejorar los modelos. Y luego, en el extremo, puedes imaginar que hay algunas tareas que son muy difíciles para la superación personal. Por ejemplo, la capacidad de hablar tlingit, un idioma nativo americano hablado por ~500 personas. Será muy difícil para el modelo mejorar por sí mismo en hablar tlingit, ya que aún no tenemos formas de resolver idiomas de bajos recursos como este, excepto recopilar más datos, lo que llevaría tiempo. Por lo tanto, debido al gradiente de dificultad de la superación personal, no sucederá todo a la vez.
Finalmente, tal vez esto sea controvertido, pero en última instancia, el progreso en la ciencia se ve obstaculizado por experimentos del mundo real. Algunos pueden creer que leer todos los artículos de biología nos dirá la cura para el cáncer, o que leer todos los artículos de ML y dominar todas las matemáticas te permitiría entrenar GPT-10 perfectamente. Si este fuera el caso, entonces las personas que leyeron más artículos y estudiaron la mayor cantidad de teorías serían los mejores investigadores de IA. Pero lo que realmente sucedió es que la IA (y muchos otros campos) fueron dominados por investigadores empíricos despiadados, lo que refleja cuánto progreso se basa en experimentos del mundo real en lugar de inteligencia bruta. Así que mi punto es que, aunque un agente súper inteligente podría diseñar experimentos 2 veces o incluso 5 veces mejores que nuestros mejores investigadores humanos, al final del día todavía tienen que esperar a que se ejecuten los experimentos, lo que sería una aceleración pero no un despegue rápido.
En resumen, hay muchos cuellos de botella para el progreso, no solo la inteligencia bruta o un sistema de superación personal. La IA resolverá muchos dominios, pero cada dominio tiene su propio ritmo de progreso. E incluso la inteligencia más alta seguirá requiriendo experimentos en el mundo real. Así que será una aceleración y no un despegue rápido, gracias por leer mi perorata
339.88K
Lo más gratificante de trabajar en la oficina por las noches y los fines de semana no es el trabajo real que haces, sino las conversaciones espontáneas con otras personas que siempre están trabajando. Son las personas que tienden a hacer grandes cosas y se convertirán en tus amigos más exitosos
74.52K
Yo diría que, sin duda, estamos en AGI, cuando la IA puede crear un unicornio real y vivo. Y no, no me refiero a una empresa de $ 1 mil millones, nerds, me refiero a un caballo rosa literal con un cuerno en espiral. Un dechado de avances científicos en ingeniería genética y programación celular. La materia de los sueños de la infancia. Me atrevo a decir que sucederá en nuestras vidas
84.29K
Populares
Ranking
Favoritas
Onchain en tendencia
Tendencia en X
Principales fondos recientes
Más destacadas