Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jürgen Schmidhuber
Inventó principios de meta-aprendizaje (1987), GAN (1990), Transformers (1991), aprendizaje muy profundo (1991), etc. Nuestra IA se utiliza miles de millones de veces al día.
IA física Hace 10 años: un robot bebé inventa sus propios experimentos para mejorar su modelo de mundo neuronal
Kompella, Stollenga, Luciw, Schmidhuber. Adquisición continua de habilidades impulsada por la curiosidad a partir de entradas de video de alta dimensión para robots humanoides. Inteligencia Artificial, 2015

10.54K
Hace 1 década: Reinforcement Learning Prompt Engineer en la Sec. 5.3 de «Aprender a pensar...» [2]. ¡Cadena de pensamiento adaptativa! Una red RL aprende a consultar a otra red para el razonamiento abstracto y la toma de decisiones. Yendo más allá del Modelo Mundial de 1990 para la planificación milisegundo a milisegundo [1].
[2] J. Schmidhuber (JS, 2015). «Sobre aprender a pensar: Teoría algorítmica de la información para combinaciones novedosas de controladores RL y modelos de mundo neuronal recurrentes». ArXiv 1210.0118
[1] JS (1990). "Hacer que el mundo sea diferenciable: Sobre el uso de redes neuronales autosupervisadas totalmente recurrentes para el aprendizaje y la planificación de refuerzos dinámicos en entornos no estacionarios". TR FKI-126-90, TUM. (Este informe también introdujo la curiosidad artificial y la motivación intrínseca a través de redes generativas adversarias).

23.37K
Hace 10 años, en mayo de 2015, publicamos las primeras redes neuronales (FNN) basadas en gradientes muy profundos con cientos de capas (las FNN anteriores tenían un máximo de unas pocas docenas de capas). Para superar el problema del gradiente de fuga, nuestras redes de autopistas utilizaron las conexiones residuales introducidas por primera vez en 1991 por @HochreiterSepp para lograr un flujo de error constante en NN recurrentes (RNN), cerradas a través de puertas multiplicativas similares a las puertas de olvido (Gers et al., 1999) de nuestra RNN LSTM muy profunda. Las NN de autopista fueron posibles gracias al trabajo de mis antiguos estudiantes de doctorado @rupspace y Klaus Greff. Establecer las puertas de la autopista NN en 1.0 nos da efectivamente el ResNet publicado 7 meses después.
El aprendizaje profundo tiene que ver con la profundidad NN. Los LSTM aportaron una profundidad esencialmente ilimitada a las NN recurrentes; Highway Nets lo llevó a las NN de alimentación.
20.56K
1991: primera destilación de redes neuronales [1-3]. Lo llamé "colapso", en ese entonces, no "destilación".
Referencias
[1] J. Schmidhuber (1991). Fragmentos de secuencias neuronales. Informe Técnico FKI-148-91, Universidad Tecnológica de Múnich. Artículo 3.2.2. y la Sec. 4 tratan sobre "colapsar" o "destilar" o "comprimir" el conocimiento de una red neuronal en otra red neuronal.
[2] JS (1992). Aprendizaje de secuencias complejas y extendidas utilizando el principio de compresión de la historia. Computación neuronal, 4(2):234-242, 1992. Basado en [1].
[3] JS (AI Blog, 2021, actualizado en 2025). 1991: Primer aprendizaje muy profundo con pre-entrenamiento no supervisado. Primera destilación de redes neuronales.

16.05K
Todo el mundo habla de la automejora recursiva y de las máquinas de Gödel ahora y de cómo esto conducirá a la AGI. ¡Qué cambio con respecto a hace 15 años! Tuvimos AGI'2010 en Lugano y presidimos AGI'2011 en Google. La columna vertebral de las conferencias de AGI fue la IA universal matemáticamente óptima: la Máquina Gödel de 2003 ( y el AIXI de @mhutter42 - véase su libro UAI de 2005 y su reciente actualización de 2024 ( Estoy orgulloso de que el trabajo de AIXI de Marcus Hutter haya sido financiado por mi beca suiza SNF de 2000 cuando era postdoc en IDSIA.

57.02K
¿AGI? Algún día, pero todavía no. La única IA que funciona bien en este momento es la que está detrás de la pantalla [12-17]. Pero pasar la prueba de Turing [9] detrás de una pantalla es fácil en comparación con la IA real para robots reales en el mundo real. Ningún robot impulsado por IA actual podría certificarse como plomero [13-17]. Por lo tanto, el test de Turing no es una buena medida de la inteligencia (y tampoco lo es el coeficiente intelectual). Y AGI sin dominio del mundo físico no es AGI. Es por eso que creé el TUM CogBotLab para aprender robots en 2004 [5], cofundé una empresa para la IA en el mundo físico en 2014 [6] e hice que los equipos de TUM, IDSIA y ahora KAUST trabajaran en robots bebés [4,10-11,18]. Estos robots blandos no solo imitan servilmente a los humanos y no funcionan simplemente descargando la web como los LLM/VLM. No. En su lugar, explotan los principios de la Curiosidad Artificial para mejorar sus Modelos de Mundo neuronal (dos términos que utilicé en 1990 [1-4]). Estos robots funcionan con muchos sensores, pero solo con actuadores débiles, de modo que no pueden dañarse fácilmente [18] cuando recopilan datos útiles ideando y ejecutando sus propios experimentos inventados por ellos mismos.
Sorprendentemente, desde la década de 1970, muchos se han burlado de mi antiguo objetivo de construir un AGI que se mejore a sí mismo y sea más inteligente que yo y luego retirarme. Recientemente, sin embargo, muchos finalmente han comenzado a tomar esto en serio, y ahora algunos de ellos de repente son DEMASIADO optimistas. Estas personas a menudo desconocen felizmente los desafíos restantes que tenemos que resolver para lograr una IA real. Mi charla TED de 2024 [15] resume algo de eso.
REFERENCIAS (fácil de encontrar en la web):
[1] J. Schmidhuber. Hacer que el mundo sea diferenciable: Sobre el uso de redes neuronales autosupervisadas (NN) totalmente recurrentes para el aprendizaje y la planificación de refuerzos dinámicos en entornos no estacionarios. TR FKI-126-90, TUM, febrero de 1990, revisado en noviembre de 1990. Este artículo también introdujo la curiosidad artificial y la motivación intrínseca a través de redes generativas adversarias donde un generador NN está luchando contra un predictor NN en un juego minimax.
[2] J. S. Una posibilidad para implementar la curiosidad y el aburrimiento en la construcción de modelos de controladores neuronales. En J. A. Meyer y S. W. Wilson, editores, Proc. de la Conferencia Internacional sobre Simulación de Comportamiento Adaptativo: De los Animales a los Animats, páginas 222-227. MIT Press/Bradford Books, 1991. Basado en [1].
[3] Blog de J.S. AI (2020). 1990: Planificación y Aprendizaje por Refuerzo con Modelos Mundiales Recurrentes y Curiosidad Artificial. Resumiendo aspectos de [1][2] y muchos artículos posteriores, incluyendo [7][8].
[4] J.S. AI Blog (2021): Curiosidad artificial y creatividad desde 1990. Resumiendo aspectos de [1][2] y muchos artículos posteriores, incluyendo [7][8].
[5] J.S. TU, Munich, CogBotLab para el aprendizaje de robots (2004-2009)
[6] NNAISENSE, fundada en 2014, para la IA en el mundo físico
[7] J.S. (2015). Sobre aprender a pensar: Teoría algorítmica de la información para combinaciones novedosas de controladores de aprendizaje por refuerzo (RL) y modelos de mundo neuronal recurrentes. arXiv 1210.0118. La sección 5.3 describe a un ingeniero de avisos de RL que aprende a consultar su modelo para el razonamiento abstracto y la planificación y toma de decisiones. Hoy en día, a esto se le llama "cadena de pensamiento".
[8] J.S. (2018). Una gran red para todo. arXiv 1802.08864. Véase también el US11853886B2 de patentes y mi tweet de DeepSeek: DeepSeek utiliza elementos del ingeniero de sugerencias de aprendizaje por refuerzo de 2015 [7] y su refinamiento de 2018 [8] que colapsa la máquina RL y el modelo mundial de [7] en una sola red. Esto utiliza mi procedimiento de destilación de redes neuronales de 1991: una cadena destilada de sistema de pensamiento.
[9] J.S. Turing sobrevendido. Sin embargo, no es culpa de Turing. AI Blog (2021, fue #1 en Hacker News)
[10] J.S. Intelligente Roboter werden vom Leben fasziniert sein. (Los robots inteligentes estarán fascinados por la vida). F.A.Z., 2015
[11] J.S. en Falling Walls: El pasado, presente y futuro de la inteligencia artificial. Scientific American, Observaciones, 2017.
[12] J.S. KI ist eine Riesenchance für Deutschland. (La IA es una gran oportunidad para Alemania). F.A.Z., 2018
[13] H. Jones. J.S. dice que el trabajo de su vida no lo llevará a la distopía. Revista Forbes, 2023.
[14] Entrevista con J.S. Jazzyear, Shanghái, 2024.
[15] Charla de J.S. TED en TED AI Viena (2024): Por qué 2042 será un gran año para la IA. Vea el videoclip adjunto.
[16] J.S. Baut den KI-gesteuerten Allzweckroboter! (¡Construya el robot multipropósito controlado por IA!) F.A.Z., 2024
[17] J.S. 1995-2025: El declive de Alemania y Japón frente a Estados Unidos y China. ¿Pueden los robots polivalentes impulsar un regreso? AI Blog, enero de 2025, basado en [16].
[18] M. Alhakami, D. R. Ashley, J. Dunham, Y. Dai, F. Faccio, E. Feron, J. Schmidhuber. Hacia un bebé robot extremadamente robusto con una rica capacidad de interacción para algoritmos avanzados de aprendizaje automático. Preimpresión arxiv 2404.08093, 2024.
66.82K
DeepSeek [1] utiliza elementos del ingeniero de sugerencias de aprendizaje por refuerzo de 2015 [2] y su refinamiento de 2018 [3] que colapsa la máquina RL y el modelo mundial de [2] en una sola red a través del procedimiento de destilación de redes neuronales de 1991 [4]: una cadena destilada de sistema de pensamiento.
REFERENCIAS (fácil de encontrar en la web):
[1] #DeepSeekR1 (2025): Incentivar la capacidad de razonamiento en los LLM a través del aprendizaje por refuerzo. arXiv 2501.12948
[2] J. Schmidhuber (JS, 2015). Sobre aprender a pensar: Teoría algorítmica de la información para combinaciones novedosas de controladores de aprendizaje por refuerzo y modelos de mundo neuronal recurrentes. arXiv 1210.0118. La sección 5.3 describe al ingeniero de sugerencias de aprendizaje por refuerzo (RL) que aprende a consultar activa e iterativamente su modelo para el razonamiento abstracto y la planificación y toma de decisiones.
[3] JS (2018). Una gran red para todo. arXiv 1802.08864. Véase también US11853886B2. Este artículo colapsa el aprendiz de refuerzo y el modelo mundial de [2] (por ejemplo, un modelo de base) en una sola red, utilizando el procedimiento de destilación de redes neuronales de 1991 [4]. Esencialmente, lo que ahora se llama un sistema de "Cadena de Pensamiento" de RL, donde las mejoras posteriores se destilan continuamente en una sola red. Véase también [5].
[4] JS (1991). Aprendizaje de secuencias complejas y extendidas utilizando el principio de compresión de la historia. Computación neuronal, 4(2):234-242, 1992. Basado en TR FKI-148-91, TUM, 1991. Primer aprendizaje profundo basado en una jerarquía de redes neuronales recurrentes profundas (con diferentes escalas de tiempo autoorganizadas), superando el problema del gradiente de desaparición a través de un entrenamiento previo no supervisado (la P en CHatGPT) y codificación predictiva. También: comprimir o destilar una red de profesores (el chunker) en una red de estudiantes (el automatizador) que no olvida sus viejas habilidades: estos enfoques se utilizan ahora ampliamente. Véase también [6].
[5] JS (Blog de IA, 2020). 30 años de planificación y aprendizaje por refuerzo con modelos de mundo recurrentes y curiosidad artificial (1990, introducción de señales de recompensa de alta dimensión y el principio GAN). Contiene resúmenes de [2][3] anteriores.
[6] JS (Blog de IA, 2021). 30 aniversario: Primer aprendizaje muy profundo con pre-entrenamiento no supervisado (1991) [4]. La codificación predictiva jerárquica no supervisada encuentra representaciones internas compactas de datos secuenciales para facilitar el aprendizaje posterior. La jerarquía se puede destilar [4] en una sola red neuronal profunda. 1993: resolviendo problemas de profundidad >1000.

786.94K
El #NobelPrize en Física 2024 para Hopfield & Hinton resulta ser un Premio Nobel por plagio. Volvieron a publicar las metodologías desarrolladas en #Ukraine y #Japan por Ivakhnenko y Amari en las décadas de 1960 y 1970, así como otras técnicas, sin citar a los inventores originales. Ninguno de los algoritmos importantes para la IA moderna fue creado por Hopfield & Hinton.
Hoy estoy publicando un informe técnico detallado sobre este [NOB]:
Por supuesto, lo hice revisar por pioneros de redes neuronales y expertos en IA para asegurarme de que era inexpugnable.
¿Es ahora aceptable para mí dirigir a jóvenes estudiantes de doctorado para que lean artículos antiguos y los reescriban y vuelvan a enviar como si fueran sus propios trabajos? Cualquiera que sea la intención, este premio dice que, sí, eso está perfectamente bien.
Algunas personas han perdido sus títulos o trabajos debido al plagio, por ejemplo, el ex presidente de Harvard [PLAG7]. Pero después de este Premio Nobel, ¿cómo pueden los asesores seguir diciéndoles a sus estudiantes que deben evitar el plagio a toda costa?
Es bien sabido que el plagio puede ser "no intencional" o "intencional o imprudente" [PLAG1-6], y el más inocente de los dos puede muy bien ser parcialmente el caso aquí. Pero la ciencia tiene una forma bien establecida de lidiar con el "descubrimiento múltiple" y el plagio, ya sea involuntario [PLAG1-6] [CONN21] o no [FAKE,FAKE2], basado en hechos como las marcas de tiempo de publicaciones y patentes. La deontología de la ciencia requiere que los plagiarios involuntarios corrijan sus publicaciones a través de erratas y luego acrediten adecuadamente las fuentes originales en el futuro. Los premiados no lo hicieron; en cambio, los galardonados seguían recogiendo citas de invenciones de otros investigadores [NOB][DLP]. ¿Este comportamiento no convierte incluso el plagio no intencional [PLAG1-6] en una forma intencional [FAKE2]?
Estoy realmente preocupado por el mensaje que esto envía a todos estos jóvenes estudiantes.
REFERENCIAS
[NOB] J. Schmidhuber (2024). Un Premio Nobel de Plagio. Informe Técnico IDSIA-24-24.
[NOB+] Tweet: el #NobelPrize en Física 2024 de Hopfield & Hinton premia el plagio y la atribución incorrecta en informática. Se trata principalmente de la "red Hopfield" de Amari y la "máquina Boltzmann". (1/7 tan popular como el anuncio original de la Fundación Nobel)
[DLP] J. Schmidhuber (2023). Cómo 3 ganadores del premio Turing volvieron a publicar métodos e ideas clave a cuyos creadores no lograron acreditar. Informe técnico IDSIA-23-23, Swiss AI Lab IDSIA, 14 de diciembre de 2023.
[DLP+] Tweet para [DLP]:
[PLAG1] Guía de Oxford sobre los tipos de plagio (2021). Cita: "El plagio puede ser intencional o imprudente, o no intencional".
[PLAG2] Colegio Comunitario Estatal de Jackson (2022). Plagio involuntario.
[PLAG3] R. L. Foster. Evitar el plagio involuntario. Revista de Especialistas en Enfermería Pediátrica; Hoboken Vol. 12, Iss. 1, 2007.
[PLAG4] N. Das. Intencional o no intencional, nunca está bien plagiar: Una nota sobre cómo se aconseja a las universidades indias manejar el plagio. Perspect Clin Res 9:56-7, 2018.
[PLAG5] InfoSci-OnDemand (2023). ¿Qué es el plagio involuntario?
[PLAG6] (2022). Cómo evitar el plagio accidental e involuntario (2023). Copia en Internet Archive. Cita: "Ya sea accidental o intencional, el plagio sigue siendo plagio".
[PLAG7] Revisión de Cornell, 2024. El presidente de Harvard renuncia por escándalo de plagio. 6 de enero de 2024.
[FALSO] H. Hopf, A. Krief, G. Mehta, S. A. Matlin. La falsa ciencia y la crisis del conocimiento: la ignorancia puede ser fatal. Royal Society Open Science, mayo de 2019. Cita: "Los científicos deben estar dispuestos a hablar cuando vean que se presenta información falsa en las redes sociales, la prensa impresa o televisiva tradicional" y "deben hablar en contra de la información falsa y la ciencia falsa en circulación y contradecir enérgicamente a las figuras públicas que la promueven".
[FAKE2] L. Stenflo. Los plagiarios inteligentes son los más peligrosos. Nature, vol. 427, p. 777 (febrero de 2004). Lo que es peor, en mi opinión, ..., son los casos en que los científicos reescriben los hallazgos anteriores con diferentes palabras, ocultando deliberadamente las fuentes de sus ideas, y luego, durante los años siguientes, afirman enérgicamente que han descubierto nuevos fenómenos.

721.85K
Populares
Ranking
Favoritas
Onchain en tendencia
Tendencia en X
Principales fondos recientes
Más destacadas