Puede que la IA no necesite datos de entrenamiento masivos después de todo | Hannah Robbins, Universidad Johns Hopkins Resumen: Nuevas investigaciones muestran que la IA no necesita datos de entrenamiento interminables para empezar a comportarse más como un cerebro humano. Cuando los investigadores rediseñaron los sistemas de IA para parecerse más a cerebros biológicos, algunos modelos produjeron una actividad similar a la cerebral sin ningún tipo de entrenamiento. Esto desafía el enfoque actual de desarrollar la IA, que consume mucho más datos. El trabajo sugiere que un diseño más inteligente podría acelerar drásticamente el aprendizaje mientras reduce costes y consumo energético. --- Nuevas investigaciones de la Universidad Johns Hopkins muestran que los sistemas de inteligencia artificial construidos con diseños inspirados en la biología pueden empezar a parecerse a la actividad cerebral humana incluso antes de ser entrenados con cualquier dato. El estudio sugiere que la estructura de la IA puede ser tan importante como la cantidad de datos que procesa. Los hallazgos, publicados en Nature Machine Intelligence, desafían la estrategia dominante en el desarrollo de la IA. En lugar de depender de meses de entrenamiento, enormes conjuntos de datos y una enorme potencia computacional, la investigación destaca el valor de partir de una base arquitectónica similar a un cerebro. Replanteando el enfoque centrado en datos en la IA "La forma en que se está moviendo el campo de la IA ahora mismo es lanzando un montón de datos a los modelos y construyendo recursos computacionales del tamaño de ciudades pequeñas. Eso requiere gastar cientos de miles de millones de dólares. Mientras tanto, los humanos aprenden a ver usando muy pocos datos", dijo Mick Bonner, autor principal y profesor adjunto de ciencias cognitivas en la Universidad Johns Hopkins. "La evolución puede haber convergido hacia este diseño por una buena razón. Nuestro trabajo sugiere que los diseños arquitectónicos más cerebrales sitúan a los sistemas de IA en un punto de partida muy ventajoso." Bonner y sus colegas pretendían comprobar si la arquitectura por sí sola podía dar a los sistemas de IA un punto de partida más humano, sin depender de un entrenamiento a gran escala. Comparando arquitecturas de IA populares El equipo de investigación se centró en tres tipos principales de diseños de redes neuronales comúnmente utilizados en sistemas modernos de IA: transformadores, redes totalmente conectadas y redes neuronales convolucionales. Ajustaron repetidamente estos diseños para crear decenas de redes neuronales artificiales diferentes. Ninguno de los modelos fue entrenado previamente. Los investigadores mostraron a los sistemas no entrenados imágenes de objetos, personas y animales y compararon su actividad interna con las respuestas cerebrales de humanos y primates no humanos que observan las mismas imágenes. Por qué destacaban las redes convolucionales Aumentar el número de neuronas artificiales en transformadores y redes totalmente conectadas produjo pocos cambios significativos. Sin embargo, ajustes similares a las redes neuronales convolucionales dieron lugar a patrones de actividad que se asemejan más a los observados en el cerebro humano. Según los investigadores, estos modelos convolucionales no entrenados funcionaron a la par con los sistemas de IA tradicionales que normalmente requieren exposición a millones o incluso miles de millones de imágenes. Los resultados sugieren que la arquitectura juega un papel más importante en la configuración del comportamiento similar al cerebral de lo que se creía anteriormente. Un camino más rápido hacia una IA más inteligente ...