En 2026, la IA pasará del bombo al pragmatismo | Rebecca Bellan & Ram Iyer, TechCrunch Si 2025 fue el año en que la IA recibió una prueba de vibra, 2026 será el año en que la tecnología se vuelva práctica. El enfoque ya se está desplazando de construir modelos de lenguaje cada vez mayores hacia el trabajo más difícil de hacer que la IA sea utilizable. En la práctica, eso implica desplegar modelos más pequeños donde encajen, integrar inteligencia en dispositivos físicos y diseñar sistemas que se integren de forma limpia en los flujos de trabajo humanos. Los expertos con los que TechCrunch habló ven 2026 como un año de transición, que evoluciona desde el escalado por fuerza bruta hasta la investigación de nuevas arquitecturas, desde demos llamativas hasta despliegues dirigidos, y desde agentes que prometen autonomía hasta aquellos que realmente mejoran la forma en que las personas trabajan. La fiesta no ha terminado, pero la industria empieza a despejarse. Las leyes de escalado no son suficientes En 2012, el artículo de Alex Krizhevsky, Ilya Sutskever y Geoffrey Hinton en ImageNet mostró cómo los sistemas de IA podían "aprender" a reconocer objetos en imágenes observando millones de ejemplos. El enfoque era computacionalmente costoso, pero posible gracias a las GPUs. ¿El resultado? Una década de investigación intensiva en IA mientras los científicos trabajaban para inventar nuevas arquitecturas para diferentes tareas. Eso culminó alrededor de 2020 cuando OpenAI lanzó GPT-3, que mostró cómo simplemente hacer el modelo 100 veces más grande desbloquea capacidades como la programación y el razonamiento sin requerir entrenamiento explícito. Esto marcó la transición hacia lo que Kian Katanforoosh, CEO y fundador de la plataforma de agentes de IA Workera, denomina la "era del escalado": un periodo definido por la creencia de que más computación, más datos y modelos transformadores más grandes inevitablemente impulsarían los próximos grandes avances en IA. Hoy en día, muchos investigadores creen que la industria de la IA está empezando a agotar los límites de las leyes de escalabilidad y volverá a entrar en una era de investigación. Yann LeCun, antiguo científico jefe de IA de Meta, ha argumentado durante mucho tiempo en contra de la excesiva dependencia del escalado y ha subrayado la necesidad de desarrollar mejores arquitecturas. Y Sutskever dijo en una entrevista reciente que los modelos actuales se están estancando y que los resultados de preentrenamiento se han aplanado, lo que indica la necesidad de nuevas ideas. "Creo que lo más probable es que en los próximos cinco años encontremos una arquitectura mejor que suponga una mejora significativa respecto a los transformers", dijo Katanforoosh. "Y si no lo hacemos, no podemos esperar mucha mejora en los modelos." A veces, menos es más Los grandes modelos de lenguaje son excelentes para generalizar el conocimiento, pero muchos expertos afirman que la próxima ola de adopción de la IA empresarial estará impulsada por modelos de lenguaje más pequeños y ágiles que puedan ajustarse para soluciones específicas de dominio. "Los SLM ajustados serán la gran tendencia y se convertirán en un elemento básico utilizado por las empresas maduras de IA en 2026, ya que las ventajas de coste y rendimiento impulsarán el uso frente a los LLMs listos para usar", dijo Andy Markus, director de datos de AT&T, a TechCrunch. "Ya hemos visto cómo las empresas dependen cada vez más de los SLM porque, si se ajustan correctamente, igualan en precisión los modelos más grandes y generalizados para aplicaciones empresariales, y son excelentes en términos de coste y rapidez." Ya hemos visto este argumento antes de la startup francesa de IA de peso abierto Mistral: sostiene que sus modelos pequeños en realidad rinden mejor que los modelos más grandes en varios benchmarks tras ajustarlos finamente. "La eficiencia, la rentabilidad y la adaptabilidad de los SLM los hacen ideales para aplicaciones personalizadas donde la precisión es primordial", dijo Jon Knisley, estratega de IA en ABBYY, una empresa de IA empresarial con sede en Austin. ...