On todella hämmästyttävää, kuinka nopeasti tekoälytyökalut Excelille ovat kehittyneet. Jo kolme kuukautta sitten ne olivat lähes käyttökelvottomia. Tänään pystyin päivittämään Uber-mallini viimeisille neljälle neljännekselle murto-osassa ajasta, tarkasti, vaikka otan huomioon ajan, jonka käytin avainsyötteiden de-buggaukseen ja validointiin. Kolme suurta avautumista minulle olivat omien taitotiedostojen luominen, jotka ovat reseptikortteja, jotka koodaavat uskomattoman yksityiskohtaisen analyysin jokaisesta talousmallinnusprosessin vaiheesta (koottuna 86-sivuiseen dokumenttiin ja sitten kuuteen erilliseen mallinnustaidoksi) valitettavasti en aio jakaa tätä tällä hetkellä, mutta harkitsen sitä myöhemmin), yhdistämällä Daloopa MCP:n Claudeen Claude Excelissä tarkkaa dataa varten ja luomalla validointitilan Perplexity Computeriin viimeisiä tarkistuksia ja debuggausta varten. (En ole sponsoroitu kummaltakaan Daloopalta, Perplexityltä tai minkään myyjän toimesta) Tämä tekoälypohjainen prosessi on tietenkin arvokas vain siinä määrin kuin se on 98 %+ tarkka ja 100 %+ tarkka kriittisissä mittareissa. Validoinnin täytyy olla systemaattinen prosessi, jossa yhdistetään koodaustyökalut ja ihmisen validointitarkistuslistat (eli keskeisten mallimuuttujien käsin tarkistaminen ja ymmärtäminen, missä mallissa on virheiden sietokykyä ja missä ei). Mutta uusien LLM:ien kyky lukea ja analysoida malleja (erityisesti GPT 5.4) sekä agenttityötilojen, kuten Perplexity Computerin, nousu ohjata tehtäviä oikeille LLM:ille näyttää johtavan suureen edistykseen tässä tilanteessa. Todella jännittävää tavaraa. Olen ollut suuri skeptikko tässä... Excel-pohjaiset mallit muodostavat institutionaalisen päätöksenteon perustan, eivätkä ne ole paikka tekoälyn roskalle. Teknologian kehittyessä, erityisesti systemaattisen validoinnin työnkulujen myötä, skeptisyys on sulamassa.