Het is echt opmerkelijk hoe snel AI-tools voor Excel zijn geëvolueerd. Zelfs drie maanden geleden vond ik ze bijna volledig onbruikbaar. Vandaag kon ik mijn Uber-model voor de laatste vier kwartalen in een fractie van de tijd bijwerken, nauwkeurig, zelfs als ik de tijd meereken die ik heb besteed aan het debuggen en valideren van de belangrijkste invoer. De drie grote doorbraken voor mij waren het creëren van mijn eigen vaardighedenbestanden, die receptkaarten zijn die een ongelooflijk gedetailleerde ontleding van elke stap van het financiële modelleerproces coderen (samengesteld in een document van 86 pagina's en vervolgens omgevormd tot zes verschillende modelleer vaardigheden... helaas zal ik dit op dit moment niet delen, maar ik zal het in de toekomst overwegen), het verbinden van de Daloopa MCP met Claude in Claude Excel voor nauwkeurige gegevens, en het creëren van een validatieruimte in Perplexity Computer om laatste controles en debugging uit te voeren. (Ik word door geen van beide, Daloopa of Perplexity, of enige leverancier gesponsord) Het is duidelijk dat dit AI-ondersteunde proces alleen waardevol is voor zover het 98%+ nauwkeurig is en 100%+ nauwkeurig op kritieke metrics. Validatie moet een systematisch proces zijn dat coderingstools en menselijke validatielijsten mengt (d.w.z. handmatig controleren van belangrijke modelvariabelen en begrijpen waar in het model tolerantie voor fouten is, en waar niet). Maar het vermogen van nieuwe LLM's om modellen te lezen en te analyseren (vooral GPT 5.4) en de opkomst van Agentic Workspaces zoals Perplexity Computer om taken naar de juiste LLM's te routeren, lijkt hier grote vooruitgang te boeken. Echt spannende dingen. Ik ben hier een grote skepticus geweest... Excel-gebaseerde modellen zijn de basis van institutionele besluitvorming, en ze zijn geen plek voor AI-rommel. Met de technologie die verbetert, vooral workflows rond systematische validatie, smelt die scepsis weg.