Det er virkelig bemerkelsesverdig hvor raskt AI-verktøy for Excel har utviklet seg. Selv for tre måneder siden fant jeg dem nesten helt ubrukelige. I dag klarte jeg å oppdatere Uber-modellen min for de siste fire kvartalene på en brøkdel av tiden, nøyaktig, selv når jeg tar i betraktning tiden jeg brukte på feilsøking og validering av nøkkelinputene. De tre store opplåsningene for meg var å lage mine egne ferdighetsfiler, som er oppskriftskort som koder en utrolig detaljert analyse av hvert steg i den finansielle modelleringsprosessen (satt sammen i et 86-siders dokument og deretter satt sammen til seks distinkte modelleringsferdigheter... dessverre vil jeg ikke dele dette nå, men vil vurdere det senere), kobler Daloopa MCP til Claude i Claude Excel for nøyaktige data, og oppretter et valideringsrom i Perplexity Computer for å gjøre siste sjekker og feilsøking. (Jeg er ikke sponset av verken Daloopa eller Perplexity, eller noen leverandør for den saks skyld) Selvfølgelig er denne AI-forsterkede prosessen bare verdifull i den grad den er 98 %+ nøyaktig og 100%+ nøyaktig på kritiske måleparametere. Validering må være en systematisk prosess som kombinerer kodeverktøy og sjekklister for menneskelig validering (dvs. manuell kontroll av nøkkelmodellvariabler og forståelse av hvor i modellen det er toleranse for feil, og hvor det ikke er det). Men evnen til nye LLM-er til å lese og analysere modeller (spesielt GPT 5.4) og fremveksten av agentiske arbeidsområder som Perplexity Computer for å rute oppgaver til riktige LLM-er, ser ut til å gi store fremskritt her. Virkelig spennende greier. Jeg har vært en stor skeptiker her... Excel-baserte modeller er grunnlaget for institusjonelle beslutninger, og de er ikke et sted for AI-søl. Med teknologien som forbedres, spesielt arbeidsflytene rundt systematisk validering, smelter denne skepsisen bort.