Har hørt dette argumentet oftere i det siste. Og fra et teknisk sett er det sannsynligvis sant. Men jeg mener dette overser Excels rolle i investeringsprosessen... Excel er et enkelt, pålitelig, stort sett feilfritt, deterministisk verktøy for å analysere historiske fundamentale forhold og lage prognoser om fremtidige fundamentale forhold (hvor alfaen befinner seg). Du blir overrasket over hvor enkle modellene til mange gode investorer ser ut, og dette gjenspeiler realiteten at de fleste investeringer avhenger av 2-3 nøkkelvariabler. Modellen er også et kjerneverktøy for kommunikasjon. "Jeg skulle gjerne bygget modellene mine i Python, men CIO-en min vil fortsatt se regnearket" er et vanlig svar. En Excel-fil kan sendes på e-post, lagres lokalt på en bærbar PC for ledelsesmøter / hovedkontorbesøk, og er veldig enkelt å validere (modellen din kan ha 800 rader, men generelt trenger bare ~5-10 % av inputene grundig trippelsjekk siden de kan gjøre eller ødelegge modellresultatet... Altså, for 6 år siden Q3 D&A vil ikke avgjøre en tese, men et rent, korrekt justert bruttoresultat fra året før som samsvarer med ledelsens myke guide for GMs BPS-utvikling, kan gjøre det. Jeg tror noen også overser at IDE til MCP ikke er nøyaktig ennå. Det er bedre, men muligheter for å hente flere dokumenter er ennå ikke modne. En 70 % nøyaktig Excel-modell er svært frustrerende, spesielt når du har fjernet opplevelsen av å bygge den og ikke har den personlige konteksten til å feilsøke. I vår grønn/gul/rød lys AI-verktøyrubrikk har kodingsagentmodellene gått fra rødt lys til gult lys, men vil ikke gå over til grønt lys før 95 %+ nøyaktighet er oppnådd. Så det handler om selvtillit og brukervennlighet. Regneark er ikke perfekte, men de hallusinerer ikke. Analytikere er ikke perfekte, men de trippelsjekker og validerer ~5-10 % nøkkelinndata (eller de varer ikke lenge). "Men analytikere gjør feil...". Ja, det gjør de, men dyktige analytikere vet hvor modellunøyaktighet er akseptabelt / ikke-kjerne, og hvor en input er kritisk, og de er besatt av sjekker/valideringer og en flertilnærmingsbasert modelleringsstruktur. Menneskelig nøyaktighet i avhandlingsbaserte områder av modellen, etter min erfaring, er 99,99 % (jeg kan bare komme på én eller to brutale oppgavebetingede feil på tvers av fem firmaer, og begge hadde reelle karrieremessige konsekvenser for analytikeren, og var et veldig dårlig inntrykk på prosjektlederen som burde ha oppdaget det). Og Excel-ark er bare ekstremt nyttige opp, ned og over hele organisasjonen, siden analytikeren som styrer regnearket sjelden er den endelige investeringsbeslutningstakeren... Excel-arket er et tenkeverktøy og et kommunikasjonsverktøy, fremfor alt annet. Dette kan endre seg, men krever CIO/PM/MD-sponsing, noe jeg ikke merker skjer (ennå). Så, med den konteksten, tar jeg under på slutten av regneark (mens jeg gledelig eksperimenterer med de nye verktøyene...)