Ich höre dieses Argument in letzter Zeit häufiger. Und aus einer technischen Fähigkeitssicht wahrscheinlich wahr. Ich denke jedoch, dass dies die Rolle von Excel im Investitionsprozess verfehlt... Excel ist ein einfaches, vertrauenswürdiges, größtenteils fehlerfreies, deterministisches Werkzeug zur Analyse historischer Fundamentaldaten und zur Erstellung von Prognosen über zukünftige Fundamentaldaten (wo der Alpha lebt). Sie werden überrascht sein, wie simpel die Modelle vieler großer Investoren aussehen, und das spiegelt die Realität wider, dass die meisten Investitionen von 2-3 Schlüsselvariablen abhängen. Das Modell ist auch ein zentrales Kommunikationswerkzeug. "Ich würde meine Modelle gerne in Python erstellen, aber mein CIO möchte immer noch die Tabelle sehen" ist eine häufige Antwort. Eine Excel-Datei kann per E-Mail versendet, lokal auf einem Laptop für Management-Meetings / HQ-Besuche gespeichert und sehr einfach validiert werden (Ihr Modell kann 800 Zeilen umfassen, aber im Allgemeinen müssen nur ~5-10% der Eingaben rigoros dreifach überprüft werden, da sie das Modelloutput beeinflussen können... d.h. die D&A von vor 6 Jahren wird eine These nicht beeinflussen, aber eine saubere, richtig angepasste Bruttogewinnzahl von vor einem Jahr, die mit der weichen Anleitung des Managements zur GM-BPS-Trajektorie übereinstimmt, könnte). Ich denke, einige Leute übersehen auch, dass IDE zu MCP noch nicht genau ist. Es ist besser, aber die Multi-Dokumentenabruf-Fähigkeiten sind noch nicht ausgereift. Ein 70% genaues Excel-Modell ist äußerst frustrierend, insbesondere wenn Sie die Erfahrung des Aufbaus abgegeben haben und nicht den persönlichen Kontext haben, um es zu debuggen. In unserem grün/gelb/rot Licht AI-Tools-Raster haben sich die Codierungsagenten-Modelle von Rotlicht zu Gelblicht verschoben, werden aber nicht auf Grünlicht wechseln, bis eine Genauigkeit von 95%+ erreicht ist. Es geht also um Vertrauen und Benutzerfreundlichkeit. Tabellenkalkulationen sind nicht perfekt, aber sie halluzinieren nicht. Analysten sind nicht perfekt, aber sie überprüfen und validieren die ~5-10% der Schlüsselinputs dreifach (oder sie halten nicht lange durch). "Aber Analysten machen Fehler...". Ja, das tun sie, aber großartige Analysten wissen, wo Modellungenauigkeiten akzeptabel / nicht zentral sind und wo ein Input entscheidend ist und sie obsessiv über Überprüfungen/Validierungen und eine Multi-Ansatz-Modellierungsstruktur nachdenken. Die menschliche Genauigkeit in thesenabhängigen Bereichen des Modells liegt meiner Erfahrung nach bei 99,99% (ich kann nur an ein oder zwei brutale thesenabhängige Fehler in 5 Firmen denken, und beide hatten echte Karriereauswirkungen für den Analysten und waren ein sehr schlechtes Licht auf den PM, der es hätte bemerken sollen). Und Excel-Tabellen sind einfach extrem nützlich, nach oben, unten und quer durch die Organisation, da der Analyst, der die Tabelle führt, selten der endgültige Entscheidungsträger für die Investition ist... die Excel-Tabelle ist ein Denkwerkzeug und ein Kommunikationswerkzeug, vor allem. Das könnte sich ändern, erfordert jedoch die Unterstützung von CIO/PM/MD, was ich (noch) nicht spüre. Also, mit diesem Kontext werde ich die Wette auf das Ende der Tabellenkalkulationen eingehen (während ich freudig mit den neuen Werkzeugen experimentiere...)