Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
J'entends de plus en plus souvent cet argument.
Et d'un point de vue technique, c'est probablement vrai.
Cependant, je pense que cela néglige le rôle d'Excel dans le processus d'investissement... Excel est un outil simple, fiable, presque sans bogues et déterministe pour analyser les fondamentaux historiques et faire des prévisions sur les fondamentaux futurs (où se trouve l'alpha). Vous seriez surpris de voir à quel point les modèles de nombreux grands investisseurs semblent simplistes, et cela reflète la réalité que la plupart des investissements dépendent de 2 à 3 variables clés.
Le modèle est également un outil de communication essentiel. "J'aimerais construire mes modèles en Python, mais mon CIO veut toujours voir le tableur" est une réponse courante. Un fichier Excel peut être envoyé par e-mail, enregistré localement sur un ordinateur portable pour des réunions de direction / des visites au siège, et très facilement validé (votre modèle peut avoir 800 lignes, mais généralement seulement ~5-10% des entrées nécessitent une vérification rigoureuse car elles pourraient faire ou défaire la sortie du modèle... c'est-à-dire que les D&A du T3 d'il y a 6 ans ne vont pas faire ou défaire une thèse, mais un chiffre de bénéfice brut proprement ajusté de l'année dernière qui s'aligne avec la directive douce de la direction sur la trajectoire des bps de GM, pourrait).
Je pense que certaines personnes passent également sous silence le fait que l'IDE vers le MCP n'est pas encore précis. C'est mieux, mais les capacités de récupération multi-documents ne sont pas encore matures. Un modèle Excel à 70% de précision est très frustrant, en particulier lorsque vous avez délégué l'expérience de sa construction et que vous n'avez pas le contexte personnel pour le déboguer. Dans notre grille d'outils d'IA feu vert/jaune/rouge, les modèles d'agents de codage sont passés du feu rouge au feu jaune, mais ne passeront au feu vert que lorsque 95%+ de précision sera atteint.
Donc, c'est une question de confiance et d'utilisabilité. Les tableurs ne sont pas parfaits, mais ils ne hallucinent pas. Les analystes ne sont pas parfaits, mais ils vérifient et valident les ~5-10% des entrées clés (sinon, ils ne durent pas longtemps). "Mais les analystes font des erreurs...". Oui, ils le font, mais les grands analystes savent où l'inexactitude du modèle est acceptable / non essentielle et où une entrée est critique pour la mission et se préoccupent des vérifications/validations et d'une structure de modélisation à approche multiple. L'exactitude humaine dans les domaines contingents de la thèse du modèle, de mon expérience, est de 99,99% (je ne peux penser qu'à une ou deux erreurs brutales liées à la thèse dans 5 entreprises et les deux avaient de réelles implications de carrière pour l'analyste, et étaient un très mauvais regard sur le PM qui aurait dû les attraper).
Et les tableurs Excel sont tout simplement intensément utiles, en haut, en bas et à travers l'organisation, car l'analyste qui gère le tableur n'est que rarement le décideur final en matière d'investissement... le tableau Excel est un outil de réflexion et un outil de communication, avant tout.
Cela pourrait changer, mais cela nécessite le soutien du CIO/PM/MD, ce que je ne sens pas se produire (pour l'instant).
Donc, dans ce contexte, je parie que la fin des tableurs est encore loin (tout en expérimentant joyeusement avec les nouveaux outils...)
Meilleurs
Classement
Favoris
