Ik zal hier iets meer specificiteit over geven, en snippets van een voorbeeld. Al maandenlang praten mensen over een "Cursor-moment" in de financiën, waar de workflow zo dramatisch verandert dat je het steile deel van een adoptiecurve bereikt. Ik ben daar om een paar redenen zeer sceptisch over geweest. Maar de meest fundamentele reden is dat de LLM-technologie gewoon niet op dat niveau was. De fundamentmodellen hadden simpelweg niet genoeg kracht om op een bruikbare manier met Excel-spreadsheets te interageren (ondanks spectaculaire demo's...). Zelfs als je de (zeer complexe) dataproblemen oplost, hadden LLM's uit 2025 gewoon niet de kracht om met spreadsheets te interageren. Dus we zouden kunnen zitten en praten over veel ideeën en concepten over hoe AI institutioneel investeringsonderzoek zou kunnen aanvullen. Maar het was gewoon dat, een concept. Ik heb een reeks tests die ik uitvoer op nieuwe AI-modellen die capaciteits-tests zijn voor hedgefonds-stijl onderzoeksworkflows. En de gemakkelijkste is gewoon het uploaden van een bestaand Excel-bestand om te zien of de LLM kan begrijpen wat er aan de hand is. Als LLM's niet voldoende een Excel-model kunnen lezen en begrijpen, is de volledige stapel AI Excel-workflows gewoon niet mogelijk (naar mijn mening). En het is tijdverspilling om te proberen dit te verkennen. Dit werkte niet op enige indrukwekkende manier (Opus 4.6 kon het doen, maar niet goed). Tot gisteren, met GPT-5.4 Thinking. Plotseling kan ik nu iets krijgen dat niet alleen bescheiden nuttig is, maar waarvan ik denk dat het onmiddellijk deel zal uitmaken van mijn investeringsprocesworkflow. Ik noem het "PM Review", of een gestructureerde evaluatie en terugkoppeling op een model. Ik heb letterlijk aan honderden van deze deelgenomen als zowel analist als PM. Effectief bouwt de analist een model, stuurt het naar de PM, en ze lopen er samen doorheen. De wijze, ervaren PM zal het model uit elkaar trekken, terugduwen, en helpen het model naar een bruikbare uitkomst te sturen. Een geweldige PM zal in staat zijn om zich te concentreren op de twee of drie belangrijkste variabelen die ertoe doen en agressieve of conservatieve aannames te identificeren. Een analist kan een aandeel voorstellen waar de kernkwantitatieve input wordt ondersteund door gebrekkige logica. En de taak van de PM is om die gebrekkige logica te proberen te identificeren. Deze workflow is voor mij een belangrijke onderscheidende factor tussen goede en minder goede PM's. Echter, deze workflow is niet alleen voor PM's; het is voor analisten die hun eigen werk proberen te evalueren, peer-analisten die doordachte terugkoppeling willen geven op ideeën waar het team aan kan deelnemen, onze directeur van onderzoeksteams die efficiënt het idee-ondersteuningsproces willen evalueren. Of PM's voor de eerste selectie als ze naar veel ideeën kijken. Het intrigerende aspect van het aanvullen van dit proces met AI is dat het ongelooflijk schaalt. En het kan autonoom draaien. Over 300 modellen zou ik een zwerm agenten kunnen hebben die geautomatiseerd due diligence doen op de belangrijkste drijfveren, die die modellen bijwerken, die resultaten aan mij teruggeven, en die aangeven welke van mijn gedekte ideeën potentieel voor winstherziening hebben. Deze workflow is het "Cursor-moment" voor openbaar aandelenonderzoek, naar mijn mening. Ik zeg niet dat we er op dit moment zijn, aangezien de datanauwkeurigheid en de structuren die nodig zijn om interne gegevens te integreren nog in ontwikkeling zijn. Maar we hebben zojuist een stap vooruit gezet in de technologische capaciteit. Ik heb dit getest in GPT-5.4. En hoewel het niet perfect is, is dit de eerste keer dat ik iets heb ontvangen dat nuttig is terug in deze test. Ik zal je door een paar stappen leiden om dit zelf te doen. Stap 1: brain dump in Claude. Ik weet niet of er enige logica achter zit of gewoon mijn eigen gewoonte, maar als ik in Chat GPT werk, zal ik meta-prompten en Claude en vice versa. Ik weet niet zeker waar je meta-prompten veel uitmaakt voor de soorten workflows die ik doe, maar het doet ZEKER ertoe als je meta-prompt versus raw prompt, dus sla deze stap niet over. Stap 2: neem die prompt-output, zet het om in Markdown, en zet dat als aangepaste instructies in een GPT-project. Dit is gewoon een workflow-efficiëntie omdat ik nu een GPT-project heb waarin ik elk model kan uploaden. ...