To naprawdę niezwykłe, jak szybko narzędzia AI do Excela się rozwinęły. Jeszcze trzy miesiące temu uznałem je za prawie całkowicie nieużyteczne. Dziś udało mi się zaktualizować mój model Ubera za ostatnie cztery kwartały w ułamku czasu, dokładnie, nawet biorąc pod uwagę czas, który spędziłem na debugowaniu i weryfikacji kluczowych danych wejściowych. Trzy największe odkrycia dla mnie to stworzenie własnych plików umiejętności, które są kartami przepisów kodującymi niezwykle szczegółowe rozbicie każdego kroku procesu modelowania finansowego (złożone w 86-stronicowy dokument, a następnie przekształcone w sześć odrębnych umiejętności modelowania...niestety, nie będę tego teraz udostępniać, ale rozważę to w przyszłości), połączenie Daloopa MCP z Claude w Claude Excel dla dokładnych danych oraz stworzenie przestrzeni weryfikacyjnej w Perplexity Computer do przeprowadzania ostatecznych kontroli i debugowania. (Nie jestem sponsorowany ani przez Daloopa, ani przez Perplexity, ani przez żadnego dostawcę w tej sprawie) Oczywiście ten proces wspomagany przez AI jest wartościowy tylko w takim stopniu, w jakim jest dokładny w 98%+ i w 100%+ w kluczowych metrykach. Weryfikacja musi być systematycznym procesem łączącym narzędzia kodowania i ludzkie listy kontrolne weryfikacji (tj. ręczne sprawdzanie kluczowych zmiennych modelu i zrozumienie, gdzie w modelu jest tolerancja na błędy, a gdzie jej nie ma). Ale zdolność nowych LLM do czytania i analizowania modeli (szczególnie GPT 5.4) oraz wzrost Agentic Workspaces, takich jak Perplexity Computer, do kierowania zadań do odpowiednich LLM wydaje się przynosić duży postęp w tej kwestii. Naprawdę ekscytujące rzeczy. Byłem tutaj ogromnym sceptykiem...modele oparte na Excelu są fundamentem podejmowania decyzji instytucjonalnych i nie ma w nich miejsca na błędy AI. Wraz z poprawą technologii, szczególnie w zakresie systematycznej weryfikacji, ten sceptycyzm topnieje.