Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Voi oferi puțină mai multă specificitate și câteva fragmente dintr-un exemplu.
De multe luni, oamenii vorbesc despre un "moment cursor" în finanțe, unde fluxul de lucru se schimbă atât de dramatic încât ajungi la partea abruptă a unei curbe de adopție. Am fost foarte sceptic în privința asta, din câteva motive.
Dar cel mai fundamental motiv este că tehnologia LLM pur și simplu nu exista. Modelele de bază pur și simplu nu aveau suficientă putere pentru a interacționa cu foile Excel într-un mod utilizabil (în ciuda demonstrațiilor spectaculoase...). Chiar dacă rezolvi (foarte complicate) provocări legate de date, LLM-urile din 2025 pur și simplu nu aveau puterea de a interacționa cu foile de calcul.
Așadar, am putea sta și discuta multe idei și concepte despre cum AI ar putea suplimenta cercetarea instituțională în investiții. Dar era doar atât, un concept.
Am o serie de teste pe care le rulez pe modele noi AI care sunt teste de capabilități pentru fluxuri de lucru de cercetare în stil hedge fund. Și cel mai simplu este să încarci un fișier Excel existent ca să vezi dacă LLM-ul poate înțelege ce se întâmplă. Dacă LLM-urile nu pot citi și înțelege suficient un model Excel, întreaga stivă de fluxuri de lucru AI Excel pur și simplu nu este posibilă (după părerea mea). Și o pierdere de timp să încerci să explorezi.
Acest lucru nu a funcționat într-un mod impresionant (Opus 4.6 putea face asta, dar nu bine). Până ieri, cu gândirea GPT-5.4.
Dintr-o dată, pot obține ceva care nu este doar modest util, ci cred că va deveni imediat parte din fluxul meu de investiții.
Eu numesc asta "revizuire PM" sau o evaluare structurată și o contestație față de un model. Am participat la literalmente sute de astfel de evenimente, atât ca analist, cât și ca PM. Practic, analistul construiește un model, îl trimite PM-ului și îl parcurg împreună. PM-ul înțelept, cu experiență, va sfâșia modelul, va rezista și va ajuta la direcționarea modelului către un rezultat utilizabil.
Un PM excelent va putea să se concentreze pe cele două sau trei variabile cheie care contează și să identifice presupuneri agresive sau conservatoare. Un analist poate propune o acțiune unde inputul cantitativ de bază este susținut de o logică defectuoasă. Iar rolul prim-ministrului este să încerce să identifice acea logică defectuoasă. Acest flux de lucru, pentru mine, este un factor cheie între PM-ii buni și cei nebuni.
Totuși, acest flux de lucru nu este doar pentru PM-uri; Este pentru analiștii care încearcă să-și evalueze propria muncă, analiștii colegi care doresc să ofere o reacție atentă asupra ideilor la care echipa ar putea participa, directorul echipelor noastre de cercetare care doresc să evalueze eficient procesul de subscriere a ideilor. Sau mesaje private pentru prima variantă dacă se uită la multe idei.
Aspectul intrigant al completării acestui proces cu AI este că scalează incredibil. Și poate funcționa autonom. Pe 300 de modele aș putea avea o mulțime de agenți care să facă due diligence automat asupra factorilor cheie, actualizând acele modele, trimițându-mi rezultatele înapoi și semnalând care dintre ideile mele acoperite au potențial de revizuire a câștigurilor. Acest flux de lucru este, după părerea mea, "momentul cursorului" pentru cercetarea în acțiuni publice. Nu spun că suntem acolo, deoarece acuratețea datelor și structurile necesare pentru a integra datele interne sunt încă în curs de dezvoltare. Dar tocmai am făcut un pas înainte în ceea ce privește capacitatea tehnologică.
Am testat asta în GPT-5.4. Și deși nu este perfect, este prima dată când primesc ceva util înapoi la acest test.
Te voi ghida prin câțiva pași ca să faci asta singur.
Pasul 1: descărcare a creierului în Claude. Nu știu dacă există vreo logică sau doar un obicei personal, dar dacă execut în Chat GPT, fac meta prompt și Claude și invers. Nu sunt sigur unde contează atât de mult meta prompt-ul tău pentru tipurile de workflow-uri pe care le fac eu, dar CU SIGURANȚĂ contează dacă faci meta prompt vs. raw prompt, așa că nu sări peste acest pas.
Pasul 2: ia acea ieșire a promptului, transformă-o în Markdown și pune-o ca instrucțiuni personalizate într-un proiect GPT. Este doar o chestiune de eficiență a fluxului de lucru, pentru că acum am un proiect GPT în care pot încărca orice model.
...



Limită superioară
Clasament
Favorite
