Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Frank Downing
Da.
Am auzit că "browserele sunt distribuția supremă pentru agenți". Cred că acest lucru este invers.
Agenții vor folosi browserele ca instrument, printre altele, pentru a îndeplini sarcini.
Te vei gândi la agent ca la produs, nu la browser.
Plătiți pentru ChatGPT Agent, care pornește browserele pentru a îndeplini sarcinile după cum este necesar. Poți să te uiți și să intri, dar nu trebuie.
Aceeași direcție pentru cometa Perplexity. Vine în întâmpinarea utilizatorilor acolo unde se află astăzi, dar în timp agentul va conduce din ce în ce mai mult și îți va păsa din ce în ce mai puțin să vezi cum se face cârnații.

qw22 iul., 03:12
Site-urile web înlocuiesc majoritatea aplicațiilor desktop (ultimele 2 decenii)
apoi agenții înlocuiesc majoritatea site-urilor web (următoarele 2 decenii)
32,72K
Puncte de date bune despre importanța "ingineriei contextului":
Jetoanele de intrare pot fi mai ieftine decât jetoanele de ieșire, dar sarcinile grele de context (cum ar fi codificarea) pot necesita de 300-400 de ori mai multe jetoane de intrare de context decât jetoanele de ieșire, ceea ce face ca contextul să fie de 98% din costurile totale de utilizare a LLM.
Latența crește, de asemenea, cu o dimensiune mai mare a contextului.
Subliniază importanța furnizării contextului potrivit la momentul potrivit atunci când construiți aplicații AI și, presupun, lasă mult loc pentru diferențierea competitivă în aplicațiile SaaS AI-navtive.

Tomasz Tunguz9 iul., 01:36
When you query AI, it gathers relevant information to answer you.
But, how much information does the model need?
Conversations with practitioners revealed the their intuition : the input was ~20x larger than the output.
But my experiments with Gemini tool command line interface, which outputs detailed token statistics, revealed its much higher.
300x on average & up to 4000x.
Here’s why this high input-to-output ratio matters for anyone building with AI:
Cost Management is All About the Input. With API calls priced per token, a 300:1 ratio means costs are dictated by the context, not the answer. This pricing dynamic holds true across all major models.
On OpenAI’s pricing page, output tokens for GPT-4.1 are 4x as expensive as input tokens. But when the input is 300x more voluminous, the input costs are still 98% of the total bill.
Latency is a Function of Context Size. An important factor determining how long a user waits for an answer is the time it takes the model to process the input.
It Redefines the Engineering Challenge. This observation proves that the core challenge of building with LLMs isn’t just prompting. It’s context engineering.
The critical task is building efficient data retrieval & context - crafting pipelines that can find the best information and distilling it into the smallest possible token footprint.
Caching Becomes Mission-Critical. If 99% of tokens are in the input, building a robust caching layer for frequently retrieved documents or common query contexts moves from a “nice-to-have” to a core architectural requirement for building a cost-effective & scalable product.
For developers, this means focusing on input optimization is a critical lever for controlling costs, reducing latency, and ultimately, building a successful AI-powered product.




1,48K
Două volante de întărire accelerează adoptarea AI IDE (mediu de dezvoltare integrat):
1. Volant model-produs:
Pe măsură ce modelele de bază se îmbunătățesc (raționament, planificare, utilizarea instrumentelor), IDE-urile AI construite pe ele se îmbunătățesc instantaneu, conducând la o utilizare mai mare a produselor. Pe măsură ce AI IDE-urile devin consumatori majori de token-uri, furnizorii de modele de bază sunt stimulați să optimizeze aceste fluxuri de lucru, crescând și mai mult performanța.
2. Volant cu datele utilizatorului:
Pe măsură ce IDE-urile AI atrag mai mulți dezvoltatori, ele generează date de utilizare proprietare (ce întreabă dezvoltatorii, cum programează, unde se blochează). Aceste date pot fi folosite pentru a antrena modele specializate reglate fin pentru IDE în sine - ceea ce duce la o experiență de utilizare și performanțe mai bune și la un șanț mai adânc.
#1 beneficiază categoria. #2 aduce beneficii liderului categoriei.
26,17K
Este amuzant pentru mine că Claude face o treabă mai bună în a răspunde la întrebările despre Gmail-ul meu decât face Gemini de la Google.
Cele mai recente versiuni de Gemini îl zdrobesc pe benchmark-uri și au auzit că sunt grozave la codare, dar utilizarea în lumea reală a aplicației Gemini nu s-a potrivit niciodată pentru mine în comparație cu ChatGPT, Claude sau Grok
224,55K
Am publicat un whitepaper cu Coinbase în ianuarie 2017, cu 8 luni înainte ca aceștia să-și ridice runda de serie D la o evaluare de 1,6 miliarde de dolari. Am admirat abordarea companiei de a integra noi utilizatori în economia cripto - > înclinându-se spre inovație cu o viteză mare a produsului, respectând regulile. Astăzi, compania valorează ~65 miliarde USD, reprezentând un randament anualizat de aproximativ 60% pentru investitorii din seria D în ultimii ~8 ani.
Tesla, Palantir și acum Coinbase: Toate companiile pe care piața nu le-a înțeles și le-a pedepsit ca și cum ar fi dat faliment, acum recunoscute ca lideri de categorie în spațiile lor respective și parte a S&P 500. Deși încă credem că unii dintre cei mai buni ani pentru fiecare dintre aceste companii sunt înaintea lor, accesul la inovație devreme, înainte ca o companie să ajungă în marii indici, este esențial pentru construirea unui portofoliu complet.

ARK Invest14 mai 2025
Coinbase is joining the S&P 500. To most, it’s a crypto milestone. To us, it’s a signal. 🧵
264,62K
Limită superioară
Clasament
Favorite
La modă pe lanț
La modă pe X
Principalele finanțări recente
Cele mai importante