Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Frank Downing
Tak.
Słyszałem, że "przeglądarki są ostatecznym sposobem dystrybucji dla agentów". Myślę, że to jest błędne.
Agenci będą używać przeglądarek jako narzędzia, obok innych, do realizacji zadań.
Będziesz myśleć o agencie jako o produkcie, a nie o przeglądarce.
Płacisz za ChatGPT Agenta, który uruchamia przeglądarki, aby realizować zadania w razie potrzeby. Możesz obserwować i włączyć się, ale nie musisz.
Ta sama tendencja dotyczy Cometa Perplexity. Spotyka użytkowników tam, gdzie są dzisiaj, ale z czasem agent będzie coraz bardziej dominował, a ty będziesz coraz mniej zainteresowany tym, jak powstaje kiełbasa.

qw22 lip, 03:12
strony internetowe zastępują większość aplikacji desktopowych (ostatnie 2 dekady)
następnie agenci zastępują większość stron internetowych (następne 2 dekady)
32,74K
Dobre punkty danych na temat znaczenia "inżynierii kontekstu":
Tokeny wejściowe mogą być tańsze niż tokeny wyjściowe, ale zadania wymagające dużego kontekstu (takie jak kodowanie) mogą wymagać 300-400 razy więcej tokenów wejściowych kontekstu niż tokenów wyjściowych, co sprawia, że kontekst stanowi 98% całkowitych kosztów użytkowania LLM.
Opóźnienie również rośnie wraz z większym rozmiarem kontekstu.
Podkreśla to znaczenie dostarczania odpowiedniego kontekstu w odpowiednim czasie podczas budowania aplikacji AI i, zakładam, pozostawia wiele miejsca na różnicowanie konkurencyjne w aplikacjach SaaS z natywną AI.

Tomasz Tunguz9 lip, 01:36
Kiedy pytasz AI, zbiera ono odpowiednie informacje, aby ci odpowiedzieć.
Ale ile informacji potrzebuje model?
Rozmowy z praktykami ujawniły ich intuicję: wejście było ~20 razy większe niż wyjście.
Jednak moje eksperymenty z interfejsem wiersza poleceń narzędzia Gemini, które wyświetla szczegółowe statystyki tokenów, ujawniły, że jest to znacznie wyższe.
Średnio 300 razy i do 4000 razy.
Oto dlaczego ten wysoki stosunek wejścia do wyjścia ma znaczenie dla każdego, kto buduje z AI:
Zarządzanie kosztami opiera się na wejściu. Przy wywołaniach API wycenianych na token, stosunek 300:1 oznacza, że koszty są dyktowane przez kontekst, a nie przez odpowiedź. Ta dynamika cenowa jest prawdziwa we wszystkich głównych modelach.
Na stronie cenowej OpenAI, tokeny wyjściowe dla GPT-4.1 są 4 razy droższe niż tokeny wejściowe. Ale gdy wejście jest 300 razy bardziej obszerne, koszty wejścia wciąż stanowią 98% całkowitego rachunku.
Opóźnienie jest funkcją rozmiaru kontekstu. Ważnym czynnikiem decydującym o tym, jak długo użytkownik czeka na odpowiedź, jest czas, jaki model potrzebuje na przetworzenie wejścia.
Przedefiniowuje to wyzwanie inżynieryjne. Ta obserwacja dowodzi, że podstawowym wyzwaniem budowania z LLM-ami nie jest tylko podpowiadanie. To inżynieria kontekstu.
Krytycznym zadaniem jest budowanie efektywnego pobierania danych i kontekstu - tworzenie pipeline'ów, które mogą znaleźć najlepsze informacje i destylować je do jak najmniejszego śladu tokenów.
Caching staje się kluczowy. Jeśli 99% tokenów znajduje się w wejściu, budowanie solidnej warstwy cache dla często pobieranych dokumentów lub wspólnych kontekstów zapytań przechodzi z "miłego do posiadania" do kluczowego wymogu architektonicznego dla budowania opłacalnego i skalowalnego produktu.
Dla deweloperów oznacza to, że skupienie się na optymalizacji wejścia jest kluczowym narzędziem do kontrolowania kosztów, redukcji opóźnień i ostatecznie budowania udanego produktu zasilanego AI.




1,5K
Dwa wzmacniające koła zamachowe przyspieszają adopcję AI IDE (zintegrowane środowisko programistyczne):
1. Koło zamachowe model-produkt:
W miarę jak modele podstawowe się poprawiają (rozumowanie, planowanie, użycie narzędzi), AI IDE zbudowane na ich podstawie natychmiast stają się lepsze, co prowadzi do większego wykorzystania produktu. W miarę jak AI IDE stają się głównymi konsumentami tokenów, dostawcy modeli podstawowych są motywowani do optymalizacji tych przepływów pracy — co dodatkowo zwiększa wydajność.
2. Koło zamachowe użytkownik-dane:
W miarę jak AI IDE przyciągają więcej programistów, generują własne dane dotyczące użytkowania (co programiści pytają, jak kodują, gdzie napotykają trudności). Te dane mogą być używane do trenowania wyspecjalizowanych modeli dostosowanych do samego IDE — co prowadzi do lepszego UX i wydajności oraz głębszej bariery wejścia.
Korzyść #1 dotyczy całej kategorii. Korzyść #2 dotyczy lidera kategorii.
26,19K
Dla mnie to zabawne, że Claude lepiej odpowiada na pytania dotyczące mojego Gmaila niż Google Gemini.
Najnowsze wersje Gemini radzą sobie świetnie w testach wydajności i słyszałem anegdotycznie, że są świetne w programowaniu, ale rzeczywiste użycie aplikacji Gemini nigdy nie dorównywało dla mnie ChatGPT, Claude'owi czy Grokowi.
224,56K
Opublikowaliśmy białą księgę z Coinbase w styczniu 2017 r., 8 miesięcy przed podniesieniem rundy serii D przy wycenie 1,6 miliarda dolarów. Podziwialiśmy podejście firmy do wdrażania nowych użytkowników do gospodarki kryptowalutowej - > opieranie się na innowacjach z dużą prędkością produktu, jednocześnie grając zgodnie z zasadami. Dziś firma jest warta ~65 miliardów dolarów, co stanowi około 60% rocznego zwrotu dla inwestorów serii D w ciągu ostatnich ~8 lat.
Tesla, Palantir, a teraz Coinbase: Wszystkie firmy, których rynek zasadniczo nie rozumiał i karał tak, jakby miały zbankrutować, teraz uznawane za liderów kategorii w swoich przestrzeniach i część S&P 500. Choć nadal uważamy, że najlepsze lata dla każdej z tych spółek są jeszcze przed nimi, dostęp do innowacji na wczesnym etapie, zanim spółka wejdzie do dużych indeksów, jest kluczem do zbudowania kompletnego portfela.

ARK Invest14 maj 2025
Coinbase is joining the S&P 500. To most, it’s a crypto milestone. To us, it’s a signal. 🧵
264,63K
Najlepsze
Ranking
Ulubione
Trendy onchain
Trendy na X
Niedawne największe finansowanie
Najbardziej godne uwagi