Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Frank Downing
Ja.
Ich habe gehört, dass "Browser die ultimative Verteilung für Agenten sind". Ich denke, das ist umgekehrt.
Agenten werden Browser als ein Werkzeug unter anderen nutzen, um Aufgaben zu erledigen.
Du wirst den Agenten als das Produkt betrachten, nicht den Browser.
Du zahlst für den ChatGPT-Agenten, der Browser hochfährt, um Aufgaben nach Bedarf zu erledigen. Du kannst zuschauen und einsteigen, aber du musst nicht.
Gleiche Richtung für Perplexity's Comet. Es trifft die Nutzer dort, wo sie heute sind, aber im Laufe der Zeit wird der Agent immer mehr steuern und du wirst immer weniger daran interessiert sein, wie die Wurst gemacht wird.

qw22. Juli, 03:12
Websites ersetzen die meisten Desktop-Anwendungen (letzte 2 Jahrzehnte)
dann ersetzen Agenten die meisten Websites (nächste 2 Jahrzehnte)
32,72K
Gute Datenpunkte zur Bedeutung von "Kontext-Engineering":
Eingabetokens können günstiger sein als Ausgabetokens, aber kontextintensive Aufgaben (wie Programmierung) können 300-400x mehr Eingabetokens für den Kontext als Ausgabetokens erfordern, wodurch der Kontext 98% der Gesamtkosten für LLM-Nutzung ausmacht.
Die Latenz steigt ebenfalls mit der größeren Kontextgröße.
Das unterstreicht die Bedeutung, den richtigen Kontext zur richtigen Zeit bereitzustellen, wenn man KI-Anwendungen entwickelt, und ich nehme an, dass es viel Raum für wettbewerbliche Differenzierung in KI-nativen SaaS-Apps lässt.

Tomasz Tunguz9. Juli, 01:36
Wenn Sie KI abfragen, sammelt sie relevante Informationen, um Ihnen zu antworten.
Aber wie viele Informationen benötigt das Modell?
Gespräche mit Praktikern haben deren Intuition offenbart: Der Input war ~20x größer als der Output.
Aber meine Experimente mit der Gemini-Tool-Befehlszeilenschnittstelle, die detaillierte Token-Statistiken ausgibt, haben gezeigt, dass es viel höher ist.
Im Durchschnitt 300x und bis zu 4000x.
Hier ist, warum dieses hohe Verhältnis von Input zu Output für jeden, der mit KI arbeitet, wichtig ist:
Kostenmanagement dreht sich ganz um den Input. Bei API-Aufrufen, die pro Token berechnet werden, bedeutet ein Verhältnis von 300:1, dass die Kosten durch den Kontext und nicht durch die Antwort bestimmt werden. Diese Preisgestaltung gilt für alle großen Modelle.
Auf der Preisübersicht von OpenAI sind die Output-Token für GPT-4.1 4x so teuer wie die Input-Token. Aber wenn der Input 300x voluminöser ist, machen die Input-Kosten immer noch 98% der Gesamtrechnung aus.
Latenz ist eine Funktion der Kontextgröße. Ein wichtiger Faktor, der bestimmt, wie lange ein Benutzer auf eine Antwort wartet, ist die Zeit, die das Modell benötigt, um den Input zu verarbeiten.
Es definiert die Ingenieurausforderung neu. Diese Beobachtung beweist, dass die zentrale Herausforderung beim Bauen mit LLMs nicht nur im Prompting besteht. Es geht um Kontextengineering.
Die entscheidende Aufgabe besteht darin, effiziente Datenabruf- und Kontextpipelines zu erstellen, die die besten Informationen finden und sie in den kleinsten möglichen Token-Fußabdruck destillieren.
Caching wird mission-kritisch. Wenn 99% der Tokens im Input sind, wird der Aufbau einer robusten Caching-Schicht für häufig abgerufene Dokumente oder gängige Abfragekontexte von einem "Nice-to-have" zu einer grundlegenden architektonischen Anforderung für den Aufbau eines kosteneffizienten und skalierbaren Produkts.
Für Entwickler bedeutet dies, dass der Fokus auf der Optimierung des Inputs ein kritischer Hebel zur Kostenkontrolle, zur Reduzierung der Latenz und letztendlich zum Aufbau eines erfolgreichen KI-gestützten Produkts ist.




1,47K
Zwei verstärkende Schwungräder beschleunigen die Einführung von KI-IDEs (integrierte Entwicklungsumgebungen):
1. Modell-Produkt-Schwungrad:
Wenn sich die Grundmodelle verbessern (Schlussfolgern, Planen, Werkzeugnutzung), werden die darauf basierenden KI-IDEs sofort besser, was zu einer höheren Produktnutzung führt. Da KI-IDEs zu großen Tokenverbrauchern werden, sind die Anbieter von Grundmodellen motiviert, diese Arbeitsabläufe zu optimieren – was die Leistung weiter steigert.
2. Nutzer-Daten-Schwungrad:
Wenn KI-IDEs mehr Entwickler anziehen, generieren sie proprietäre Nutzungsdaten (was Entwickler fragen, wie sie codieren, wo sie stecken bleiben). Diese Daten können verwendet werden, um spezialisierte Modelle zu trainieren, die auf die IDE selbst abgestimmt sind – was zu einer besseren Benutzererfahrung und Leistung führt und einen tieferen Schutz bietet.
#1 kommt der Kategorie zugute. #2 kommt dem Kategorienführer zugute.
26,16K
Es ist für mich lustig, dass Claude eine bessere Arbeit bei der Beantwortung von Fragen zu meinem Gmail leistet als Googles Gemini.
Die neuesten Versionen von Gemini schneiden bei Benchmarks hervorragend ab und ich habe anekdotisch gehört, dass sie großartig im Programmieren sind, aber die reale Nutzung der Gemini-App hat für mich nie mit ChatGPT, Claude oder Grok übereingestimmt.
224,54K
1/ Bei Software ging es schon immer darum, die menschliche Produktivität zu steigern – Aufgaben zu automatisieren, Arbeitsabläufe zu rationalisieren und den Mitarbeitern die Möglichkeit zu geben, sich auf höherwertige, kreative Arbeit zu konzentrieren.
KI-Codieragenten heben dies auf ein neues Niveau.

136,02K
Wir haben im Januar 2017 ein Whitepaper mit Coinbase veröffentlicht, 8 Monate bevor sie ihre Series-D-Runde mit einer Bewertung von 1,6 Milliarden US-Dollar abgeschlossen haben. Wir bewunderten den Ansatz des Unternehmens, neue Nutzer in die Kryptowirtschaft einzubinden – > sich auf Innovation mit hoher Produktgeschwindigkeit zu stützen und dabei nach den Regeln zu spielen. Heute ist das Unternehmen ~65 Mrd. $ wert, was einer annualisierten Rendite von rund 60% für Series-D-Investoren in den letzten ~8 Jahren entspricht.
Tesla, Palantir und jetzt Coinbase: Alles Unternehmen, die der Markt grundsätzlich nicht verstand und bestrafte, als ob sie bankrott gingen, die jetzt als Kategorieführer in ihren jeweiligen Bereichen anerkannt sind und Teil des S&P 500 sind. Wir sind zwar immer noch der Meinung, dass einige der besten Jahre für jedes dieser Unternehmen noch vor ihnen liegen, aber der frühzeitige Zugang zu Innovationen, bevor ein Unternehmen es in die großen Indizes schafft, ist der Schlüssel zum Aufbau eines vollständigen Portfolios.

ARK Invest14. Mai 2025
Coinbase is joining the S&P 500. To most, it’s a crypto milestone. To us, it’s a signal. 🧵
264,61K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten