Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akshay 🚀
Wir vereinfachen LLMs, KI-Agenten, RAG und maschinelles Lernen für Sie! • Mitbegründer @dailydoseofds_• BITS Pilani • 3 Patente • Ex-KI-Ingenieur @ LightningAI
Du bist in einem ML Engineer Vorstellungsgespräch bei Tesla.
Interviewer: Wir müssen ein neuronales Netz auf der Edge-Hardware des Fahrzeugs bereitstellen, aber es passt nicht in den Speicher. Wie würdest du damit umgehen?
Du: Ich werde Wissen-Distillation verwenden, um ein kleineres Modell zu trainieren.
Vorstellungsgespräch beendet.
Hier ist, was du verpasst hast:
274
Nichts schlägt Open Source!
MiniMax hat gerade M2.1 veröffentlicht, und die Entwickler nennen es "Claude zu 10% der Kosten."
- 72,5% SWE-Multilingual. Schlägt Sonnet 4.5
- 88,6% VIBE-bench. Schlägt Gemini 3 Pro
Ich habe es verwendet, um ein AI-Studio zu erstellen, das jede Website in einen Podcast verwandelt.
100% Open Source.
807
Ich habe über ein Jahr lang KI-Agenten in der Produktion entwickelt.
Hier ist ein häufiges Problem, mit dem Entwickler konfrontiert sind, wenn sie Agenten in die Produktion skalieren:
Sie jonglieren typischerweise zwischen separaten Diensten für Vektoren, strukturierte Daten und Sitzungen.
Drei verschiedene Verbindungspools. Drei Backup-Strategien. Drei Überwachungs-Dashboards.
Die Agentenschleife selbst ist einfach mit Logik, Werkzeugen und Gedächtnis, aber die Infrastruktur wird zum Flaschenhals.
Wenn Sie einen saubereren Weg sehen möchten, um dies zu handhaben, habe ich einen Agenten gebaut, der @MongoDB als das einzige Backend für alles verwendet. Ich habe mit ihrem Team zusammengearbeitet, um dies mit Ihnen zu teilen.
Die Einrichtung ist unkompliziert:
↳ Beginnen Sie mit einem PDF-Dokument. Der Agent wird Fragen dazu beantworten, während er sich an frühere Gespräche erinnert.
↳ Zuerst wird das PDF in Abschnitte unterteilt und mit dem Modell von Voyage AI eingebettet. Diese Einbettungen gehen direkt in MongoDB mit einem Vektorindex.
↳ Dann definieren Sie zwei Werkzeuge: eines für die Vektorsuche, eines für grundlegende Berechnungen, falls erforderlich. Der Agent entscheidet, welches er basierend auf der Anfrage verwendet.
↳ Das Gedächtnis wird in derselben Datenbank unter Sitzungs-IDs gespeichert. Jede Interaktion, die der Agent hat, wird zurückgeschrieben, sodass er auf frühere Wendungen verweisen kann.
↳ Der Planer verbindet alles. Er schaut sich die Gesprächshistorie an, entscheidet, ob er ein Werkzeug benötigt, führt dieses Werkzeug aus und generiert die endgültige Antwort.
Hier ist, wo das einheitliche Backend wichtig ist:
Wenn der Agent nach Kontext sucht, fragt er dieselbe Datenbank ab, die Benutzersitzungen und strukturierte Daten speichert.
Wenn er ins Gedächtnis schreibt, verwaltet dieselbe MongoDB-Instanz die Vektoreinbettungen.
Ich habe dies in einer Streamlit-Benutzeroberfläche verpackt, um zu beobachten, wie der Agent arbeitet. Wenn ich eine Anfrage sende, zeigt es Ihnen, welches Werkzeug er ausgewählt hat, was er abgerufen hat und wie er zur Antwort gekommen ist.
Die Architektur bleibt flexibel, da Sie leicht jedes Einbettungsmodell oder LLM Ihrer Wahl austauschen können.
Und wenn Sie bereit sind, zu versenden, verwalten Sie eine Datenbank. Nicht drei.
Ein ähnlicher Ansatz wird auch im AI Learning Hub von MongoDB detailliert beschrieben.
Wenn Sie tiefer in weitere KI-Engineering-Muster wie dieses eintauchen möchten…
Es gibt selbstgesteuerte Tracks, die die Grundlagen der Vektorsuche, RAG-Architekturen, das Gedächtnismanagement für Agenten und praktische Tutorials mit LangGraph .js abdecken.
Ich habe das vollständige Repository von #MongoDB in den Antworten geteilt.
226
Top
Ranking
Favoriten
