Det ultimate verktøysettet for AI-ingeniører for 2026. Hvert verktøy du trenger – organisert etter hva det faktisk gjør. Bokmerk dette. Du kommer tilbake til det 🧵👇 α. VEKTORDATABASER ryggraden i ethvert RAG- eller semantisk søkesystem. Du trenger en av disse i det øyeblikket du begynner å jobbe med embeddings. @pinecone – fullt styrt, produksjonsklart. Minst oppsett, mest pålitelighet. @weaviate_io - åpen kildekode med et rent GraphQL-grensesnitt @qdrant_engine - bygget i Rust. Rask, med kraftig filtreringsstøtte @trychroma - lettvekt, ideell for lokal LLM-utvikling @milvusio - sky-native, bygget for storskala søk @activeloop - AI-datalake med versjonering og multimodal støtte @vectara - administrert RAG-plattform. henting + generering på ett sted β. ORKESTRERING & ARBEIDSFLYT kobler LLM-er, verktøy, minne og data til pipelines som faktisk fungerer. @LangChain - det mest brukte LLM-applikasjonsrammeverket @llama_index – spesiallaget for å koble LLM-er til dine egne data @deepset_ai - produksjonskvalitets NLP-pipeline-rammeverk @DSPyOSS – optimaliserer promptene dine programmatisk. Ikke mer gjetting @langflow_ai - visuell no-code-bygger for LLM-arbeidsflyter @FlowiseAI - dra-og-slipp LLM-kjedebygger γ. PDF OG DOKUMENTUTTREKKING om ustrukturerte dokumenter til rene, LLM-klare data. Docling – konverterer PDF, DOCX, PPTX, HTML til strukturert Markdown/JSON pdfplumber - PDF-parsing og tabellutvinning på tegnnivå PyMuPDF – høyytelses tekst- og bildeutvinning Ustrukturert - parser blandede dokumenttyper til strukturert JSON Camelot - spesialisert på å hente tabeller ut av PDF-er Llama Parse – dokumentparsing optimalisert spesielt for LLM-inntak ExtractThinker - skjemakartlagt intelligent dokumentekstraksjon δ. RAG-RAMMEVERK verktøy bygget spesifikt rundt Retrieval-Augmented Generation. RAGFlow – dyp dokumentforståelse for åpen kildekode RAG PrivateGPT – fullstendig lokal dokumentspørsmål og svar ved bruk av åpne LLM-er AnythingLLM – alt-i-ett RAG-app som fungerer med alle LLM-backend Quivr – personlig kunnskapsbase drevet av generativ AI TXTAI - Embedding-database for semantisk søk og pipelines Llmware – lett RAG-rammeverk bygget for bedriftsbrukstilfeller ε. EVALUERING & TESTING Du kan ikke forbedre det du ikke måler. Ragas - evaluerer kvaliteten på RAG-rørledningen fra ende til ende DeepEval - enhetstestrammeverk for LLM-utganger Phoenix @arizeai - observabilitet og sporing for LLM-applikasjoner Opik – full DevOps-lignende evaluerings- og overvåkingsplattform TruLens – sporer og evaluerer LLM-eksperimenter Giskard – tester for bias, robusthet og sikkerhet i ML/LLM-er ζ. MODELLSTYRING & MLOps sporer eksperimenter, versjonsmodeller, styrer hele ML-livssyklusen. MLflow – industristandard for sporing av ML-eksperimenter Weights & Biases @weights_biases – rike dashbord for modelltrening og feilsøking DVC @dataversioncontrol - Git-lignende versjonskontroll for data og modeller ClearML @ClearML - ende-til-ende MLOps med støtte for LLM-pipeline Hugging Face Hub @HuggingFace – sentralt repo for modeller, datasett og demoer η. AGENT-RAMMEVERK Verktøy for å bygge agenter som planlegger, bruker verktøy og håndterer flertrinnsoppgaver. Google ADK - modulært rammeverk for å bygge AI-agenter CrewAI @crewAIInc – orkestrerer flere rollespill-AI-agenter LangGraph @LangChainAI - bygger agenter som kontrollerbare tilstandsfulle grafer AutoGen @Microsoft - Microsofts fleragent-samtalerammeverk Pydantisk AI – strukturert agentresonnement bygget på Pydantisk Smolagents @huggingface - Hugging Faces lette agentrammeverk Letta (MemGPT) @letta_ai – gir agentene dine vedvarende langtidsminne Agno – agenter med innebygd RAG, arbeidsflyter og minne θ. LLM FINJUSTERING Tilpass forhåndstrente modeller til dine spesifikke oppgaver og domener. Unsloth @unslothai – finjuster LLM-er raskere med betydelig mindre minne Axolotl – fleksibel ettertreningspipeline for åpne modeller LLaMA-Factory – strømlinjeformet finjustering for LLaMA-baserte modeller PEFT @huggingface – parameter-effektiv finjustering for å redusere ressursbehovet TRL @huggingface - forsterkningslæring basert på menneskelig tilbakemelding (RLHF) Transformers @huggingface – Hugging Faces kjernebibliotek for forhåndstrente modeller DeepSpeed @Microsoft – hjelper til med å kjøre treningsjobber på tvers av mange GPU-er ι. LOKAL UTVIKLING OG TJENESTE kjør og server modeller lokalt eller selv hostet ditt eget API. Ollama @ollama – kjør åpen kildekode-LLM-er lokalt i én enkelt kommando LM Studio – skrivebords-GUI for å kjøre og teste lokale modeller llama.cpp - lett inferensmotor på tvers av CPU og GPU LocalAI – selvhostet, OpenAI-kompatibel API-server @LiteLLM - samlet gateway for 100+ LLM-leverandører vLLM - rask slutning og betjenende motor κ. SIKKERHET & AUTOVERN Kontroller, begrens og stresstest LLM-appene dine før de går live. @guardrailsai – legger til strukturert outputvalidering og sikkerhetsrails NeMo Guardrails @NVIDIA - NVIDIAs verktøysett for programmerbare LLM-samtalekontroller Garak – automatisert sårbarhetsskanner for LLM-er DeepTeam – red-teaming-rammeverk for å presse LLM-applikasjoner – det er fullstacken. lagre denne tråden, og del den med noen som bygger med AI.
Tagging av gigachader som kan være interessert i dette 👇 - @SamuelXeus - @thesaint_ - @izu_crypt - @Simple_simeon - @RubiksWeb3 - @poopmandefi - @ayyeandy - @DigiTektrades - @Farmercist - @zerokn0wledge_ - @stacy_muur - @Defi_Warhol - @splinter0n - @belizardd - @Eli5defi - @the_smart_ape - @ViktorDefi - @CryptoGirlNova - @Haylesdefi - @defiinfant - @DeFiMinty - @hooeem
552