Bộ công cụ AI kỹ sư tối ưu cho năm 2026. Mọi công cụ bạn cần - được tổ chức theo những gì nó thực sự làm. Đánh dấu lại cái này. bạn sẽ quay lại với nó 🧵👇 𝜶. CƠ SỞ DỮ LIỆU VECTOR là xương sống của bất kỳ hệ thống RAG hoặc tìm kiếm ngữ nghĩa nào. bạn cần một trong số này ngay khi bắt đầu làm việc với embeddings. @pinecone - được quản lý hoàn toàn, sẵn sàng cho sản xuất. ít thiết lập nhất, độ tin cậy cao nhất. @weaviate_io - mã nguồn mở với giao diện GraphQL sạch sẽ @qdrant_engine - được xây dựng bằng Rust. nhanh, với hỗ trợ lọc mạnh mẽ @trychroma - nhẹ, lý tưởng cho phát triển LLM cục bộ @milvusio - đám mây, được xây dựng cho tìm kiếm quy mô lớn @activeloop - hồ dữ liệu AI với phiên bản và hỗ trợ đa phương thức @vectara - nền tảng RAG được quản lý. truy xuất + tạo ra ở một nơi 𝜷. ĐIỀU PHỐI & QUY TRÌNH LÀM VIỆC kết nối LLM, công cụ, bộ nhớ và dữ liệu thành các quy trình thực sự hoạt động. @LangChain - khung ứng dụng LLM được sử dụng rộng rãi nhất @llama_index - được xây dựng đặc biệt để kết nối LLM với dữ liệu của bạn @deepset_ai - khung quy trình NLP chất lượng sản xuất @DSPyOSS - tối ưu hóa các prompt của bạn một cách lập trình. không còn đoán nữa @langflow_ai - trình tạo không mã trực quan cho quy trình LLM @FlowiseAI - trình tạo chuỗi LLM kéo và thả 𝜸. TRÍCH XUẤT PDF & TÀI LIỆU biến các tài liệu không có cấu trúc thành dữ liệu sạch, sẵn sàng cho LLM. Docling - chuyển đổi PDF, DOCX, PPTX, HTML thành Markdown/JSON có cấu trúc pdfplumber - phân tích PDF theo ký tự và trích xuất bảng PyMuPDF - trích xuất văn bản và hình ảnh hiệu suất cao Unstructured - phân tích các loại tài liệu hỗn hợp thành JSON có cấu trúc Camelot - chuyên về việc trích xuất bảng từ PDF Llama Parse - phân tích tài liệu được tối ưu hóa đặc biệt cho việc tiếp nhận LLM ExtractThinker - trích xuất tài liệu thông minh theo sơ đồ 𝜹. KHUNG RAG các công cụ được xây dựng đặc biệt xung quanh Tạo ra Tăng cường Truy xuất. RAGFlow - hiểu biết sâu sắc về tài liệu cho RAG mã nguồn mở PrivateGPT - Q&A tài liệu hoàn toàn cục bộ sử dụng LLM mở AnythingLLM - ứng dụng RAG tất cả trong một hoạt động với bất kỳ backend LLM nào Quivr - cơ sở kiến thức cá nhân được hỗ trợ bởi AI Tạo ra txtai - cơ sở dữ liệu embeddings cho tìm kiếm ngữ nghĩa và quy trình Llmware - khung RAG nhẹ được xây dựng cho các trường hợp sử dụng doanh nghiệp 𝛆. ĐÁNH GIÁ & KIỂM TRA bạn không thể cải thiện những gì bạn không đo lường. Ragas - đánh giá chất lượng quy trình RAG từ đầu đến cuối DeepEval - khung kiểm tra đơn vị cho đầu ra LLM Phoenix @arizeai - khả năng quan sát và theo dõi cho các ứng dụng LLM Opik - nền tảng đánh giá và giám sát theo kiểu DevOps hoàn chỉnh TruLens - theo dõi và đánh giá các lần chạy thử nghiệm LLM Giskard - kiểm tra độ thiên lệch, độ bền và an toàn trong ML/LLMs 𝛇. QUẢN LÝ MÔ HÌNH & MLOps theo dõi các thử nghiệm, phiên bản mô hình, quản lý toàn bộ vòng đời ML. MLflow - tiêu chuẩn ngành cho theo dõi thử nghiệm ML Weights & Biases @weights_biases - bảng điều khiển phong phú cho đào tạo và gỡ lỗi mô hình DVC @dataversioncontrol - kiểm soát phiên bản kiểu Git cho dữ liệu và mô hình ClearML @ClearML - MLOps từ đầu đến cuối với hỗ trợ quy trình LLM Hugging Face Hub @HuggingFace - kho trung tâm cho mô hình, tập dữ liệu và bản demo 𝛈. KHUNG ĐẠI LÝ các công cụ để xây dựng các đại lý lập kế hoạch, sử dụng công cụ và xử lý các nhiệm vụ nhiều bước. Google ADK - khung mô-đun để xây dựng các đại lý AI CrewAI @crewAIInc - điều phối nhiều đại lý AI đóng vai trò LangGraph @LangChainAI - xây dựng các đại lý dưới dạng đồ thị trạng thái có thể kiểm soát AutoGen @Microsoft - khung hội thoại đa đại lý của Microsoft Pydantic AI - lý luận đại lý có cấu trúc dựa trên Pydantic Smolagents @huggingface - khung đại lý nhẹ của Hugging Face Letta (MemGPT) @letta_ai - cung cấp cho các đại lý của bạn bộ nhớ dài hạn liên tục Agno - các đại lý với RAG, quy trình làm việc và bộ nhớ tích hợp sẵn 𝛉. TINH CHỈNH LLM thích ứng các mô hình đã được đào tạo trước cho các nhiệm vụ và lĩnh vực cụ thể của bạn. Unsloth @unslothai - tinh chỉnh LLM nhanh hơn bằng cách sử dụng ít bộ nhớ hơn đáng kể Axolotl - quy trình sau đào tạo linh hoạt cho các mô hình mở LLaMA-Factory - tinh chỉnh hợp lý cho các mô hình dựa trên LLaMA PEFT @huggingface - tinh chỉnh hiệu quả tham số để giảm nhu cầu tài nguyên TRL @huggingface - học tăng cường từ phản hồi của con người (RLHF) Transformers @huggingface - thư viện cốt lõi của Hugging Face cho các mô hình đã được đào tạo trước DeepSpeed @Microsoft - giúp chạy các công việc đào tạo trên nhiều GPU 𝛊. PHÁT TRIỂN & PHỤC VỤ CỤC BỘ chạy và phục vụ các mô hình cục bộ hoặc tự lưu trữ API của riêng bạn. Ollama @ollama - chạy các LLM mã nguồn mở cục bộ chỉ với một lệnh LM Studio - GUI máy tính để bàn để chạy và thử nghiệm các mô hình cục bộ llama.cpp - động cơ suy diễn nhẹ trên CPU và GPU LocalAI - máy chủ API tương thích với OpenAI tự lưu trữ @LiteLLM - cổng thống nhất cho hơn 100 nhà cung cấp LLM vLLM - động cơ suy diễn và phục vụ nhanh 𝛋. AN TOÀN & RÀO CẢN kiểm soát, hạn chế và kiểm tra căng thẳng các ứng dụng LLM của bạn trước khi chúng được phát hành. @guardrailsai - thêm xác thực đầu ra có cấu trúc và rào an toàn NeMo Guardrails @NVIDIA - bộ công cụ của NVIDIA cho các điều khiển hội thoại LLM có thể lập trình Garak - máy quét lỗ hổng tự động cho LLM DeepTeam - khung kiểm tra đỏ để kiểm tra áp lực các ứng dụng LLM đó là toàn bộ bộ công cụ. lưu lại chuỗi này và chia sẻ với ai đó đang xây dựng với AI.
Gắn thẻ những Gigachads có thể quan tâm đến điều này 👇 - @SamuelXeus - @thesaint_ - @izu_crypt - @Simple_simeon - @RubiksWeb3 - @poopmandefi - @ayyeandy - @DigiTektrades - @Farmercist - @zerokn0wledge_ - @stacy_muur - @Defi_Warhol - @splinter0n - @belizardd - @Eli5defi - @the_smart_ape - @ViktorDefi - @CryptoGirlNova - @Haylesdefi - @defiinfant - @DeFiMinty - @hooeem
557