Bij het maken van AI-producten is het inderdaad het belangrijkst om "leren door te doen" 🥲🥲🥲 Gisteren deelde ik zomaar een AI-bestandsbeheertool die ik had gemaakt, en ik had niet verwacht dat zoveel mensen geïnteresseerd zouden zijn. In het begin gebruikte ik alleen Qwen 2.5 voor tekstanalyse om te classificeren. De reacties vroegen: kan het niet direct multimodaal zijn? Daarna heb ik met Gemini en ChatGPT besproken dat zelfs een lokaal klein model multimodaal kan proberen, dus heb ik toegevoegd: BGE, CLIP, Whisper, Qwen, in totaal 4 SLM's, en ik ben van plan om de organisatie en zoekfunctionaliteit voor "afbeeldingen", "video's", "PDF's" te versterken. 😅 Vandaag heb ik samen met Gemini versie N aangepast, en het is nog maar een prototype. Maar als ik denk dat ik direct met natuurlijke taal kan zoeken: "Help me de PPT te vinden met het projectoverzicht van eind 2025" "Vind de video van mijn moeder en mij vorig jaar in Huangshan" Dat zou echt cool zijn! Hieronder is mijn nieuwste versie van de SLM die ik heb geprobeerd, iedereen die geïnteresseerd is, is welkom om te discussiëren! Daarnaast is onze Vibe coding-groep langdurig actief, vul gewoon het formulier in: