Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
LibTV, la toute nouvelle évaluation de l'Agent vidéo
Peut se connecter à Claude Code, une phrase pour générer une vidéo...
LiblibAI a lancé une toute nouvelle plateforme de flux de travail AI vidéo, LibTV, qui permet de créer des vidéos en combinant divers modèles sur une toile infinie grâce à un système de glisser-déposer.
Le plus impressionnant, c'est qu'ils ont publié une compétence, intégrant Claude Code et des écrevisses, permettant à l'IA de vous aider automatiquement à agencer les nœuds...
Claude Code et d'autres peuvent appeler automatiquement ses divers nœuds via l'interface Skill, construisant automatiquement les nœuds pour vous, du concept du scénario au montage final, tout se fait automatiquement, une phrase entrée, le produit final sort.
Installer Skill avec une seule ligne de commande : npx skills add libtv-labs/libtv-skills
Envoyez-le à Claude Code ou à un petit homard, il vous aidera à l'installer automatiquement, à configurer la clé d'accès, et c'est tout.

J'utilise mon propre personnage de dessin animé "Petit Hu" comme protagoniste,
alors dis-moi de créer une petite histoire d'après ce que tu sais de moi, pour faire un court-métrage complet d'environ 2 minutes.

Ensuite, vous n'avez plus à vous en soucier...
Il s'exécutera automatiquement.
Cependant, il vous donnera un lien vers le flux de travail, que vous pouvez consulter dans votre navigateur pour voir en temps réel l'état et le déroulement du flux de travail ↓
Écrivez d'abord le script, puis générez les vues en trois dimensions du personnage.

Ensuite, il y a les différentes images des storyboards, puis un vidéo de storyboard est générée.

Dans le processus, si vous n'êtes pas satisfait de ce paysage ou d'autres images, vous pouvez les modifier directement.
Réalisez véritablement une automatisation et une visualisation parallèles entièrement automatisées, l'Agent est responsable de la construction de l'automatisation, vous faites le surveillant, s'il y a un problème, vous pouvez intervenir à tout moment et modifier directement.
Tout en étant automatisé, vous avez un contrôle très fort, c'est vraiment sympa...
Un modèle de collaboration homme-machine...🤪

Enfin, il va automatiquement assembler les différents plans générés en un film.
Cela prend environ 20 minutes, je n'ai pas touché à quoi que ce soit. La consommation de points est d'environ 5000, ce qui revient à quelques euros par vidéo...
Admirez...
C'est juste une image + une phrase↓
Le code Claude peut également vous aider à générer automatiquement des files d'attente en arrière-plan.
Vous pouvez aller dormir sans vous en soucier, il s'occupe de bien planifier pour vous ↓

Certaines questions
La durée doit idéalement être limitée à 1 minute par contenu, trop long c'est très lent, et aussi difficile à contrôler.
Au-delà de 1 minute, vous devez diviser vous-même en segments, pour l'instant, il n'est pas possible de gérer un long contenu d'un seul coup.
Une clé ne peut exécuter qu'une seule tâche à la fois, si vous voulez faire des tâches en parallèle, vous devez faire la queue, et si vous ouvrez plusieurs sessions, cela peut entrer en conflit, parfois le matériel peut être inséré de manière désordonnée.
Il y a encore des problèmes incontrôlables avec l'automatisation, il est donc nécessaire d'avoir une intervention humaine pour surveiller et modifier sur la page de flux de travail.
Les sous-titres en chinois sur les images ne sont pas très bons, je pense que c'est un problème de modèle, la transition nécessite encore des ajustements manuels pour un meilleur effet.
Cependant, avec l'amélioration des capacités du modèle, comme l'intégration de Seedance 2.0 ou l'optimisation des flux de travail et des compétences, cela devrait pouvoir être résolu, devenant ainsi plus intelligent.
L'intégration des modèles est assez complète, avec des images comme l'image polyvalente V2, Seedream 5.0, des vidéos comme 可灵 O3, Wan 2.6, et aussi de l'audio avec la génération de musique et la conversion de texte en parole.
Je pense que l'intégration de modèles étrangers pourrait donner de meilleurs résultats, mais cela coûtera plus cher.
Actuellement, ce que je trouve intéressant, c'est : c'est un nouveau mode de collaboration homme-machine.
Pour plus d'évaluations détaillées et d'introductions, regardez ici :
62
Meilleurs
Classement
Favoris
