Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
LibTV - Neue Video-Agent-Bewertung
Kann Claude Code integrieren, ein Satz für die Produktion...
LiblibAI hat eine brandneue Workflow-AI-Video-Agent-Plattform namens LibTV veröffentlicht, die es ermöglicht, auf einer unbegrenzten Leinwand verschiedene Modelle durch Drag-and-Drop-Knoten zu kombinieren, um Videos zu erstellen.
Das Beste daran ist, dass sie eine Skill-Funktion veröffentlicht haben, die Claude Code und kleine Krebse integriert, sodass die KI automatisch Knoten für dich anordnen kann...
Claude Code und andere können über die Skill-Schnittstelle automatisch auf seine verschiedenen Knoten zugreifen und helfen dir, die Knoten zu erstellen, von der Skriptidee bis zum endgültigen Schnitt, alles automatisch ablaufen zu lassen. Ein Satz hinein, das fertige Video heraus.
Während meines Tests war ich ständig beeindruckt, es ist wirklich beeindruckend...
Die Sache mit dem Installieren von Skill mit einem Befehl: npx skills add libtv-labs/libtv-skills
Sende es an Claude Code oder den kleinen Krebs, er wird dir helfen, es automatisch zu installieren, den Access Key einzurichten, und das war's.

Ich benutze meine eigene Cartoon-Figur "Xiao Hu" als Hauptfigur,
und sage, basierend auf deinem Wissen über mich, schreibe eine kleine Geschichte, um einen etwa 2-minütigen kurzen Film zu machen.

Dann musst du dir keine Sorgen mehr machen...
Warte, bis es automatisch läuft.
Es wird dir jedoch einen Link zum Workflow geben, den du im Browser aufrufen kannst, um in Echtzeit den Arbeitsablauf und den Status zu sehen↓
Schreibe zuerst das Skript und generiere dann die drei Ansichten der Charaktere.

Dann folgen verschiedene Szenenbilder, gefolgt von der Erstellung eines Storyboard-Videos.

Im Prozess, wenn du mit der Landschaft oder anderen Bildern unzufrieden bist, kannst du direkt Änderungen vornehmen.
Es wird wirklich eine vollautomatische und visuelle Parallelität erreicht, der Agent ist für den Aufbau der Automatisierung verantwortlich, du überwachst, wo es Probleme gibt, kannst jederzeit eingreifen und direkt Änderungen vornehmen.
Während der Automatisierung hast du eine sehr starke Kontrolle, sehr schön...
Ein Vorbild für Mensch-Maschine-Kooperation...🤪

Am Ende wird es die generierten einzelnen Szenen automatisch zu einem Film zusammenfügen.
Der gesamte Prozess dauert etwa 20 Minuten, ich habe nichts gemacht. Der Punktverbrauch liegt bei über 5000, umgerechnet sind das ein paar Euro pro Film...
Genießen Sie es...
Es ist einfach ein Bild + ein Satz↓
Claude Code kann dir auch automatisch beim Hintergrund-Queue-Management helfen.
Du kannst schlafen gehen, ohne dir Sorgen zu machen, es plant alles für dich↓

Einige Fragen
Die Dauer sollte am besten auf 1 Minute pro Inhalt beschränkt sein, zu lang ist zum einen sehr langsam und zum anderen nicht gut kontrollierbar.
Wenn es über 1 Minute geht, musst du es selbst in Abschnitte aufteilen, momentan ist es noch nicht möglich, lange Videos auf einmal zu bearbeiten.
Ein Key kann gleichzeitig nur eine Aufgabe ausführen, wenn du parallel arbeiten möchtest, musst du anstehen, und wenn du mehrere Sitzungen öffnest, kann es zu Konflikten kommen, manchmal werden die Materialien durcheinander eingefügt.
Es gibt immer noch einige unkontrollierbare Probleme mit der Automatisierung, daher ist es notwendig, dass jemand auf der Arbeitsflussseite bleibt und Anpassungen vornimmt.
Die chinesischen Untertitel in den Bildern sind nicht sehr gut, es scheint ein Problem mit dem Modell zu sein, die Übergänge müssen manuell angepasst werden, um bessere Ergebnisse zu erzielen.
Aber mit der Verbesserung der Modellfähigkeiten, wie zum Beispiel der Integration von Seedance 2.0 oder der Verbesserung des Arbeitsflusses und der Fähigkeiten, sollte dies gelöst werden können, was es intelligenter macht.
Die Integration in diesem Bereich ist ziemlich umfassend, es gibt die All-in-One-Bilder V2, Seedream 5.0, für Videos gibt es Keling O3, Wan 2.6, und für Audio gibt es Musikgenerierung und Text-zu-Sprache.
Ich habe das Gefühl, dass die Anbindung an ausländische Modelle möglicherweise bessere Ergebnisse liefern könnte, aber die Kosten wären hoch.
Momentan sehe ich das Highlight darin: Dies ist ein neues Modell der Mensch-Maschine-Kollaboration.
Für weitere detaillierte Bewertungen und Informationen schauen Sie hier:
49
Top
Ranking
Favoriten
