LibTV nova avaliação do vídeo Agent Pode integrar o Claude Code, uma frase e o vídeo sai... A LiblibAI lançou uma nova plataforma de fluxo de trabalho AI vídeo Agent chamada LibTV, que permite criar vídeos combinando vários modelos em uma tela infinita através de arrastar e soltar nós. O mais impressionante é que eles lançaram uma habilidade, integrando o Claude Code e o camarão, permitindo que a AI organize automaticamente os nós para você... O Claude Code e outros podem chamar automaticamente vários nós através da interface Skill, ajudando automaticamente a construir os nós, desde a concepção do roteiro até a edição final do produto, tudo acontece automaticamente, uma frase entra, o vídeo sai. Durante o meu teste, fiquei impressionado, é realmente incrível...
A tarefa de instalar o Skill com um único comando: npx skills add libtv-labs/libtv-skills Envie para o Claude Code ou para o camarão, ele irá ajudá-lo a instalar automaticamente, configurar a Access Key e pronto.
Eu usei a minha própria personagem de desenho animado "Xiao Hu" como protagonista, e pedi para você criar uma pequena história com base no que você sabe sobre mim, para fazer um curta-metragem completo de cerca de 2 minutos.
Então você não precisa se preocupar mais... Espere que ele execute automaticamente No entanto, ele lhe dará um link do fluxo de trabalho, que você pode acessar no navegador para ver em tempo real a tela e o estado do fluxo de trabalho ↓ Primeiro escreva o script e depois gere as vistas em três dimensões do personagem.
Em seguida, são várias imagens de storyboards, e depois gera-se um vídeo de storyboard.
Durante o processo, se você não estiver satisfeito com a paisagem ou outras imagens, pode fazer ajustes diretamente. Realmente alcançando a automação total e a visualização em paralelo, o Agente é responsável pela construção da automação, enquanto você atua como supervisor; se houver algum problema, você pode intervir a qualquer momento e fazer modificações diretamente. Enquanto automatiza, você tem um controle muito forte, muito bom... Um exemplo de colaboração homem-máquina...🤪
No final, ele irá automaticamente juntar os vários quadros gerados em um vídeo. Todo o processo leva cerca de 20 minutos, e eu não toquei em nada. O consumo de pontos foi de cerca de 5000, o que dá alguns reais por vídeo... Vamos apreciar... É apenas uma imagem + uma frase↓
O código Claude pode automaticamente ajudá-lo a gerar filas de fundo Você pode ir dormir sem se preocupar, ele organiza o seu plano ↓
Alguns problemas A duração deve ser controlada em cerca de 1 minuto por conteúdo, se for muito longa, fica muito lenta e também é difícil de controlar. Se ultrapassar 1 minuto, você terá que dividir em partes para fazer, por enquanto não é possível resolver um vídeo longo de uma só vez. Uma chave só pode executar uma tarefa de cada vez, se quiser fazer em paralelo, precisa esperar na fila, e se abrir várias sessões, haverá conflitos, às vezes o material será inserido de forma desordenada.
Ainda há alguns problemas incontroláveis com a automação, é necessário que alguém fique de olho e faça ajustes na página do fluxo de trabalho. As legendas em chinês nas imagens não estão muito boas, parece que ainda é um problema do modelo, a transição ainda precisa de ajustes manuais para um efeito melhor. No entanto, com a atualização das capacidades do modelo, como a integração do Seedance 2.0 ou a melhoria do fluxo de trabalho e das habilidades, isso deve ser resolvido, tornando-se mais inteligente.
A integração nesta área é bastante completa, com imagens como o [全能图片 V2], vídeos como o [可灵 O3] e [Wan 2.6], além de áudio com geração de música e conversão de texto em fala. Sinto que a integração de modelos estrangeiros pode ter um desempenho melhor, mas o custo será alto. Atualmente, o que considero um destaque é: este é um novo modo de colaboração entre humanos e máquinas. Para mais avaliações e introduções detalhadas, veja aqui:
60