子どもたちのダンス動画がSNSでバイラルになっていますが、人々はそれらがKling AIのモーションコントロールで作られていることを全く知りません。 参照動画1本+キャラクター画像=バイラルコンテンツ。 私は1キャラクターを使い、いろいろなモーションテストでこの機能の汎用性を示しました。 ワークフローの詳細はこちらです 👇 1/7
2/7 手順はこちらです(約3分ほどで終わります): → キャラクター画像をアップロードしてください → 「モーションコントロール」モードを選択してください → 参照動画にドロップするか、モーションライブラリから選択できます → 生成 AIは表情、体の動き、タイミングを自動的に処理します。フレーム間でキャラクターのディテールも一貫しています。 こちらを試してみてください: ウェブ: アプリ:
3/7 同じキャラクターを使った表現チャレンジ。 クリングの図書館から感情表現の動きを選んだ。AIは眉の動き、口パク、首の傾きなど、あらゆる顔の細部を捉えていた。 同じキャラクターイメージですが、まったく違う雰囲気です。手動アニメーションは不要です。
4/7 モーションライブラリからのバイクダンスポーズ。 同じキャラクターに適用しましたが、モーションの転送はフレーム単位で正確です。体の位置、手のジェスチャー、さらには微妙な体重移動さえも完璧にマッチしています。
5/7 図書館の武道のシーン。 同じキャラクターですが、まったく異なる動きスタイルです。AIは戦闘姿勢、パンチのタイミング、防御ポーズを適応させつつ、キャラクターの特徴を一貫させました。
6/7 ゴーストステップダンス - 手動でアニメーションさせるのが最も難しい動作の一つです。 同じキャラクターに適用されます。フットワークのタイミング、ボディアイソレーション、素早い方向転換――すべて正確に伝達されています。
7/7 @KlingAIとの提携 ソーシャルコンテンツを作成すれば、生活が楽になります。Kling 2.6モーションコントロールが現在稼働中です。無料トライアルが利用可能です。 こちらで試してみてください: ウェブ: アプリ: #Kling
24