投稿

9月, 2023の投稿を表示しています

CartoonGANでVideo2Videoを行った結果

こちらはオリジナル記事のサポートページです。 実行結果を載せています。 オリジナル記事 【Video2Video】リアルな動画をアニメ風に変えるならわざわざ拡散モデルを使わなくても以前からあるGAN(敵対的生成ネットワーク)の技術で十分な気がしたので実際にやってみました 元動画 結果 Style: Hayao Style: Hosoda Style: Paprika Style: Shinkai

SadTalkerで人物の顔を動かしてみた

こちらはオリジナル記事のサポートページです。 実行結果を載せています。 オリジナル記事 動画作成をいろいろ試してみたけど顔だけを動かすなら現状 SadTalker がベストだと思います

ControledAnimateDiff ( ControlNet + AnimateDiff ) の結果

イメージ
こちらはオリジナル記事のサポートページです。 実行結果を載せています。 オリジナル記事 ControlNet と AnimateDiff を組み合わせて Video2Video に挑戦 conditioning_scale: 0.75 model: toonyou_beta6.safetensors motion_module: mm_sd_v15.ckpt control: conditioning_scale: 0.75 controlnet_processor: softedge controlnet_processor: control_v11p_sd15_softedge guess_mode: true seed: 1000000000, 2000000000, 3000000000, 4000000000 steps: 40 guidance_scale: 7.5 prompt: a girl, dancing, blue denim, white plain t-shirt, best quality, extremely detailed n_prompt: longbody, lowres, bad anatomy, bad hands, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality conditioning_scale: 0.85 conditioning_scale: 0.95 conditioning_scale: 1.0

【AnimateDiff】Motion Module v2 を使った動画作成の結果

イメージ
こちらはオリジナル記事のサポートページです。 実行結果を載せています。 オリジナル記事 【AnimateDiff】Motion Module v2 が公開されて作成動画の質が向上したそうです。さっそく試してみました。 お気に入りの結果(yabalMixTrue25D_v4) AnimateDiffで作成したのは16フレームです。 FPS 4にして4秒動画にしています。 model: yabalMixTrue25D_v4.safetensors seed: 1000000000 steps; 40 guidance_scale: 7.5 prompt: a girl, dancing, blue denim, white plain t-shirt, best quality, extremely detailed negative_prompt: longbody, lowres, bad anatomy, bad hands, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality guidance_scaleを変えると結果はどう変わるか? 左からguidance_scaleを6.5→7.5→8.5に変化させた場合の結果です。 toonyou_beta6 model: toonyou_beta6.safetensors seed: 2000000000 steps; 40 guidance_scale: 8.5 prompt: a girl, dancing, blue denim, white plain t-shirt, best quality, extremely detailed negative_prompt: longbody, lowres, bad anatomy, bad hands, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality upscaling: GFPGAN CounterfeitV30_v30 model: CounterfeitV30_v30.safetensors

OpenMMLab の MMagic を使った Controlnet Animation の結果

こちらはオリジナル記事のサポートページです。 実行結果を載せています。 オリジナル記事 【Controlnet Animation】OpenMMLab の MMagic で Video2Video ができるという事で試してみました 最初に動画を512x512にトリミングして、最後にGFPGANで処理した結果がこちらです。多少は良くなっている印象です。

【SDXL 1.0】ControlNet と Inpaint を組み合わせた結果

イメージ
こちらはオリジナル記事のサポートページです。 実行結果を載せています。 オリジナル記事 【SDXL 1.0】ControlNet と Inpaint を組み合わせると何ができるか? うちわを持った浴衣姿の美女 元画像 ぱくたそ から使わせて頂きました。 こちら の画像です。 結果 クラシックカー 車の色を変えてみました。そういった事もできます。 元画像 ぱくたそ から使わせて頂きました。 こちら の画像です。 結果 canny and zoe-depth controlnet_conditioning_scale = [0.45, 0.45] strength=1.0 prompt = "car which body color is green, best quality" negative_prompt = "worst quality, low quality"

SadTalkerの結果

こちらはオリジナル記事のサポートページです。 実行結果を載せています。 オリジナル記事 【SadTalker】1枚の顔写真と音声データだけでしゃべっている動画を作成