投稿

12月, 2023の投稿を表示しています

AnimateAnyghing を使って Image2Videoを試した結果

オリジナル記事 【AnimateAnyghing】AnimateAnyghing を使って Image2Videoを試してみる

【AnimateDiff】Motion Module v2 と v3 を比較してみました。

イメージ
左がv2、右がv3です。 steps: 40 guidance_scale: 8.5 prompt: - "a girl, dancing, blue denim, white plain t-shirt, best quality, extremely detailed" n_prompt: - "longbody, lowres, bad anatomy, bad hands, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality" オリジナル記事 【AnimateDiff】Motion Module v3 が公開されたので v2 と比較してみました。

【Diffusers】AnimateDiff + Multi-ControlNet で動画作成した結果

イメージ
モデルは「mistoonAnime-v20」です。 ControlNetは「control_v11p_sd15_openpose」と「control_v11f1e_sd15_tile」を使いました。 conditioning scaleは両方とも0.8に設定しています。 オリジナル記事 【Diffusers】AnimateDiff + Multi-ControlNet で動画作成してみる ロングバージョン オリジナル記事 【Diffusers】AnimateDiff + Multi-ControlNet で作成する動画のフレーム数上限を上げる方法 LongAnimateDiffバージョン 左がFreeUなし、右がFreeUありです。 少し画質が良くなっている印象です。 オリジナル記事 【Video2Video】LongAnimateDiff を使って長い動画を作成する

【Diffusers】AnimateDiff + ControlNet で動画作成した結果

イメージ
オリジナル記事 【Diffusers】AnimateDiff + ControlNet で動画作成してみる

MagicAnimate で 使用できる DensePoseモーション動画を作成した結果

オリジナル記事 MagicAnimate で 使用できる DensePoseモーション動画を作成する