你好,我是Stable Diffusion中文网的小编。今天,我将向大家介绍如何使用Stable Diffusion的扩展Deforum来实现文本自动生成视频的功能,甚至将现有的视频转换为动画。这个功能不仅免费,而且可以在本地电脑上进行无限操作。下面,我将详细介绍具体操作步骤。
安装Stable Diffusion和Deforum扩展
首先,打开Stable Diffusion。如果你的电脑尚未安装Stable Diffusion,你可以按照以下两篇文章的步骤在本地电脑上安装Stable Diffusion。
- AI绘画工具stable diffusion一键启动整合包,无需配置Python,git环境,安装使用简易教程:无需配置环境,一键安装启动,适合新手。
- AI绘画工具Stable Diffusion安装教程,超详细安装步骤,简单照做就可以:需要配置环境,适合有一定电脑操作经验的人和编程人员。
打开Stable Diffusion页面后,点击1选项卡,然后点击2,接着点击3按钮。
在可用的扩展列表中,选择4,然后点击安装按钮。如果安装失败或找不到这个扩展,你可以选择从网址安装,并输入以下GitHub代码地址:https://github.com/deforum-art/sd-webui-deforum.git
安装完成后,重新启动WebUI,你就可以在导航中看到Deforum了。
运行生成视频
在运行之前,你可以根据需要设置采样方法、迭代步数、视频尺寸等参数。默认设置一般就可以满足需求,但你可以根据个人喜好进行自定义设置。建议的视频尺寸为512×512、576×576、768×768、1024×1024之一,尺寸越大生成速度越慢,太大可能导致生成失败。随机种子如果不确定,可以保持默认值-1,Batch name用于指定文件夹名。如果你生成的是真人视频,可以勾选面部修复选项,其他选项可以保持不变。
设置关键帧
Max frames表示最大关键帧数,默认为1秒15帧,帧数越多视频时长越长。Enable guided images mode用于启用引导图模式,允许你在不同时间段使用指定的图片来生成视频。这些图片可以是网络图片或本地电脑上的图片。如果使用本地图片,请确保路径中使用斜杠/而不是反斜杠\,例如路径:D:/AI工具/下载/鸡蛋.jpg。
其他参数设置非常多,你可以保持默认设置,之后慢慢熟悉它们。
设置提示词
提示词的内容是JSON格式数据,你可以在双引号内输入图像描述词,即你希望视频生成的内容。左侧的数字(0, 30, 60, 90)表示从哪一帧开始生成当前描述的内容。请确保只在双引号内输入内容,按照当前文本格式输入,以避免错误。如果你不希望视频中出现某些内容,可以将它们输入到Prompts negative中。
使用初始图片或视频素材
如果需要,你可以启用初始图片或视频素材,勾选use init表示启用初始图片,这意味着从这个图片开始生成。你可以使用网络上的图片或本地电脑上的图片,同样的设置也适用于视频转换。
其他设置
还有一些其他设置,你可以保持默认设置,然后点击页面右侧的生成按钮来生成视频。生成成功后,点击生成按钮上方的6按钮,即可查看和下载生成的视频,也可以直接点击下方的文件夹按钮以打开视频所在的文件夹。
Deforum插件还提供了将视频转换为动画的功能,在7中选择Animation mode为视频输入,8中的9可以设置视频路径,可以是本地视频或网络上的视频地址。
ControlNet扩展模式1需要勾选启用,然后在ControlNet Input Video/Image Path中输入视频路径,保持与上述视频路径一致。如果你还没有安装ControlNet扩展,可以按照安装Deforum扩展的方法来安装。其他设置一般可以保持默认,你可以在实际使用中逐渐熟悉。
需要注意的是,视频转换功能对电脑配置要求较高,生成时间会比由文本生成视频的时间长很多。此外,Stable Diffusion模型不同,生成的视频风格也会不同。
Deforum插件提供了丰富的参数设置,你可以在使用过程中逐渐测试和熟悉。如果你有兴趣,可以尝试自己生成并体验一下这一强大的功能。希望这篇文章能帮助你更好地使用Stable Diffusion和Deforum扩展来生成视频和动画。如果有任何问题或疑问,请随时联系我们。愿你创作愉快!
原创文章,作者:SD中文网,如若转载,请注明出处:https://www.stablediffusion-cn.com/sd/sd-use/3699.html