前言
Stability AI 很高兴地宣布推出 Stable Diffusion Reimagine!我们邀请用户通过 Stable Diffusion 尝试图像并“重新构想”他们的设计。 Stable Diffusion Reimagine 是一种新的 Clipdrop 工具,它允许用户无限制地生成单个图像的多个变体。无需复杂的提示:用户只需将图像上传到算法中即可创建任意数量的变体。 在下面的示例中,左上角的图像是输入该工具的原始文件,而其他图像是受原始文件启发的“重新构想”的作品。 您的卧室可以通过点击一个按钮来改变:
你也可以玩转时尚造型:
Clipdrop 还具有升级器功能,允许用户上传小图像并生成至少两倍细节级别的图像:
所有的AI设计工具,模型和插件,都已经整理好了,👇获取~
用法和限制
Stable Diffusion Reimagine 不会重新创建由原始输入驱动的图像。取而代之的是,Stable Diffusion Reimagine 创造了受原作启发的新图像。 这项技术有已知的局限性:它可以根据某些图像激发惊人的结果,而对其他图像产生不太令人印象深刻的结果。 我们在模型中安装了一个过滤器来阻止不适当的请求,但过滤器有时会屈服于误报或误报。 该模型有时也可能产生异常结果或表现出有偏见的行为。我们渴望收集用户反馈,以帮助我们正在进行的改进该系统和减轻这些偏见的工作。**技术**
Stable Diffusion Reimagine 基于 stability.ai 创建的新算法。经典的文本到图像稳定扩散模型被训练为以文本输入为条件。
此版本用图像编码器替换了原始文本编码器。图像不是基于文本输入生成图像,而是从图像生成图像。在编码器通过算法后,添加一些噪声以产生变化。
这种方法会生成具有不同细节和构图的外观相似的图像。与图像到图像算法不同,源图像首先被完全编码。这意味着生成器不使用来自原始图像的单个像素。
Stable Diffusion Reimagine 的模型即将开源在:
https://github.com/Stability-AI/stablediffusion/
不难看出,Stable Diffusion Reimagine大概率是将CLIP text encoder换成了CLIP image encoder,类似DALLE2那样。
这里直接将该软件分享出来给大家吧~
1.stable diffusion安装包
随着技术的迭代,目前 Stable Diffusion 已经能够生成非常艺术化的图片了,完全有赶超人类的架势,已经有不少工作被这类服务替代,比如制作一个 logo 图片,画一张虚拟老婆照片,画质堪比相机。
最新 Stable Diffusion 除了有win多个版本,就算说底端的显卡也能玩了哦!此外还带来了Mac版本,仅支持macOS 12.3或更高版本。
2.stable diffusion视频合集
我们在学习的时候,往往书籍源码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,一步步带你入坑stable diffusion,科学有趣才能更方便的学习下去。
3.stable diffusion模型下载
stable diffusion往往一开始使用时图片等无法达到理想的生成效果,这时则需要通过使用大量训练数据,调整模型的超参数(如学习率、训练轮数、模型大小等),可以使得模型更好地适应数据集,并生成更加真实、准确、高质量的图像。
4.stable diffusion提示词
提示词是构建由文本到图像模型解释和理解的单词的过程。可以把它理解为你告诉 AI 模型要画什么而需要说的语言,整个SD学习过程中都离不开这本提示词手册。
5.SD从0到落地实战演练
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名SD大神的正确特征了。
这份完整版的stable diffusion资料我已经打包好,需要的点击下方插件,即可前往免费领取!