IE盒子

搜索
查看: 180|回复: 21

[术] 如何快速玩上Novel AI泄露的参数来生成纸片人(基于stable ...

[复制链接]

1

主题

10

帖子

7

积分

新手上路

Rank: 1

积分
7
发表于 2022-12-15 09:06:14 | 显示全部楼层 |阅读模式
*封面图不是生成的,只是今天想用惠惠。
0x01 前言

最近大伙水群应该能看到有些群友已经玩上了Novel AI泄露的参数,可以发现生成的效果确实很惊艳,而且可以加上各种自己喜欢的tag,还有以图生图的功能。
这让我对未来产生了很多遐想:卖训练的参数会不会成为一门生意?以后是不是可以用 任何角色 x 任何tag 生成自己喜欢的任何图片(自己造fanart)?
Anyway, 可能你看见过群友发过了Novel AI泄露的参数,一串magnet磁力链接,任务名字叫novelaileak. 于是你想自己配置一个玩玩。
如果你想要开箱即用,不需要看这篇文章,因为懒人包已经有很多了,比如这个 https://www.bilibili.com/video/BV1aN4y1A7j1 (我没用过)。我写这篇是面向希望了解配置细节的朋友,虽然会踩一些坑但是用着安心。
配置要求的话,我这用的nVidia RTX 3090 24GB是没问题的,好像显存有11G就行?不太清楚。
那我们开始吧!如果你在下面clone仓库速度比较慢,可以试着把git clone 仓库地址中的仓库地址从 https://github.com/X/Y 换成 https://gitclone.com/github.com/X/Y . 这是一个加速clone的站点(不能push),我用着还不错。



借用一下群友的生成的琴梨梨

0x02 下载

0x12 AUTOMATIC1111/stable-diffusion-webui

这是一个github仓库:https://github.com/AUTOMATIC1111/stable-diffusion-webui
clone或者解压ZIP包都可以。
其提供了从模型推理到功能封装的全套功能,如果说下载的预训练参数是引擎,那么这个就是车体,组装起来才能用。
0x22 Novel AI 泄露的参数

为了避免不必要的麻烦我就不放下载链接了,如果大家经常水群的话应该有群友已经发过了。
如果没有的话可以去 如何评价AI绘画网站NovelAI? 下面碰碰运气。
Novel AI泄露的文件里有训练脚本,和若干版本的预训练参数,总共有52G。如果你不打算珍藏或者训练的话,只用下一个版本的checkpoint就行了,比如我下了这个最小的,你可以下大一点的。
就算全下了也只能用一个版本的checkpoint。
把你选中的(比如我用的animefull-final-pruned)文件夹下的config.json和model.ckpt放到 你放的地方/stable-diffusion-webui/models/Stable-diffusion下面,如果文件夹不存在则新建。


0x32 CompVis/stable-diffusion

这也是一个github仓库:https://github.com/CompVis/stable-diffusion
clone或者解压ZIP包都可以。
其需要放置到你放的地方/stable-diffusion-webui/repositories/下面,如果没有repositories文件夹请新建。
0x03-IF (如果你想自动配置)直接运行webui.sh,即可跳到0x04 开始玩吧!一节

如果你有互联网连接(指访问github没有什么障碍),直接运行stable-diffusion-webui提供的自动配置脚本就行了,我没用过。
clone或者解压ZIP包后,切到该文件夹,执行脚本
bash webui.sh脚本会使用Python自带的venv创建虚拟环境,并配置完所有依赖。
应该运行完然后把模型(config.yaml和model.ckpt)放到 stable-diffusion-webui/models/Stable-diffusion下面,然后直接运行 python webui.py 就行了。
0x03 真男人用conda自己配环境

因为各种各样的原因没法畅快连github,也不方便挂代理,于是自己来配置。
0x13 创建一个新的虚拟环境

我取的名字叫sdiff, Python版本使用3.8
conda create -n sdiff python=3.8创建完成后激活这个环境
conda activate sdiff切换到stable-diffusion-webui目录下
cd 你的路径/stable-diffusion-webui0x23 安装GPU版的PyTorch

之所以先装PyTorch是因为等会装仓库提供的依赖时会装,但是默认下载的是CPU版本的,你也不想用CPU跑这么大的模型吧。
前往官网 PyTorch 根据你的情况选择,比如我这里选择了Stable/Linux/Pip/Python/CUDA11.6,给我的命令就是pip3 install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu116
CUDA版本可以在终端敲nvidia-smi,右上角会写




然后在终端(sdiff环境下)执行给我们的命令,等待安装完毕
pip3 install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu1160x33 安装stable-diffusion-webui的依赖

sdiff环境下,切到其文件夹,然后安装依赖
pip install -r requirements.txt中间有两个库是从github安装的。
如果安装有困难可以把这两行从requirements.txt中删除,然后重新运行命令安装其他的依赖,然后手动安装

  • https://github.com/crowsonkb/k-diffusion
  • https://github.com/TencentARC/GFPGAN
下载这两个仓库(clone或者ZIP解压都可,放到哪儿都行),切到sdiff环境 ,先不急着装。
对于第一个(k-diffusion),把其 requirements.txt和setup.cfg中带CLIP的行删掉(等会我们会手动安装CLIP),然后再执行pip install .  
对于第二个(GFPGAN),切到其文件夹里然后pip install . 即可。

0x43 放置stable-diffusion仓库

0x32节要求你把stable-diffusion(https://github.com/CompVis/stable-diffusion)文件夹放到了你放的地方/stable-diffusion-webui/repositories/下面,如果之前没放的话现在放一下。其需要放置到你放的地方/stable-diffusion-webui/repositories/下面,如果没有repositories文件夹请新建。

0x53 安装stable-diffusion的依赖

都在stable-diffusion/environment.yaml里面,但因为我们自己配虚拟环境,所以自己装。
有一部分可以通过pip安装
pip install albumentations diffusers opencv-python pudb imageio imageio-ffmpeg pytorch-lightning omegaconf test-tube streamlit einops torch-fidelity transformers torchmetrics kornia还有两个需要下载github仓库安装。下载这两个仓库(clone或者ZIP解压都可,放到哪儿都行),切到sdiff环境 ,先不急着装。

  • https://github.com/CompVis/taming-transformers
  • https://github.com/openai/CLIP
对于第一个(taming-transformers),切到其文件夹里然后pip install . 即可。
对于第二个(CLIP),把其requirements.txt中torch和torchvision的行删掉(因为太旧了),然后再执行pip install .
到此依赖就全部安装完毕了。
0x63 放置模型

0x22节要求把你选中的模型(比如我用的animefull-final-pruned)文件夹下的config.json和model.ckpt放到你放的地方/stable-diffusion-webui/models/Stable-diffusion下面,如果文件夹不存在则新建。
0x04 开始玩吧!

在sdiff环境下, 切到你放的地方/stable-diffusion-webui/,然后运行
python webui.py 如果一切顺利,会提示打开一个本地的网页 http://127.0.0.1:7860 ,就是界面啦。


这里我们生成一个简单的看看效果

  • Prompt 为girl,即你想看见的东西
  • Negative prompt 暂时不加,即你不想看见的东西
  • Sampling Steps 选择20,越大时间越长,效果越好
  • Sampling method 选择DPM2
  • Batch size 选择8,表示生成8张,会慢一些,可以只生成1张看看效果
然后点击Generate! 3090大约需要2分钟,可以看到质量还是非常不错的。


此外,上面的tab还有img2img,可以通过图片+文字生成新的图片。其他的功能就留给大家自己探索了。
prompt和negative prompt决定了产生什么样的图片,由于Novel AI是使用画站的英文tag训练的,所以一般看起来像tag1, tag2, ...。至于那些组合效果好,就需要自己发现了。
生成的图像都会在stable-diffusion-webui/outputs下保存,记得及时删除!
回复

使用道具 举报

1

主题

8

帖子

13

积分

新手上路

Rank: 1

积分
13
发表于 2022-12-15 09:06:49 | 显示全部楼层
赞一个,照着你的步骤跑通了
回复

使用道具 举报

0

主题

1

帖子

0

积分

新手上路

Rank: 1

积分
0
发表于 2022-12-15 09:07:17 | 显示全部楼层
点赞, 请问楼主有没有prompt汇总啊
回复

使用道具 举报

1

主题

7

帖子

8

积分

新手上路

Rank: 1

积分
8
发表于 2022-12-15 09:07:27 | 显示全部楼层
你们是本地环境跑的吗?
回复

使用道具 举报

3

主题

10

帖子

17

积分

新手上路

Rank: 1

积分
17
发表于 2022-12-15 09:08:20 | 显示全部楼层
在Linux服务器上跑的,因为显卡在服务器上。自己的机子跑不动[捂脸]
回复

使用道具 举报

1

主题

9

帖子

8

积分

新手上路

Rank: 1

积分
8
发表于 2022-12-15 09:08:25 | 显示全部楼层
暂时没去调研哈[飙泪笑]
回复

使用道具 举报

1

主题

6

帖子

5

积分

新手上路

Rank: 1

积分
5
发表于 2022-12-15 09:09:12 | 显示全部楼层
我自己win电脑跑的
回复

使用道具 举报

1

主题

3

帖子

5

积分

新手上路

Rank: 1

积分
5
发表于 2022-12-15 09:10:01 | 显示全部楼层
刚好实验室有台3090,科研不下去了,去整个玩玩
回复

使用道具 举报

1

主题

7

帖子

6

积分

新手上路

Rank: 1

积分
6
发表于 2022-12-15 09:10:15 | 显示全部楼层
[飙泪笑]
回复

使用道具 举报

0

主题

4

帖子

0

积分

新手上路

Rank: 1

积分
0
发表于 2022-12-15 09:10:54 | 显示全部楼层
我发现了个方法,直接去D站看标签或者[惊喜]
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

快速回复 返回顶部 返回列表