『Stable Diffusion web UI』をWindows11での実装方法でふ、
よく、BATファイルを用いた方法が述べられておりまふが、
おいらはパイソニストとして、Pythonのみで実装しておりまふ(-。-)y-゜゜゜
また、あまり興味ある人は少ないと思いまふが、
『Stable Diffusion』の仕組みについておまけに書いておきまふた(‘◇’)
Windows11 pro (Windows Insier Program)
マウスコンピューター製G-Tune E5-144
CPU:インテル(R) Core(TM) i7-10875H プロセッサー
メモリ:32GB メモリ
SSD (M.2):512GB NVMe SSD
グラフィックス:NVIDIA GeForce RTX2060 / 6GB
Python : 3.10 (pyenvを使用)
CUDA : 1.17
1 |
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git |
1 |
cd stable-diffusion-webui |
1 2 3 |
pyenv local 3.10.5 python -m venv venv venv/scripts/activate |
1 |
python launch.py |
このコマンドで、必要ライブラリをインストールしてくれます、なんと便利!!
学習済みモデルを配置していないので、エラーがでます。
学習済みモデルを配置後、同じコマンドを行います。
『stable-diffusion-webui\models\Stable-diffusion』のフォルダのなかに『***.safetensors』の様な学習済みモデルを保存します。
『Hugging Face』や『Civitai』からダウンロードできます。
1 |
python launch.py |
http://127.0.0.1:7860へアクセス
まだまだ、プロンプトを精査せねば(@_@)
説明にはビデオメモリが8GB必要と書いてありまふがた、
6GBの環境でも普通に動きまふ(‘ω’)ノ
詳しい使い方は、また次回。(‘◇’)ゞ
Stable Diffusion について。
Stable Diffusion web UI」は、WebベースのUIで、ブラウザウィンドウからStable Diffusionを簡単に操作できるようになっています1。このプロジェクトには、Gradio、または、FastAPI2つのWeb UIが選択できます1。また、画像の拡大や強化には、GFPGAN や realESRGAN などの画像アップスケーラーが組み込まれています。
Stable Diffusion は、大きく三つの工程(モジュール)で生成しまふ。
1.テキストから情報を抽出:CLIPエンコーダ
2.抽出された情報から圧縮画像を生成:拡散モデル
3.生成した圧縮画像から画像に変換:VAEデコーダ
で構成されておりまふ。
Stable Diffusion web UI でどれが担っているのかは、また今後説明(‘◇’)