This repository contains training, generation and utility scripts for Stable Diffusion.
Change History is moved to the bottom of the page. 更新履歴はページ末尾に移しました。
For easier use (GUI and PowerShell scripts etc...), please visit the repository maintained by bmaltais. Thanks to @bmaltais!
This repository contains the scripts for:
- DreamBooth training, including U-Net and Text Encoder
- Fine-tuning (native training), including U-Net and Text Encoder
- LoRA training
- Textual Inversion training
- Image generation
- Model conversion (supports 1.x and 2.x, Stable Diffision ckpt/safetensors and Diffusers)
The file does not contain requirements for PyTorch. Because the version of PyTorch depends on the environment, it is not included in the file. Please install PyTorch first according to the environment. See installation instructions below.
The scripts are tested with Pytorch 2.1.2. 2.0.1 and 1.12.1 is not tested but should work.
Most of the documents are written in Japanese.
English translation by darkstorm2150 is here. Thanks to darkstorm2150!
- Training guide - common : data preparation, options etc...
- SDXL training (English version)
- Dataset config
- DreamBooth training guide
- Step by Step fine-tuning guide:
- Training LoRA
- Training Textual Inversion
- Image generation
- note.com Model conversion
Python 3.10.6 and Git:
- Python 3.10.6: https://www.python.org/ftp/python/3.10.6/python-3.10.6-amd64.exe
- git: https://git-scm.com/download/win
Give unrestricted script access to powershell so venv can work:
- Open an administrator powershell window
- Type
Set-ExecutionPolicy Unrestrictedand answer A - Close admin powershell window
Open a regular Powershell terminal and type the following inside:
git clone https://github.com/kohya-ss/sd-scripts.git
cd sd-scripts
python -m venv venv
.\venv\Scripts\activate
pip install torch==2.1.2 torchvision==0.16.2 --index-url https://download.pytorch.org/whl/cu118
pip install --upgrade -r requirements.txt
pip install xformers==0.0.23.post1 --index-url https://download.pytorch.org/whl/cu118
accelerate configIf python -m venv shows only python, change python to py.
Note: Now bitsandbytes==0.43.0, prodigyopt==1.0 and lion-pytorch==0.0.6 are included in the requirements.txt. If you'd like to use the another version, please install it manually.
This installation is for CUDA 11.8. If you use a different version of CUDA, please install the appropriate version of PyTorch and xformers. For example, if you use CUDA 12, please install pip install torch==2.1.2 torchvision==0.16.2 --index-url https://download.pytorch.org/whl/cu121 and pip install xformers==0.0.23.post1 --index-url https://download.pytorch.org/whl/cu121.
Answers to accelerate config:
- This machine
- No distributed training
- NO
- NO
- NO
- all
- fp16If you'd like to use bf16, please answer bf16 to the last question.
Note: Some user reports ValueError: fp16 mixed precision requires a GPU is occurred in training. In this case, answer 0 for the 6th question:
What GPU(s) (by id) should be used for training on this machine as a comma-separated list? [all]:
(Single GPU with id 0 will be used.)
When a new release comes out you can upgrade your repo with the following command:
cd sd-scripts
git pull
.\venv\Scripts\activate
pip install --use-pep517 --upgrade -r requirements.txtOnce the commands have completed successfully you should be ready to use the new version.
The implementation for LoRA is based on cloneofsimo's repo. Thank you for great work!
The LoRA expansion to Conv2d 3x3 was initially released by cloneofsimo and its effectiveness was demonstrated at LoCon by KohakuBlueleaf. Thank you so much KohakuBlueleaf!
The majority of scripts is licensed under ASL 2.0 (including codes from Diffusers, cloneofsimo's and LoCon), however portions of the project are available under separate license terms:
Memory Efficient Attention Pytorch: MIT
bitsandbytes: MIT
BLIP: BSD-3-Clause
-
The dependent libraries are updated. Please see Upgrade and update the libraries.
- Especially
imagesizeis newly added, so if you cannot update immediately, please install withpip install imagesize==1.4.1. bitsandbytes==0.43.0,prodigyopt==1.0,lion-pytorch==0.0.6are included in the requirements.txt.
- Especially
-
Colab seems to stop with log output. Try specifying
--console_log_simpleoption in the training script to disable rich logging. -
The
.tomlfile for the dataset config is now read in UTF-8 encoding. PR #1167 Thanks to Horizon1704! -
Fixed a bug that the last subset settings are applied to all images when multiple subsets of regularization images are specified in the dataset settings. The settings for each subset are correctly applied to each image. PR #1205 Thanks to feffy380!
-
train_network.pyandsdxl_train_network.pyare modified to record some dataset settings in the metadata of the trained model (caption_prefix,caption_suffix,keep_tokens_separator,secondary_separator,enable_wildcard). -
DeepSpeed is supported. PR #1101 and #1139 Thanks to BootsofLagrangian! See PR #1101 for details.
-
The masked loss is supported in each training script. PR #1207 See Masked loss for details.
-
Some features are added to the dataset subset settings.
secondary_separatoris added to specify the tag separator that is not the target of shuffling or dropping.- Specify
secondary_separator=";;;". When you specifysecondary_separator, the part is not shuffled or dropped.
- Specify
enable_wildcardis added. When set totrue, the wildcard notation{aaa|bbb|ccc}can be used. The multi-line caption is also enabled.keep_tokens_separatoris updated to be used twice in the caption. When you specifykeep_tokens_separator="|||", the part divided by the second|||is not shuffled or dropped and remains at the end.- The existing features
caption_prefixandcaption_suffixcan be used together.caption_prefixandcaption_suffixare processed first, and thenenable_wildcard,keep_tokens_separator, shuffling and dropping, andsecondary_separatorare processed in order. - See Dataset config for details.
-
The dataset with DreamBooth method supports caching image information (size, caption). PR #1178 and #1206 Thanks to KohakuBlueleaf! See DreamBooth method specific options for details.
-
The support for v3 repositories is added to
tag_image_by_wd14_tagger.py(--onnxoption only). PR #1192 Thanks to sdbds!- Onnx may need to be updated. Onnx is not installed by default, so please install or update it with
pip install onnx==1.15.0 onnxruntime-gpu==1.17.1etc. Please also check the comments inrequirements.txt.
- Onnx may need to be updated. Onnx is not installed by default, so please install or update it with
-
The model is now saved in the subdirectory as
--repo_idintag_image_by_wd14_tagger.py. This caches multiple repo_id models. Please delete unnecessary files under--model_dir. -
The options
--noise_offset_random_strengthand--ip_noise_gamma_random_strengthare added to each training script. These options can be used to vary the noise offset and ip noise gamma in the range of 0 to the specified value. PR #1177 Thanks to KohakuBlueleaf! -
The options
--save_state_on_train_endare added to each training script. PR #1168 Thanks to gesen2egee! -
The options
--sample_every_n_epochsand--sample_every_n_stepsin each training script now display a warning and ignore them when a number less than or equal to0is specified. Thanks to S-Del for raising the issue. -
The English version of the dataset settings documentation is added. PR #1175 Thanks to darkstorm2150!
-
依存ライブラリが更新されました。アップグレード を参照しライブラリを更新してください。
- 特に
imagesizeが新しく追加されていますので、すぐに更新ができない場合はpip install imagesize==1.4.1でインストールしてください。 bitsandbytes==0.43.0、prodigyopt==1.0、lion-pytorch==0.0.6が requirements.txt に含まれるようになりました。
- 特に
-
Colab での動作時、ログ出力で停止してしまうようです。学習スクリプトに
--console_log_simpleオプションを指定し、rich のロギングを無効してお試しください。 -
データセット設定の
.tomlファイルが UTF-8 encoding で読み込まれるようになりました。PR #1167 Horizon1704 氏に感謝します。 -
データセット設定で、正則化画像のサブセットを複数指定した時、最後のサブセットの各種設定がすべてのサブセットの画像に適用される不具合が修正されました。それぞれのサブセットの設定が、それぞれの画像に正しく適用されます。PR #1205 feffy380 氏に感謝します。
-
train_network.pyおよびsdxl_train_network.pyで、学習したモデルのメタデータに一部のデータセット設定が記録されるよう修正しました(caption_prefix、caption_suffix、keep_tokens_separator、secondary_separator、enable_wildcard)。 -
DeepSpeed がサポートされました。PR #1101 、#1139 BootsofLagrangian 氏に感謝します。詳細は PR #1101 をご覧ください。
-
各学習スクリプトでマスクロスをサポートしました。PR #1207 詳細は Masked loss をご覧ください。
-
データセットのサブセット設定にいくつかの機能を追加しました。
- シャッフルの対象とならないタグ分割識別子の指定
secondary_separatorを追加しました。secondary_separator=";;;"のように指定します。secondary_separatorで区切ることで、その部分はシャッフル、drop 時にまとめて扱われます。 enable_wildcardを追加しました。trueにするとワイルドカード記法{aaa|bbb|ccc}が使えます。また複数行キャプションも有効になります。keep_tokens_separatorをキャプション内に 2 つ使えるようにしました。たとえばkeep_tokens_separator="|||"と指定したとき、1girl, hatsune miku, vocaloid ||| stage, mic ||| best quality, rating: generalとキャプションを指定すると、二番目の|||で分割された部分はシャッフル、drop されず末尾に残ります。- 既存の機能
caption_prefixとcaption_suffixとあわせて使えます。caption_prefixとcaption_suffixは一番最初に処理され、その後、ワイルドカード、keep_tokens_separator、シャッフルおよび drop、secondary_separatorの順に処理されます。 - 詳細は データセット設定 をご覧ください。
- シャッフルの対象とならないタグ分割識別子の指定
-
DreamBooth 方式の DataSet で画像情報(サイズ、キャプション)をキャッシュする機能が追加されました。PR #1178、#1206 KohakuBlueleaf 氏に感謝します。詳細は データセット設定 をご覧ください。
-
tag_image_by_wd14_tagger.pyで v3 のリポジトリがサポートされました(--onnx指定時のみ有効)。 PR #1192 sdbds 氏に感謝します。- Onnx のバージョンアップが必要になるかもしれません。デフォルトでは Onnx はインストールされていませんので、
pip install onnx==1.15.0 onnxruntime-gpu==1.17.1等でインストール、アップデートしてください。requirements.txtのコメントもあわせてご確認ください。
- Onnx のバージョンアップが必要になるかもしれません。デフォルトでは Onnx はインストールされていませんので、
-
tag_image_by_wd14_tagger.pyで、モデルを--repo_idのサブディレクトリに保存するようにしました。これにより複数のモデルファイルがキャッシュされます。--model_dir直下の不要なファイルは削除願います。 -
各学習スクリプトに、noise offset、ip noise gammaを、それぞれ 0~指定した値の範囲で変動させるオプション
--noise_offset_random_strengthおよび--ip_noise_gamma_random_strengthが追加されました。 PR #1177 KohakuBlueleaf 氏に感謝します。 -
各学習スクリプトに、学習終了時に state を保存する
--save_state_on_train_endオプションが追加されました。 PR #1168 gesen2egee 氏に感謝します。 -
各学習スクリプトで
--sample_every_n_epochsおよび--sample_every_n_stepsオプションに0以下の数値を指定した時、警告を表示するとともにそれらを無視するよう変更しました。問題提起していただいた S-Del 氏に感謝します。
Please read Releases for recent updates. 最近の更新情報は Release をご覧ください。
The masked loss is supported in each training script. To enable the masked loss, specify the --masked_loss option.
The feature is not fully tested, so there may be bugs. If you find any issues, please open an Issue.
ControlNet dataset is used to specify the mask. The mask images should be the RGB images. The pixel value 255 in R channel is treated as the mask (the loss is calculated only for the pixels with the mask), and 0 is treated as the non-mask. The pixel values 0-255 are converted to 0-1 (i.e., the pixel value 128 is treated as the half weight of the loss). See details for the dataset specification in the LLLite documentation.
各学習スクリプトでマスクロスをサポートしました。マスクロスを有効にするには --masked_loss オプションを指定してください。
機能は完全にテストされていないため、不具合があるかもしれません。その場合は Issue を立てていただけると助かります。
マスクの指定には ControlNet データセットを使用します。マスク画像は RGB 画像である必要があります。R チャンネルのピクセル値 255 がロス計算対象、0 がロス計算対象外になります。0-255 の値は、0-1 の範囲に変換されます(つまりピクセル値 128 の部分はロスの重みが半分になります)。データセットの詳細は LLLite ドキュメント をご覧ください。
The LoRA supported by train_network.py has been named to avoid confusion. The documentation has been updated. The following are the names of LoRA types in this repository.
-
LoRA-LierLa : (LoRA for Li n e a r La yers)
LoRA for Linear layers and Conv2d layers with 1x1 kernel
-
LoRA-C3Lier : (LoRA for C olutional layers with 3 x3 Kernel and Li n e a r layers)
In addition to 1., LoRA for Conv2d layers with 3x3 kernel
LoRA-LierLa is the default LoRA type for train_network.py (without conv_dim network arg). LoRA-LierLa can be used with our extension for AUTOMATIC1111's Web UI, or with the built-in LoRA feature of the Web UI.
To use LoRA-C3Lier with Web UI, please use our extension.
train_network.py がサポートするLoRAについて、混乱を避けるため名前を付けました。ドキュメントは更新済みです。以下は当リポジトリ内の独自の名称です。
-
LoRA-LierLa : (LoRA for Li n e a r La yers、リエラと読みます)
Linear 層およびカーネルサイズ 1x1 の Conv2d 層に適用されるLoRA
-
LoRA-C3Lier : (LoRA for C olutional layers with 3 x3 Kernel and Li n e a r layers、セリアと読みます)
1.に加え、カーネルサイズ 3x3 の Conv2d 層に適用されるLoRA
LoRA-LierLa はWeb UI向け拡張、またはAUTOMATIC1111氏のWeb UIのLoRA機能で使用することができます。
LoRA-C3Lierを使いWeb UIで生成するには拡張を使用してください。
A prompt file might look like this, for example
# prompt 1
masterpiece, best quality, (1girl), in white shirts, upper body, looking at viewer, simple background --n low quality, worst quality, bad anatomy,bad composition, poor, low effort --w 768 --h 768 --d 1 --l 7.5 --s 28
# prompt 2
masterpiece, best quality, 1boy, in business suit, standing at street, looking back --n (low quality, worst quality), bad anatomy,bad composition, poor, low effort --w 576 --h 832 --d 2 --l 5.5 --s 40
Lines beginning with # are comments. You can specify options for the generated image with options like --n after the prompt. The following can be used.
--nNegative prompt up to the next option.--wSpecifies the width of the generated image.--hSpecifies the height of the generated image.--dSpecifies the seed of the generated image.--lSpecifies the CFG scale of the generated image.--sSpecifies the number of steps in the generation.
The prompt weighting such as ( ) and [ ] are working.
プロンプトファイルは例えば以下のようになります。
# prompt 1
masterpiece, best quality, (1girl), in white shirts, upper body, looking at viewer, simple background --n low quality, worst quality, bad anatomy,bad composition, poor, low effort --w 768 --h 768 --d 1 --l 7.5 --s 28
# prompt 2
masterpiece, best quality, 1boy, in business suit, standing at street, looking back --n (low quality, worst quality), bad anatomy,bad composition, poor, low effort --w 576 --h 832 --d 2 --l 5.5 --s 40
# で始まる行はコメントになります。--n のように「ハイフン二個+英小文字」の形でオプションを指定できます。以下が使用可能できます。
--nNegative prompt up to the next option.--wSpecifies the width of the generated image.--hSpecifies the height of the generated image.--dSpecifies the seed of the generated image.--lSpecifies the CFG scale of the generated image.--sSpecifies the number of steps in the generation.
( ) や [ ] などの重みづけも動作します。