Skip to content

Commit 345daaa

Browse files
committed
update README for merging
1 parent 6adb69b commit 345daaa

File tree

2 files changed

+25
-6
lines changed

2 files changed

+25
-6
lines changed

README-ja.md

Lines changed: 6 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -36,6 +36,8 @@ Python 3.10.6およびGitが必要です。
3636
- Python 3.10.6: https://www.python.org/ftp/python/3.10.6/python-3.10.6-amd64.exe
3737
- git: https://git-scm.com/download/win
3838

39+
Python 3.10.x、3.11.x、3.12.xでも恐らく動作しますが、3.10.6でテストしています。
40+
3941
PowerShellを使う場合、venvを使えるようにするためには以下の手順でセキュリティ設定を変更してください。
4042
(venvに限らずスクリプトの実行が可能になりますので注意してください。)
4143

@@ -45,7 +47,7 @@ PowerShellを使う場合、venvを使えるようにするためには以下の
4547

4648
## Windows環境でのインストール
4749

48-
スクリプトはPyTorch 2.1.2でテストしています。PyTorch 2.0.1、1.12.1でも動作すると思われます
50+
スクリプトはPyTorch 2.1.2でテストしています。PyTorch 2.2以降でも恐らく動作します
4951

5052
(なお、python -m venv~の行で「python」とだけ表示された場合、py -m venv~のようにpythonをpyに変更してください。)
5153

@@ -67,10 +69,12 @@ accelerate config
6769

6870
コマンドプロンプトでも同一です。
6971

70-
注:`bitsandbytes==0.43.0``prodigyopt==1.0``lion-pytorch==0.0.6``requirements.txt` に含まれるようになりました。他のバージョンを使う場合は適宜インストールしてください。
72+
注:`bitsandbytes==0.44.0``prodigyopt==1.0``lion-pytorch==0.0.6``requirements.txt` に含まれるようになりました。他のバージョンを使う場合は適宜インストールしてください。
7173

7274
この例では PyTorch および xfomers は2.1.2/CUDA 11.8版をインストールします。CUDA 12.1版やPyTorch 1.12.1を使う場合は適宜書き換えください。たとえば CUDA 12.1版の場合は `pip install torch==2.1.2 torchvision==0.16.2 --index-url https://download.pytorch.org/whl/cu121` および `pip install xformers==0.0.23.post1 --index-url https://download.pytorch.org/whl/cu121` としてください。
7375

76+
PyTorch 2.2以降を用いる場合は、`torch==2.1.2``torchvision==0.16.2` 、および `xformers==0.0.23.post1` を適宜変更してください。
77+
7478
accelerate configの質問には以下のように答えてください。(bf16で学習する場合、最後の質問にはbf16と答えてください。)
7579

7680
```txt

README.md

Lines changed: 19 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -25,7 +25,7 @@ This repository contains the scripts for:
2525

2626
The file does not contain requirements for PyTorch. Because the version of PyTorch depends on the environment, it is not included in the file. Please install PyTorch first according to the environment. See installation instructions below.
2727

28-
The scripts are tested with Pytorch 2.1.2. 2.0.1 and 1.12.1 is not tested but should work.
28+
The scripts are tested with Pytorch 2.1.2. PyTorch 2.2 or later will work. Please install the appropriate version of PyTorch and xformers.
2929

3030
## Links to usage documentation
3131

@@ -52,6 +52,8 @@ Python 3.10.6 and Git:
5252
- Python 3.10.6: https://www.python.org/ftp/python/3.10.6/python-3.10.6-amd64.exe
5353
- git: https://git-scm.com/download/win
5454

55+
Python 3.10.x, 3.11.x, and 3.12.x will work but not tested.
56+
5557
Give unrestricted script access to powershell so venv can work:
5658

5759
- Open an administrator powershell window
@@ -78,10 +80,12 @@ accelerate config
7880

7981
If `python -m venv` shows only `python`, change `python` to `py`.
8082

81-
__Note:__ Now `bitsandbytes==0.43.0`, `prodigyopt==1.0` and `lion-pytorch==0.0.6` are included in the requirements.txt. If you'd like to use the another version, please install it manually.
83+
Note: Now `bitsandbytes==0.44.0`, `prodigyopt==1.0` and `lion-pytorch==0.0.6` are included in the requirements.txt. If you'd like to use the another version, please install it manually.
8284

8385
This installation is for CUDA 11.8. If you use a different version of CUDA, please install the appropriate version of PyTorch and xformers. For example, if you use CUDA 12, please install `pip install torch==2.1.2 torchvision==0.16.2 --index-url https://download.pytorch.org/whl/cu121` and `pip install xformers==0.0.23.post1 --index-url https://download.pytorch.org/whl/cu121`.
8486

87+
If you use PyTorch 2.2 or later, please change `torch==2.1.2` and `torchvision==0.16.2` and `xformers==0.0.23.post1` to the appropriate version.
88+
8589
<!--
8690
cp .\bitsandbytes_windows\*.dll .\venv\Lib\site-packages\bitsandbytes\
8791
cp .\bitsandbytes_windows\cextension.py .\venv\Lib\site-packages\bitsandbytes\cextension.py
@@ -142,12 +146,18 @@ The majority of scripts is licensed under ASL 2.0 (including codes from Diffuser
142146

143147
## Change History
144148

145-
### Working in progress
149+
### Jan 17, 2025 / 2025-01-17 Version 0.9.0
146150

147151
- __important__ The dependent libraries are updated. Please see [Upgrade](#upgrade) and update the libraries.
148152
- bitsandbytes, transformers, accelerate and huggingface_hub are updated.
149153
- If you encounter any issues, please report them.
150154

155+
- The dev branch is merged into main. The documentation is delayed, and I apologize for that. I will gradually improve it.
156+
- The state just before the merge is released as Version 0.8.8, so please use it if you encounter any issues.
157+
- The following changes are included.
158+
159+
#### Changes
160+
151161
- Fixed a bug where the loss weight was incorrect when `--debiased_estimation_loss` was specified with `--v_parameterization`. PR [#1715](https://github.com/kohya-ss/sd-scripts/pull/1715) Thanks to catboxanon! See [the PR](https://github.com/kohya-ss/sd-scripts/pull/1715) for details.
152162
- Removed the warning when `--v_parameterization` is specified in SDXL and SD1.5. PR [#1717](https://github.com/kohya-ss/sd-scripts/pull/1717)
153163

@@ -188,7 +198,6 @@ The majority of scripts is licensed under ASL 2.0 (including codes from Diffuser
188198
- See the [transformers documentation](https://huggingface.co/docs/transformers/v4.44.2/en/main_classes/optimizer_schedules#schedules) for details on each scheduler.
189199
- `--lr_warmup_steps` and `--lr_decay_steps` can now be specified as a ratio of the number of training steps, not just the step value. Example: `--lr_warmup_steps=0.1` or `--lr_warmup_steps=10%`, etc.
190200

191-
https://github.com/kohya-ss/sd-scripts/pull/1393
192201
- When enlarging images in the script (when the size of the training image is small and bucket_no_upscale is not specified), it has been changed to use Pillow's resize and LANCZOS interpolation instead of OpenCV2's resize and Lanczos4 interpolation. The quality of the image enlargement may be slightly improved. PR [#1426](https://github.com/kohya-ss/sd-scripts/pull/1426) Thanks to sdbds!
193202

194203
- Sample image generation during training now works on non-CUDA devices. PR [#1433](https://github.com/kohya-ss/sd-scripts/pull/1433) Thanks to millie-v!
@@ -258,6 +267,12 @@ https://github.com/kohya-ss/sd-scripts/pull/1290) Thanks to frodo821!
258267

259268
- Added a prompt option `--f` to `gen_imgs.py` to specify the file name when saving. Also, Diffusers-based keys for LoRA weights are now supported.
260269

270+
#### 変更点
271+
272+
- devブランチがmainにマージされました。ドキュメントの整備が遅れており申し訳ありません。少しずつ整備していきます。
273+
- マージ直前の状態が Version 0.8.8 としてリリースされていますので、問題があればそちらをご利用ください。
274+
- 以下の変更が含まれます。
275+
261276
- SDXL の学習時に Fused optimizer が使えるようになりました。PR [#1259](https://github.com/kohya-ss/sd-scripts/pull/1259) 2kpr 氏に感謝します。
262277
- optimizer の backward pass に step を統合することで学習時のメモリ使用量を大きく削減します。学習結果は未適用時と同一ですが、メモリが潤沢にある場合は速度は遅くなります。
263278
- `sdxl_train.py``--fused_backward_pass` オプションを指定してください。現時点では optimizer は AdaFactor のみ対応しています。また gradient accumulation は使えません。

0 commit comments

Comments
 (0)