大量の画像管理の面倒くささを解決しようとスクリプト作ってたらろくにアップもできずに数ヶ月も経っていたとりあえず使えるようになったんでテストも兼ねて:
本 LoRA は、フリルがたくさん付いたガーリーな服、描画の手間がかかるようなデザインをテーマとしています。初版のためタグの整備が不十分で、イラスト素材が中心となっています。より良い学習のためには、マネキンが着用した画像や詳細なクローズアップ画像の追加が望まれます。また、`LoraPlus` の使用を試みましたが、十分に活用できていない点があります。
学習が不完全であることは自覚していますが、それでも一定の成果を得ており、初版として公開する準備が整いました。
- ネットワークランク: 16
- 学習率: UNet 0.001 / テキストエンコーダ 0.0001
- スケジューラー: CosineAnnealingLR(T_max=860, eta_min=1e-7)
婉曲表現
英語にするとCvitaiには弾かれるからファイル名はgoth-XLPony_009となってるが、ゴス系は隠し味に入っている程度、あと地雷系も少し
ロリータ・ファッションもメジャーのゴスロリに始まって甘ロリ、和ロリ、中華ロリなどなどなどサブカテゴリめっちゃあるからフォローしきれない
と思ったが
サンプルアップロードするときにレコメンドにロリータ・ファッションってでてきた
Civitai許してくれるようになったんだ
---
---
### ENG
This LoRA was created to alleviate the burden of managing a large number of images, utilizing some automation tools:
- [Script for improving images](https://github.com/NEXTAltair/Lorayougazouwoiroirosurusukuriputo)
- [Script for refining tags](https://github.com/NEXTAltair/genai-tag-db-tools)
The theme of this LoRA revolves around girly clothes adorned with frills and intricate designs that require significant drawing effort. The initial version lacks well-organized tags and is mainly based on illustration materials. To improve the model, including photos with mannequins and close-up images would be essential. Although I attempted to use LoraPlus
, I couldn't fully leverage its potential.
While acknowledging the imperfections, the model is reasonably complete for a first release.
---
### Training Parameters
#### Key Points
- Network Rank: 16
- Learning Rate: UNet 0.001 / Text Encoder 0.0001
- Scheduler: CosineAnnealingLR (T_max=860, eta_min=1e-7)
---
### Example Execution Command
---
1. Network Rank: 16
- Determines the dimensionality of the LoRA network. Affects the model's flexibility and expressiveness.
2. Learning Rates:
- UNet: 0.001
- Text Encoder: 0.0001
- These values control how quickly the model adapts during training, balancing between convergence and stability.
3. Scheduler: CosineAnnealingLR
- Parameters: T_max=860, eta_min=1e-7
- Adjusts the learning rate over time to ensure smooth convergence without abrupt changes.
4. Gradient Accumulation Steps: 5
- Allows training with smaller batches by accumulating gradients, improving memory efficiency.
5. Epochs: 100
- Defines the number of complete passes over the dataset, balancing between underfitting and overfitting.
6. Batch Size: 1
- Small batch size helps with GPU memory constraints but may require careful tuning of learning rates.
7. Precision: fp16
- Mixed-precision training for faster computations while maintaining sufficient numerical accuracy.
These parameters shape the core of the training process, influencing the model's performance, speed, and resource consumption.
Go ahead and upload yours!
Your query returned no results – please try removing some filters or trying a different term.