kohya_ss의 브렌치 버전이 업데이트되었습니다.

그래서 Flux로 Lora를 만드는 것이 가능해졌습니다.

다만, Flux를 사용하려면 VRAM이 24GB이어야 안정적이 빠르게 사용이 가능합니다.

하지만, config 파일을 수정하여 저처럼 10GB VRAM 사용자도 사용할 수 있게 만들어봤습니다.

RTX 3080 10GB 이하의 저사양 PC는 권장하지는 않습니다만, 불가능하지는 않습니다.

시간이 너무 오래 걸려서 여러 번 테스트해야 하는 문제로 저도 두 번 정도로 진행하고 더이상 진행하지 않았습니다.

 

flux_lowvram.json
0.01MB

 

 

 

 

 

 

아래 파일은 Comfyui에서  GGUF 모델 Flow입니다.

GGUF_Lora.json
0.01MB

 

https://www.youtube.com/watch?v=EfoRd0MO4jI

 

탄지로는 2000스탭으로 진행하였는데, 충분하지 않은거 같더군요.

아래 이미지는 제가 태연 사진을 20장 정도 가지고 3600스탭으로 테스트를 진행해 본 겁니다.
RTX 3080 10GB로 약 12시간가량 학습을 진행하였습니다.
(정말... 오래 걸리더군요. 아무래도 학습은 유료를 사용하는 것이 낫지 않나 생각을 해봅니다.)
학습량이 부족하긴 하지만, 비슷해 보이네요.