본문 바로가기
배우기/AI prompt 배우기

[AI 프롬프트] 메타코드 강의 3일차_Stable Diffusion 실습

by cwin 2024. 3. 23.

여러 checkpoint 사용해보기

 

Civitai: The Home of Open-Source Generative AI

Explore thousands of high-quality Stable Diffusion models, share your AI-generated art, and engage with a vibrant community of creators

civitai.com

위의 웹사이트에서 'rev animated' checkpoint를 다운받는다.

강사님 말씀으로는 상당히 많은 train image로 학습시켜서 나온 checkpoint로 고성능의 결과를 볼 수 있다고 한다.

 

 

다운로드 받은 .safetensors 파일을 [C:\Users\user\stable-diffusion-webui\models\Stable-diffusion] 해당 경로안에 넣어주면 위와 같은 checkpoint list에 추가된다.

 

이제 Image promting을 실제로 해보자.

 

예시로 나온 사진을 그대로 똑같이 프롬프팅하여 결과 사진을 확인해 보자. 우측 하단에 i 를 누르면 프롬프트 sample이 나온다.

앞서 우리가 anaconda 환경에서 실행한 창에 동일하게 입력하면, 정확히 동일한 이미지는 나오지 않지만 매우 유사한 그림을 얻을 수 있다.

 

[Prompt]

(digital painting),(best quality), serene Japanese garden, cherry blossoms in full bloom, koi pond, footbridge, pagoda, Ukiyo-e art style, Hokusai inspiration, Deviant Art popular, 8k ultra-realistic, pastel color scheme, soft lighting, golden hour, tranquil atmosphere, landscape orientation

()는 강조하는 단어 표시, 너무 중복되는 단어가 있다면 성능이 저하된다고 한다.

 

[Text to Image]

예시로 사람의 모습을 만들고 싶다고 한다면, 우리가 프롬프트에 하나한씩 앉아있는지, 어디에 앉았는지, 다리는 어떤지, 팔은 어떤지 등등..의 수많은 단어들을 입력해야 된다. 이러한 경우를 위해서 Openpose로 분석하여 사람의 동작을 인식하여 그 동작을 직접적으로 프롬프팅 할 수 있는 Extension 기능을 설치할 수 있다.

 

 

URL for extension's git repo 입력란 안에 'https://github.com/Mikubill/sd-webui-controlnet'을 입력한다.

설치가 완료되면, [Installed]에서 'Apply and restart UI'를 선택한다.

완료되면 위와 같이 이미지를 끌어 놓을 수 있는 공간이 새롭게 생긴다.

아직 끝나지 않았다. OpenPose로 해당 이미지를 분석할 수 있는 MLP 모델이 필요하다.

 

https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main

 

lllyasviel/ControlNet-v1-1 at main

Detected Pickle imports (3) "collections.OrderedDict", "torch.FloatStorage", "torch._utils._rebuild_tensor_v2" What is a pickle import?

huggingface.co

 

.pth 파일 중

'control_v11p_sd15_openpose.pth'
'control_v11p_sd15_depth.pth',
'control_v11p_sd15_canny_pth'
'control_v11p_sd15_lineart.pth'
'control_v11p_sd15_seg.pth'
'control_v11p_sd15_softedge.pth'

 

모두 다운로드 받고 [C:\Users\user\stable-diffusion-webui\extensions\sd-webui-controlnet\models] 디렉토리 안에 넣어준다.

 

 

원하는 동작의 그림을 찾아서 입력하면(왼쪽 사진), OpenPose로 분석하여 프롬프트에서 해당 행동 좌표를 참조한다.

 

+) 계속 사람의 얼굴이 뚜렷하지 않거나, 폭력, 선정성 사진이 만들어진다면?
걸러낼 단어, 장면에 대한 filter 역할을 해줄 embedding 모델을 다운로드한다.
{Civitai} 에서 검색 가능
1. [Easy Negative] : https://civitai.com/models/7808/easynegative
2. [7 Dirty Words negative prompt] : https://civitai.com/models/15287?modelVersionId=18009

다운로드 후, [C:\Users\user\stable-diffusion-webui\embeddings] 디렉터리 안에 넣기!

+) 얼굴 보정 설정하기
메뉴 'Setting' -> 좌측 메뉴 중 Postprocessing 'Face restoration' -> 첫 번째 체크박스 확인! ->
상단 주황색 Apply settings 클릭

 

 

https://mcode.co.kr/

 

메타코드M

빅데이터 , AI 강의 플랫폼 & IT 현직자 모임 플랫폼ㅣ메타코드 커뮤니티 일원이 되시기 바랍니다.

mcode.co.kr