본문 바로가기

분류 전체보기34

[AI 프롬프트] 메타코드 강의 5일차_DreamBooth 모델 & Lola 모델 [DreamBooth 모델] CVPR2023에서도 Best Paper를 거머쥔 주제가 DreamBooth 관련 논문이었을 정도로 AI 신기술이라고 할 수 있다. 이전에 이와 유사한 생성형 AI로 유행을 이끌었던 SNOW사의 AI프로필도 이와 비슷한 작업이라고 할 수있다. 즉, 내가 원하는 train dataset으로 target 객체를 diffusion 모델에 올릴 수 있는 방법을 배우게 된다. 왼쪽은 실제 개발자가 20~30장 정도의 학습시킬 target image를 선별한 것이다. 최대한 배경이 적은 이미지를 모을 수록 양질의 결과물을 가질 수 있다. 다양한 각도, 모습을 가진 사진일 수록 좋다. 모델 선택에서는 내가 학습시키는 이미지들이 2D인지 animation 스타일인지, 실사 스타일인지에 따라.. 2024. 3. 26.
[AI 프롬프트] 메타코드 강의 4일차_Image to Image, Inpaint [Image 2 Image] 앞 시간에 'Text 2 Image'를 했다면 이번에는 Image to Image이다. 실무에서는 Text 2 Image 를 통해서 스케치를 대략적으로 그리고, Image 2 Image를 통해서 이미지 보정을 한다. Image 2 Image에서 prompt 옵션들을 조정하는 것이 중요하다. T2I에서 output으로 얻은 이미지 파일을 input으로 넣어서 새로운 필감의 이미지를 얻게된다. # 실제 수정작업 중에는 CLIP의 결과가 아닌 실제 T2I에서 프롬프팅했던 단어들을 넣는 것이 좋다. 이제 더 높은 퀄리티의 사진을 뽑아내기 위해서 'ControlNet' Unit을 추가해보자! Enable 선택후에 위에서 output으로 얻은 사진을 넣고, Lineart나 Canny, .. 2024. 3. 24.
[AI 프롬프트] 메타코드 강의 3일차_Stable Diffusion 실습 여러 checkpoint 사용해보기 Civitai: The Home of Open-Source Generative AI Explore thousands of high-quality Stable Diffusion models, share your AI-generated art, and engage with a vibrant community of creators civitai.com 위의 웹사이트에서 'rev animated' checkpoint를 다운받는다. 강사님 말씀으로는 상당히 많은 train image로 학습시켜서 나온 checkpoint로 고성능의 결과를 볼 수 있다고 한다. 다운로드 받은 .safetensors 파일을 [C:\Users\user\stable-diffusion-webui\mode.. 2024. 3. 23.
[AI 프롬프트] 메타코드 강의 2일차_Stable_Diffusion 설치 및 활용 2-2 Stable-Diffusion 설치하기 anaconda를 통해서 가상환경 안에서 모델 동작한다. 강의자료에 나온 설치를 하는 과정은 전반적인 환경 setting이 끝나고 git clone 하여 작업을 수행하는 것이고, 이전에 준비해야될 환경이 있다. 필수) CUDA-Toolkit Version이 12.1이 있어야한다. 강의에서 안내가 되어있지 않지만, 12.1이 깔려있지 않다면 'torch'를 사용할 수 없다는 오류가 발생한다. 간략하게 CUDA가 무엇인지 설명드리면, Nvidia계열의 GPU 가속 프로그램이다. GPU가속기 정도로 알아두면 된다. CUDA가 고통스러운 이유는 버전이 높거나 낮으면 의존 모듈 하나하나가 잘 돌아가지 않기 때문에, 자신의 CUDA 버전을 정확히 알고, 해당 버전과 호.. 2024. 3. 21.