배우기/AI prompt 배우기7 [AI 프롬프트] 메타코드 강의 7일차_동영상 생성하기2 [AnimatedDiff] 앞서 배운 mov2mov는 빠르게 영상을 원하는 필체로 만들 수 있다는 장점은 있지만, 손가락이 없어진다거나 원하는 부분은 사라지고, 1초 간격으로 귀걸이가 생겼다 사라지는 등의 부자연스러운 영상이 나온다는 한계점이 있다. 해당 그림에서 우리가 원하는 영역에 대해서만 마치 움직이는 듯한 자연스러운 영상을 만들어보기 위해 Animateddiff라는 모델을 사용하게 된다. 설치법 : [Extensions] - [available] - 'animated' 첫번째 motion model 다운로드 : 'mm_sd_v15_v2.ckpt' guoyww/animatediff at main Detected Pickle imports (3) "torch._utils._rebuild_tensor_.. 2024. 3. 28. [AI 프롬프트] 메타코드 강의 6일차_동영상 생성하기 [Deforum] https://www.youtube.com/shorts/OOkZ7YkXd4w Deforum을 사용한 예시 -출처 : YouTube 1년 전 정도부터 SNS나 유튜브에서 자신의 캡쳐 사진을 생성형 AI에 넣어서 마치 환상 속의 인물이나 공간으로 점점 변해들어가는 쇼츠들을 많이 접할 수 있게되었다. 이러한 영상을 제작할 수 있는 Deforum에 대해서 다루어 본다. 먼저, 원하는 사진을 하나 생성한다. 원하는 사진을 가지고 와도 무방하다. Animation mode - 2D, 3D는 카메라의 움직임을 어느 차원에 둘거냐는 의미이다. 3D로 하면 더 역동적으로 가능하다. Max frames - 프레임의 길이를 말한다. https://stable-diffusion-art.com/deforum/.. 2024. 3. 27. [AI 프롬프트] 메타코드 강의 5일차_DreamBooth 모델 & Lola 모델 [DreamBooth 모델] CVPR2023에서도 Best Paper를 거머쥔 주제가 DreamBooth 관련 논문이었을 정도로 AI 신기술이라고 할 수 있다. 이전에 이와 유사한 생성형 AI로 유행을 이끌었던 SNOW사의 AI프로필도 이와 비슷한 작업이라고 할 수있다. 즉, 내가 원하는 train dataset으로 target 객체를 diffusion 모델에 올릴 수 있는 방법을 배우게 된다. 왼쪽은 실제 개발자가 20~30장 정도의 학습시킬 target image를 선별한 것이다. 최대한 배경이 적은 이미지를 모을 수록 양질의 결과물을 가질 수 있다. 다양한 각도, 모습을 가진 사진일 수록 좋다. 모델 선택에서는 내가 학습시키는 이미지들이 2D인지 animation 스타일인지, 실사 스타일인지에 따라.. 2024. 3. 26. [AI 프롬프트] 메타코드 강의 4일차_Image to Image, Inpaint [Image 2 Image] 앞 시간에 'Text 2 Image'를 했다면 이번에는 Image to Image이다. 실무에서는 Text 2 Image 를 통해서 스케치를 대략적으로 그리고, Image 2 Image를 통해서 이미지 보정을 한다. Image 2 Image에서 prompt 옵션들을 조정하는 것이 중요하다. T2I에서 output으로 얻은 이미지 파일을 input으로 넣어서 새로운 필감의 이미지를 얻게된다. # 실제 수정작업 중에는 CLIP의 결과가 아닌 실제 T2I에서 프롬프팅했던 단어들을 넣는 것이 좋다. 이제 더 높은 퀄리티의 사진을 뽑아내기 위해서 'ControlNet' Unit을 추가해보자! Enable 선택후에 위에서 output으로 얻은 사진을 넣고, Lineart나 Canny, .. 2024. 3. 24. 이전 1 2 다음