일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- nodejs
- Kibana
- sample
- ChatGPT
- unity
- ssh
- 영어
- AWS
- logstash
- 설정
- docker
- 유니티
- API
- build
- s3
- 엘라스틱서치
- elasticsearch
- mariadb
- MySQL
- MSSQL
- JavaScript
- 구글
- error
- Git
- Windows
- Linux
- JS
- Python
- Ai
- Today
- Total
목록Stable diffusion (8)
가끔 보자, 하늘.
링크만 올려둡니다. 안보신 분들 있으면 쭉 둘러보세요. :) https://kr-resources.awscloud.com/aws-reinvent-recap-kr-on-demand?trk=f4745311-27bb-4169-b1ce-8ffde15f86e7&sc_channel=em&mkt_tok=MTEyLVRaTS03NjYAAAGRAS0aC5kj-YbmBiOWKw04Kyk43FUATL4MR5fr00EdzFWlXT6XXf_EWDCQLzQhHyHpSPypqLt_hueayOYsvaibloe13njO1DLEuMMCH6WIdjYcmgk
https://stability.ai/news/stable-zero123-3d-generation?fbclid=IwAR3XuAFOQzLizSvOyMnvfb7NT0XHmaVRg_f7n8bxSUzCZ7gYexBjtA9-ySA Introducing Stable Zero123: Quality 3D Object Generation from Single Images — Stability AI Stable Zero123 is an AI-powered model for generating novel views of 3D objects with improved quality. Released for non-commercial and research purposes, it uses an improved dataset an..
한 폴더에 작업이 필요한 이미지를 넣은 후 필요한 workflow에서 하나씩 이미지를 처리하려고 할 때 Load Image batch 노드와 Extra options의 Batch count를 이용하면 됩니다. "Load Image Batch"노드는 https://github.com/WASasquatch/was-node-suite-comfyui 를 설치하면 사용이 가능합니다. mode를 "single_image"로 지정할 경우 지정한 index의 이미지만을 사용합니다. "incremental_image"로 지정하면 지정한 index부터 순차적으로 1씩 인덱스를 증가시키며 이미지를 불러옵니다. 그런데 이렇게 노드를 구성하고 "Queue Prompt"를 선택하면 하나의 작업만 수행됩니다. 물론 다시 "Queu..
최근 개발중인 외국어 공부 앱을 어떻게 홍보해야 할까 고민하다 전문가에게 넘기기전에 스토리보드를 만들어서 적절한지 살펴보고 싶었었습니다. 하지만 글/그림 실력은 꽝이라 chatGPT옹의 도움을 받아보기로 했습니다. chatGPT로 스토리도 정리하고, 그걸 이용해 콘티도 그려보는 과정을 살펴보겠습니다. 우선 원하는 스토리를 정리해 봅니다. ME) 간단한 스토리 보드를 작성해줘. 1. 외국어 말하기 연습하고 싶은 여성이 책상에서 고민 중 2. 모바일 앱을 보면서 생각이 떠오름 3. 일어서서 카툰처럼 옆 칸의 프랑스 파리로 걸어가고 4. 다시 아래 칸으로 이동, 미국 로스엔젤러스로 걸어가고 5. 왼쪽 칸으로 이동, 한국 서울로 걸어간다. CHATGPT) 여기 간단한 스토리 보드가 있습니다: 칸 1: 캐릭터: ..
얼마 전 Kohya를 이용해 학습하는 메뉴얼을 사내에 뿌려보았으나 아무도 안씀. -_-a 이전 글을 보시거나 이미지 학습을 수행해 보신 분들은 아시겠지만 알아야 할 설정값이 너무 많았습니다. 툴 설치나 관리도 문제고... 이대로는 아무도 안쓸 것 같아 (#4에서는 colab으로 학습하는 방법을 로컬에서 사용할 수 있게 변경해서 다시 글을 올려보겠습니다. 라고 이미 계획은 있었지만 ) 그냥 실행파일 하나 돌리면 LoRA 파일이 생성되도록 다시 작업을 했습니다. 소스코드만 필요하신 분들은 깃헙에서 바로 코드를 확인하실 수 있습니다. 학습에 필요한 각종 파라미터의 상세한 설명은 #3에서 충분히 설명했으니 이곳에서는 windows os에 nvidia 그래픽 카드를 가진 시스템에서 손쉽게 학습할 수 있는 시스템을..
#2에서 끝났는데 colab에서 gpu 사용 불가 방침이 결정되어 #2의 방식을 더 이상 사용할 수 없게 되었습니다. 대신 kohya로 LoRA 학습을 대신하는 방법을 기술합니다. web ui extension은 사용해보지 않아 추후 확인하면 정리해서 올려보겠습니다. https://github.com/bmaltais/kohya_ss 내용을 확인, 설치하세요. nvidia rtx 3060 12GB VRAM이상의 시스템에서 진행하시는게 좋습니다.( VRAM은 최소 8GB 이상이어야 합니다.) 아래 내용은 windows11, python 10, git이 설치된 환경을 기준으로 설명합니다. (* 이 예제에서는 라이센스 이슈, 원작자와 협의없이 이미지를 사용하지 않기 위해 공개된 일러스트를 사용해 학습 테스트를 ..
windows 11 / blender 3.5 기준으로 설명됩니다. https://github.com/carson-katri/dream-textures/releases 에서 최신 버전을 다운 받으세요. Blender 메뉴에서 “Edit -> Preferences -> Add-ons”에서 Install 버튼을 누르고 다운받은 zip 파일을 선택하면 설치가 됩니다. 처음 설치할때는 모델을 다운로드 하는 과정이 있습니다. (*Dream Texture는 자신의 PC에서 모든 연산이 진행됩니다. 필요한 모델을 추가할 수 있으며 사용하는 모델 용량이 모두 GPU Memory 에 업로드 되므로 가능한 Nvidia GeForce 20시리즈, 6GB 이상의 GPU memory 가진 시스템에서 원활하게 사용할 수 있습니다...
VAE(Variational Auto-Encoder) VAE는 결과물을 보정하는데 사용합니다. 상세한 원리는 이 링크에서! WEB UI에서 VAE를 설정하는 곳은 Settings 탭에 있습니다. (1) 에서 다운받은 VAE 파일을 설정할 수 있습니다. (2)의 옵션은 활성화 해두세요. 최근 나오는 모델들은 VAE를 포함하고 있을 수 있습니다. 애니메이션에서는 주로 두 가지가 사용됩니다. orangemix : https://huggingface.co/WarriorMama777/OrangeMixs/blob/main/VAEs/orangemix.vae.pt kl-f8-anime2 : https://huggingface.co/hakurei/waifu-diffusion-v1-4/blob/main/vae/kl-f8-..