• Prezados usuários,

    Por questões de segurança, a partir de 22/04/2024 os usuários só conseguirão logar no fórum se estiverem com a "Verificação em duas etapas" habilitada em seu perfil.

    Para habilitar a "Verificação em duas etapas" entre em sua conta e "Click" em seu nick name na parte superior da página, aparecerá opções de gestão de sua conta, entre em "Senha e segurança", a primeira opção será para habilitar a "Verificação em duas etapas".

    Clicando alí vai pedir a sua senha de acesso ao fórum, e depois vai para as opções de verificação, que serão as seguintes:

    ***Código de verificação via aplicativo*** >>>Isso permite que você gere um código de verificação usando um aplicativo em seu telefone.

    ***Email de confirmação*** >>>Isso enviará um código por e-mail para verificar seu login.

    ***Códigos alternativos*** >>>Esses códigos podem ser usados para fazer login se você não tiver acesso a outros métodos de verificação.

    Existe as 3 opções acima, e para continuar acessando o fórum a partir de 22/04/2024 você deverá habilitar uma das 03 opções.

    Tópico para tirar dúvidas>>>>https://forum.adrenaline.com.br/threads/obrigatoriedade-da-verificacao-em-duas-etapas-a-partir-de-24-04-2024-duvidas.712290/

    Atencionamente,

    Administração do Fórum Adrenaline

[TÓPICO OFICIAL] SD - Stable Diffusion - Definição, Dúvidas, etc.

glass

Freedom Stalker
Registrado
STABLE DIFFUSION

O Stable Diffusion é um software que gera imagens através de inteligência artificial alimentada por um banco de imagens sistematicamente descritas utilizadas como referência na produção de novas imagens.

A ferramenta é capaz de produzir imagens com diversos estilos. Em alguns casos, as imagens podem até parecer uma fotografia de tão real ou até mesmo obras de artes famosas.

A princípio, qualquer pessoa que tenha um computador e uma placa de vídeo consegue criar praticamente qualquer pintura digital que você possa imaginar. A ferramenta foi fundada pela stability.ai em parceria com Runway, desenvolvidos em Python e Jupyter Notebook. Seu primeiro lançamento aconteceu no dia 31 de agosto de 2022.

Inicialmente, o software foi desenvolvido para gerar imagens a partir de um texto proposto pelo usuário. Contudo, acabou sendo adaptado para outras funções relacionadas.​
Fonte

COMO EU COMEÇO?
O Stable Diffusion tem diversas formas e sistemas, sendo que aqui só vou me aprofundar no sistema windows, primeiramente porque como todo mundo sou apenas um curioso que acabou sendo puxado para esse mundo de ficar configurando imagem da Hermione com foto da Kate Upton, não me julguem, por favor.
O Stable Diffusion pode ser usado com prompts e diversos aplicativos, mas aqui vou exemplificar somente algumas versões que são GUIs frontend para ser usado como uma janela em seu browser preferido, eles são:
1 - Online

2 - Local (Roda do seu PC usando seu hardware)

  • Automatic1111 Webgui - O mais conhecido e mais completo, também vai ser o objeto deste tópico e como fazer a instação e uma utilização básica.
  • NMKD GUI - Basicamente um instalador que lhe oferece tudo, você não precisa de nada, basta instalar que ele faz todas as dependências dele, porém isso limita a expansibilidade, já que algumas extensões e capacidades são específicas do Automatic, facilidade tem custo.

OK EU QUERO INSTALAR! FAZ ISSO FÁCIL POR FAVOR!

Beleza, então é bem simples, você só tem que instalar dois programinhas e eles que fazem o trabalho pesado, não tem dificuldade nem nada, vamos nessa, certo? Primeiro baixe e instale o Python 3.10.6 e o git, depois de instalado não tem muita surpresa, crie um diretório ou só clique com o botão direito na pasta que você quer clonar o repositório e selecione "Git Bash Here" ai quando o console aparecer, basta copiar e inserir esse comando "git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git", isso vai simplesmente instalar o repositório da gui automatic e todas as dependências necessárias no diretório, basta esperar e deve aparecer uma basta nomeada Stable Diffusion.
Belezinha, mas e agora? Agora meu amigo, você tem que baixar o modelo, ele é basicamente um monte, um quadrilhão de imagens processadas e treinadas no programa ou extensão específica que vai "guiar" o Stable Diffusion para a imagem desejada, existem dezenas de modelos, mas eles são obrigatórios, então você tem de ter pelo menos um, vamos começar com o básico, esse aqui, basicamente instala o normal, não precisa instalar com EMA porque isso é sinceramente para usuário mais avançado e se você fosse um deles, não estaria lendo, correto? Você estaria me ensinando. Ok, mas eu quero imagens diferentes! Bem, existem CENTENAS de modelos e tenho um site aqui para baixar eles.
Baixando o modelo é bem simples, vai em "models/Stable-diffusion" e insere o modelo lá. E agora é só ir pra festa, você pode iniciar a GUI usando o arquivo webui-user.bat dentro do diretório do Stable Diffusion e ele vai fazer todo o resto que é baixar as outras dependências automaticamente (Decerto o nome), no final de tudo ele vai liberar um link da sua rede local e você acessa pelo seu browser preferido e começa a mexer. Futuramente, em breve, bem em breve irei fazer um tutorial básico de como usar o SD, mas é sinceramente bem intuitivo, quaisquer dúvidas basta perguntar.
 
Última edição:
Em breve faço um tutorial se o povo se interessar.
 
Ótimo tópico, vou acompanhando.

Instalei hoje no pc, até então só tinha usado as versões web gratuitas e testes, como todo bom leigo não sei pra que serve a maioria das opções. :limo:

Vi que tem a aba de treino, mas não faço ideia de como usar aquilo.

Vocês estão usando pra qual finalidade, só pra brincar?
 
Ótimo tópico, vou acompanhando.

Instalei hoje no pc, até então só tinha usado as versões web gratuitas e testes, como todo bom leigo não sei pra que serve a maioria das opções. :limo:

Vi que tem a aba de treino, mas não faço ideia de como usar aquilo.

Vocês estão usando pra qual finalidade, só pra brincar?
A aba de treino é para treinar novos modelos ou modelos de LORE, normalmente demora e precisa de muitas fotos, tempo e VRAM, então não recomendo se sua placa não tiver 12Gb ou mais, você vai dormir e voltar e ainda vai estar treinando. Atualmente eu estou usando o ControlNet para mudar posições de figuras históricas ou políticos para posições educativas. Obviamente se você se aprofundar, dá pra fazer um monte de coisas, eu já vi um cara que faz mapas para jogos totalmente no SD, tudo que precisa é do prompt certo e de vez em quando de uma extensão, nesse caso foi o controlNET.

Se você quiser aumentar a velocidade, recomendo instalar o Xformers, ele ajuda a gerenciar a Vram, pra instalar é muito fácil, basta editar o webui-user que inicia a Gui no bloco de novas

O antigo é assim:
@echo off

set PYTHON=
set GIT=
set VENV_DIR=
set COMMANDLINE_ARGS=

call webui.bat

Muda apenas uma linha:
@echo off

set PYTHON=
set GIT=
set VENV_DIR=
set COMMANDLINE_ARGS=--xformers

call webui.bat

Mudando isso o prompt vai instalar automaticamente o Xformers que dá um "boost" na produção
 
Boa Noite galera,

Agora vamos usar outra feature do Stable Diffusion, a extensão ControlNet, o que é a extensão CN? Bem, ela usa uma imagem base e outras imagems para mudar a base para outras posições, exemplo: Vamos pegar a hermione de harry potter e mudar a posição, imagem original:


Agora nós queremos ela correndo, vamos colocar um corredor no ControlNet:



Pois bem, inserimos a imagem no modulo img2img e depois colocamos os promts positivos: Same person, long hair, wand in hand, running e os negativos: Distorted, mutated, ((multiple limbs)), ugly, multiple fingers, lowres, mutated face, depois ativamos o controlnet e vemos os resultados:





Como visto chegamos longe da perfeição, porém isso é só uma mostra da capacidade da ferramenta, prompts melhores e um fine tunning correto podem fazer milagres e certamente chegar no resultado desejado: hermione com orelhas de gato.
Nós vemos na próxima semana!
 
Bem Interessante a dica do Xformers, vou tentar. Não to mexendo muito, então não consigo fazer imagens tão consistentes assim, mesmo descrevendo bem no prompt. Engraçado que testei o lexica, o que consigo fazer no lexica não consigo fazer o stable diffusion.
 
Bem Interessante a dica do Xformers, vou tentar. Não to mexendo muito, então não consigo fazer imagens tão consistentes assim, mesmo descrevendo bem no prompt. Engraçado que testei o lexica, o que consigo fazer no lexica não consigo fazer o stable diffusion.
Xformers ajuda muito, mas em algumas GPUs ele aumenta a temperatura, porque "aproveita" melhor a potência dela.
Sobre o prompt é só questão de prompts corretos, lembre-se que os negativos na maioria das vezes são mais importantes que os positivos, você quer triar deformações, multiplos braços e pernas, etc...

E baixar modelos bons é meio caminho andado.
--- Post duplo é unido automaticamente: ---

Exemplo, gatos na grama, 100 sampling steps, o que facilita a IA fazer um fine tuning.
Prompts positivos
Kitty walking in the grass, fuzzy, detailed, 8k, highres, 4k

Prompts Negativos:
Distortions, mutated, mutations, multiple limbs, lowres







 
Última edição:
É, acho que talvez eu precise refinar mais nos prompt negativos. Vou testar logo mais.

Esse é o que eu consigo fazer no lexica, com prompt bem básico, tipo:

a cinematic photo of a contemporary, modern, orthogonal, architectural semi-detached houses, glass, wood plank walls, textured concrete, artificial lighting, accent lighting, native landscaping, brazil sunrise, sunny --ar 16:9

image.png


Já no stable diffusion, com o mesmo prompt:

41.jpg


Perceba que no SD as linhas no geral saem bem mais tortas (escada, guarda corpo do segundo andar) e algumas proporções bem fora da realidade. Nesse caso, eu não saberia o que fazer pra corrigir isso.
 
É, acho que talvez eu precise refinar mais nos prompt negativos. Vou testar logo mais.

Esse é o que eu consigo fazer no lexica, com prompt bem básico, tipo:

a cinematic photo of a contemporary, modern, orthogonal, architectural semi-detached houses, glass, wood plank walls, textured concrete, artificial lighting, accent lighting, native landscaping, brazil sunrise, sunny --ar 16:9

image.png


Já no stable diffusion, com o mesmo prompt:

41.jpg


Perceba que no SD as linhas no geral saem bem mais tortas (escada, guarda corpo do segundo andar) e algumas proporções bem fora da realidade. Nesse caso, eu não saberia o que fazer pra corrigir isso.

prompt negativo do que você não quer ou o termo "smooth lines", também poderia baixar outro modelo do SD específico para arquitetura.
--- Post duplo é unido automaticamente: ---

Algumas imagens que consegui uns prompts maneiros





 
Última edição:
Boa tarde gente! Estou por dentro dessas IA mas não me aprofundei tanto, dei uma boa brincada no MidJorney um tempo atrás mas o meu objetivo era fazer wallpapers para uso próprio, só que um detalhe eu quero fazer vários 16:9 e em qualidade 4k+. Isso é possível através do ST?
 
Boa tarde gente! Estou por dentro dessas IA mas não me aprofundei tanto, dei uma boa brincada no MidJorney um tempo atrás mas o meu objetivo era fazer wallpapers para uso próprio, só que um detalhe eu quero fazer vários 16:9 e em qualidade 4k+. Isso é possível através do ST?
O SD pode fazer em resoluções maiores, agora vai precisar de mais calma e conhecimento, já que o padrão da AI é 512x512



Como você pode ver aqui tem uma aba Width e Height, você aumenta ela e vai colocando prompts exigindo altas resoluções, tipo: "8k, 4k, highres", também é aconselhável marcar a caixa Highres fix que tenta fazer a IA não ficar doidona porque tá desenhando algo acima do padrão.
 
Vou fazer alguns testes hoje quando chegar, agradeço pela ajuda!
 
prompt negativo do que você não quer ou o termo "smooth lines", também poderia baixar outro modelo do SD específico para arquitetura.

Algumas imagens que consegui uns prompts maneiros






Tem sd especifico pra isso? procurei no google, mas não achei, só videos de alguem falando sobre sd, ele tem algum outro nome especifico?

Testei com os prompts negativos, melhorou bastante, mas ainda longe do que consegui no lexica.

Outro teste que fiz hoje:

image.png


Quais prompts tu usou nessas imagens? Ficou muito bom, nada distorcido ou algo do tipo. achei interessante que a vegetação ele faz muito perfeito.
 
Tem sd especifico pra isso? procurei no google, mas não achei, só videos de alguem falando sobre sd, ele tem algum outro nome especifico?

Testei com os prompts negativos, melhorou bastante, mas ainda longe do que consegui no lexica.

Outro teste que fiz hoje:

image.png


Quais prompts tu usou nessas imagens? Ficou muito bom, nada distorcido ou algo do tipo. achei interessante que a vegetação ele faz muito perfeito.
Seje feliz
 
Seje feliz
Tu é o cara. Valeu mesmo. :safadao:

Tava olhando os prompts que a galera ta usando, tem uns super simples que sai umas coisas muito fodas. Tava testando algumas combinações aqui, de longe esse é mais "real" que consegui até agora:

55.png


Troquei de Euler A pra lms ele começou a ser um pouco mais preciso.
 
Última edição:
Tu é o cara. Valeu mesmo. :safadao:

Tava olhando os prompts que a galera ta usando, tem uns super simples que sai umas coisas muito fodas. Tava testando algumas combinações aqui, de longe esse é mais "real" que consegui até agora:

55.png


Troquei de Euler A pra lms ele começou a ser um pouco mais preciso.
Tenta DPM++ 2M Karras
 
Boa tarde gente! Estou por dentro dessas IA mas não me aprofundei tanto, dei uma boa brincada no MidJorney um tempo atrás mas o meu objetivo era fazer wallpapers para uso próprio, só que um detalhe eu quero fazer vários 16:9 e em qualidade 4k+. Isso é possível através do ST?
Sim, mas vai precisar de muita VRAM. Mais fácil fazer algo em resolução menor e depois fazer upscale.
 
Eu tava querendo aprender a fazer um LoRA. Vi um que o cara treinou pra fazer figure de anime e fica muito bom, queria fazer igual mas pra outro tipo de figure. Aqui eu tenho usado só pra fazer hentai anime mesmo
 
Eu tava querendo aprender a fazer um LoRA. Vi um que o cara treinou pra fazer figure de anime e fica muito bom, queria fazer igual mas pra outro tipo de figure. Aqui eu tenho usado só pra fazer hentai anime mesmo
Fazer um LoRA ainda demanda da placa, você provavelmente vai deixa ro dia todo treinando, só procurar manual do Dreambooth, você pode baixá-lo na aba extensões, sobre hemty ou anime, plmdds mano, isso é o que mais tem no civitai, basta procurar.

Sim, mas vai precisar de muita VRAM. Mais fácil fazer algo em resolução menor e depois fazer upscale.

Isso, você pode fazer o upscale no modulo img2img.
 
Fazer um LoRA ainda demanda da placa, você provavelmente vai deixa ro dia todo treinando, só procurar manual do Dreambooth, você pode baixá-lo na aba extensões, sobre hemty ou anime, plmdds mano, isso é o que mais tem no civitai, basta procurar.
Ah eu tenho várias checkpoints e lora de anime aqui já, peguei vários no Civitai já.
 
Ah eu tenho várias checkpoints e lora de anime aqui já, peguei vários no Civitai já.
Se no futuro vocÊ quiser criar Loras novas ou Checkpoints, procurar na extensão dreambooth
 
Boa tarde meu povo,

Então, muita gente reclama que coloca os prompts corretos mas que nunca sai o que deseja. Eles esquecem que além dos prompts existem os modelos, os VAEs, loras e outras configurações para uma imagem com um alvo mais eficaz. Seguinte, sobre o papo de arquitetura, coloquei o seguinte prompt "skyscrapper" sem mais anda, sem fine tunning e coloquei em diversos modelos diferentes só pra mostrar a diferença que eles fazem.









 
Eu quero...um tutorial de instalação/utilização para novatos. Obrigado.

Primeiro post do tópico tem um tutorial pra instalação da GUI mais utilizada, qualquer dúvida só falar! :)
 
Não instalei o SD, só estou tentando aprender sobre a ferramenta, já fiz uns teste com a lexica e o leoanardo. Uma dúvida, caso eu instale o SD, é possível usar modelos dele de versões anteriores ? Por exemplo alguém treinou o modelo, ficou super legal, e foi feito no SD 1.5, se eu instalo esse modelo , mas tenho instalado a versão 2.0 ou posterior, vou poder usar os modelos treinados em versão anteriores ? Obrigado.
 

Users who are viewing this thread

Voltar
Topo