/ais/ - Artificial Intelligence Tools

"In the Future, Entertainment will be Randomly Generated" - some Christian Zucchini

Index Catalog Archive Bottom Refresh
+
-
Name
Options
Subject
Message

Max message length: 12000

files

Max file size: 32.00 MB

Total max file size: 50.00 MB

Max files: 5

Supported file types: GIF, JPG, PNG, WebM, OGG, and more

E-mail
Password

(used to delete files and posts)

Misc

Remember to follow the Rules

The backup domains are located at 8chan.se and 8chan.cc. TOR access can be found here, or you can access the TOR portal from the clearnet at Redchannit 3.0 (Temporarily Dead).

Ghost Screen
Celebrating its fifth anniversary all September


8chan.moe is a hobby project with no affiliation whatsoever to the administration of any other "8chan" site, past or present.

Use this board to discuss anything about the current and future state of AI and Neural Network based tools, and to creatively express yourself with them. For more technical questions, also consider visiting our sister board about Technology

(2.32 MB 1824x1248 00039-5733.png)

(2.18 MB 1728x1344 00005-4133.png)

(2.89 MB 1536x1536 Illlust_00034-0315.png)

(9.02 MB 1536x1536 Illust Final 00032-3449.png)

(6.04 MB 2016x2592 Noob_00065-1046.png)

Hentai Diffusion General #17 Dobles y Triples Anonymous 01/21/2025 (Tue) 22:45:01 No. 7104
Decimoséptimo A este punto no hay mucho que decir, el otro hilo estaba muy congestionado y solo somos tres apenas, que dure lo que tenga que durar. El tema será poner de dos a tres personajes en una sola imagen, sí pueden. Hilo anterior: >>980 Recursos >Etiquetado automático si no te ocurren prompts https://huggingface.co/spaces/SmilingWolf/wd-tagger >Instala Stable Difussion WebUI Local y cualquier otra UI con un Click! (ir a Releases y descargar el archivo .exe) https://github.com/LykosAI/StabilityMatrix https://lykos.ai/ <Alternativa EasyDiffusion https://easydiffusion.github.io >Herramientas de GPU en línea <Sagemaker (4 horas de GPU en línea gratuita) https://studiolab.sagemaker.aws/ <Kaggle (censurado 30 horas de GPU gratuito semanal) https://www.kaggle.com <LightningAI (22 horas gratuitas al mes) https://lightning.ai >huggingface Spaces https://huggingface.co/spaces >COLAB SD FOOOCUS (solo permite usar JuggernautXL por corto tiempo) https://colab.research.google.com/drive/1OG-t4snVisfZoMcmRCPmgJjjtwdJCIIj >Recursos: Modelos, Prompts, LoRas, Hypernetworks y Embeddigs/Textual Inversion https://civitai.com >Guía: Como crear Datasets especialmente cuando tienes pocas imágenes https://spainias.notion.site/Como-hacer-LORAs-con-muy-pocas-imagenes-Consejos-y-Tips-1d65bea1379047ccad243c35eb3980f0 <XL Lora Trainer by Hollowstrawberry https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Lora_Trainer_XL.ipynb <Dataset Maker (taguea las imagenes automáticamente) https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Dataset_Maker.ipynb <Tutorial LoRA para PonyDiffusion (Jewtubo) https://www.youtube.com/watch?v=fF5CDySZw3o[Embed][Embed] <AutoTrain DreamBooth https://colab.research.google.com/github/huggingface/autotrain-advanced/blob/main/colabs/AutoTrain_Dreambooth.ipynb <Kohya LoRA Trainer XL https://github.com/Linaqruf/kohya-trainer/blob/main/kohya-LoRA-trainer-XL.ipynb >Colab: Entrenamiento de LoRa https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Lora_Trainer.ipynb >Colab: Creación de Datasets https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Dataset_Maker.ipynb >Recurso: Modelos ControlNet 1.1 https://github.com/lllyasviel/ControlNet-v1-1-nightly >Prompt Generator https://huggingface.co/spaces/Gustavosta/MagicPrompt-Stable-Diffusion
[Expand Post]>Guía para cambiar estilos con Img2img https://medium.com/@alickwong/transfer-your-image-to-cartoon-style-in-stable-diffusion-d466565ae18a >Boooru AI para Furros https://e6ai.net/ >Booru AI para anime https://aibooru.online >Páginas Web judías dónde generar imágenes: <Ideogram (casi igual o mejor que Dall E 3 tiene ligera censura) https://ideogram.ai Krea.AI (genera imágenes en tiempo real) https://www.krea.ai/ <NovelAI (pago) https://novelai.net <PixAI https://pixai.art <TensorArt https://tensor.art/ <Yodayo https://yodayo.com/ <Nemusona https://waifus.nemusona.com/ <Holara.ai: https://holara.ai/ <Leonardo.AI https://app.leonardo.ai/ <seaart (censurado) https://www.seaart.ai/
(4.43 MB 1872x2736 00038-1847.png)

(6.29 MB 1872x2736 Noob_00038-1847.png)

(1.78 MB 2592x2016 00001-4839.png)

(2.66 MB 2592x2016 Illust_00001-4839.png)

(2.47 MB 1248x1824 Illust_00041-4512.png)

Para comenzar a estos hilos, un par de sesiones de Inpaint de los modelos NoobAI V-pred e Illustrious, la primera es una recuperación que hice de un fallo que tuve con AutismMix (modelo basado en PonyV6) de hace un tiempo. La segunda es una imagen que generé con Illustrious v0.1 del tres nekomimi de Touhou que iba a publicar en el hilo anterior, el estilo chibi hizo que no costara tanto. La última son dos personajes de Umamusume ya que el anterior hilo era de pelirroja/pelinaranjas y Silence Suzuka es una, pero el arreglo de Inpaint fue de hecho mínimo, poder usar usar Control Net es muy útil en estas ocasiones.
(1.55 MB 768x1344 00001-3302279764.png)

(959.28 KB 768x1344 00003-2755947211.png)

(935.68 KB 1344x768 00004-2755947211.png)

(523.76 KB 1152x896 00005-2821249869.png)

(1.02 MB 896x1152 00008-3775323027.png)

Algunas pruebas RAW (sin refinar) recién salidas del nuevo AnimagineXL 4.0 que esta próximo a salir. Lo use hasta que me quedé sin tokens, probé que no reconoce del todo a algunos personajes como Mercy pero considerando que la 3.1 fue mi modelo anime favorito antes de Illustrious estoy inclinado a que me guste el nuevo "Anim4gine". Pero me hizo sentir nostálgico.
(1.50 MB 1248x1824 00038-4943.png)

(1.45 MB 1248x1824 SmoothC_00005-0003.png)

(2.22 MB 1248x1824 00018-5145.png)

(3.07 MB 1248x1824 SmoothC00008-5403_v2.png)

Si bien modelos más recientes (basados en Illustrious y NoobAI) son mucho mejores manejando dos y tres personajes al mismo tiempo por si solos (como ya he probado), seguí practicando el Regional Prompter en un modelo Pony de confianza aunque un poco obsoleto. Resultado más personajes = Más Inpaint. A no ser que descubras el orden del adetailer con el comando [SEP] para separar las detecciones, es más cómodo hacer Inpaint directo a los rostros, lo malo es que si el modelo no trae Inpaint incorporado tocaría descargar otro (de SD 1.5 que son más ligeros) y ahí ya hay que tener en cuenta el límite de espacio del servicio que se usa, también el sampler DDIM es bastante útil para Inpainting pero malo para todo lo demás. También si usan RP deben dividir la fuerza de los LoRA por cantidad de regiones de imagen, ejemplo, si haces 2 regiones, el LoRA ira a 0,5 si haces cuatro regiones el LoRA irá a 0,25 y así.
(2.48 MB 1344x1920 00000-5921.png)

(1.99 MB 1152x2016 00008-5621.png)

(3.11 MB 1344x1728 Ani4gine_00032-3548.png)

(1.57 MB 1344x1728 00010-0542.png)

(2.14 MB 1248x1824 Ani4gine_00028-0702_v3.png)

Después de 8 horas de testeo del nuevo AnimagineXL 4.0 y sin entrar en tecnicismos... no es mejor que NoobAI ni Illustrious pese a su dataset mayor y más actualizado, pero me gusta como modelo y la experiencia fue mucho mejor en GPU que en ese servicio en línea tokens que sí acaso me hizo recordar porqué los dejé en primer lugar. Aunque he de admitir que personajes como Jane Doe los reconoce mejor sus pantimedias asimétricas que el propio Noob, dejo algunas de mis imágenes.
(2.12 MB 1152x2016 00000-0715.png)

(1.99 MB 1248x1824 00012-1826.png)

(2.04 MB 1248x1824 00028-3343.png)

(2.00 MB 1248x1824 00035-1504.png)

(2.74 MB 1152x2016 Anim4gine_00006-4248_v2.png)

Algunas peliverdes fit que generé con el nuevo AnimagineXL, veo que no esta teniendo la repercusión que tuvo el 3.0 y 3.1 pero supongo que es de esperarse ante la gran cantidad de modelos nuevos que han salido en más de 300 días desde su última versión. De resto me encanta y no he tenido los problemas otros usuarios comentan.
Disculpen mi ausencia legitamamente me habia olvidado de pasar a comentar el hilo. Sigo utilizando Illustrious, en especial ahora que los Loras que usaba en Pony fueron borrados de Civitai. En los ultimos dias he estado generando hojas de personaje quiero hacer un OC valiendome unicamente de imagenes generadas con Stable Diffusion, si mi experimento funciona lo comentare por acá, de momento mi Lora de Tite Kubo funciona de maravillas para hacer Tomboys, tal vez se deba a que muchas imagenes del dataset eran personajes masculinos con el cabello corto?. Hoy desempolve mi vieja cuenta de SageMaker, la que aun tiene instalado SD 1.5 dios mio se siente tan arcaico KEK
(3.17 MB 1344x1920 Illust_00003-3801 v2.png)

(2.12 MB 960x2304 Ilust_00007-0233.png)

(1.24 MB 1824x1248 00041-5359.png)

(2.90 MB 1248x1824 Illust_00017-1720.png)

(2.90 MB 1728x1344 Illust_00008-3604.png)

>>7110 Yo también volví a Illustrious y es que la versatilidad que tiene sigue siendo superior. Eso sí no tengo el tiempo ni la energía de probar tantos modelos como antes. >dataset eran personajes masculinos con el cabello corto Es posible, por ejemplo si te fijas el tag de "ciloranko" (artista) este afecta positivamente los ojos de las imágenes que lo uses. O mezclar artistas de femboys de E621 como Paperclip y Jeniak (si el modelo los tiene en su dataset) dará mujeres con piernas bastante delgadas en Noob. Así que no me sorprende que el estilo de Tite Kubo se preste para lindas tomboys. >Sagemaker Llevo unas semanas sin usarlo y es que si bien mis mejores sesiones son ahí, es que no lo puedo usar a gusto, no por lo de tener suerte para la GPU si no que me da un problema de Out of Memory Cuda muy seguido en A1111 y como ReForge no funciona bien no me dan ganas de instalarlo tampoco, es gracioso porque Colab que da peores recursos esto no sucede, kek. A veces siento que debería dar el salto a ComfyUI pero luego recuerdo que sería un dolor en las bolas. >1.5 dios mio se siente tan arcaico No te miento negro, me sentí así también cuando regrese a Pony para las practicas de Regional Prompter, aunque todavía tengo un par más de esas que quizás publique más tarde. Dejo más de mis experimentos en Illustrious, y mucha suerte con su OC.
(3.36 MB 1152x2016 Noob_00002-5140.png)

(3.22 MB 1152x2016 Noob_00013-2842_v2.png)

(2.30 MB 1152x2016 00012-1024.png)

(3.04 MB 1152x2016 Noob_00015-4542.png)

(1.62 MB 1152x2016 00008-4510.png)

Primera vez que pruebo la opción de refiner, es básicamente tener dos modelos al mismo tiempo, pero a cierto punto de la generación (en este caso el 80 %) cambia al otro modelo para terminar de refinar la imagen, por suerte tanto Colab y Kaggle manejan bien esto, y la diferencia de velocidad es mínima como 10 segundos más en generación. No he probado en Sagemaker. Ahora el problema sería decidir que modelos serían buenos como Refiner, ya que las probabilidades son muchas, en mi caso use NoobAI V-pred 1.0 como base y con Noobai-Cyberfix-V2 (vpred) para refinamiento. Eso sí, el modelo base + refiner + modelo de inpaint XL ya son 18 GB, en Kaggle no tuve problema con esto. Otro problema en mi caso es el propio Reforge ayer no podía usarlo más de una hora sin que crasheara y hoy pude usarlo casi 4 horas sin problemas, se ha vuelto una interfaz inconsistente. En fin recomiendo usar Noob con este método en ReForge o ComfyUI, y dejaré los modelos refiner recomendados también (o los pudieran probar normal por separado) >NoobAI (NAI-XL) Vpred 1.0 https://civitai.com/models/833294?modelVersionId=1190596 >Modelos refiner https://civitai.com/models/1080969?modelVersionId=1213874 https://civitai.com/models/975798?modelVersionId=1308914 https://civitai.com/models/1165170/vixons-noob-illust-merge https://civitai.com/models/1161909/knk-noobicomp https://civitai.com/models/1000708?modelVersionId=1272871
Ultimamente Google collab no me dura tanto supongo porque lo estoy usando demasiado seguido en una sola cuenta lol, tocara desempolvar el otro correo gmail. Dejo un par de Hispitas que hice o al menos eso intente kek
(4.92 MB 1872x2736 Noob_00008-0708.png)

(2.27 MB 1152x2016 00002-0909.png)

(2.16 MB 1248x1824 00003-1227.png)

(2.21 MB 1248x1824 00004-1538.png)

(2.24 MB 1248x1824 00008-4720.png)

>>7113 >tocara desempolvar el otro correo gmail. No lo recomendaría, estaba usando Colab con el correo de un familiar desde otra PC que tengo a la izquierda y me desconectaron rápido. Igual con mi otro correo en la PC que siempre uso. Aunque bueno, yo tengo la ventaja de tener tres servicios de GPU (hay más pero no conozco notebook de instalación para estos). Casi nunca uso Colab más de una vez al día y las pocas veces que he tratado de conectar la GPU más de una vez ha sido durante interrupciones (meme apagones o trabajo), así que le recomendaría más alternar entre Colab y Sagemaker. Dejo algunas pokeputas + mini crossover con Shantae (pensaba publicarla antes), tengo más de Jasmin e Iono, el refiner es fantástico, pero solo lo use desde pic 2 a 4, aún no he probado llevar una imagen con Refiner a una resolución tan grande, pero los crasheos de Reforge me tienen loco, casi termino cerrando la GPU antes de tiempo por cansancio.
(3.11 MB 1536x1536 00000-4421.png)

(2.13 MB 1248x1824 00001-5252.png)

(2.21 MB 1248x1824 00002-0514.png)

(1.91 MB 1344x1728 00003-1628.png)

(2.51 MB 1152x2016 00005-3254.png)

Gran drama con el lanzamiento de Illustrious v1.0 que por cierto estaba esperando con ansías. En resumen si lo iban a liberar dentro de 30 días para descargar de forma gratuita pero la comunidad armó un berriche y lo filtraron de nuevo, kek. Hubo una gran fallo de comunicación entre OnomaAI y la comunidad IA (la cual me decepciona cada vez más), casi se mandan un SD 3.5 pero debo decir que el resultado de Illustrious V1.0 me ha encantado, los que dan reseñas negativas es por puro ardor y el servicio de CivtAI no es el mejor para correrlo tampoco, pero después de dos horas de testeo si me parece mejor que el v0.1, la mayor ventaja es que esta entrenado en resoluciones base de 1536x1536, etc, por lo tanto puedes tener una buena imagen sin necesidad de HiResFix, el manejo de estilos sigue siendo bueno, dataset más grande y actualizado a Junio de 2024 y la anatomía es un tanto mejor, solo me dio problemas la imagen de Falin y porqué pedí la versión quimera, la de Chen fue la única que use doble adetailer, pero todas son RAW. Me pareció kekeante que los usuarios estaban llenando la pagina de Illustrious de dedos medios así que me puse a generar algunos, pero no porque odiara el modelo (ni lo que hicieron)
(2.58 MB 1152x2016 00004-3113.png)

(2.45 MB 1728x1344 00009-4522.png)

(1.15 MB 960x2048 00018-1241.png)

(2.05 MB 1344x1728 00026-5125.png)

(1.55 MB 1344x1728 00023-4141.png)

Salvo la de GawGura estas ya no son tan RAW, pero es de la misma sesión de Illustrious de ayer, creo que otro de los problemas, aparte de la mala comunicación con la comunidad es que se tardaron mucho en liberar Illustrious v1.0 y ya hay mejores modelos como NoobAI-XL Epsilon 1.1 desde hace un tiempo (pero hay que usar Reforge para este), aunque en parte entiendo porque hicieron esto de bloquear la descarga ya que les filtraron la 0.1 tres días antes del lanzamiento gratuito oficial, pero al final les hicieron lo mismo pero 29 días antes, kek. Me gusta el hecho de que las resoluciones bases sean más altas, es más cómodo y si Reforge no funcionará tan mal en GPU en línea pudiera llevar una imagen base de 1248x1824 directamente a un HiResFix de 1872x2736 sin tener que pasar primero por una resolución de 832x1216 (más tardado) así que me alegra que los modelos SDXL estén dejando atrás las resoluciones más bajas de base, la única resolución que no probé fue 1536x2048. Ahora solo hay que esperar la v2.0 con su dataset de 20 millones de imágenes.
(984.15 KB 768x1152 829814817473771186.png)

(679.42 KB 768x1152 829815916985426301.png)

(898.47 KB 768x1152 829815414474238278.png)

(749.59 KB 768x1152 829815916985426302.png)

(966.67 KB 768x1152 829814817473771187.png)

Imágenes de Bismarck en lencería roja para conmemorar San Valentín y su fecha de lanzamiento >>7116 La última pic no es la enfermera del Maken-Ki? Creo que se llamaba Nijou sensei. Otra cosa: hay una database de cual tiene a todos los personajes que se pueden generar efectivamente sin necesidad de Lora y que no sólo sea de Pony Diffusion (Illustrious, SDXL, FLUX)?
(2.15 MB 1152x2016 00017-5913.png)

>>7117 Si, es Nijou Aki de Maken Ki, fue la que me dio más problemas ayer, su rasgo más reconocible es el doble ahoge o antenna hair que tiene en la parte de atrás de la cabeza y ni siquiera esta etiquetado como tal en el 99 % de sus imágenes, una vez desnuda pudiera pertenecer a cualquier H. >y una database de cual tiene a todos los personajes que se pueden generar efectivamente sin necesidad de Lora Un poco ambigua la pregunta, lo que mejor pudiera recomendarle es NoobAI-XL basado en Illustrious, su dataset de la versión Epsilon es de 12 millones de imágenes y 16 millones para la V-Pred y con ambos datasets de E621 y Danbooru, pero igual no se va a salvar de la necesidad de usar LoRA, es gracioso que reconoce un personaje con apenas 127 como Nijou Aki y no reconozca a un personaje con más de 900 pics como Itzutsumi o más de mil como Brazilian Miku, pero esto ya se debe a mal etiquetado o no suficientes pics en solitario de los personajes. De no ser por mis problemas con ReForge me hubiera mudado a la V-Pred hace mucho pero estoy contento con lo que puedo hacer con Illustrious, incluso intente usar por primera vez ComfyUI para Noob con un workflow sencillo pero solo encontré frustración en descargar los nodos que faltan en un bucle infinito. En el hugginface de los creadores de Noob incluso nos dieron una lista tanto de personajes, artistas y prompts recomendados para personajes. Pero recuerde, así este en la lista, no siempre significa que lo vaya a reconocer (como el estilo de Tite Kubo que le cuesta) https://huggingface.co/datasets/Laxhar/noob-wiki/tree/main Otra alternativa sería el nuevo Animagine (que ya sacaron una versión optimizada que voy a probar hoy) pero solo contiene el dataset de Danbooru entrenado con 8.4 millones de imágenes, pero con la ventaja que su dataset esta actualizado a 2025 a diferencia de Illustrious y Noob que solo llega a junio de 2024 (2023 si es Illustrious v0.1) En fin, le deseo suerte con lo que decida usar.
(1.23 MB 1152x1536 00003-5951.png)

(1.52 MB 896x1536 00001-1024.png)

(1.29 MB 1536x768 00004-2428.png)

(2.72 MB 1536x2048 00009-2547.png)

(1.20 MB 2048x1536 00011-2645.png)

Algunas pruebas más de Illustrious v1.0 de hoy, no son RAW como la primera publicación, esta vez sí use resoluciones más acorde a 1536x, aunque por alguna razón la de Miku no me aceptaba la resolución de 900x1536 y siempre la generaba a 896x1536, una de las cosas malas de usar tan altas resoluciones es que a veces puede tardar desde un minuto cincuenta hasta dos minutos como con las de de Marisa y eso siendo que 1536x2048 la resolución más recomendada. Aunque lo bueno es que no es el mismo tipo de estrés que se le da a la GPU con un HiResFix y no experimenté un OutOfMemoryCuda, a la segunda de Marisa tengo que quitarle el ruido, un buen atajo que encontré es usar Img2Img con Euler A+Scheduler Type Beta y un denoise strenght muy bajo como de 2, aunque solo lo hice con la de Miku, la primera de Marisa y otra que no me alcanzó para subir, no use adetailer en esta imágenes. Iba a publicar mi sesión con AnimagineXL 4.0 Optimizado que salió hace poco pero tuve muy mala suerte con ese modelo.

(456.37 KB 1152x768 830624075211688927.png)

>>7119 cual es la diferencia entre euler y karras exactamente?, siempre dejo eso por defecto y cuando lo cambiaba no notaba un gran cambio que digamos.
(1.65 MB 1536x1080 00009-4032.png)

(1.12 MB 1280x1024 Scheduler Type Diferencia.png)

>>7120 Sin entrar en mucha mierda técnica, los sampler basados en Euler son los más básicos y rápidos, siempre dan un efecto más "suave" o hasta natural. Los sampler basados en Euler se han vuelto algo así como los reyes de los modelos anime. Ahora bien Karras (y aquí viene un poco de mierda técnica) es un scheduler / agendador, estos definen los pasos de tiempo en el que se encuentra el sampler. Karras lo que hace es ajustar la agenda (schedule) de ruido dependiendo del número de pasos (steps) y removerá el ruido progresivamente en menos pasos al final del proceso (por alguna razón Karras no es compatible con los modelos Noob) hay samplers que funcionan mejor en algunos modelos que otros. Por ejemplo para los sampler DPM (basados en DDIM) el scheduler type por defecto debería ser "Karras", para los Sampler Euler/Euler A el scheduler type por defecto debería ser "Simple", aunque en la metadata me sale solo como "Automatic". En modelos realistas siempre he notado que van mejor los samplers con schedule type así: DPM++ 2M SDE + KARRAS Ahora bien sobre los efectos pueden tener o no, a veces es un tanto imperceptible, pero es un hecho que cada uno trabaja con el ruido de diferente forma, Aquí te subo un ejemplo, la imagen de Marisa con el mini Hakkero que subí antes, logré esos efectos de partículas de luz tan solo cambiando el scheduler type de Euler A+Simple a Euler A+Beta fíjate que es el mismo sampler pero el cambio del scheduler es notable, simplemente no me preguntes que hace Beta exactamente, ni siquiera yo estoy seguro que lo haya entendido, pero en resumen ofrece un proceso de refinamiento más gradual. Traté de ser lo más sencillo que pude.
(1.52 MB 1536x768 00002-5641.png)

(1.45 MB 1152x1536 00007-3103.png)

(1.84 MB 1248x1824 00017-3844.png)

(1.17 MB 1536x640 00026-1136.png)

(2.42 MB 1536x2048 00028-1240.png)

Más de mis últimas sesiones de Illustrious v1.0, lo estoy disfrutando mucho, veo que en CivitAI ya esta disponible para usar la v1.1 pero no para descargar aún, usaré la v1.0 hasta que la liberen de manera oficial y con suerte la 1.1 será mejor que la versión anterior aunque es un hecho que su dataset es mayor, aunque ahora que lo pienso se me olvidó subir el enlace de Liberata, gracias a este no tuve que esperar un mes para usarlo ni pasar por una paywall. Sé que dije que iba a subir de mi sesión de AnimagineXL 4.0 Opt pero he tenido una suerte fatal y no precisamente porque funcionara mal, sino más bien todo sale mal cuando planeo usarlo, kek. >Illustrious v1.0 https://huggingface.co/Liberata/illustrious-xl-v1.0
(2.20 MB 1152x2016 00048-3937.png)

(2.32 MB 1152x2016 00052-4902.png)

(2.43 MB 1152x2016 00053-5208.png)

(2.14 MB 1248x1824 00028-0611.png)

(4.47 MB 1872x2736 Noob_00023-2522_v2.png)

Algunas poképutas más de mi sesión en Noob, me sobran algunas felaciones de Jasmine (Mikan) pero quise centrarme en Mei (Rosa) también aprendí a la mala que ReForge no funciona bien en Colab, en Kaggle funciona mucho mejor, aunque claro es la más potente, de hecho, ayer pude usar ReForge seis horas en este servicio sin problemas mientras que en Colab, esta UI crashea como en 15 min. Comprobé que aún con Refiner es posible llevar la imagen a resoluciones grandes tipo 1872x2376 solo tarda un poquito más de lo habitual, es preferible usar ya sea A1111 en Colab o para aprender ComfyUI si tienen el autismo tiempo suficiente para aprender esta interfaz tan compleja.
(2.20 MB 1344x1728 00010-5042.png)

(3.35 MB 1344x1728 Noob_00014-3135.png)

(3.47 MB 1344x1728 Noob_00015-3808.png)

(2.38 MB 1152x2016 00004-2204.png)

(3.04 MB 1344x1728 Noob_00035-4632-v3.png)

Más de mi sesión de Noob V-Pred 1.0 + Refiner, quise variar un poco y un amigo me pidió unas Verosika Mayday y como el modelo la reconoce eso facilitó las cosas + un par de Mei que rescate de la sesión pasada, si bien Colab se ha vuelto mi opción preferida para Inpaint he notado que este crashea al cambiar los modelos lo cual es un poco cansino si van a hacer inpainting ya que hay reiniciar la celda de nuevo, la mano de Mei sosteniendo el pedazo de pizza por ejemplo tomó como 30 minutos, lo cual es poco considerando otros Inpaint que he hecho en el pasado, aunque con V-Pred más refiner siento que mis sesiones de Inpaint se han acortado mucho.
(2.81 MB 1248x1824 Anim4gineOPT_00034-2630.png)

(2.86 MB 1824x1248 Anim4gine_00015-3920v3.png)

(2.50 MB 1824x1248 Anim4gine_00011-5435 v5.png)

(2.69 MB 1536x1536 Anim4gine_00021-2413.png)

(1.87 MB 1344x1728 00041-0729.png)

He estado fatal con los meme apagones, son diarios, dobles y a veces hasta de cuatro horas, pero dije que subiría algo de mi sesión con Animagine XL 4 OPT y aquí esta. No es un modelo que recomiende del todo, no es malo pero he notado que tiene un grave problema de reconocimiento con los adetailers lo cual significa más inpaint, pero le he agarrado cierta manía tipo modelo maldito, todo sale mal cuando lo uso; superstición a un lado, creo que el 4.0 normal no me daba este problema con los adetailers, así que solo por eso quedaría con esa versión, me duele decirlo ya que este nuevo modelo solo me dan ganas de volver a usar Animagine 3.1 y le tengo cero interés al finetune que van a sacar para SD 3 Medium de nombre Animaestro. De todas formas es mejor seguir con modelos basados en Illustrious y Noob.
Bueno, me estoy acostumbrando más al nuevo Animagine, también debo decir que pude probar la interfaz de SwarmUI en Sagemaker, tiene ciertas ventajas como que es un dos en uno, puedes usar tanto ComfyUI con los nodos y la interfaz de Swarm que sí bien cuesta un poco acostumbrase tiene ventajas como que permite incluso obtener imágenes a 1536x2688 de resolución algo que con A1111 no se puede y si bien es posible obtener estas resoluciones en ReForge, en SwarmUI funciona el control net a diferencia de ReForge que esta roto desde hace meses, SwarmUI es muy ligera y tampoco se bugea tanto como las otras dos ya mencionadas. Digo esto porque siempre ando usando una interfaz diferente para todo y siempre veo que a equis interfaz le falta algo o es incompatible ye. Así que desde hace un tiempo vengo queriendo encontrar una interfaz que lo tenga todo. En fin, dejo algunas más de mis pruebas.
(3.16 MB 1152x2016 Noob_2211.png)

(3.25 MB 1152x2016 Noob_2301_v2.png)

(3.08 MB 1344x1728 Noob_2332.png)

(3.05 MB 1344x1728 Noob_2324.png)

(2.80 MB 1344x1728 Noob_2347.png)

Algunas más de una sesión que tuve en SwarmUI con Noob:
(871.00 KB 1000x744 00099-2813.png)

(805.58 KB 1000x744 00098-2813.png)

(877.01 KB 1000x744 00089-2121.png)

(778.55 KB 704x1024 00069-0940.png)

Siento que no haya publicado nada en las ultimas semanas es solo que no creo que tenga mucho que agregar al post y he estado algo jodido de salud.
(4.61 MB 1728x2304 Illust_00029-3221.png)

(551.96 KB 1075x680 SwarmUI.png)

>>7128 Joder, que buena waifu, yo tengo los mismos problemas de siempre, sino es trabajo es la inseguridad y tener que cerrar temprano, eso o con cinco meme bajones en el día o tres apagones diarios, se me quitan todas ganas de usar la GPU. Pero mentiría si dijera que no me he estado olvidando de actualizar desde último viernes, pero sigo feliz de poder usar Illustrious cada vez que puedo y sigo tratando de aprender a usar la interfaz de SwarmUI en Sagemaker, que al menos lo sentí como un soplo de aire nuevo ante el viejo y abandonado A1111 y también con extensiones que funcionan a diferencia de Reforge. De todas formas, me alegra ver que haya pasado a saludar.
(5.02 MB 1296x2304 Illust_00008-2127.png)

(3.58 MB 1296x2304 00013-5631.png)

(4.60 MB 1296x2304 00014-0015.png)

(4.64 MB 1296x2304 Illust_00016-2439.png)

(3.64 MB 1296x2304 00018-5443.png)

Algunas más de mi ultima sesión en Illustrious 1.0 pensar que si no hubieran retrasado siete meses su salida, los modelos open source tipo anime que salieron gracias a este como Noob hubieran sido mucho mejores.
(766.17 KB 768x1152 839622744661555771.png)

(781.38 KB 768x1152 839983998655706188.png)

(415.63 KB 768x1152 839999563617011447.png)

(366.29 KB 768x1152 839995882830222938.png)

>>7129 me alegra que te guste negro, intentaba replicar a una morra de un hentai (Jk bitch ni shiboraretai) a punta de prompts y olvide quitar el el tag 'tan skin' y me arrojo a esa mona con relativa consistencia. No es exactamente lo que buscaba pero creo que quedo bastante bien.
(2.09 MB 1536x1536 00001-5532.png)

(1.52 MB 1152x2016 00003-0450.png)

(2.38 MB 1152x2016 00005-3739.png)

(3.12 MB 1344x1728 00006-5015.png)

(1.92 MB 1152x2016 00000-5919.png)

>>7131 Excelentes tetas, me encanta ese tipo de accidentes felices creo que hasta pudiera ser un OC de alguien, yo hace poco estaba usando la GPU de Kaggle que al fin tenía algo de tiempo libre diurno ya que tengo que cerrar temprano, pero justamente me pegó un bajón de luz y se me quitaron todas las ganas de seguir, solo te digo que las Marnie son de hoy y el resto de sesiones semanas a meses pasados, todas son de Noob V-pred si, acaso espero algún día poder terminar el resto. Suerte.
(1.56 MB 1824x1248 Noob_00002-0650.jpg)

(1.95 MB 1344x1728 00001-4512.jpg)

(1.49 MB 1248x1824 00002-1858.jpg)

(9.33 MB 3456x6048 Noob_2214.jpg)

(1.62 MB 1248x1824 Noob_00018-0208.jpg)

Algunas de mis sesiones de Noob que recordé que tenía guardadas, no he podido hacer nada nuevo últimamente, un poco de Inpaint en la primera, la cuarta y última. A modo de recomendación es posible hacer funcionar Reforge en Colab con el argumento de: --always-high-vram Por lo tanto el comando en Colab debería lucir más o menos así: --xformers --cuda-stream --pin-shared-memory --always-high-vram Si noté una mejora en el sentido de que ya no quiebra, no he probado este argumento en Sagemaker (que de por sí Reforge anda mejor ahí) y en Kaggle también siento que sería innecesario.
(1.28 MB 2304x1152 00011-5753.jpg)

(1.44 MB 1296x2304 00010-2322.jpg)

(2.29 MB 2304x2304 00001-1730.jpg)

(2.15 MB 1728x2304 Noob_00018-4726.jpg)

(1.60 MB 1296x2304 00013-5645.jpg)

Parece que los de Illustrious o mejor dicho OnomaAI (que ni siquiera es el creador del modelo solo la empresa) no aprenden a comunicarse con su audiencia, cada vez hay menos confianza, más drama y luego la gente odia al modelo por odiarlo y ya a pesar de qué es gratis. En mis pruebas la v1.1 de Illustrious ha estado bastante bien, solo un poco pero sentí una cierta mejora en las manos, confío en que seguirán liberando los modelos que falten, apuesto a que la 2.0 con su dataset de 20 millones de imágenes será la mejor, luego después de eso sé que hay planes para una v3.5 y v4.0 ambas con V-prediction cómo NoobAI, lo cual sin duda será interesante, simplemente espero que se queden en el camino del open source.
(1.54 MB 1344x1728 00004-1329.jpg)

(1.64 MB 1344x1728 00000-4552.jpg)

(1.40 MB 1152x2016 00005-2050.jpg)

(2.24 MB 2016x2592 Noob_00030-0958.jpg)

(1.49 MB 1152x2016 00013-4323.jpg)

Otra buena noticia ya los de NoobAI-XL han anunciado que se han comprometido en el desarrollo de Noob V2 no dijeron si era de la rama Epsilon o Vpred (o quizá ambos) pero probablemente se dieron cuenta de que los de Illustrious los estaban alcanzando en calidad, sería interesante si lo entrenaran en tope de Illustrious 1.0 y así pudiera soportar resoluciones de 1536x1536 aunque tomaría más tiempo de entrenamiento. Y parece que los de OpenAI han decido actualizar su generador de imágenes también pero prefiero centrarme en lo que la comunidad open source puede ofrecer. Dejo algunas de mis sesiones de Noob, solo la de Kasusa es de hace unos meses
(2.77 MB 1344x1728 00001-0948.png)

(2.03 MB 1152x2016 00004-1309.png)

(2.82 MB 1344x1728 Illust_00006-2836.png)

(2.80 MB 1344x1728 Illust_00008-3828.png)

(4.43 MB 1728x2304 Illust_00018-4702.png)

Un poco de mi sesión de hoy de Illustrious 1.0 lamento no estar muy activo, muchos problemas.
(1.42 MB 1024x1024 849528853712890080.png)

(1.02 MB 768x1152 849529634323186523.png)


>>7136 Perdon por la inactividad no he tenido tiempo para usar el collab y solo he estado probando cosas en Tensor Art, alguno Loras que entrene y el modelo PornMaster-Pro 色情大师 para generar imagenes mas realistas, es util para tener consistencia en ciertos detalles anatomicos en el rostro o el cuerpo si buscas una ilustracion mas semirealista.
(1.88 MB 1152x2016 00002-5324.png)

(1.56 MB 1344x1728 Noob_00001-2820.png)

(2.12 MB 1248x1824 00023-2858.png)

(6.47 MB 1920x2304 Illust_00002-5751.png)

(1.67 MB 1536x1152 00000-1919.png)

>>7137 Tranquilo, yo he estado igual aunque con otros problemas, aunque hace poco tuve que cambiar el formato a .JPG de las imágenes o sí no no podía actualizar nada. Eso sí, te recomendaría realmente que le robaras el número celular o correo a algún familiar y te hicieras una cuenta en Kaggle es magnifico tener 30 horas de GPU a la semana sin tensiones, también vi un tutorial de como instalar SwarmUI en la GPU de LightningAI (no en Jewtubo) pero soy muy torpe para seguirlo, kek. Casi no estoy probando modelos, pero, encontré una joya llamada Age of Quimeras, es un merge raro de los modelos más top, Animagine, Noob, WAI (Illustrious) y Pony, es interesante por lo mínimo, eso sí, algunos usuarios dicen que la mejor versión sigue siendo la V1 pero la V3 me respondió bien, sin quejas. Aunque me equivoqué en un pequeño detalle cuando me preguntó sobre los schedule type, el por defecto de Euler es Normal no Simple. >Age Of Quimeras https://civitai.com/models/1196007/age-of-chimeras-pony-or-noob-or-animagine-or-wai Generalmente no hago esto, pero dejo un poco de multi sesión esta vez: Noob, Ilustrious y Animagine XL 4.0 OPT en ese orden. P.D.: Me gusta como quedó la piel en tú última pic aunque no es realismo 100 % es mejor que el realismo que ofrece Noob 0.9
(719.55 KB 1200x1024 00038-4608.png)

(1.35 MB 1200x1024 00043-5306.png)

(1.33 MB 1200x1024 00033-4016.png)

(1.34 MB 1200x1024 00024-2914.png)

>>7138 Ya he intentado sin exito usa Kaggle, y no funciono. Por ahora tengo 2 cuentas de Google para alternar tampoco las uso tan a menudo asi que no me han baneado o algo por el estilo. He estado probando un nuevo modelo especializado en hacer furros pero tambien da buenos resultados a la hora de generar personajes corrientes. Algunas imagenes que genere ayer: Intente hacer a Chel Loli pero el Lora siempre forzaba esas caderas anchas de modo que en todas menos la segunda y la tercera imagen, parece mas una shortstack kek, de todos modos me gustan los resultados en especial la segunda imagen.
(997.78 KB 1024x1024 00000-4851.png)

(166.97 KB 1216x832 HYAPFJZ9DZ3SPMJ2PRDYAXGGE0.jpeg)

(148.45 KB 1216x832 G6PGNVGRG01HXRGCC4BX3Q61W0.jpeg)

(108.12 KB 1024x1024 CR8T0ZXETADD7P5CXM3XENNJ80.jpeg)

>>7139 un par de ejemplos de imagenes realizadas con el mismo modelo, anteriormente habia tenido algunos problemas generando a este tipo de personajes porque los resultados incluso en Illustrious daban resultados variospintos. Este modelo esta basado en Illustrious pero entrenadoy especializado en eso y se nota: https://civitai.com/models/1281214?modelVersionId=1445455
(1.95 MB 1152x2016 00002-0719.png)

(1.91 MB 1152x2016 00005-2622.png)

(2.82 MB 1536x2304 00000-1203.png)

(4.06 MB 1536x2304 Illust_00015-3136.png)

(3.62 MB 2304x1296 00009-4416.png)

>>7139 Una lastima que no haya podido hacer funcionar Kaggle, aunque yo casi no tengo tiempo de usar la GPU de todas formas. Hablando de servicios de GPU en línea, van a actualizar Sagemaker Jupyter Lab, pero no sé si eso es bueno o malo la verdad, llevo tanto tiempo sin usarlo que me olvide de este. >Loli Chel Me gusta la idea (sobre todo pic 2), aunque creo que a muchos no les importaría una Chel shortstack pero lo importante es conseguir lo más cercano a lo que quieres. Cuando un personaje esta muy apegado a cierto tipo de cuerpo, en este caso las caderas de Chel por lo general es mejor bajarle la fuerza al LoRA o combinarlo con otro. Estoy seguro que deben haber loras de concepto de caderas pequeñas, yo por ejemplo para las pics de Alexis Rhodes de más arriba use un LoRA de caderas pequeñas y pechos grandes para ese cuerpo tipo Chonyuu. Lo único malo es que si no tienes cuidado, te va a generar cuerpos muy largos. >LoRA: https://civitai.com/models/586675/huge-tits-tiny-hips-illustrious-or-pony-xl >Modelo furry Yo el último que use fue NovaFurryXL 6B según entendí tiene un mejor coloreado. Aquí lo dejo, pero siéntase libre de probar la versión que quiera, funciona bien para Inpainting también. >NovaFurryXL https://civitai.com/models/503815/nova-furry-xl >>7140 Yo de vez en cuando sigo generando furry aunque a veces más que nada para algunos amigos, dejo un poco de multi-sesión de mis ultimas semanas, en orden: Noob 1.0 Vpred (Dawn), Illustrious 1.1 (las más nuevas) e Ilustrious 1.0 (la última) Debo decir, se siente raro generar a Marisa sin sombrero, como un Mario sin bigote, kek.
Hola, negros, soy el anon que hace unos meses sugirió la idea de que este general tenga un tablón propio. Por la ocasión de la migración de 4chan se me ocurrió ir a conversar con el dueño de >>>/ais/ (tablón de discusión de herramientas de inteligencia artificial) y está bastante cómodo con la idea de hacer el tablón bilingüe para que hayan generales de inteligencia artificial como este o el de /hisparefugio/. Creo que esta sería una buena oportunidad para tener un lugar donde hablar de Stabble Diffussion y programas similares en español, especialmente ahora que hay un montón de refugiados de 4chan deambulando por toda la página. Valga agregar, soy un anon hispano, así que no tienen por qué preocuparse que por la barrera de idiota no entiendan sus memes.
>>7142 Bueno, yo imagine que algún día iba a llegar un cambio y justamente tuvieron que juankear 4chanclas para ello, kek. Lo único malo es que de ser tres pasamos a ser sólo dos, aunque si me gustaría continuar la tradición de estos hilos de ser posible.
>>7143 >Lo único malo es que de ser tres pasamos a ser sólo dos No tienes que preocuparte por ello. Los anons muchas veces no es que se "hayan muerto definitivamente" sino que andan ocupados con otras cosas, sea por asuntos IRL o de otros tablones. Precisamente creo que moviéndolo a /ais/ este general tendrá más visibilidad y más anons se van a sumar; ahora mismo hay un recurrente de los hilos de SD de /trash/ en el hilo de refugiados de /refugio/. Entonces voy a decirle al BO de este tablón y al BO de /ais/ para que hagan la transferencia.
>>7144 Comprendo, aunque tengo una última pregunta, por así decirlo, ¿en ese tablón están bien con el contenido NSFW? lo digo simplemente por si tengo que poner spoiler a mis imágenes dependiendo del caso.
>>7145 /ais/ no está marcado como NSFW, así que si.
>>7146 De las pocas veces que me responden tan rápido. Kek. Bueno, me limitaré a contenido más suave entonces (aunque de por sí generar NSFW nunca fue mi favorito)
>>7147 Me leíste mal, me refiero a que /ais/ es un tablón NSFW, significa que si está bien con el contenido NSFW, no necesitas subir tus lewds con spoiler.
>>7148 Ok, vale, ya me había preocupado. Poner y quitar el spoiler a las imágenes se me hace muy cansino.
Listo, la transferencia ya fue hecha. Si tienen alguna duda háganmela saber, tenemos un hilo meta aquí >>6894 pero también pueden escribirla EEH. Espero que con esto este general pueda recibir más visibilidad, también espero que puedan publicitarlo entre más anons.
(236.60 KB 1216x832 76F6AZM47DVGW7Y18CQ3PT5CV0.jpeg)

Ah nos transfiero de Tablón. Con razón no mire el hilo en /pruebas/ ya me había preocupado. Bueno yo seguiré posteando de vez en cuando supongo que para el próximo hilo tendremos qe renombrar esto como "Stable Diffusion General en Español." o " Ñ Edition" o algo así. Encontré ayer modelos para Illustratious de SMJ, tenía más de un año queriendo hacer un lora de Bloodberry/Zarzamora pero debido a tiempo no lo había hecho, a diferencia de las otras 2 no hay mucho fanart de ella asi que la única otra opción era sacar capturas de pantalla de serie y limpiarlas por lo que nunca termine el dataset. Md alegra que alguien se tomara el tiempo de hacerlo por mi KEK
(2.77 MB 1728x1344 Illust_00006-1014.png)

>>7154 Se me olvidó decir, muchas gracias, aunque estaba ocupado ayer y no se lo dije. Si es posible no sé si se puedan mover los otros hilos más viejos también, sería bueno tenerlos archivados aquí >>7713 Ahora tenemos un lugar más adecuado. Por ahora le ando haciendo Inpaint a algunas de mis más viejas imágenes de Illustrious o hacerles un upscale para una resolución más alta con Fooocus como la del post 7143 >alegra que alguien se tomara el tiempo de hacerlo por mi Así me siento yo cada vez que veo un LoRA de un concepto o personaje que me gusta, lo malo es que no todos están en el modelo correcto. Aunque si tan solo tuviera una 5090/A100 pudiera incluso hacer merge de mis modelos favoritos, los usarían cuatro gatos pero contribuiría a la comunidad. De todas formas, ya mi situación no me da para generar a gusto ni siquiera para entrenar LoRA pero es algo que me hubiera gustado. De todas formas, muchas gracias por seguir aquí, ¡ha sido un miembro valioso para estos hilos! P.D.: Pequeño edit a la imagen y respuesta más ordenada.
(178.39 KB 832x1216 t_Jca8Y858jf2BU2B3.webp)

(164.52 KB 832x1216 t_LURsHyk2L7CWTMyV.webp)

(105.40 KB 832x1216 t_9jNa8AghofX3XkkH.webp)

(199.55 KB 1216x832 t_hs6thpAfdXCGdjZK.webp)

>>7713 >supongo que para el próximo hilo tendremos qe renombrar esto como "Stable Diffusion General en Español." o " Ñ Edition" o algo así. Si actualizan el OP, quiten el link de Nemusoma pues el creador lo dejó abandonado. Algunas alternativas que encontré >Tungsten.run https://tungsten.run/ Requiere hacerse una cuenta. El máximo para generar imágenes es de 10 pero permite hacer el batch por lo que puedes generar hasta 40 imágenes. >Perchance.ai https://perchance.org/ai-character-generator Más limitado que el anterior en cuanto a funciones pero al igual que Nemusoma, no requiere cuenta y no hay límite.
Ya lo había posteado en /hisparefugio/ pero también los traigo aquí. Un par de notebooks para correr ComfyUI y SD reForge en colab, funcionan en gratuito, solo tienen que conseguir un token de civitai para poder descargar modelos y agregar los que deseen. El único problema es que en reForge no consigo hacer funcionar el Tag Autocomplete, y no se porque, con Forge tampoco funciona, tampoco es la versión de Python ni que funcione en un venv, pero del resto funciona bien. Si tienen alguna duda o tienen algún problema, solo pregunten, no soy programador ni nada por el estilo pero veré que puedo hacer. >ComfyUI https://colab.research.google.com/drive/113Vc8xHpgZpwGH13drraZD_ZCRFcZsaX?usp=drive_link >Stable Diffusion WebUI reForge https://colab.research.google.com/drive/1YstbbUzSax7mQutDXfNGgCDCHMMr2PUg?usp=drive_link ¿Y que es lo que mas les gusta hacer? A mi me gusta darle unas indicaciones muy básicas y dejar que se invente el resto >artist: minahamu,dark-skinned_female, small_breasts >artist: minahamu,1girl, dark-skinned_female, white_hair, red_eyes, small_breasts, ponytail, holding_axe, double_sided_axe, O taggear imágenes random y ver que salve >una imagen de shikanoko con un ciervo >una captura del GTA San Andreas
(6.34 MB 1792x2304 Juggernaut_00044-5929.png)

>>8313 Gracias por hacermelo notar y bienvenido, aunque la verdad ya no uso esos servicios de generación en línea, yo me centro en las GPU de Colab, Sagemaker y Kaggle, pero a lo mejor alguien más le sirve para probar. Lo último que actualice de ahí fue el auto-etiquetador de imágenes, si hay un próximo hilo los agregaré. >>8599 Muchas gracias por contribuir con notebooks y bienvenido, ya que estoy aquí bien pudiera compartir el mío. Es un todo en uno, son cinco UI a instalar, por supuesto, solo puedes usar una a la vez y necesitas el código API de CivitAI también. A veces uso SD Fooocus para obtener mejor resolución en mis imágenes que no sean de anime pero esta versión no me deja instalar otros modelos, cada upscale suele tardar como 4 minutos, pero la mayoría de las veces vale la pena. >Multi Colab (Forge, ReForge, A1111, ComfyUI, SwarmUI) https://colab.research.google.com/github/gutris1/segsmaker/blob/main/notebook/Segsmaker_COLAB.ipynb >SD Fooocus: https://colab.research.google.com/drive/1GJjtm5Umvcbw33L9QNnLpWQ9f-JwCmNb Si alguien necesita los notebook de Kaggle o Sagemaker también se los puedo pasar, pero solo puedo dar ligeras instrucciones de como instalarlos y qué no hacer en estos. >¿Y que es lo que mas les gusta hacer? Me generar imágenes bonitas como pic related, también me gusta mejorar mis imágenes si puedo mediante Inpaint, GIMP, HiResFix, adetailer o el upscale de Fooocus, aparte de los montones de monas chinas que he generado y experimentar con estilos y de vez en cuando me gusta el realismo. Un habito que tengo es entrar a Danbooru, usar la opción random y de ahí selecciono tres artistas para mezclar sus estilos en un modelo basado en Noob/Illustrious y ver que sale de la mezcla, a veces es mejor a veces es peor, a veces hay que ajustarle la fuerza a cada uno, si quieres por ejemplo pruebe este: *riku \(melty drop\), eushufeal, seika okawari*
(4.41 MB 1536x2688 00044-449004081.png)

(5.43 MB 2688x1536 00155-3714213978.png)

(3.54 MB 1536x2688 00024-1320142521.png)

Que agradable sorpresa que acaban de dar muchachos, no tenia idea que habia un hilo aqui en español para todo este mundillo. Siempre eh tenido que convivir con los gringos y aunque no es malo del todo, me gustaria que hubiera mas interesandos en esto del lado hispano >Y que es lo que mas les gusta hacer? Monas chinas unicamente, tanto SFW como NSFW
(2.31 MB 1152x2016 Illust_00026-2911.png)

Generalmente soy fan de Illustrious hasta la muerte, pero veo que el 2.0 que salió hace poco me dio muy malos resultados en comparación a la v0.1, v1.0 y v1.1 las cuales amé (la 1.0 me pareció la mejor). De todas formas voy a seguir probando. >>9213 Bienvenido, llevábamos un tanto tiempo ocultos en el tablón de /pruebas/ pero me alegra ver las contribuciones de los demás y no solo sea un archivero de mis imágenes.
(2.91 MB 1408x2688 00083-2350155915.png)

(3.28 MB 1664x2432 00169-646619398.png)

>>9230 Dare vistazos de en vez en cuando tirando images aqui, he hecho y hago bastantes cada dia pero tampoco quiero spamear porque parece que son muy poco por aqui
(3.83 MB 1728x3024 Illust_00007-0354.png)

Al final era un problema del enlace, por alguna razón la versión de Hugginface de Illustrious 2.0 que dice "stable" y el de CivitAI son diferentes. Tras dos horas y media de prueba, debo decir que responde bien así que dí un juicio apresurado, adjunto pic related. >>9275 Bueno, de la tradición de hilos de Hentai Diffusion, habíamos quedado solo dos, sin contar al Board Volunteir que hizo el favor de movernos, puedo contar al menos cuatro post de cuatro anons distintos, que es más de lo que tuvimos en mucho tiempo, así que es un buen comienzo, de todas formas haga como se sienta más cómodo, últimamente por el flujo de usuarios cuesta subir muchas pics de todas formas.
Mi mamá quiere que edite las fotos de mis gatos y los vuelva monos de Ghibli, como prefiero vender mis riñones antes de usar chatGPT voy a tener que aprender usar SD Para hacerlo.
(2.70 MB 1536x1536 00008-2459.png)

(2.57 MB 1536x1536 00013-3139.png)

(2.55 MB 1536x1536 00025-1404.png)

>>9299 >>9299 >y los vuelva monos de Ghibli Eso no debería ser muy difícil, sobre todo ahora que Colab esta devuelta y la comunidad open source se encargó de crear LoRAs estilo Ghibli GPT para Illustrious y Flux; hasta un checkpoint entero basado en Illustrious. Siempre hubo LoRA de estilo Ghibili para SD pero como ahora la gente no tiene que aprender a usarlo para obtenerlos todos pierden la cabeza, kek. Como mencionó eso de convertir una imagen a otro, lo más sencillo sería pasar la imagen por Img2Img (imagen a imagen) con una resolución manejable para SD (ejemplo 1024x1024 o similares) con un Denoise Strenght bajo o medio, mientras más bajo más lucirá como un filtro y mientras más alto será una imagen nueva. Otro método sería hacerles Inpaint, pero eso lleva más tiempo y paciencia. También creo que al menos uno de los LoRA de Ghibli GPT deben estar disponible para generar en CivitAI pero entonces tendría que mendigar por Buzz (tokens) y sería más limitado que las cuatro horas gratuitas que ofrece Colab (creo que un poco más) Ya después si quiere refinar la imagen, depende de usted, en lo personal preferí usar un LoRa en Illustrious v0.1 (base) en vez del checkpoint basado en Ghibli de todas formas, dejo ambos: >LoRA GhibliGPT https://civitai.com/models/1433257/ghibligpt?modelVersionId=1620115 >Checkpoint: Studio ChatGPT-Ghibli Illustrious https://civitai.com/models/1423079/studio-chatgpt-ghibli-illustrious Adjunto tres pic related como muestra de lo que se puede hacer con el LoRA y prompts simples, eso sí, el Clip Skip a 2 me dio mejores resultados que a 1 pese a lo que dice las recomendaciones del modelo, sé que es mucha información pero es fácil, si tiene alguna duda o algo aquí estoy.
(3.12 MB 1728x3024 Illust_00020-3920.png)

Subir esas tres pic de Reisen estilo Ghibli GPT me costó un montón por la lentitud del servidor, así que adjunto una sola pic, fueron al menos cuatro primeras horas de testeo de Illustrious 2.0, me ha gustado mucho el modelo.
a no mames, hablan español aquí :o
(4.35 MB 2016x2592 AOQ_00016-4213.png)

>>10595 Bienvenido.
Ultimamente he vuelto al SD 1.5 entrene varios Loras de estilo en ese entonces y aunque he intentado replicar algunos en Illustratious los resultados varían. Capaz porque no estoy usando exactamente el mismo dataset. La mayoría de mis Loras viejos los entrene con un máximo de 45 imágenes y un mínimo de 24 o 25 entrenar en Illustratious con un dataset tan pequeño es más difícil. En especial si quieres que entrene un estilo.
(1.23 MB 1152x2016 00002-1418.png)

(2.02 MB 1152x2016 00011-3947.png)

(2.44 MB 1344x1728 AOQ_000028.png)

(2.23 MB 1152x2016 00013-5120.png)

(2.21 MB 1152x2016 00028-1333.png)

Un poco de mis ultimas imagenes de estas semanas, parece que los chinos le han sacado competencia a Flux con HiDream, que curioso que gracias a Flux pese a ser open source solo ayudo a que la generación de imagenes en general se estancara, todo por la maldita destilación, kek. Y eso que estaba emocionado cuando salio, también parece que todos los fanboys de SD 1.5 fueron a parar a Flux. >>12960 >SD 1.5 Lo uso de vez en cuando también, al menos el notebook de Colab que pase más arriba unifico los componentes de SDXL y SD 1.5, ahora no tienes que buscar aparte el VAE ni los TI Embeddings de cada arquitectura en cada instalación, ya vienen ambos por defecto, sabes que soy un noob en cuanto a los LoRA pero la gente con la que he hablado usa 70 pics para entrenar LoRA de estilos en Colab, debería ser posible con 50 pics minimo. No sé si recuerda LightningAI pero podrías usarlo para entrenar tus LoRA ahí, eso sí son 30 horas gratis mensuales, pero al menos no gastarías tiempo de Colab, lo malo es que los tutoriales de este servicio escasean y encima esta bloqueado en mi región.
(392.22 KB 512x768 858895853115435942.png)

(446.15 KB 768x512 858895726413912640.png)

(977.98 KB 736x976 00093-4734.png)

(1.03 MB 736x976 00098-5847.png)

>>13011 Algunas cosas que he hecho en Tensor Art, me ha dado pereza entrar al collab de Google y poder saltar de 1.5 (donde tengo varios Loras hechos y me gusta jugar con ellos.) Bonita la hermana de Quatro Vaginas.
(845.40 KB 1152x768 858186568257547391.png)

(126.10 KB 1600x1290 looking-something-145112.webp)

(90.58 KB 1067x1690 low-angle-portrait-man-729701.webp)

(50.86 KB 686x386 hq720 (1).jpg)

>>13249 me a dado pereza entrar al collab y tensor art me deja saltar de Illustrious a SD 1.5 rapidamente* El anterior mensaje lo escribi como el culo kek btw han notado que cuando generan monas chinas SD tiene problemas con generar la parte inferior de la mandibula desde ese angulo (pic relatada.)
(2.26 MB 1152x2016 00014-3608.png)

(1.96 MB 1152x2016 AOQ_00009-3333.png)

(2.53 MB 1248x1824 00017-1814.png)

(1.98 MB 1536x1536 AOQ_00038-8888.png)

Un poco de mis últimas sesiones probando diferentes estilos, las primeras dos las había comenzado en SwarmUI pero las termine en ReForge porque me siento más acostumbrado a esa interfaz, todavía hay mucho en Swarm que no entiendo del todo pero me gusta, es mucho más fluido y con menos lag que las otras UI y puedo usarla sin necesidad de importar workflows de Comfy que solo me van a dar error. >>13249 Sayla es uno de mis personajes favoritos de Gundam, pero no vi Origin hasta hace poco y me llamó la atención que su etapa loli ya tenía pechos bastante grandes en la escena de la piscina, quizás por el estrés, kek. Recordé porqué me gusta tanto el personaje, todavía me falta terminar la versión sin bra y quizá hacer una topless, también me han dado ganas de generar a Machu, pero la he estado posponiendo. Creo que lo único malo de Colab (al menos en ReForge o A1111) es que la interfaz crashea al cambiar el VAE o el modelo. Así que, aunque suena bien en teoría que los dos estén incluídos, en la práctica sigue siendo un solo modelo a la vez, creo que Swarm y ComfyUI son las únicas que se salvan de esto, pero son un poco más complejas. >>13250 Probablemente algo que se solucioné con el tiempo y/o dependa del modelo que este usando. Yo por ahora solo espero que salgan los Illustrious posteriores a 2.0 y que desarrollen NoobAI-XL 2.
(539.34 KB 1152x768 860025860084739350.png)

(510.21 KB 1152x768 860028060181774330.png)

(845.42 KB 1152x768 860022919105872354.png)

(828.04 KB 1152x768 860010223182553231.png)

Ayer luego de que estuviera sin internet todo el dia me puse a jugar Soul Caliburn y se me ocurrio intentar hacer un Lora de uno de los personajes que hice en el juego. Tome varias capturas de pantalla y las use para entrenar hoy con el Collab de Google en Illustrious. Adjunto los resultados. Lo siguiente es crear un Lora solo para su mascara porque no tiene mucha consistencia en esa parte kek
(2.26 MB 1152x2018 Illust_00011-3000 v2.png)

(1.80 MB 1152x2016 Illust_00013-5638 v2.png)

(1.67 MB 1152x2016 00023-4907.png)

(1.88 MB 1152x2016 Inpaint_00009-0921-v2.png)

(614.88 KB 1195x717 AI Cows.png)

Algunas imagenes de unas vaquitas de cuando me gustaba usar Illustrious v0.1 y todavía me gusta de hecho, pero creo que las nuevas versiones son mejores aunque la penultima era de un modelo basado en Pony que se me olvidó cambiar en A1111, aunque hasta la fecha siempre veo gente que les cuesta con los modelos Illustrious y no los culpo, a mi también me costó bastante acostumbrarme, ya después de eso todas las demás versiones se me hicieron fáciles de usar, excepto la 2.0 "stable" que imagino será para entrenamientos, de resto, recuerdo que las hice por el meme de vacas IA antes vs ahora y me entró una nostalgia tremenda al ver este meme.
Hola, lo siento por no tener mucho que contribuir pero empece a experimentar con el notebook de collab de ComfyUI que esta al inicio del hilo con Illustrious XL v1 y algunos loras. Pero las imágenes me salen todas así. SI bien se nota bien el personaje claramente algo no estoy haciendo bien.
Como nota curiosa y esta noticia puede ser tanto buena como mala para algunos, es que ahora se puede usar la API de OpenAI's GPT-image-1 para generar en CivitAI, mala porque se supone que es un sitio orientado al Open Source y buena porque... supongo que los resultados son decentes, es la primera vez que uso el generador de CivitAI, aunque lo personal no pude usar Img2Img en absoluto, no sé si fue porque los maricas de CivitAI lo bloquearon o si el sitio simplemente funciona mal y CivitAI siempre funciona mal, en lo personal siento que pierden el rumbo, la última de Reisen tuve que hacerle cherry picking y la de Zeta Gundam salió fallida pero GPT obtuvo la mayoría de sus detalles, supongo que el primer Gundam siempre será el más iconico.
(1.96 MB 1536x1536 Illust_00003-5839.png)

>>13369 Bienvenido, justamente estaba hablando de Illustrious, kek, pero la verdad soy más usuario de SwarmUI (backend de ComfyUI) y ReForge/A1111 Ahora bien, se me ocurren un par de cosas, si bien Illustrious a partir de la v1.0 esta entrenado en resoluciones nativas más altas (1536x1536) muchos, sino la gran mayoría de LoRA siguen entrenados en resoluciones de SDXL (o sea el clásico 1024x1024) lo que hago cuando uso Illustrious de 1.0 para arriba si voy a usar un LoRA yo uso las resoluciones nativas de SDXL ya sea 768x1344 ó 832x1216, 1024x1024, etc. De resto viendo tu imagen recomendaría más un sampler basado en Euler con un scheduler type ya sea: Normal/Simple/Beta/Exponential/SMG Uniform/KL optimal (este solo es viable en Comfy/Swarm) que son los que generalmente uso en modelos tipo anime, también los sampler Euler/Euler A CGF++ son buenos pero tienes que bajarle el CGF scale 2 ó 1,50 o menos, también fijate que el LoRA sea compatible con Illustrious, aunque en un aprieto a veces me han funcionado loRA's de Pony en Illustrious, ya de resto lo último que quedaría sería el clip skip a -2 en Comfy (en SwarmUI es similar) o a 2 en Reforge/A1111 sino mal recuerdo el VAE no importa en Illustrious ya viene incorporado. También existe una versión superior de Illustrious 1.0 llamada CyberFix, la dejo por si acaso, pero mantiene la esencia y versatilidad del modelo original sin sacrificar su estilo a cambio de mejor anatomía. La versión perpendicular debería ser ligeramente mejor. https://civitai.com/models/1251904/illustrious-xl-v10-cyberfix
>>13372 Muchas gracias! Pude generar algunas cosas bastante satisfactorias y tener opciones de base me ayuda bastante a entender mas todo esto. He notado ahora que existe una version 2.0 de Illustrious, pero supongo que experimentare con eso despues.
(3.79 MB 1296x2304 00002-1244.png)

>>13382 De nada, me gusta ayudar dentro de lo posible, simplemente recuerde que LoRAs entrenados a 1024x de resolución luciran peores a resoluciones de 1536x y LoRAs entrenados a 1536x luciran peores en resoluciones de 1024x y por supuesto más resolución = más tiempo de entrenamiento. >Illustrious 2.0 Lo he probado, aunque no tanto como quisiera y subí pocos ejemplos, si bien soy gran fan de Illustrious, el propio creador comentó que la mejor versión sigue siendo la v1.0 y la v2.0 es mejor para entrenamientos (yo teorizaba algo similar antes de leerlo kek) de todas formas si he logrado obtener buenos resultados con la v2, simplemente evite la versión que dice "stable" a toda costa, pero supongo que el típico caso de: más nuevo ≠ mejor Los de Animagine hicieron algo similar al sacar una versión pura entrenamientos y dos para generar. Pero, de todas formas el dataset de 20 millones de imagenes de Illustrious v2 no es para nada despreciable, pero supongo que la 3.0 o superiores serán las buenas para generar, cuando las liberen, de todas formas sientase libre de experimentar.
(2.62 MB 1536x1536 00000-4718.png)

(3.30 MB 1536x1536 00004-3806.png)

(3.02 MB 1536x1536 00005-1350.png)

(3.69 MB 1536x1536 00006-1747.png)

(6.61 MB 2304x2304 00009-4303.png)

Siempre termino volviendo a Illustrious v0.1 sigue siendo mi favorito, lamentablemente las primeras 4 son intentos fallidos del Zeta Gundam no lo reconoce en absoluto pero al RX-78-2 sí que fue la que generé al final.
>>7104 He estado teniendo problemas con mi notebook de ComfyUI, alguna extensión me actualiza el torch, que me jode muchas dependencias como el xformers, entonces me toda desinstalar muchas cosas y reinstalar las entonces término con una versión de torch actualizada que me bloquea los modelos de facedetailer tipo segm por alguna cosa de seguridad, Python fue un error.
(3.00 MB 2304x1728 Illust_00036-0634.png)

>>13405 No soy usuario de ComfyUI, pero después de la mierda que tuve hoy haciendo Inpaint en A111111111111111111 desearía serlo y mudarme definitivamente a otra interfaz pero no soy lo suficientemente autista para usar Comfy (SwarmUI sí), en fin le comparto el notebook que yo uso, según el changelog tiene Python portable así que no debería preocuparse por actualizaciones de eso. Tiene multiples interfaces a elegir, selecciones la que quiere e ignoré la canción de youtube que le sale. <Notebook: https://colab.research.google.com/github/gutris1/segsmaker/blob/main/notebook/Segsmaker_COLAB.ipynb
(687.48 KB 768x1152 861878124860672151.png)

(1012.33 KB 1024x1024 861876397210120792.png)

(895.89 KB 1152x768 861880478502765330.png)

(865.24 KB 1152x768 861882130991423914.png)

>>13324 Aun no he pensado en que tipo de diseño deberia tener la mascara. >>13369 Bienvenido al hilo, ahora ya somos 3 o 4?, anyways el pequeño boom de 8chan luego de la caida de 4chan ya paso pero por lo menos sumamos un par al hilo para comentar algo es algo kek Si estas usando Loras fijate en el peso que le estan asignando, tampoco vayas a lo loco y generes imagenes con mas de 1500x1500 para algo existe el Upscaler.
>>13406 Tengo que aprender a usar bien regional prompting y el inpaint, seria una mejor manera de hacer las cosas por partes, aunque al menos en ComfyUI no tendría ni idea como empezar, en A1111 al menos se veía mas fácil.
(2.03 MB 1728x1344 00009-2350.png)

(187.12 KB 550x789 Inpaint.png)

>>13425 Bueno, contando las ID más tú y yo, en teoría seríamos 10, pero claro, creo que algunos responden desde distintos dispositivos, así que creo que somos 4 pero bueno al menos el tablón es más fácil de encontrar. >tampoco vayas a lo loco y generes imagenes con mas de 1500x1500 Que sepas que poder generar a 1536x1536 es de mis cosas favoritas de los nuevos Illustrious, incluso he visto usuarios se olvidan del HiResFix con ese alcance de resolución, a mi me encanta poder obtener resoluciones más altas más fácil, aunque lamentablemente Colab al ser el más débil se tarda demás, una vez me tardé 34 minutos en una imagen a 2304x2304 de resolución con triple adetailer y tres personajes, aunque ayer estaba usando el Illustrious v2 y seguí usando las resoluciones base de SDXL por costumbre, kek. Pero claro, el 99.9 % de los LoRA de SDXL están entrenados en 1024x así que ese problema de resolución nativa entre modelo (1536x) vs LoRA (1024x) va a perdurar un tiempo. >>13435 >regional prompting y el inpaint <Advertencia mucho texto Yo he subido varios ejemplos de Regional Prompter e Inpainting (aquí y en mis hilos anteriores), si no mal recuerdo creo que SwarmUI tiene Regional Prompter integrado y ReForge también (pero Reforge de GPU en línea es un desastre con un montón de extensiones que no funcionan), si te toca usar un LoRA entonces el Regional Prompter es 100 % ideal para que no se te mezclen los personajes. Casi siempre uso Inpainting para mis imagenes, la de Alice con la que le respondí ayer le dediqué dos horas de Inpaint y todo para que me fallara en dos UI seguidas, ni siquiera me desconectaron de A1111 solo se detuvo sin más, lo cual es raro porque he hecho Inpaint cómodo por tres horas o más en esa UI, así que sentí que quedó a medio terminar. El antiguo OP de estos hilos recuerdo que me dió unos consejos valiosos de Inpainting, pero yo uso una configuración así como pic 2 DDIM es el más rápido, pero me esta dando muchos artifacts ultimamente y lo cambie a Euler A + Beta (es el que uso también en mis imagenes) y la velocidad es casi igual, dependiendo de lo que hagas puedes querer cambiar algunos parametros. DPM++2M SDE Huen Exponential por ejemplo es lento. El Denoise Strenght lo más que he bajado es 0,15 más elevado de 0,75 y los resultados se van a desviar demasiado de la imagen original. Los steps los mantengo entre 50 a 80, el Padding Pixels es para que el modelo "reconozca qué encaja en la imagen" de 50 a 80 también son buenos valores. CFG Scale puedes ponerlo entre 2 a 3, algunos lo suben a 7 o más pero en Inpaint yo nunca lo he hecho. También ten en mente que hay modelos específicamente hechos para Inpainting; resoluciones de 1024x1024 siempre será más rápido y cómodo aunque una resolución como la mostrada en pic 2 es viable para hacer Inpainting pero será un poco más lenta y por último Inpaint area "Only Masked" fue el valioso consejo que me dieron, muy pocas veces obtengo buenos resultados con la opción de "Whole Picture". Y bueno, eso es lo básico, le deseo suerte.
>>13437 Sin animos de ofender pero esa configuracion para inpaint es realmente mala empezando con la dimensiones usadas y el valor de denoise. Siempre debes de usar dimensiones que al final te den un cuadrado para mejores resultados en temas de esparcimiento de pixeles ya que lo que realmente hace inpaint es "injectar pixeles" El sampling method y valor de CFG debe ser igual o debe ser uno que asemeje los que usaste en tu image base porque si no va a afectar mucho de mala manera el area en donde estes trabajando (colores erroneos y marcas claras de que diste una pasada por esa area). Lo mismo con el valor de denoise, yo no pasaria de 0.6 y esto es en casos extremos en donde quiera completamente quitar o cambiar algo de lugar de manera significativa ya que el denoise es lo que hace "alucinar" a la maquina y por ende estropear la composicion de nuestra imagen. Un tip adicional es usar el soft inpaint lo cual hace que el area donde trabajemos se mezcle de maravilla con el resto de la imagen. Comparto mi configuracion para inpaint, eh heho varios testeos con esta y fue la mas optima para mi pero invito a cambiar los valores a criterio propio ya que como dije, es una recomendacion en base a experiencia y resultados.
(2.12 MB 960x2304 Ilust_00007-0233.png)

>>13438 >base a experiencia y resultados. Exacto, en mi caso, la configuración de arriba es lo que me funciona desde hace bastante tiempo y he hecho montones de Inpaint con esa configuración casi exacta y he subido mis ejemplos en estos hilos antes y después, he sabido de gente que incluso usa DDIM exclusvamente para Inpainting (aunque últimamente me esta dando fallos) pero si algo he aprendido de la generación de imagenes es que a todos les funciona algo distinto y todos se contradicen entre sí entre lo que es correcto y lo que no, aunque yo mismo mencioné que 1024x1024 siempre será más rápido pero quise decir aún así era posible con un poco más, trataba de dar una recomendación básica y así fue como aprendí a hacer Inpainting. Por cierto también he estado pensando en usar Euler Ancestral ++ para Inpaint también,pero se me olvida porque tiendo apegarme a lo me funciona en vez de probar nuevas cosas, lo que me lleva a que me alegra a dejar de ser la única voz en este hilo y que podamos compartir recursos, trucos y experiencias con otros.
(2.01 MB 1152x2016 00016-2901.png)

(2.02 MB 1152x2016 00021-0102.png)

(1.97 MB 1152x2016 00018-3120.png)

(1.97 MB 1152x2016 00032-3934.png)

Algunas de mis últimas pics de Kamiya Kaoru, he querido hacer más pero no he tenido tiempo, espero poder conseguir un mouse propio pronto ya que andar intercambiandolo uno en dos PC que ni siquiera son mías es molesto por decir lo minimo además se me han ido acumulando muchas imagenes y algunas simplemente quedan en el olvido, iba a hacer un par de pics del día de la Madre, pero se me pasó.
(683.25 KB 1216x832 00003-0559.png)

(1.04 MB 1216x832 00015-0737.png)

Termine encontrando bastante mas cómodo usar A1111 que Comfy. Sin embargo, al fin paso lo que tenia que pasar y Google me hecho de colab. Existe algún notebook .ipynb que pueda usar en otros servicios como Kaggle? Todavía estoy esperando que me aprueben para lightnng.ai.
(4.00 MB 1728x3024 Illust_00038-0654.png)

(176.27 KB 1272x885 Kaggle Config.png)

>>13484 Bienvenido a Automatic 1111 dónde todas las UI basadas en esta interfaz están muertas o semi abandonadas, kek. Aún así, sigue siendo la UI más cómoda considerando que la mayoría los usuarios quieren es el típico "1girl" de los cuales me incluyo, aunque a lo mejor alguien retoma Forge por tercera verz, quién sabe. >Existe algún notebook .ipynb que pueda usar en otros servicios como Kaggle? Si, yo tenía mi cuenta de Kaggle acumulando polvo por casi un año hasta que encontré un notebook con encriptación, verás el sitio prohibe contenido NSFW, pero este notebook lo protege, simplemente tiene que configurarlo de esta forma y la instalación del notebook hará el resto, recuerde que tiene que activar Kaggle con su número telefónico. Abre el enlace "Copy & Edit" selecciona "Edit in Kaggle Notebooks" y pone las configuraciones necesarias como dicta el notebook incluyendo el código API de CivitAI, es muy simple. Solamente recomiendo usar A1111 y ReForge para Kaggle ya que son compatibles con la extensión de encriptación, la cual también debo admitir no es 100 % a prueba de fallos. Pero hasta la fecha no me han baneado así que supongo que es muy raro que llegué a fallar, creo que lo máximo que llegué a usarlo fueron siete horas seguidas sin desconexiones. No use la extensión de CivitAIBrowser+ si va a descargar LoRA o modelos dentro de la UI, use la celda del notebook en su lugar. De resto, no creo que este servicio necesite multicuenta, total son 30 horas semanales. Es del mismo que compartí más arriba de Colab así que es seguro que lo sigan actualizando. La instalación es casi igual, solo que en vez de click hay que escribir el nombre de la interfaz (que solo dos son compatibles con la encriptación) en el caso de escribir "ReForge" pues copia y pega los argumentos correspondientes en el WebUI launcher que están al final, el de A1111 ya viene por defecto y es un solo argumento. <Notebook de Kaggle https://www.kaggle.com/code/jejejojo/asdasd
>>13486 Muchas gracias. > dónde todas las UI basadas en esta interfaz están muertas RIP. Prefiero como A1111 muestra todo lo que es posible sin tener que usar los nodos que no entendí bien como instalar.
(4.54 MB 2304x2304 00012-1455.png)

(86.77 KB 1274x885 ReForgeClassic.png)

(100.96 KB 1280x868 SwarmUI.png)

Siguiendo el tema de UI's como el DEV chileno Panchovix abandonó su fork de ReForge este dejo el Forge clásico sin retoques y pude usarlo por dos horas, me sentí muy nostalgico ya que era mi interfaz favorita, aunque claro ya hoy día no es lo más adecuado. Dejo el notebook que encontré, tiene cinco UI en total: <Notebook: A1111, ComfyUI, Forge, Classic (Forge), ReForge, SD-UX. https://colab.research.google.com/github/anxety-solo/sdAIgen/blob/main/notebook/ANXETY_sdAIgen_EN.ipynb >>13488 De nada, disfrutelo. >sin tener que usar los nodos que no entendí bien como instalar. Kek, me paso lo mismo pero es lo malo del open source, muchas buenas ideas terminan siendo abandonadas. La única UI "fácil" que queda es SwarmUI, pero esta se beneficia mucho de tener memoria persistente para agregarle cosas básicas como el autocompletado de tags o no viene con adetailer por ejemplo, mientras que Automatic 1111 y sus variantes siempre las disfrute porque traen todo lo básico nada más instalarlo. De todas formas, yo espero que alguien más retome el proyecto de Forge.
(1.80 MB 1152x2016 00022-0412.png)

(1.83 MB 1152x2016 00032-2455.png)

(3.77 MB 1728x3024 00040-1410.png)

(3.53 MB 2016x2592 00045-1132.png)

(4.18 MB 1728x3024 Noob_00068-2646.png)

Extrañaba usar la GPU de Kaggle.
Después de mucha practica con el Inpaint creo ya voy consiguiendo resultados, mas o menos, tampoco tengo mucho tiempo entre trabajo y estudio. Aunque todavía me falta mas practica, porque obligarlo a crear una persona es difícil, supongo que en esos casos deberia usar OpenPose, pero ahora tengo que aprender a usarlo kek. >>13488 Lo mejor es instalarlas directamente en el notebook antes de iniciarlo para ahorrarte el lio de copiar y pegar un montón de enlaces y reiniciarlo cada vez. En el notebook que deje aquí >>8599 puedes ver como es, igualmente seria algo así <!cd /TuDirecciondeComfy/ComfyUI/custom_nodes/; git clone EnlaceDeExtension Si necesita instalar requisitos >!cd /TuDirecciondeComfy/ComfyUI/custom_nodes/NombreExtension/; pip install -r requirements.txt Ejemplo >!cd /content/ComfyUI/custom_nodes/; git clone https://github.com/ltdrdata/ComfyUI-Impact-Pack >!cd /content/ComfyUI/custom_nodes/ComfyUI-Impact-Pack/; pip install -r requirements.txt Para el diccionario del ComfyUI-Custom-Scripts que no se instala con la extension se arreglaria con esto. >!curl -Lo /content/ComfyUI/custom_nodes/ComfyUI-Custom-Scripts/user/autocomplete.txt "https://gist.githubusercontent.com/pythongosssss/1d3efa6050356a08cea975183088159a/raw/a18fb2f94f9156cf4476b0c24a09544d6c0baec6/danbooru-tags.txt" De hecho, no es que A1111 venga con todo por defecto, sino que los que hacen los notebooks lo instalan todo antes de iniciarlo igualmente.

(152.91 KB 832x1216 tmpm876v657_1.png)

(10.84 KB 832x1216 tmp5kqpn8w7.png)

(1.87 MB 1248x1824 00025-4112.png)

(2.76 MB 1248x1824 AnimagineXL_00013-3043.png)

>>13583 >OpenPose Ese es el más básico de los control net (el de los palitos) en mi experiencia suele ser mejor con Canny y Depth Midas o Depth Anything (estilo anime) a para poses, era divertido porque podía crear las poses haciendo un colab de imagenes en Gimp y luego pasarlas por Img2Img, también me gustaba recuperar algunas de mis viejas imagenes o para obtener una simple sombrilla recta, pero luego pasó algo raro y ReForge de repente dejo de funcionar sus extensiones (al menos el notebook que yo uso) así que tuve que conformarme con dejar de usarlo y apoyarme en el Img2Img + Inpainting, pero si puedes hacer ambos (Img2Img + Control Net) sería más recomendable. >sino que los que hacen los notebooks lo instalan todo antes de iniciarlo igualmente. Buen punto, en el caso el notebook que pase es bastante completo y solamente instalaba pocas veces extensiones extra como una para quitar fondos o una de pixel art, aunque noté que estos notebooks que uso nunca incluyen el autocompletador de tags de E621 solo el de Danboouru. En fin dejo de un ejemplo de las diferentes control Net tome una imagen base de un prompter random y como ven pic 2 se convirtió en pic final y pic 3 se convirtió en pic 4.
>>13585 Que yo recuerde no era muy complicado, las primeras dos son varias pruebas que hice hace años, por eso se ven horripilantes, además todavía no sabia hacer loras y las otra dos son mas recientes. Igual voy a probar como dices y usar Midas y Canny en conjunto, mas que todo lo que quiero hacer es crear imágenes en partes, hacer el escenario, crear un personaje, luego otro y hacerlos interactuar. Su que obviamente eso llevaría bastante trabajo. >ReForge de repente dejo de funcionar sus extensiones Que extraño, la única extensión que no me funciona es el tag autocomplete ¿Cuales no te funcionan? >que uso nunca incluyen el autocompletador de tags de E621 solo el de Danboouru. Suele ser el por defecto, en A1111 puedes ir a la configuración de tagautocomplete y cambiarlo, en ComfyUI habría que descargar el que quieres.
(239.55 KB 832x1216 depth_anything_v2 tmpoh2rvl3c.png)

(2.08 MB 1248x1824 00048-4105.png)

(1.23 MB 896x1152 Noob_00027-2308.png)

(897.87 KB 896x1152 CannyInvert_tmp2emteu6v.png)

(2.97 MB 1344x1728 Illust_00016-4123.png)

>>13589 No es complicado de usar pero me refiero a que Open Pose es el más básico en el sentido de que es lmás simplista. En el ejemplo que subí, el open pose ni siquiera sabía dónde iban las piernas de Yuroichi, kek. >las primeras dos son varias pruebas que hice hace años, Kek, me recuerda lo difícil que era hacer posar a SD 1.5 yo solía tener muchas imagenes así también. Yo solía depender de Control Net como un respirador sobre todo porque en esa época el tema de las manos era mucho peor que ahora o incluso obtener una espada recta. Pero al final termine dependiendo más de Img2Img e Inpaint que de Control Net, sin mecionar los adetailer ya que me había cansado de A1111 y prefería ReForge a pesar de su problema de extensiones que voy a explicar más tarde. También me gustaba recuperar imagenes que a veces me salían mal en un modelo con otro, por ejemplo esta imagen de Kaho me salió sobre saturada en NoobAI y como es un finetune de Illustrious 0.1 el entedimiento de prompts de ambos es similar, así que lo pase a ese modelo con Canny Invert de Control Net y convertirlo en pic final (un poco de Inpaint a ciertas áreas), lo único malo fue... que las axilas quedan mucho mejor en Noob, así que eso inevitablemente se pierde. >Su que obviamente eso llevaría bastante trabajo. Dimelo a mí, llevo haciendo Inpaint por un par de semanas a una imagen de 2304x2304 me he tardado tanto por problemas diaros y por el hecho que soy un maldito flojo. Mi ultima buena sesión fue el pasado miercoles, desde entonces reciclo muchas imagenes, pero pueden servir de ejemplo. >¿Cuales no te funcionan? Varias extensiones incluyendo Mahiro y Control Net (que fueron de las razones por las que me cambie a SwarmUI), pero me di cuenta demasiado tarde que era un problema del notebook que estoy usando, en el otro notebook que pasé: >>13489 Si funcionan extensiones como Mahiro. Pero no lo probé más a fondo por otros problemas que me encontré, de todas formas es un hecho que ReForge quedó abandonado. >puedes ir a la configuración de tagautocomplete y cambiarlo Por lo general estoy bastante a gusto con los tags de Danbooru y los tags de E621 casi ni los uso ni mucho menos casi nunca visito el sitio, quizás por eso prefiero tanto Illustrious sobre NoobAI, pero al menos E621 tiene un sistema de tags eficiente así que cuando uso SwarmUI con un Modelo basado en Noob me aseguro de usar un archivo .CSV con ambos sistemas de tags y lo puedo subir directo a la carpeta SwarmUI/Data/Autocompletions Dejo más ejemplos de Control Net pasados.
(563.72 KB 640x1018 Drawatoon.png)

>>13592 Nada mal aunque lo malo en este caso sería, depender del google, el último avance interesante para comics IA open source fue Drawatoon v1 basado en Pixart-Sigma. aunque por supuesto en ambos están lejos de ser perfectros, pero el de Google es más impresionante.
(4.41 MB 1728x2736 00001-4056.png)

(4.80 MB 1728x3024 00011-5132.png)

(19.97 MB 1728x3024 Noob_00016-5926.png)

(2.84 MB 1728x3024 Noob_00006-4310.png)

(5.52 MB 2304x2304 Illust_00009-5449 v3.png)

Disculpen por no estar demasiado activo, algunas de mis últimas sesiones en Noob & Illustrious. Es gracioso la cantidad de Inpaint que pueden llevar tres personajes, aunque quiero pensar que de haberlo tenido en local no me hubiera tardado tanto, aunque el tema del hilo es tener de dos a tres personajes diferentes dentro de lo posible.
(2.89 MB 1728x3024 Noob_00007-4757.png)

>>13632 Subí la Lain con el pezón destrozado, kek. Bueno mini correción a ultima hora, ya que no me deja borrarlo. Me arrepiento un poco tambié de pasar aquel otro notebook. Si bien las extensiones de ReForge funcionan, en general solo anda peor incluso en Kaggle aunque el Forge clásico si me anda bien.
(4.66 MB 1872x2736 00025-3024.png)

(4.60 MB 1872x2736 00026-4210.png)

(3.69 MB 2016x2592 Noob_00007-3248.png)

(3.76 MB 2016x2592 Noob_00020-0435.png)

(3.27 MB 1296x2304 00012-0317.png)

Y un poco más de mis ultimas sesiones de Noob e Illustrious. A veces desearía que el notebook de A1111 no se colgara cada 4 a 5 generaciones, sino todo sería mucho más cómodo.
(3.27 MB 1728x3024 00008-5326.png)

(3.86 MB 1728x3024 00016-2603.png)

(3.06 MB 2016x2592 00028-3456.png)

(1.61 MB 1248x1824 2025-05-24-84613977-11.png)

Mi sesión de Illustrious 2.0 entre ReForge y una pic que hice con SwarmUI hace un timepo, creo que quizás debí haber hecho más pics de Machu y Nyan antes de descubrir que no me gustan, kek. Y de paso informo que actualizaron el notebook con Forge Classic, el cual corre mejor que A1111 pero claro, ambos tienen la contra de estar muy obsoletos, pero al menos es una alternativa más, ya son seis UI a total a eligir: <Notebook actualizado con Forge-Classic https://colab.research.google.com/github/gutris1/segsmaker/blob/main/notebook/Segsmaker_COLAB.ipynb
(1.34 MB 1344x1728 00006-4906.png)

(1.37 MB 1344x1728 00008-0056.png)

(1.83 MB 1344x1728 00009-0520.png)

(2.36 MB 1344x1728 00003-4721.png)

(2.35 MB 1344x1728 00017-5137.png)

Y no sé que hicieron pero parece que el destino de Forge es permanecer roto en todas sus versiones, el panorama de las UI basadas en A1111 pinta bastante mal, dejo un par de pruebas.
Una practica de descensura en Inpaint de hace un tiempo, la imagen censurada es del prompter MoonFish.
entrener loras en Illustrious con imagenes de cartas de Yugioh arroja resultados interesantes. Definitivamente hare mas experimentos asi. Hola, veo que este hilo esta poco abandonado jaja, perdon por la ausencia he estado ocupado.
>>13699 ¡Hola!, si parece que quedamos solos tú y yo de nuevo, kek. Aunque sigo aquí, pero no puedo mantener el hilo vivo yo solo, tampoco he podido usar tanto la GPU en línea como quisiera, o estoy ocupado o no hay tiempo, hoy tuve un apagón de tres horas y media por ejemplo, aunque entre buenas noticias, ahora tengo acceso a NovelAI con generaciones ilimitadas, le prometí a la persona que me dió la cuenta no usar los aslans (tokens de pago) y pienso cumplirlo. Tengo que admitir, NovelAI es bastante bueno y lo mejor es que puedo terminar de refinarlas después en Illustrious o NoobAIXL, dejo algunas de mi sesión de hoy de NovelAI 4.5 Full el más nuevo:
(2.69 MB 1152x2016 00020-2239.png)

(2.63 MB 1152x2016 00026-4852.png)

(2.93 MB 1872x2736 00003-4007.png)

(1.26 MB 1152x2016 00004-4638.png)

(2.73 MB 1152x1832 Inpaint_00038-1515_v2.png)

Aquí dejo mi actualización semanal, la de Clownpiece es un tanto vieja, de hecho del 17-10-2024 pero me acordé que era 4 de julio así que le hice un par de retoques con Inpaint y GIMP el resto son más recientes.
(7.54 MB 2016x2592 00001-0808.png)

(1.70 MB 1152x2016 00003-3838 V2.png)

(2.20 MB 1248x1920 00004-4012.png)

(2.79 MB 1344x1728 Inpaint_00011-3629.png)

(4.28 MB 1536x1536 Inpaint_00021-5609.png)

Y mi actualización semanal, la verdad es que sigo prefiriendo usar SD antes que NovelAI, aunque el obtener multiples personajes es mil veces más fácil (después subiré pruebas) ni que decir del texto, la última es Illustrious XL v2 me sigue gustando bastante aunque se ha vuelto tremendo bait el cuando van a liberar las versiones que faltan.
(1.23 MB 1152x768 883661064040874173.png)

(1.11 MB 1152x768 883661591248140825.png)

(988.52 KB 1024x672 00027-1634.png)

>>13724 perdi muchisimo pero muchisimas cosas que guarde en el disco duro de mi vieja laptop, esta dandome problemas desde hace mas de una semana pero lo deje para mas tarde la recuperacion(esta muy lenta y da mucha lata usarla) pero ahora que trate de copiar una carpeta llena de imagenes que genere todas estaban corruptas. No se hasta que punto este corrupto el disco duro pero ahora si tendre que ponerme a revisar como recuperar lo que pueda y luego formatear.
Parece que TensorArt se ha vuelto más pro-censura, no aprenden nada de los errores de CivitAI ni Yodayo, menos mal que deje ese sitio hace mucho. >>13725 Lamento que haya tenido que pasar por eso y entiendo su frustración, perder cosas que me gustan es algo que me pasa siempre hasta el punto que estoy acostumbrado, yo tendría que salvaguardar mis imagenes. Tengo todas desde la primera vez que use Colab en estos hilos. Yo lo unico que le puedo recomendar es que guarde todo en archivos RAR en Telegram siempre uso "añadir registro de recuperación" por si acaso, encima Telegram tiene alcenamiento ilimitado siempre y cuando no supere un 2GB por archivo y a no ser que te baneen la cuenta sus archivos siempre estaran seguros ahí, también quiero formatear pero estoy en un bucle infinito de salvaguardar archivos, descargar nuevos, etc. Pero le deseo suerte con ello. En fin ya que no esperaba una respueta dejo algunas de mis pruebas de texto en español de NovelAI 4.5 Full más el mensaje de censura de Tensor.
(1.29 MB 1024x1024 880249936589900998.png)

(1.21 MB 1024x1024 880249441594914069.png)

(1.29 MB 1024x1024 880055116873343343.png)

>>13726 yo uso tensor art para probar loras y no cuando me da pereza usar el collab, una mierda que hagan eso y habra que ver hasta que punto afecta la censura. Quiero creer que la censura afectara mas a modelos relacionados a gente real para evitar que los usuarios hagan contenido nsfw de ese estilo, justo hace unos dias de hecho mientras buscaba un lora para Flux me tope a un usuario muy sospechoso que tenia varios modelos Flux hiperrealistas de chicas muy jovenes y los nombres me recordaban a esos alias que usan en videos ilegales, no pongo el enlace porque tendria que buscarlo y me da hueva y ademas no se como se ponga la moderacion si comparto eso. Pero si yo encontre eso mientras vagueaba estoy seguro que la gente que maneja el sitio esta mas que enterado que hay gente usando su pagina para generar contenido asi por lo que es entendible el ban, una vez mas unos pocos joden la diversion de todos. Tendre que guardar los loras de Illustrious que uso ahi por si acaso los borran.
(2.58 MB 1248x1824 00035-0319.png)

>>13728 >Quiero creer que la censura afectara Eso es siempre la excusa que dicen pero en mi experiencia la censura siempre termina cagando a todos. >mientras vagueaba estoy seguro que la gente que maneja el sitio esta mas que enterado Kek, me recuerda cuando navegaba en VK yo te digo, llegué a encontrarme literalmente cam1ones p3sados ahí vagueando en perfiles raros que me recomendaba pero si yo subía una película normal me comía una restricción de hasta un mes (así el vídeo estuviera en privado) igual ahora el sitio es más estricto con ese contenido, es mejor no mencionar o pasar cosas de ese estilo acá tampoco, aunque en lo personal me encantaba generar pelirojas realistas en SD 1.5 y XL pero siempre adultas. Igual yo siempre imagine que el futuro de los servicios de IA era volverse más mierda, restrictivos y censurados, por eso prefiero seguir usando Colab y la única restricción sea un limite de tiempo aunque creo que te desconectan de Colab si usas Reactor para rostros humanos solo lo use una vez pero ya no recuerdo si fue en Colab o Sagemaker, que por cierto desde que volvió Colab por alguna razón ahora es más dificil que nunca conseguir una GPU en Sagemaker en vez de reducir el flujo de gente solo aumentó o bien los de Mamazon no quieren que uno obtenga la GPU gratuita. >Tendre que guardar los loras de Illustrious que uso ahi por si acaso los borran. Ah por cierto esto me recuerda y a lo mejor ya lo conocías pero existe una alternativa a CivitAI se llama Arc en Ciel creado por FallenIncursio la última vez que lo revise tenía 9000 modelos (incluyendo loras) ahora tienen poco más de 10676 no es tanto como Civit pero no es una cantidad despreciable, siempre es bueno tener alternativas. <Arc En Ciel Modelos: https://arcenciel.io/models <También tienen su propia extensión para A1111 (necesita token igual) https://github.com/FallenIncursio/arcenciel-link-webui?tab=readme-ov-file
(1.24 MB 1024x1024 884525686054726834.png)

>>13729 guardare el repositorio siempre es bueno tener alternativas, hace unos dias estuve buscando modelos de DiffSVC(un programa para voz con IA) y mierda el discord que usaba borro todos los modelos aportados por los usuarios, creo que el deepfake con IA es incluso mas restrictivo que la generacion de imagenes. >me recuerda a cuando navegaba por VK nunca use esa pagina pero ni me sorprende viniendo de los rusos kek, tengo la teoria de que cuando un sitio encuentra cosas asi y dan aviso legal los propios agentes les dicen que dejen las cosas tal y como estan para tenerlo de Honeypot porque si es otra cosa no me explico el desinteres que parecen tener en casos asi.
Parece que la censura esta pegando fuerte en TensorArt como me esperaba, leí que modelos como NovaFurryXL han desaparecido del sitio y no me aparece aunque Illustrious Multistyle Variations si me aparece pese a haber leído que desapareció, también post flageados como NSFW pese a no serlo realmente, pero quizá lo mas kekeante fue ver prohibido el prompt de "bare shoulders".
>>13735 no tengo creditos como para probar pero acabo de generar esto y no me salto un carajo kek, por lo menos loli no esta baneado tampoco, swimsuit.
(716.75 KB 1024x1024 885208568674969728.png)

>>13739 que raro no se subio la imagen adjunta
>>13740 Kek, he leído casos similares, parece que la censura es bastante dispareja de lo que es permitido y lo que no, parece que varía de usuario a usuario por lo que veo, hasta me llegó un correo de que los loras que había subido eran inseguros pese a ser personajes anime 2D, kek. Parece que es el destino de los servicios de IA en línea ser las perras de las compañías de tarjetas de créditos, kek.
Algunas pruebas más de NovelAI 4.5 Curated (solo la primera) y NoveAI 4.5 Full (el resto) me gustó que pudiera reconocer a Izutsumi a diferencia de Illustrious y Noob que no la reconocen, aunque en parte es culpa que son pocos la cantidad de fan arts que tiene donde ella esta sola, lo me recuerda que NAI ahora usa su propio dataset privado, quería hacer unas pics de ella en Illustrious con Falin y Marcille pero me daba flojera tener que lidiar con el bendito Regional Prompter + LoRA, que por cierto aquellas pics de Izutsumi playboy nunca las termine, kek. También noté que se le da ligeramente mejor el estilo de Tite Kubo que los modelos open source o al menos a NAI v4.5 no le dio una embolía en ningún momento, también noté que el tag de "kubo_tite_(style)" me dio mejores resultados que el propio tag de "kubo_tite" pero supongo que su estilo cambio mucho con los años e incluso a NAI le cuesta entender que emular en este caso.
(491.10 KB 768x1152 885276665381447546.png)

>>13741 creo que al paso que vamos tendremos que darle la razon a los cripto bros y usar Monero o alguna otra cripto con anonimato para hacer transacciones porque las compañias de tarjetas de creditos han venido jodiendo bastante con eso. Tambien recibi un correo, me quitaron dos loras, pero uno me lo han devuelto y el otro aun esta bloqueado pese a que ambos estan basados en arte 2d de monas chinas. En cuanto a restricciones de generacion, nada, siguien sin bloquearme prompts.
Encontré una forma para probar Flux Kontext en línea, lo malo es que esta bien censurado, me dijeron que lo pusiera a Safety Tolerance a 6 pero nada y eso que no use desnudos, así que preferí probarlo con portadas de manga. No es perfecto y le encontré varios contras aparte de la censura en línea, primero que nada reduce la imagen original a una resolución tipo SDXL en este caso tipo 832x1248 aunque al menos lo mantiene en PNG (si seleccionan la opción), segundo literalmente corta la imagen, tercero solo te dan 200 tokens por correo electronico. Si bien hago un poco de cherrypicking, les digo pic 1 salió bien a la primera pero la portada del tomo dos me tomó seis intentos ya que Flux trataba añadir o quitar los helicópteros del fondo y tuve que ser más especifico. Recomiendo quitar la opción de generar cuatro a la vez (aunque en mi caso sirvió al final). Creo que para los que quieran limpiar imagenes para crear un LoRA les vendría bien. La única alternativa sería tener una PC lo suficientemente potente para correr la versión DEV en local. <Flux Kontext Playground: https://playground.bfl.ai/image/generate
>>13745 si lo conocia pero habia gastado mis creditos antes de poder probarlo bien y por eso no lo comente por aca.
Y todo tiene algo malo, simplemente a veces no sabes qué es y NovelAI si bien dice que puede manejar hasta seis personajes, la verdad que manejando tres es horrible iba a ser más pruebas con otros personajes (y mayor cantidad) de personajes pero después de hoy me desanimó, aunque NovelAI 4.5 Full en Tx2Img, reconoimiento personaje,adeherencia al prompt, manejo de dos personajes, Inpaint y estilos esta bastante bien y diría que sigue siendo superior a lo que los modelos open source ofrecen, supongo que estas fueron las menos deformes aunque casi obtuve lo que quería en tres ocasiones de más 100 intentos, al menos esta experiencia me hizo valorar herramientas de SD como Control Net y Regional Prompter aunque están lejos de ser perfectos. >>13743 >darle la razón a los cryptobros. A lo mejor sueno un poco squizo, pero a este punto se siente que están empujando a la gente a las criptomonedas, soy neutral con estas viendo el desastre de Tensor (aunque entiendo el temor a los deepfake en la IA) que pasaron las 72 horas y no arreglaron un coño o lo que esta pasando con Steam me hace pensar solo quieren causar una frustración general en el consumidor restringiendo la venta de productos +18 y como siempre solo queda jodernos.
(57.37 KB 524x773 UK-CivitAI-BAN.png)

Y más censura en CivitAI. Ahora van a bloquear las IP del Reino Unido, si bien no nos afecta, siempre esta el dicho de "cuando veas a las barbas de tu vecino arder" y es que el Internet se ha esta volviendo una mierda restringida.
>>13763 Reino Unido viendo bloqueando contenido nswf de todo tipo desde hace rato, esto viene a ser mas culpa de los politicos de ese pais que la pagina en si.
>>13764 Es cierto, pero quizás debí haber aclarado que no es UK bloqueando acceso, sino que los de CivitAI tomaron la decisión banear esas IP para cuidarse las espaldas ya que no pueden enfrentar las represalias ya de por sí les cuesta mantenerse en pie, aunque visto de otro modo, pareciera que los países Europeos están alentando a la gente a usar VPN, kek.
(1.38 MB 1248x1920 00010-0641.png)

(3.46 MB 2016x2592 00031-5917.png)

(3.64 MB 1728x3024 Inpaint_00018-1328.png)

(3.73 MB 2016x2592 Inpaint_00034-5422 v2.png)

(3.04 MB 1872x2736 Inpaint_00001-1343 v2.png)

Otra actualización semanal de SD, preferí llevarlas todas a ReForge el cual por cierto su DEV parece que ya esta dando señales de vida, también debo decir que si bien el adetailer es más automático, a veces simplemente es mejor hacer Inpaint directo al área, que si bien es un modelo muy AI Slob todas las versiones "B" de NovaFurryXL me dan muy buenos resultados para el Inpainting aunque en Txt2Img deja que desear, ya si me acuerdo supongo que trataré de refinar las imágenes de NovelAI que tengo, aunque el texto será un problema considerando el VAE de SDXL.
(2.97 MB 1728x3024 Vpred 1.0_00005-4300.png)

(3.13 MB 1728x3024 Vpred1.0_00015-2330.png)

(3.95 MB 1728x3024 00007-5931.png)


(4.35 MB 2016x2592 Inpaint_00020-3102.png v3 F.png)

Por poco se me olvida actualizar semanalmente, pero he estado ocupado, estas son algunas de las que logré terminar, hace tiempo que no hacía tres personajes en SD después de mi decepción con el manejo de tres personajes en NovelAI, sigue requiriendo Inpaint y alguna que otra ayuda de edición externa pero al menos no me costó tanto obtener la base de este trío como quería.
(1010.46 KB 1024x768 00179-2912.png)

(939.71 KB 1024x768 00181-2913.png)

(1.14 MB 1024x768 00186-3225.png)

>>13774 Se agradece tu continua actividad pese a lo abandonado que esta este tablon lol En mi experiencia los resultados de generar mas de un personaje y que estos conserven sus caracteristicas individuales y no se mezclen dependera de cuan bien reconozca el modelo a esos personajes, aqui por ejemplo estas imagenes que genere ayer, Marisa y Reimu se distinguen bien la una de la otra, la tercera imagen por otro lado se suponia debian de ser dos personajes de Sailor Moon pero no ha quedado, de todos modos guarde el resultado porque me ha parecido interesante.
>>14594 ¡Y muchas gracias a usted por seguir aquí! Supongo que la pasión por aprender a usar la IA murió con Colab en aquel entonces y veo que todos en todos lados se acostumbraron a los servicios de IA por tokens (dónde uno no aprende mucho) y aprender SD por Colab mediante notebooks se volvió algo muy de nicho, trate de promocionar el tablón un par de veces, pero veo que no funcionó. >dependera de cuan bien reconozca el modelo a esos personajes, En parte tienes razón, porque el modelo tiene que ser lo suficientemente inteligente o tener suficiente conocimiento para reconocer distinguir y diferenciar diferentes personajes, pero un modelo no puede reconocerlo todo, muchos datasets de modelos open source están capados hasta Octubre de 2024 (excepto el nuevo Animagine que llega a enero de este año) y si bien no necesité Regional Prompter para esta pic de Makima x Miku x Canela (aunque algunos ejemplos de al inicio del hilo), esta extensión sigue siendo la mejor para obtener múltiples personajes sobre todo sí hay un LoRa (o más), que curiosamente Regional Prompter funciona mejor solo en interfaces basadas en A1111 que en ComfyUI, aunque claro más personajes, más detalles igual más necesidad de arreglos o inpaint lo cual lleva a más tiempo o proceso, lo cual sigue siendo necesario.
(433.05 KB 512x640 00109-5409.png)

>>14596 a ti tambien el collab te esta dando problemas de out of memory?, hoy a cada rato me esta marcando ese error y tengo que reiniciar el entorno. No se si tenga algo que ver con el cambio visual que le metieron, ahora aparece al pestana de extras al inicio en lugar de txt to img y francamente es molesto, a veces por costumbre le pico y pego texto donde no es kek medio que puedo generar imagenes con baja resolucion pero en cuanto le subo arriba de 1000 px se queda sin memoria y se desconecta.
>>14599 >Colab out of memory No en lo absoluto y lo sigo usando a diario, es raro lo que me cuenta, pero claro depende de qué notebook estemos hablando además de que uso la GPU de Kaggle. Yo hace poco estaba testeando un nuevo notebook (de hecho tiene más de un año pero me di cuenta hace poco kek) con ReForge y funciona todo, no conozco al creador pero esta firmado como WhiteZ y la interfaz luce como pic related 2 y 3. En mi caso hay que que ponerle los argumentos: "--theme dark" (sin comillas) para activar la interfaz oscura. Aunque note que si activas Control Net ProMax es un crash instantáneo es mejor evitarlo descargar los Controlnet Lite son varios pero para esta sesión solamente use uno. En cuanto a rendimiento es bueno, lo primero que hice fue llevar una imagen a 1728x3024 así que las resoluciones no son un problema. Eso sí se tarda un poquito más en generar a esta resolución tan alta que otro notebook con ReForge que tengo, pero imagino que tiene que ver con los argumentos del notebook. Estaba así de cerca de mudarme definitivamente a SwarmUI si no fuera por su falta de adetailer sería perfecto para mí, a veces admito que usar Colab se siente como pic related 1 pero me reconforta cuando logro hacer que algo funcione como hoy, eso sí no te recomiendo cambiar el resto de argumentos por el momento, salvo que quieras activar el tema oscuro, pero en fin disfrútalo: <Colab de WhiteZ_ReForge en español: https://colab.research.google.com/drive/1D6IugnTKaiPVHyr9-NerZWHJHojlqlUv?usp=sharing&authuser=1#scrollTo=nY422RKvb_xf
(854.62 KB 1152x768 00011-0622.png)

(1017.07 KB 1152x768 00001-0013.png)

(844.21 KB 1152x768 00021-1325.png)

(759.87 KB 1024x768 00202-3731.png)

>>14601 yo siempre uso este que creo que tu dejaste en el hilo anterior a este y no es hasta ahora que me dio esos problemas. https://colab.research.google.com/github/gutris1/segsmaker/blob/main/notebook/Segsmaker_COLAB.ipynb#scrollTo=1rU4mCbvPpzs Dejo un par de Lains que genere hoy y una Ougi con un Lora que entrene hace unos dias. Todas tienen algun desperfecto pero el estilo quedo bastante bien
>>14602 Se me olvidó preguntarte que UI especifica estábamos hablando, pero supongo que estamos hablando de ReForge, aunque cuando te respondí ayer se me olvidó decirte que el día anterior estaba enseñándole a un amigo a usar Colab con ese Notebook de Segsmaker, siempre les enseño primero a todos a usar A1111 debido a que es la interfaz padre de los Forks basados en esta UI y ahora mismo es como el Windows 7 de las interfaces de IA, esta obsoleto pero todavía corre algunas cosas, además la mayoría de extensiones funcionan en A1111 (ya volveré a tocar este tema) y bueno no había notado ningún cambio tampoco. Revisando el Github de Panchovix de ReForge parece que al fin hizo una actualización y ahora luce diferente, creo que debería ser reForge2 ahora. Chequeando los logs de actualización el notebook de Segsmaker ya debería estar arreglado, ReForge main-old debería ser el ReForge principal (al que estamos acostumbrados) y también cambiaron los argumentos de Forge Classic ahora no debería quebrarse al usar tres LoRA's al mismo tiempo (suelo usar Forge Classic para Inpaint). Aunque yo use el ReForge del notebook de WhiteZ ayer y no noté ningún cambio en la interfaz. Y a diferencia del notebook de Segsmaker (que te pase primero) todas las extensiones de la UI de ReForge funcionan, Mahiro, Kohya HiResFix, Regional Prompter, Forge Couple el ya mencionado Control Net, etc. Así que ya no me dan ganas de usar ese notebook de Segsmaker al menos no en Colab, excepto quizás por SwarmUI ya que como punto positivo, tiene la función de poder montarse en la memoria persistente de Google Drive así que al menos tiene esa ventaja además de las versiones del notebook de Sagemaker y la versión encriptada de Kaggle, así que sigue siendo útil.
(1.24 MB 768x1152 00125-3147.png)

(1.20 MB 1152x768 00095-0543.png)

(1.36 MB 1152x768 00014-4302.png)

>>14603 Pues el problema se resolvio solo fue algo de una sesion parece, ni idea del porque, hubiera sacado captura de la UI pero no se me ocurrio hacerlo ni modo >tiene la función de poder montarse en la memoria persistente de Google Drive tengo rato de no hacer eso, sobretodo porque tengo algo lleno mi drive ya jaja Dejo un par de una mona que si alguna vez viste animax tal vez se te haga familiar.
>>14610 Como le explico, básicamente el notebook esta conectado al repositorio de ReForge, en ese plazo de tiempo que lo uso hubo una actualización de parte del DEV de la UI que estaba usando (que ahora es la rama principal) ahora esta resuelto ya que ReForge esta separado en una rama diferente (ya van 4 Forge kek) y ahora el notebook esta configurado para instalar todo lo que proviene de esa rama separada, yo tengo acceso a los logs del notebook y eso fue lo que pasó, pero, le recomiendo mucho más el notebook de WhiteZ, si quiere una experiencia con ReForge plena, ya me cercioré que todo funciona, un día de estos de estos subo ejemplos, solo me arrepiento de no haber conocido ese notebook antes. Me alegra que ReForge haya vuelto pero no volvió como quería, kek. >Animax No, si bien viví cosas como el cambio de Fox Kids a Jetix pero no viví Animax. Pero gracias a Yandex descubrí que es de Vandread. Como hoy fue un día ocupado, dejo algunas de mis imágenes de NoveAI siempre digo que las voy a pasar por SD pero siempre se me olvida kek, y veo que las yeguas están de moda de nuevo.
(43.69 KB 554x554 images.jpeg)

Negros... ¿Podrían ayudar a un nuevín a iniciarse en todo esto de las IAs de monas chinas. Estoy en el cero absoluto, o bueno, digamos que en el 5 de 100 por saber mínimamente usar chatgpt. Esto también lo hago para en caso haya alguien más que sea nuevo poder citarles estos posts y que aprenda desde el principio. O bueno, no sé si ya hayan hecho alguno donde pueda ayudarme. En este momento no cuento con laptop pero sí con Tablet. ¿Qué necesito saber primero? ¿Con qué modelo empiezo? ¿Qué galerías puedo usar para entrenar modelos y esas cosas,? Les estaré agradecido y publicaré el proceso de transición de 0 a IAnon aquí.
(2.42 MB 2048x2048 Inpaint_00014-0423.png)

>>14626 Hola y bienvenido a lo que queda de los hilos de Hentai Diffusion, trataré de responder a sus preguntas y dudas, de ante mano le advierto que hay mucho texto. >¿Qué necesito saber primero? Tratamos de aprender y disfrutar de Stable Diffusion (SD) y sus variantes, compartimos nuestras imágenes, hallazgos y/o recursos, tips o trucos también, gracias al regreso de SD a Google Colab hoy día es más fácil que nunca usarlo en GPU en línea que ya básicamente se ha vuelto algo de nicho, pero al menos nos da la seguridad de que no vuelva a haber un segundo baneo a Colab, debe durar como 4 horas gratuitas y se recarga a diario, pero lo importante es que es lo real, no tiene censura y le permitirá familiarizarse con el entorno. De resto diría que se trata de tener intuición, paciencia y cierto nivel de entendimiento con el modelo/interfaz que estés usando. Pero recuerde, lo más importante es divertirse. >¿Con qué modelo empiezo? Estamos usando modelos (se les llama checkpoints) Open Source basados SD (aunque gracias a un amigo puedo usar NovelAI que es privativo) pero SD siempre permite más control, hoy día la comunidad anime de IA gira entorno a SDXL 1.0 con IllustriousXL y NoobAI-XL como sus ramificaciones más prominentes hubo un tiempo dónde Animagine y Pony reinaban en los modelos anime pero eso quedó en el pasado por no decir que SD 1.5 también esta súper obsoleto pero junto con SDXL permanecen como los únicas arquitecturas realmente open source de la IA generativa de imágenes actualmente, mis dos modelos favoritos son Noob Vpred 1.0 e Illustrious V2 aunque no los recomiendo para novatos, pero estoy seguro que puede encontrar un modelo basado en Noob/Illustrious más fácil de usar. Aunque a veces uso Animagine 4.0 Zero debido a su dataset más actualizado y uno que otro modelo fusión de vez en cuando. Tenga en mente que no todo es compatible entre sí, incluso dentro de la misma arquitectura, ya sea de SDXL a Pony, de Pony a Illustrious o incluso de Illustrious a Noob es una ruleta rusa a veces. Ya ni hablar de que SD 1.5 y SDXL son totalmente incompatibles entre sí, descargue los modelos con compatibilidad correcta y se evitará una mala pasada. >¿Qué galerías puedo usar para entrenar modelos y esas cosas,? Para los modelos a gran escala estos usan Danbooru y E621 (furry y western) como datasets para entrenar modelos pero aquí nadie tiene el nivel de computación para eso, kek, aparte de esos dos, el usuario promedio que entrena LoRA estos usan Gelbooru o Pixiv, por su facilidad de uso ya que Danbooru limita los tags que puedes buscar a dos (al menos E621 no hace esto), también podrías usar Kemono para encontrar pics que normalmente no encontrarías en otro lado de equis artista/creador de contenido, aunque imagino que algunos resuben material de ahí a Rule 34 aunque el sitio es mierda. También esta Sankaku pero he visto que muchos odian ese sitio. Siempre hay fuentes alternativas para encontrar imágenes de un personaje y/o estilo. Aunque por ejemplo si un personaje tiene suficientes apariciones en un anime o serie puedes tomar capturas de pantalla de este y entrenar un LoRA en base a este personaje, pero, he notado que modelos de LoRA entrenados solo con capturas de pantalla de anime tienden a ser más rígidos y menos versátiles que LoRa de personajes entrenados con más variedad de estilos en su dataset, así que estas sacrificando variedad por fidelidad al personaje. Hablando de capturas de animación también esta sakugabooru pero tiene un muy pobre sistema de etiquetado (tags) para encontrar algo especifico. También puede aportar a Danbooru artistas que le gusten y muy a larga quizá con esperanza estos terminen en un dataset de un modelo mayor, pero se beneficia mucho en aprender a etiquetar imágenes en Danbooru e investigando tags para usar en SD. De resto si ha llegado leyendo hasta aquí, le dejo los dos notebook que uso actualmente. Por lo general recomiendo más aprender primero a usar A1111 antes que las otras UI (interfaz de usuario) aunque en lo personal la que más recomiendo es ReForge del notebook de WhiteZ, ReForge no solo esta más actualizado que A1111 y le permitirá usar más modelos como las variantes Vpred de SDXL con las que A1111 no es compatible además de que el ReForge de este notebook sí funciona al 100 %. Nada más necesita conseguir un token de CivitAI que simplemente le ayudará a descargar modelos directo a Colab y es gratuito, guarde el código API en un archivo de texto. Cualquier duda o pregunta sigo activo. <NoteBook Múltiple cinco UI a instalar (En Inglés) https://colab.research.google.com/github/gutris1/segsmaker/blob/main/notebook/Segsmaker_COLAB.ipynb <Notebook de WhiteZ ReForgeUI uno solo (En Español) https://colab.research.google.com/drive/1D6IugnTKaiPVHyr9-NerZWHJHojlqlUv?usp=sharing&authuser=1#scrollTo=4pPmJGsR_wPL
(251.29 KB 800x1280 Screenshot_20250820-121929.jpg)

>>14627 Mis kekes, a ver, ya que dices que esto está muerto y necesita de actividad voy preguntando paso a paso para no perderme porque hay muchísimas cosas que no entiendo. Primero, ¿Reforge es mejor para Tablet o funciona en todas las tostadoras? Y apenas entro a la interfaz y ya estoy perdidísimo... ¿Qué cosas debo activar y cuáles no? Por ejemplo en las primeras 4 casillas que están en la screenshots... Solo puse lo de la interfaz más amigable en celular pero luego no he tocado nada.
(99.73 KB 1238x884 ReForgeUI.png)

(219.23 KB 387x771 CivitAI.png)

(78.65 KB 788x680 Codigo Api CivitAI.png)

(81.34 KB 1214x612 Argumentos.png)

(94.41 KB 899x590 3 enlaces.png)

>>14628 Si negrito, antes eramos muchos ahora apenas somos dos activos, aunque al menos ahora estamos un tablón más visible y fácil de conseguir que antes, aunque se me olvidó revisar ayer. >¿Reforge es mejor para Tablet o funciona en todas las tostadoras? No exactamente, verás el notebook de WhiteZ esta configurado con unas celdas opcional para celulares y usarlo más fácil en este, la interfaz de ReForge (pic related 1) imagino que debe re-escalarse bien en Tablet, el caso es que los modelos IA requieren una GPU NVIDIA con mayor VRAM posible para correrlos. PERO, para eso tenemos Google Colab si bien su uso diario esta limitado a cuatro horas, le permitirá correr todo en línea, gratis sin gastar recursos locales, sin censura y encima el servicio de GPU NVIDIA T4 esta especializado en IA y es perfecto para correr tanto checkpoints de SD 1.5 y SDXL, aunque también ReForge esta caracterizado por ser más ligero u optimizado que A1111. Además ya viene pre configurado con lo más básico, yo siempre gasto 10 minutos en configurar A1111 como me gusta. Para PC de muy bajos recursos solo se recomienda ComfyUI y no creo que quieras usarlo en tablet nunca. Todo en A1111 y ReForge es más intuitivo. Primero que nada ve a CivitAI hazte una cuenta, es gratis. Luego como muestro en pic 2 y 3 vas a la rueda dentada del perfil de usuario y al fondo podrás conseguir el código API guárdalo en un archivo de texto, solo necesitaras uno solo >¿Qué cosas debo activar y cuáles no? La primera celda que dice <"Colab Activo en el celular" Es totalmente opcional al menos en mi caso que uso PC. Después sigue la celda: >"Instalar Reforge y alguna extensiones" Obviamente es necesaria. Hay una celda que dice para tener una interfaz más cómoda en el celular es 100 % opcional. <Descarga VAE Opcional pero si puedes descarga el SDXL VAE fix <Descarga upscaler Opcional pero los tres que trae son buenos, usa Anime_Sharp para imágenes tipo anime. <Descargar Cotrolnet union ProMax NO descargar y no funciona realmente. <Controlnet Lite 100 % opcionales y funcionan >Descargar modelos El notebook trae 13 modelos a descargar por defecto puedes seleccionar uno de ellos. Te recomiendo usar un solo modelo por sesión. >Descargar modelos personalizados Celda opcional pero prefiero descargar los modelos que me gustan aquí el token de CivitAI va ahí debajo de la celda de la URL. <Descargar Loras Drive, Civitai o Hugginface Opcional pero una sesión de SD sin loras es como pizza sin queso, te recomiendo decidir que loras usar antes de iniciar para que no estés descargando a lo loco en plena sesión. >Inicia la webui El propio nombre te dice que hace, Pic 4 muestra los argumentos por defecto del notebook notarás que le hice una pequeña edición y agregué "--dark theme" (sin comillas) para activar el tema oscuro, después de que todo se haya instalado correctamente te deberán aparecer un par de enlaces para entrar a la interfaz WebUI de SD como pic 5 generalmente el mejor enlace es el de Gradio también hay una alternativa para iniciar con el tunel de Zrok pero es 100 % opcional. Ya después te pones a generar en SD y vas guardando las imágenes que generas ten en mente que este notebook tiene una celda para conectar las imágenes directamente a Google Drive y para descargarlas todas en un ZIP (opcional) pero una vez terminada la sesión tendrás que hacer la instalación de nuevo, pero no tarda mucho. Eso sí hay notebooks que te permiten montar todo SD en Google Drive como memoria persistente y así no tener que hacer toda la instalación desde cero pero yo ya estoy acostumbrado a hacerlo así. Sé que es mucha información pero es fácil e intuitivo y ya he enseñado a varios a usar Colab así. >Solo puse lo de la interfaz más amigable en celular pero luego no he tocado nada. Tenías que instalar la UI de ReForge primero luego la interfaz para celular.
(188.09 KB 832x1216 70453093.jpeg)

Bueno negros he regresado, hablo en plural porque veo que tenemos un nuevo anon por aqui en horabuena ya no somos dos nada mas kek Es de mi amarga desagrado informar que hace unos pocos dias, tuvo un problema muy grave con un malware que se instalo en mi computadora, robo todas mis credenciales y encima de eso corrompio mi windows dejando con una pantalla azul, he tenido que formatear y perdi muchas cosas incluyendo algunas imagenes que genere con este mismo lora >>14610 y otras de Vandread y algunos archivos safetensors sin respaldo aparte del todo el cagadero que ha sido ir cambiando contraseñas y monitoreando la actividad de mis cuentas cruzando dedos. Quien sabe, tal vez el hijo de puta este lurkeando por aqui. >>14626 Hola negro, muy sospechoso ver a alguien nuevo justo cuando alguien me hackeo eh?, no me hagas caso ando muy esquizo y paranoico de todo desde entonces. >>14627 extendiendo a lo que dijo este negro, recomiendo modelos basados en Illustrious en mi experiencia los que mejor calidad y estabilidad poseen, Pony XL puro o y variantes en cambio son un quebradero de cabeza por algo llamado scores que determinan la calidad de la imagen pero son complicados de usar si estas empezando incluso para mi que use ese modelo por meses . >>14628 kek valiente en usar collab en movil, yo tenia uno con poca ram y a cada rato me recargaba la pagina perdiendo lo que tenia escrito , aunque si tienes algo mejor no deberias tener problemas.
(3.29 MB 2304x2304 Inpaint_00008-478231244.png)

>>14633 Hola, lamento que haya tenido que pasar por eso, a mi me surgieron unos cuantos problemas muy personales que prefiero no mencionar acá. Así que he tenido menos tiempo y menos ganas para generar pero al menos puedo seguir dando un poco de consejo y/o orientación, yo a la mayoría les enseño a usar lo básico del notebook una o dos veces y después dejo que encuentren su propio camino. Si bien prefiero modelos base o "vainilla" (Animagine, Noob e Illustrious) ya que aparte que no tengo tiempo ni las ganas de probar muchos modelos ya que lo que conozco me dan los resultados que quiero, hoy día sé que lo más recomendable es darle un modelo más básico a un novato. HassakuXL no me pareció nada mal y su versión 3.0 salió hace relativamente poco el 21 de julio. Creo que un problema de los elitistas es que quieren tirarle un modelo como Noob Vpred con ComfyUI sin lora a un novato esto sería el equivalente a tirarle Arch Linux a alguien que quiere iniciarse en Linux kek. U obligarles a usar Hugginface en lugar de CivitAI (tengo que admitir CivitAI es bastante mierda pero es lo más fácil) . También probé Prefectious XL NSFW pero ya tiene 8 meses de haber salido, igual no me pareció tan malo, quizás debí haber recomendado uno de esos aunque no son lo que yo usaría a diario. Lurkeando conseguí un par de repositorios extra ya que CivitAI es muy pro censura, conseguí un sitio que resguarda todo lo borrado de CivitAI es como un baúl de los recuerdos: >CivitaiArchive / CivArchive (archivo de modelos borrados) https://civitaiarchive.com/ >CivitasBay Modelos IA por Torrent https://civitasbay.org/ >DataDrones (también por Torrent pero parece más orientado a LoRA) https://datadrones.com/ Y eso es todo por el momento.
(142.70 KB 1216x832 Origenes.jpeg)

(143.96 KB 1216x832 Al infierno se va.jpeg)

(243.12 KB 1216x832 Tercera, grata sorpresa.jpeg)

>>14629 >Controlnet Lite ¿Y esos que hacen o qué? Me puse el lineart anime Denoise solo porque sonaba bonito y decía anime, pero ni idea de para qué son... >Modelos ¿S-Sugerencias? ¿Qué hacen los trece? Me puse el Nova anime XL solo porque es el que más me llamó la atención... ¿Qué significa el XL por cierto, veo que muchos lo tienen en el nombre... >modelos personalizados Y eso como lo hago, veo que tengo que poner un URL pero no sé de dónde lo saco o dónde ponerlo ni como usarlo para empezar, ¿Qué es un token de Civitai? Dice quede ser uno azul o algo... >Potros y Conducir o Xenomorpho Lo mismo de arriba, ¿Cómo hago eso? >aldo Ya tengo cuenta en Civitai, como un anon perdido me puse a generar, tomé el primer modelo (Pony Diffusion XL) que me gustó, el primer Lora que me interesó (Penis Worship) y le di a generar... Como me esperaba, una verga en el primer intento kek... Desde ya "Cartoon, Western y Cómic" se van a la basura y jamàs saldràn del infierno de promts negativos, aún con todo salió mejor el segundo. El tercero me tomó por sorpresa, hizo algo que me gustó màs rápido de lo que esperaba... No he generado mucho màs con esa interfaz... >aldo 2 ¿Hay alguna manera correcta o general de escribir promts? Por lo general hago como los tags y pongo una o máximo tres palabras juntas, pero no sé si pueda escribir párrafos como con GPT. Sé que entre más te explayes y especifiques es mejor pero sé poco de tecnicismos artísticos como para hacerlo tan bien kuek >aldo 3 ,¿Qué es un pony y en qué se diferencian los nombres de los modelos? Los únicos ponys que conozco son la burras de colores. >>14633 Hola, soy el nuevo. >Malware Ya me entró miedo, ¿Cómo o quién te la metió tan doblada, negrín? >Paranoico No sé ni usar una simple IA y voy a estar sabiendo hackear, me tienes mucha estima, anon >Illustrious ¿Qué es eso? Recuerda, de 0 a héroe... >Valiente Es que es una tablet de esas que se defiende en ese apartado, solía generar con mi celular pero dudo que sea lo mismo, aparte que me quiero quitar las cadenas del SFW de una vez. También la conseguí por descuento en temu así que no sé qué tanto sea de potente. Aún no tengo mi laptop.
(87.17 KB 1036x818 CN Opciones.jpg)

(32.89 KB 1152x896 Depth Anything V2.jpg)

(837.26 KB 1152x896 00006-1058.png)

(859.76 KB 1152x896 Canny Invert.png)

(1.75 MB 1728x1344 00015-2110.png)

>>14636 Hola y bienvenido de nuevo, quise responder más temprano pero tuve tres apagones, me alegra que haya logrado instalar el notebook de Colab siguiendo mis indicaciones trataré de responder sus dudas lo mejor posible ya que veo que quiere aprender. >Controlnet Lite / ¿Y esos que hacen o qué? Vamos por partes, los Control Net o CN para abreviar son como su nombre indica, herramientas que le permiten tener más control al momento de generar sobre las poses y/o composición de su imagen. No se van a activar por si solos kek. Hay muchos para muestra un ejemplo viejo, pero sirve, en el fondo hay una opción que te permite abrir control net, ponlo en "enable" subes la imagen y si lo tienes configurado como Pic Related 1 entonces CN "leerá" y le ayudará al modelo a seguir la pose (o la composición dependiendo del CN) de esa imagen que subas, por ejemplo yo quería una imagen de Izutsumi lamentablemente me di cuenta tarde que el modelo no la reconocía sola y me dió pic related 2 (un error), pero, no quería perder la idea de esta imagen así que la pase de vuelta por CN con Depth Anything v2 entrenado en anime + LoRa de personaje y después de un poco de paciencia, más control net, refinamiento e inpainting logré obtener la imagen que quería de Izutsumi. Ahora bien te preguntaras porque uso CN ProMax en pic related y te recomiendo CN Lite, bueno simple, el notebook viejo que usaba estaba más optimizado para usar CN ProMax que son muchas herramientas de CN en un solo archivo (más cómodo) mientras que el notebook que te recomendé tiene varios CN en diferentes archivos, pero Colab da suficiente espacio para usarlos. Obviamente "lite" significa que son más ligeros u optimizados pero al costo de que vengan en varios archivos separados, el punto es que los probé y funcionan igual de bien. >S-Sugerencias? Esto lo estaba discutiendo con el otro negro, quizás debí haberle recomendado un modelo como Hassaku XL cuya versión 3.0 salió hace relativamente poco y esta bastante orientado al anime. >Hassaku XL (Illustrious) 3.0 https://civitai.com/models/140272?modelVersionId=2010753 >¿Qué hacen los trece? Cada modelo puede estar especializado en algo distinto ya sea que haya modelos especializados en 3DCGI, en Fotorealismo, en anime, en contenido western, cartoon, furry, etc. Cada modelo puede tener sus pros y sus contras, pueden tener mejor o peor conocimiento, pueden tener mejor o peor adeherencia al prompt, mejor o peor entrenamiento, es cuestión de probar y conseguir uno que se adecue a sus necesidades. Veo que la selección de modelos del notebook es semi decente y todo pueden usarse en ReForge. > ¿Qué significa el XL por cierto Como su nombre indica XL viene de EXTRA LARGE o sea extra grande. Y es que cuando salió XL este pesaba 13 GB pero afortunadamente lograron reducirlo a 6 GB además de ser mucho más grande en todos los sentidos que SD 1.5 (estos modelos apenas solían pesar 2GB) algo en lo que estaba 100 % correcto el antiguo OP de estos hilos es que todos nos mudariamos a SDXL y efectivamente XL es el meta actual de los modelos de IA generativa de anime. El cual si bien es una arquitectura que ya tiene sus años todavía se le puede sacar jugo a XL. >Y eso como lo hago, (?) Es sencillo va a CivitAI copia y pega el enlace ya sea de la URL del navegador o de la flechita azul al lado del pulgar de calificación del modelo y este descargará el modelo el modelo directo a su carpeta correcta de SD en Google Colab. >Qué es un token de Civitai? El código API o Token de CivitAI le permitirá descargar los modelos que tienen una restricción de edad o que necesitan cuenta de CivitAI para su uso, de nuevo nada más copia y pega el código API/Token de CivitAI en su respectiva celda y el notebook hará el resto. Si se fija en el código del notebook notará que tiene enlaces de Hugginface que no necesita token (a no ser que tenga un repositorio privado) ya que no tiene restricciones. Pero como le comentaba al otro negro, CivitAI aún con todos su problemas es más fácil de navegar y encontrar recursos que en Hugginface. >Nova Anime XL Si revisa el código del notebook notará que la versión que descarga es la v8 mientras que el desarrollo actual del modelo ya va por la v10, ojo, no siempre en la IA más nuevo ≠ a mejor pero igual es algo a tener en cuenta y no solamente este limitado a lo que trae el notebook por defecto y pueda experimentar más a gusto. >Potros y Conducir o Xenomorpo Vas a tener que reformular bien esa pregunta, no entendí nada, kek. >PonyXL Justamente lo que dije que ya no se usa, y sobre todo no se lo recomiendo si quiere evitar el contenido western, ojo, no soy detractor de Pony ni del contenido western, pero esta cayendo en deshuso y en el olvido. De nuevo, hoy día todo gira en torno a Illustrious y Noob. >¿Hay alguna manera correcta o general de escribir promts? Si, tags de Danbooru son algo más preciso y conciso que el lenguaje natural. Limítese a lenguaje natural en modelos anime dentro de lo mínimo posible y piense en tags de Danbooru cuando vea una imagen. Un ejemplo correcto de cómo componer tu prompt en un modelo anime sería así: "1girl, black hair, black jacket, black pantyhose, black skirt, blazer, blurry, blurry background, breasts, bright pupils, crossed legs, feet out of frame, halo, hand on own thigh, holding, holding pen, indoors, jacket, large breasts, long hair, looking at viewer, miniskirt, monitor, on chair, pantyhose, pen, red eyes, sitting, skirt, solo, straight hair, sweater, very long hair, white pupils, white sweater," Así describes lo que tiene el personaje, sus características, proporciones, su ambiente, su vestimenta, fondo, pose, que tanto se verá del personaje y qué no (los pies fuera del marco) etc, ya después tú decides que más va en los prompts positivos y negativos, si añadir más o menos, aparte de los típicos prompts de calidad ya sea masterpiece, best quality o worst quality, low quality. Yo lo que siempre hago es recomendarle a la gente que vaya a Danbooru e investigue tags estos incluso tienen una wiki pero nadie hace eso kek, así que lo que hago es recomendarles este etiquetado automático trae muchos modelos pero por lo general uso dos, el que viene por defecto y el eva02-large-tagger-v3 para cuando realmente quiero la mayor cantidad posible de tags de una imagen. Básicamente "leerá" la imagen por usted y le dará sus tags. >WaifuDiffusion Tagger (Etiquetador automatico <Creo que el notebook de ReForge lo trae en las pestañas de extensiones https://huggingface.co/spaces/SmilingWolf/wd-tagger Se me olvidaba existe un rango calificativo de si una imagen es lasciva o no, si escribes "general" en positivos estas técnicamente bloqueando todo el contenido NSFW de tu resultado final. Si escribes "sensitive" estas permitiendo un contenido ligeramente subido de tono a tu prompt. Si escribes "questionable" aumentará el contenido lascivo, "Explicit" ya es porno. Si escribes "nsfw" o "explicit" en negativos también bloquearas gran parte de contenido NSFW a tu resultado final, etc. Usa el rating de imágenes a consciencia dependiendo del resultado que quieras. >¿Qué es un pony y en qué se diferencian los nombres de los modelos? Volvemos a Pony y las ramificaciones de modelos, verás SDXL es un modelo grande y se le ha logrado entrenar en diferentes ramificaciones. En este caso PonyV6 fue entrenado por un western para contenido Furry, NSFW y lo adivnaste My Little Pony, kek. Fue el meta por un buen tiempo, si bien el modelo siempre estuvo orientado más al contenido western supongo que le puedo dar crédito de que ayudó a mucha gente a salirse de SD 1.5 el caso es que Pony debido a un error de entrenamiento esta tan frito que sus loRAs puede que no funcionen en otros modelos que no estén basados en el PonyV6 original. Afortunadamente llegó Illustrious y la comunidad lo prefirió como el nuevo meta, digamos que no voy a extrañar la era Pony, kek. >y en qué se diferencian los nombres de los modelos?
[Expand Post]Bueno, en CivitAI pony tiene el simbolo de un caballito, Illustrious esta marcado como "IL", NoobAI-XL esta marcado como "NAI" (esto puede causar confusión con "NovelAI", SD 1.5 esta marcado como "SD 1.5", SDXL como "SDXL" y así, es para guardar registro de qué se basa cada modelo y no te confundas al momento de usar loRA en estos, por ejemplo si bien NoobAI-XL esta basado en Illustrious si usas un LoRA de Illustrious en NoobAI Vpred tienen problemas notables y es que la brecha de entrenamiento entre ambos modelos es demasiado grande. >Illustrious /¿Qué es eso? Responderé esa pregunta por el otro negro, Illustrious es el meta actual de los modelos de generación de imágenes tipo anime y a diferencia de Pony es un modelo verdaderamente diseñado por y para el anime. Y que curioso los mejores modelos con estilo de anime open source siempre vienen de países asiáticos, en este caso Illustrious es de Sur Corea, Illustrious es un modelo SDXL avanzado, con mucho mejor entrenamiento, un dataset mucho mayor y mejor adherencia al prompt. Si bien la V01 se volvió absolutamente uno de mis modelos favoritos, NO lo recomiendo para novatos. Y bueno creo que eso es todo, si tiene alguna duda o algo más sigo aquí.
>>14637 ¿Qué tal, negrín? Solo quiero decirte que no me he muerto, solo he andado ocupado. Y pues no pude activar la WebUI no aparecía el Link que me llevaba a la otra página como tú decías. No sé si sea por hacerlo en tablet, por ni ponerle modelos o loras personalizados o porque simplemente soy tan autista que ni lo vi. El punto es que las imágenes que mostré las generé en civitai con su interfaz. Tenía bastantes créditos acumulados sin hacer nada... Pero ya me quedan muy pocos y es molesto así que volveré a intentar cuando esté libre... En fin, te dejo con lo mejor que saqué de esas andadas.
(2.20 MB 1152x2016 00008-1305.png)

(1.98 MB 1536x1536 00024-2147.png)

(2.38 MB 1536x1536 00026-5049_v2.png)

(2.26 MB 1536x1536 00018-4503.png)

(2.74 MB 1248x1824 00015-3165759517 v2.png)

>>14646 ¡Hola de nuevo! pues sí están mejores que los resultados que mando la primera vez, tanto anatomía y tienen menos ruido, pero siguen teniendo ese look indistinguible de Pony que de nuevo afortunadamente ya esta en deshuso, además de muchos artifacts. Si bien el NSFW representa apenas el 5 % de mi generaciones al menos los modelos de Illustrious (pic related es de la v01) me convencieron de dejar de usar Pony para NSFW que era el único fallo que sentí que tenía Animagine en su día y el NSFW sentí que era el único atractivo que le veía a Pony así que al menos Illustrious y Noob combinan ambos mundos para mí, le recomiendo experimentar con modelos más nuevos basados en Illustrious y/o Noob así tendrá un rango más amplio de estilos con que experimentar y pueda lograr resultados más expresivos y/o con ilusión de movimiento sí así lo prefiere. Dejo algunos resultados un tanto reciclados de cuando estábamos ocultos en otro tablón.
Esto no es lo que tenía planeado subir pero digamos que voy a tener menos tiempo para usar SD me han surgido unas dificultades, por suerte sigo teniendo acceso a NovelAI sé que no es lo más ideal ya que el tema es usar SD y los modelos IA Open Source pero todavía sigo pensando en pasarlas por SD WebUI aunque al menos pude usar el equivalente al HiResFix que tiene con el crossover de Urumi x Cathyl aunque NAI tiene unas cuantas opciones un tanto ocultas para sacar un mejor resultado y es en parte debido a que es un juguete con esteroides y tiene que ser lo más amigable posible con el usuario.
No he posteado nada por aca ultimamente dado que no me he encontrado de animos, pero dado que soy de los pocos anons en este hilo me siento en la obligacion de postear algo aunque no sea mucho. Hoy he intendado hacer una Medb de Fate GO con la expresion del panel de manga adjunto, logre resultados mas bien decentes luego de varios intentos con img2img y Controlnet.
(1.32 MB 832x1216 00012-186162269.png)

(1.26 MB 832x1216 00021-1286878856.png)

(1.22 MB 832x1216 00041-3834225888.png)

(1.35 MB 832x1216 00045-643470471.png)

(262.92 KB 832x1216 5WXHN49VRDS0WJDT8MCR08M5P0.jpeg)

>>14647 Hola, negrín, aquí el novato de nuevo. Hasta ahora he estado generando y copiando el estilo de artistas que me gustan con la webUI. Es un mundo totalmente provechoso del que me alegro haber entrado, y no solo para el porno pero es parte de lo que hace a la IA ser la IA. El caso es que ya he vuelto a la civilización desde mi rancho meado y por fin tengo mi laptop de vuelta. Nada del otro mundo pero no es un armatoste. Y pues algo que me molesta es el límite de tiempo que da la UI con Grados... Así que es probablemente que deba descargar los modelos y volver mi tostadora mi nuevo edén. ¿Qué cosas debo descargar exactamnete y no son virus rusos? Si te preguntas qué haré con el espacio porque cada modelo pesa mínimo 6GB, pues me pedí un disco duro portátil de TB, por lo que el espacio no es ningún problema. Eso quería saber, además de ir preguntando las cosas que hay en la interfaz, como la cantidad de pasos (steps) y por qué entre más haya, más deforme sale el resultado y así. Te dejo con los mejores resultados que obtuve. >>14654 Hola, negro, soy nuevo. ¿Cómo hiciste tus picas? Imagino que photoshop o algo para los diálogos pero me refiero al modelo.
(4.10 MB 1728x3024 00006-1808054666.png)

>>14659 Hola negro, no eres el único que se encuentra falto de animo, mi situación ha sido difícil y digamos que mi oficina ahora es un asadero, así que me es más difícil concentrarme para usar SD así que quizás termine reciclando más pics como las del pasado martes 26 que son de hace casi un año. Esta sí es más reciente a cambio pero no es la sesión semanal que quería subir. Generalmente hacer Img2Img después de Control Net es lo mejor que puedes hacer, ya que así no se nota tanto la imagen base y te libras de artifacts del control net, aunque también pudieras crear las poses tu mismo en equis programas de edición o hacer un sketch para que la IA lo siga con el control net, a veces hago eso, muchas de mis imágenes favoritas use Control Net para lograrlas, lo único malo es que Colab por su poca RAM tiende a crashear más con el control net, pero creo que a veces puedo usarlo 8 a 10 veces seguidas antes del crasheo. >>14661 Experimentar con estilos es uno de mis aspectos favoritos de la IA, gracias a los modelos Illustrious que son capaces de fusionar estilos y no son tan dependientes de LoRA's. También me gusta descensurar de vez en cuando con Inpaint. >Y pues algo que me molesta es el límite de tiempo que da la UI con Grados Bueno, tengo una alternativa, hay otro servicio de GPU en línea que le puedo enseñar a usar es igual de fácil que Colab pero es ligeramente riesgoso, se llama Kaggle ofrece 30 horas de GPU mensuales totalmente gratuitas... pero, esta censurado (algo malo tenía que tener) el chiste es que el notebook esta encriptado para que no lo baneen yo llevo mi cuenta 100 % intacta por más de un año usándolo, dicho esto no voy a negar que sí he conocido a varios con la mala suerte de ser baneados ya que la encriptación no es perfecta, pero el servicio vale la pena el riesgo, solo necesita su numero de celular para verificar la cuenta, así que recomiendo que Colab siga siendo el principal y Kaggle la alternativa, generalmente si espera un día o dos Google Colab le recarga las seis horas gratuitas. >¿Qué cosas debo descargar exactamnete y no son virus rusos? Es una pregunta ambigua, generalmente descarga modelos de CivitAI y Hugginface son sitios seguros dónde suben recursos de IA, hay muchas extensiones. Por ejemplo los modelos checkpoint, VAE y loRA suelen terminar en extensión ".safetensors", los adetailer que uso suelen terminar en ".pt" y los upscaler suelen terminar en ".pth" Aquí arriba mencioné más sitios: >>14634 pero admito que no los he probado. Generalmente estos sitios son seguros: <Modelos upscalers para HiResFix https://openmodeldb.info/models/4x-NomosUni-span-multijpg <Adetailers que uso ignore que dice "unsafe" si lo fueran me hubieran baneado hace tiempo https://huggingface.co/Anzhc/Anzhcs_YOLOs/tree/main <Control net lite (los mismos del notebook) https://huggingface.co/bdsqlsz/qinglong_controlnet-lllite Etc, pero esas son las herramientas que uso. >como la cantidad de pasos (steps) y por qué entre más haya, más deforme sale el resultado Esto se puede deber a que el modelo esta sobre leyendo demás la orden (el prompt) cuando voy a SD lo mínimo de steps que suelo usar son 28 y lo máximo a 40 steps, a veces uso 30 y a veces uso 32 steps. Generalmente estos días no salgo de esos números en Text2Img o Im2Img. Es gracioso porque en Inpaint es lo opuesto y más steps suele ser beneficioso uso como entre 50 a 80 steps en una sesión de Inpainting. Ojo si bien más steps no significa más calidad, yo he tenido buenos resultados a 60 steps en el pasado haciendo Txt2Img múltiples veces, pero puede depender tanto del modelo y/o configuración que use. >Hola, negro, soy nuevo. ¿Cómo hiciste tus picas Un muy buen amigo me tuvo lastima ya que soy pobre y me dio la oportunidad de usar NovelAI simplemente prestándome su cuenta con un par de reglas, odio decirlo ya que es un modelo privativo pero es que el servicio es simplemente así de bueno manejando texto y muchas cosas, el texto no esta al nivel de Chat ojete 4 pero es algo que no podemos alcanzar en SDXL debido a problemas de entrenamiento del modelo base lo único similar que tenemos en el open source de buen manejo de texto sería FLUX pero el entrenamiento de Flux nunca llegó a nada (y curiosamente los de NAI admitieron usar VAE de Flux para su modelo actual), tengo muchas imágenes de NAI V4.5 de sus dos versiones pero prefiero subir mis sesiones de SDXL ya que que esa la idea de estos hilos. Aprender a usar la IA open source que al final siempre será más versátil y sin censura y con menos restricciones. Así que para SD la única opción sería añadir el texto tu mismo con un programa secundario. Lamento no haber respondido antes a ambos, estaba ocupado.
(1.48 MB 832x1216 00001-2410379440.png)

>>14662 Estoy fuera así luego me explayo, pero me refería más bien al programa para correr la generación de imágenes, recuerdo haber leído alguna vez que recomendaban algunas para tener la interfaz en la PC pero el recuerdo es borroso cuanto menos... >Flux ¿Con lo de generar texto te refieres a generar historias o algo así? No te entendí muy bien. ¿Y cuanto cuesta la NovelAI para tenerlo como opción aunque soy pobre. >si esperas un día o dos Ese es el problema, cuando me llega la inspiración o algo que quiero probar el peor sentimiento es el de "no te quedan creditos", es como ir a una cabina y cuando vas de pro en GTA te digan que tu medio hora acabó. Aunque no es tampoco el fin del mundo. El caso es que sí apreciaría saber usar el Kaggle como opción a costa del número. Simplemente me consigo otro como el Dun. >gpu ¿De qué son esas siglas? >aldo Antes de que me olvidé otra vez, en la UI, dice que el controlNet Máx o algo así "ya funciona", ¿es verdad? O lo sigo dejando si activar...
(2.34 MB 1024x1024 4o Image Gen 1-Reisen.png)


(1.21 MB 832x1216 NAI v4.5 Full s-3709212716.png)

(1.27 MB 1024x1024 Flux Texto.png)

(1.97 MB 1536x1536 Texto SDXL.png)

>>14664 >pero me refería más bien al programa para correr la generación de imágenes, Bueno en ese caso hay varias interfaces para correr SD dependiendo de lo que tenga, el viejo A1111 esta obsoleto y lleva actualmente un año sin actualizare, afortunadamente ReForge volvió a las andadas y esta mucho más optimizado y actualizado, el DEV es Chileno. Creo que esto debería seguir funcionando, si tiene una maquina lo suficientemente poderosa podría correrlo. <nstala Stable Difussion WebUI Local y cualquier otra UI con un Click! (ir a Releases y descargar el archivo .exe) https://github.com/LykosAI/StabilityMatrix?tab=readme-ov-file >¿Con lo de generar texto te refieres a generar historias o algo así? No, no me refiero a los modelos de lenguaje, los modelos actuales de generación de imagenes pueden manejar dialogos de texto y algunos hasta infografía, el mejor que he visto es Chat GPT 4o, el segundo mejor es Google Gemini, le dejo varios ejemplos de imágenes recicladas excepto Gemini y NAI de cómo diferentes modelos manejan el texto, en este caso la peor manejando texto es SDXL pero claro ni Chat ojete y ni Gemini le van a dar una oppai loli haciendo una turca, kek. En este caso el texto que maneja es una sola palabra y el nombre del personaje "IB" en el fondo. >¿Y cuanto cuesta la NovelAI 25 dolares al mes, lo uso a diario y se ha vuelto una valiosa herramienta para terminar mis imágenes ya sea que este dentro o fuera del servicio de GPU. Aunque tiene algunas limitantes odiosas como los tokens de mierda, pero al menos como servicio de generación de imágenes tipo anime, no tiene censura. Lo privativo vs open source se resume a potencia vs versatilidad (este es el lado del Open Source) >te digan que tu medio hora acabó Comprendo el sentimiento, aunque si quiere, use esta aproximación que le funcionó a un amigo, use Colab un día si, el día siguiente descanse Colab y planee lo que que generar para el próximo y que LoRA, personajes u extensiones o estilos que vas a usar. Así tendrás seis horas seguras y repites lo mismo al día siguiente, mi amigo esta complacido con este proceso y no necesita otras GPU. Aunque le digo que muchas veces se me ocurren buenas ideas que por no poder abrir la GPU cuando yo quiero (ya sea por trabajo u otros) simplemente se me olvidan. > sí apreciaría saber usar el Kaggle Perfecto, este es: <Kaggle https://www.kaggle.com/ Haga una cuenta, verificarla con su numero y yo puedo guiarlo mediante la instalación del notebook (aunque es básicamente lo mismo) Para mí hoy día el combo de Colab + Kaggle es más que suficiente, aunque antes usaba otro servicio de GPU. >¿De qué son esas siglas? Graphics Processing Unit o Procesador de gráficos por unidad recuerdo que el antiguo OP nos dejó poco después de que se consiguió su RTX 4060 TI de 16 GB de VRAM aunque en esa época SD 1.5 todavía era relevante pero le debió haber salido bien la inversión. >controlNet Máx o algo así "ya funciona", ¿es verdad? Ehhh... 50/50 como le comentaba al otro negro Colab ofrece muy poca RAM (no confundir con VRAM) así que ProMax tiende a crashear más que el otro Control Net Lite (en este no necesite cambiar nada), puedes quitar los argumentos "cuda stream, cuda malloc y pin shared memory" y agregar el argumento: --lowram pero sino te sientes confiado o no sabes que hacen esos argumentos mejor solo agrega --theme dark al inicio para no quedar ciego, Control Net es una herramienta muy valiosa y que me encanta pero por el momento creo que es mejor que no te compliques mucho ya que apenas estas iniciando.


Forms
Delete
Report
Quick Reply