/ais/ - Artificial Intelligence Tools

"In the Future, Entertainment will be Randomly Generated" - some Christian Zucchini

Index Catalog Archive Bottom Refresh
+
-
Name
Options
Subject
Message

Max message length: 12000

files

Max file size: 32.00 MB

Total max file size: 50.00 MB

Max files: 5

Supported file types: GIF, JPG, PNG, WebM, OGG, and more

E-mail
Password

(used to delete files and posts)

Misc

Remember to follow the Rules

The backup domains are located at 8chan.se and 8chan.cc. TOR access can be found here, or you can access the TOR portal from the clearnet at Redchannit 3.0 (Temporarily Dead).

Ghost Screen
Hilda Anniversary Marathon


8chan.moe is a hobby project with no affiliation whatsoever to the administration of any other "8chan" site, past or present.

Use this board to discuss anything about the current and future state of AI and Neural Network based tools, and to creatively express yourself with them. For more technical questions, also consider visiting our sister board about Technology

(2.32 MB 1824x1248 00039-5733.png)

(2.18 MB 1728x1344 00005-4133.png)

(2.89 MB 1536x1536 Illlust_00034-0315.png)

(9.02 MB 1536x1536 Illust Final 00032-3449.png)

(6.04 MB 2016x2592 Noob_00065-1046.png)

Hentai Diffusion General #17 Dobles y Triples Anonymous 01/21/2025 (Tue) 22:45:01 No. 7104
Decimoséptimo A este punto no hay mucho que decir, el otro hilo estaba muy congestionado y solo somos tres apenas, que dure lo que tenga que durar. El tema será poner de dos a tres personajes en una sola imagen, sí pueden. Hilo anterior: >>980 Recursos >Etiquetado automático si no te ocurren prompts https://huggingface.co/spaces/SmilingWolf/wd-tagger >Instala Stable Difussion WebUI Local y cualquier otra UI con un Click! (ir a Releases y descargar el archivo .exe) https://github.com/LykosAI/StabilityMatrix https://lykos.ai/ <Alternativa EasyDiffusion https://easydiffusion.github.io >Herramientas de GPU en línea <Sagemaker (4 horas de GPU en línea gratuita) https://studiolab.sagemaker.aws/ <Kaggle (censurado 30 horas de GPU gratuito semanal) https://www.kaggle.com <LightningAI (22 horas gratuitas al mes) https://lightning.ai >huggingface Spaces https://huggingface.co/spaces >COLAB SD FOOOCUS (solo permite usar JuggernautXL por corto tiempo) https://colab.research.google.com/drive/1OG-t4snVisfZoMcmRCPmgJjjtwdJCIIj >Recursos: Modelos, Prompts, LoRas, Hypernetworks y Embeddigs/Textual Inversion https://civitai.com >Guía: Como crear Datasets especialmente cuando tienes pocas imágenes https://spainias.notion.site/Como-hacer-LORAs-con-muy-pocas-imagenes-Consejos-y-Tips-1d65bea1379047ccad243c35eb3980f0 <XL Lora Trainer by Hollowstrawberry https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Lora_Trainer_XL.ipynb <Dataset Maker (taguea las imagenes automáticamente) https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Dataset_Maker.ipynb <Tutorial LoRA para PonyDiffusion (Jewtubo) https://www.youtube.com/watch?v=fF5CDySZw3o[Embed][Embed] <AutoTrain DreamBooth https://colab.research.google.com/github/huggingface/autotrain-advanced/blob/main/colabs/AutoTrain_Dreambooth.ipynb <Kohya LoRA Trainer XL https://github.com/Linaqruf/kohya-trainer/blob/main/kohya-LoRA-trainer-XL.ipynb >Colab: Entrenamiento de LoRa https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Lora_Trainer.ipynb >Colab: Creación de Datasets https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Dataset_Maker.ipynb >Recurso: Modelos ControlNet 1.1 https://github.com/lllyasviel/ControlNet-v1-1-nightly >Prompt Generator https://huggingface.co/spaces/Gustavosta/MagicPrompt-Stable-Diffusion
[Expand Post]>Guía para cambiar estilos con Img2img https://medium.com/@alickwong/transfer-your-image-to-cartoon-style-in-stable-diffusion-d466565ae18a >Boooru AI para Furros https://e6ai.net/ >Booru AI para anime https://aibooru.online >Páginas Web judías dónde generar imágenes: <Ideogram (casi igual o mejor que Dall E 3 tiene ligera censura) https://ideogram.ai Krea.AI (genera imágenes en tiempo real) https://www.krea.ai/ <NovelAI (pago) https://novelai.net <PixAI https://pixai.art <TensorArt https://tensor.art/ <Yodayo https://yodayo.com/ <Nemusona https://waifus.nemusona.com/ <Holara.ai: https://holara.ai/ <Leonardo.AI https://app.leonardo.ai/ <seaart (censurado) https://www.seaart.ai/
(4.43 MB 1872x2736 00038-1847.png)

(6.29 MB 1872x2736 Noob_00038-1847.png)

(1.78 MB 2592x2016 00001-4839.png)

(2.66 MB 2592x2016 Illust_00001-4839.png)

(2.47 MB 1248x1824 Illust_00041-4512.png)

Para comenzar a estos hilos, un par de sesiones de Inpaint de los modelos NoobAI V-pred e Illustrious, la primera es una recuperación que hice de un fallo que tuve con AutismMix (modelo basado en PonyV6) de hace un tiempo. La segunda es una imagen que generé con Illustrious v0.1 del tres nekomimi de Touhou que iba a publicar en el hilo anterior, el estilo chibi hizo que no costara tanto. La última son dos personajes de Umamusume ya que el anterior hilo era de pelirroja/pelinaranjas y Silence Suzuka es una, pero el arreglo de Inpaint fue de hecho mínimo, poder usar usar Control Net es muy útil en estas ocasiones.
(1.55 MB 768x1344 00001-3302279764.png)

(959.28 KB 768x1344 00003-2755947211.png)

(935.68 KB 1344x768 00004-2755947211.png)

(523.76 KB 1152x896 00005-2821249869.png)

(1.02 MB 896x1152 00008-3775323027.png)

Algunas pruebas RAW (sin refinar) recién salidas del nuevo AnimagineXL 4.0 que esta próximo a salir. Lo use hasta que me quedé sin tokens, probé que no reconoce del todo a algunos personajes como Mercy pero considerando que la 3.1 fue mi modelo anime favorito antes de Illustrious estoy inclinado a que me guste el nuevo "Anim4gine". Pero me hizo sentir nostálgico.
(1.50 MB 1248x1824 00038-4943.png)

(1.45 MB 1248x1824 SmoothC_00005-0003.png)

(2.22 MB 1248x1824 00018-5145.png)

(3.07 MB 1248x1824 SmoothC00008-5403_v2.png)

Si bien modelos más recientes (basados en Illustrious y NoobAI) son mucho mejores manejando dos y tres personajes al mismo tiempo por si solos (como ya he probado), seguí practicando el Regional Prompter en un modelo Pony de confianza aunque un poco obsoleto. Resultado más personajes = Más Inpaint. A no ser que descubras el orden del adetailer con el comando [SEP] para separar las detecciones, es más cómodo hacer Inpaint directo a los rostros, lo malo es que si el modelo no trae Inpaint incorporado tocaría descargar otro (de SD 1.5 que son más ligeros) y ahí ya hay que tener en cuenta el límite de espacio del servicio que se usa, también el sampler DDIM es bastante útil para Inpainting pero malo para todo lo demás. También si usan RP deben dividir la fuerza de los LoRA por cantidad de regiones de imagen, ejemplo, si haces 2 regiones, el LoRA ira a 0,5 si haces cuatro regiones el LoRA irá a 0,25 y así.
(2.48 MB 1344x1920 00000-5921.png)

(1.99 MB 1152x2016 00008-5621.png)

(3.11 MB 1344x1728 Ani4gine_00032-3548.png)

(1.57 MB 1344x1728 00010-0542.png)

(2.14 MB 1248x1824 Ani4gine_00028-0702_v3.png)

Después de 8 horas de testeo del nuevo AnimagineXL 4.0 y sin entrar en tecnicismos... no es mejor que NoobAI ni Illustrious pese a su dataset mayor y más actualizado, pero me gusta como modelo y la experiencia fue mucho mejor en GPU que en ese servicio en línea tokens que sí acaso me hizo recordar porqué los dejé en primer lugar. Aunque he de admitir que personajes como Jane Doe los reconoce mejor sus pantimedias asimétricas que el propio Noob, dejo algunas de mis imágenes.
(2.12 MB 1152x2016 00000-0715.png)

(1.99 MB 1248x1824 00012-1826.png)

(2.04 MB 1248x1824 00028-3343.png)

(2.00 MB 1248x1824 00035-1504.png)

(2.74 MB 1152x2016 Anim4gine_00006-4248_v2.png)

Algunas peliverdes fit que generé con el nuevo AnimagineXL, veo que no esta teniendo la repercusión que tuvo el 3.0 y 3.1 pero supongo que es de esperarse ante la gran cantidad de modelos nuevos que han salido en más de 300 días desde su última versión. De resto me encanta y no he tenido los problemas otros usuarios comentan.
Disculpen mi ausencia legitamamente me habia olvidado de pasar a comentar el hilo. Sigo utilizando Illustrious, en especial ahora que los Loras que usaba en Pony fueron borrados de Civitai. En los ultimos dias he estado generando hojas de personaje quiero hacer un OC valiendome unicamente de imagenes generadas con Stable Diffusion, si mi experimento funciona lo comentare por acá, de momento mi Lora de Tite Kubo funciona de maravillas para hacer Tomboys, tal vez se deba a que muchas imagenes del dataset eran personajes masculinos con el cabello corto?. Hoy desempolve mi vieja cuenta de SageMaker, la que aun tiene instalado SD 1.5 dios mio se siente tan arcaico KEK
(3.17 MB 1344x1920 Illust_00003-3801 v2.png)

(2.12 MB 960x2304 Ilust_00007-0233.png)

(1.24 MB 1824x1248 00041-5359.png)

(2.90 MB 1248x1824 Illust_00017-1720.png)

(2.90 MB 1728x1344 Illust_00008-3604.png)

>>7110 Yo también volví a Illustrious y es que la versatilidad que tiene sigue siendo superior. Eso sí no tengo el tiempo ni la energía de probar tantos modelos como antes. >dataset eran personajes masculinos con el cabello corto Es posible, por ejemplo si te fijas el tag de "ciloranko" (artista) este afecta positivamente los ojos de las imágenes que lo uses. O mezclar artistas de femboys de E621 como Paperclip y Jeniak (si el modelo los tiene en su dataset) dará mujeres con piernas bastante delgadas en Noob. Así que no me sorprende que el estilo de Tite Kubo se preste para lindas tomboys. >Sagemaker Llevo unas semanas sin usarlo y es que si bien mis mejores sesiones son ahí, es que no lo puedo usar a gusto, no por lo de tener suerte para la GPU si no que me da un problema de Out of Memory Cuda muy seguido en A1111 y como ReForge no funciona bien no me dan ganas de instalarlo tampoco, es gracioso porque Colab que da peores recursos esto no sucede, kek. A veces siento que debería dar el salto a ComfyUI pero luego recuerdo que sería un dolor en las bolas. >1.5 dios mio se siente tan arcaico No te miento negro, me sentí así también cuando regrese a Pony para las practicas de Regional Prompter, aunque todavía tengo un par más de esas que quizás publique más tarde. Dejo más de mis experimentos en Illustrious, y mucha suerte con su OC.
(3.36 MB 1152x2016 Noob_00002-5140.png)

(3.22 MB 1152x2016 Noob_00013-2842_v2.png)

(2.30 MB 1152x2016 00012-1024.png)

(3.04 MB 1152x2016 Noob_00015-4542.png)

(1.62 MB 1152x2016 00008-4510.png)

Primera vez que pruebo la opción de refiner, es básicamente tener dos modelos al mismo tiempo, pero a cierto punto de la generación (en este caso el 80 %) cambia al otro modelo para terminar de refinar la imagen, por suerte tanto Colab y Kaggle manejan bien esto, y la diferencia de velocidad es mínima como 10 segundos más en generación. No he probado en Sagemaker. Ahora el problema sería decidir que modelos serían buenos como Refiner, ya que las probabilidades son muchas, en mi caso use NoobAI V-pred 1.0 como base y con Noobai-Cyberfix-V2 (vpred) para refinamiento. Eso sí, el modelo base + refiner + modelo de inpaint XL ya son 18 GB, en Kaggle no tuve problema con esto. Otro problema en mi caso es el propio Reforge ayer no podía usarlo más de una hora sin que crasheara y hoy pude usarlo casi 4 horas sin problemas, se ha vuelto una interfaz inconsistente. En fin recomiendo usar Noob con este método en ReForge o ComfyUI, y dejaré los modelos refiner recomendados también (o los pudieran probar normal por separado) >NoobAI (NAI-XL) Vpred 1.0 https://civitai.com/models/833294?modelVersionId=1190596 >Modelos refiner https://civitai.com/models/1080969?modelVersionId=1213874 https://civitai.com/models/975798?modelVersionId=1308914 https://civitai.com/models/1165170/vixons-noob-illust-merge https://civitai.com/models/1161909/knk-noobicomp https://civitai.com/models/1000708?modelVersionId=1272871
Ultimamente Google collab no me dura tanto supongo porque lo estoy usando demasiado seguido en una sola cuenta lol, tocara desempolvar el otro correo gmail. Dejo un par de Hispitas que hice o al menos eso intente kek
(4.92 MB 1872x2736 Noob_00008-0708.png)

(2.27 MB 1152x2016 00002-0909.png)

(2.16 MB 1248x1824 00003-1227.png)

(2.21 MB 1248x1824 00004-1538.png)

(2.24 MB 1248x1824 00008-4720.png)

>>7113 >tocara desempolvar el otro correo gmail. No lo recomendaría, estaba usando Colab con el correo de un familiar desde otra PC que tengo a la izquierda y me desconectaron rápido. Igual con mi otro correo en la PC que siempre uso. Aunque bueno, yo tengo la ventaja de tener tres servicios de GPU (hay más pero no conozco notebook de instalación para estos). Casi nunca uso Colab más de una vez al día y las pocas veces que he tratado de conectar la GPU más de una vez ha sido durante interrupciones (meme apagones o trabajo), así que le recomendaría más alternar entre Colab y Sagemaker. Dejo algunas pokeputas + mini crossover con Shantae (pensaba publicarla antes), tengo más de Jasmin e Iono, el refiner es fantástico, pero solo lo use desde pic 2 a 4, aún no he probado llevar una imagen con Refiner a una resolución tan grande, pero los crasheos de Reforge me tienen loco, casi termino cerrando la GPU antes de tiempo por cansancio.
(3.11 MB 1536x1536 00000-4421.png)

(2.13 MB 1248x1824 00001-5252.png)

(2.21 MB 1248x1824 00002-0514.png)

(1.91 MB 1344x1728 00003-1628.png)

(2.51 MB 1152x2016 00005-3254.png)

Gran drama con el lanzamiento de Illustrious v1.0 que por cierto estaba esperando con ansías. En resumen si lo iban a liberar dentro de 30 días para descargar de forma gratuita pero la comunidad armó un berriche y lo filtraron de nuevo, kek. Hubo una gran fallo de comunicación entre OnomaAI y la comunidad IA (la cual me decepciona cada vez más), casi se mandan un SD 3.5 pero debo decir que el resultado de Illustrious V1.0 me ha encantado, los que dan reseñas negativas es por puro ardor y el servicio de CivtAI no es el mejor para correrlo tampoco, pero después de dos horas de testeo si me parece mejor que el v0.1, la mayor ventaja es que esta entrenado en resoluciones base de 1536x1536, etc, por lo tanto puedes tener una buena imagen sin necesidad de HiResFix, el manejo de estilos sigue siendo bueno, dataset más grande y actualizado a Junio de 2024 y la anatomía es un tanto mejor, solo me dio problemas la imagen de Falin y porqué pedí la versión quimera, la de Chen fue la única que use doble adetailer, pero todas son RAW. Me pareció kekeante que los usuarios estaban llenando la pagina de Illustrious de dedos medios así que me puse a generar algunos, pero no porque odiara el modelo (ni lo que hicieron)
(2.58 MB 1152x2016 00004-3113.png)

(2.45 MB 1728x1344 00009-4522.png)

(1.15 MB 960x2048 00018-1241.png)

(2.05 MB 1344x1728 00026-5125.png)

(1.55 MB 1344x1728 00023-4141.png)

Salvo la de GawGura estas ya no son tan RAW, pero es de la misma sesión de Illustrious de ayer, creo que otro de los problemas, aparte de la mala comunicación con la comunidad es que se tardaron mucho en liberar Illustrious v1.0 y ya hay mejores modelos como NoobAI-XL Epsilon 1.1 desde hace un tiempo (pero hay que usar Reforge para este), aunque en parte entiendo porque hicieron esto de bloquear la descarga ya que les filtraron la 0.1 tres días antes del lanzamiento gratuito oficial, pero al final les hicieron lo mismo pero 29 días antes, kek. Me gusta el hecho de que las resoluciones bases sean más altas, es más cómodo y si Reforge no funcionará tan mal en GPU en línea pudiera llevar una imagen base de 1248x1824 directamente a un HiResFix de 1872x2736 sin tener que pasar primero por una resolución de 832x1216 (más tardado) así que me alegra que los modelos SDXL estén dejando atrás las resoluciones más bajas de base, la única resolución que no probé fue 1536x2048. Ahora solo hay que esperar la v2.0 con su dataset de 20 millones de imágenes.
(984.15 KB 768x1152 829814817473771186.png)

(679.42 KB 768x1152 829815916985426301.png)

(898.47 KB 768x1152 829815414474238278.png)

(749.59 KB 768x1152 829815916985426302.png)

(966.67 KB 768x1152 829814817473771187.png)

Imágenes de Bismarck en lencería roja para conmemorar San Valentín y su fecha de lanzamiento >>7116 La última pic no es la enfermera del Maken-Ki? Creo que se llamaba Nijou sensei. Otra cosa: hay una database de cual tiene a todos los personajes que se pueden generar efectivamente sin necesidad de Lora y que no sólo sea de Pony Diffusion (Illustrious, SDXL, FLUX)?
(2.15 MB 1152x2016 00017-5913.png)

>>7117 Si, es Nijou Aki de Maken Ki, fue la que me dio más problemas ayer, su rasgo más reconocible es el doble ahoge o antenna hair que tiene en la parte de atrás de la cabeza y ni siquiera esta etiquetado como tal en el 99 % de sus imágenes, una vez desnuda pudiera pertenecer a cualquier H. >y una database de cual tiene a todos los personajes que se pueden generar efectivamente sin necesidad de Lora Un poco ambigua la pregunta, lo que mejor pudiera recomendarle es NoobAI-XL basado en Illustrious, su dataset de la versión Epsilon es de 12 millones de imágenes y 16 millones para la V-Pred y con ambos datasets de E621 y Danbooru, pero igual no se va a salvar de la necesidad de usar LoRA, es gracioso que reconoce un personaje con apenas 127 como Nijou Aki y no reconozca a un personaje con más de 900 pics como Itzutsumi o más de mil como Brazilian Miku, pero esto ya se debe a mal etiquetado o no suficientes pics en solitario de los personajes. De no ser por mis problemas con ReForge me hubiera mudado a la V-Pred hace mucho pero estoy contento con lo que puedo hacer con Illustrious, incluso intente usar por primera vez ComfyUI para Noob con un workflow sencillo pero solo encontré frustración en descargar los nodos que faltan en un bucle infinito. En el hugginface de los creadores de Noob incluso nos dieron una lista tanto de personajes, artistas y prompts recomendados para personajes. Pero recuerde, así este en la lista, no siempre significa que lo vaya a reconocer (como el estilo de Tite Kubo que le cuesta) https://huggingface.co/datasets/Laxhar/noob-wiki/tree/main Otra alternativa sería el nuevo Animagine (que ya sacaron una versión optimizada que voy a probar hoy) pero solo contiene el dataset de Danbooru entrenado con 8.4 millones de imágenes, pero con la ventaja que su dataset esta actualizado a 2025 a diferencia de Illustrious y Noob que solo llega a junio de 2024 (2023 si es Illustrious v0.1) En fin, le deseo suerte con lo que decida usar.
(1.23 MB 1152x1536 00003-5951.png)

(1.52 MB 896x1536 00001-1024.png)

(1.29 MB 1536x768 00004-2428.png)

(2.72 MB 1536x2048 00009-2547.png)

(1.20 MB 2048x1536 00011-2645.png)

Algunas pruebas más de Illustrious v1.0 de hoy, no son RAW como la primera publicación, esta vez sí use resoluciones más acorde a 1536x, aunque por alguna razón la de Miku no me aceptaba la resolución de 900x1536 y siempre la generaba a 896x1536, una de las cosas malas de usar tan altas resoluciones es que a veces puede tardar desde un minuto cincuenta hasta dos minutos como con las de de Marisa y eso siendo que 1536x2048 la resolución más recomendada. Aunque lo bueno es que no es el mismo tipo de estrés que se le da a la GPU con un HiResFix y no experimenté un OutOfMemoryCuda, a la segunda de Marisa tengo que quitarle el ruido, un buen atajo que encontré es usar Img2Img con Euler A+Scheduler Type Beta y un denoise strenght muy bajo como de 2, aunque solo lo hice con la de Miku, la primera de Marisa y otra que no me alcanzó para subir, no use adetailer en esta imágenes. Iba a publicar mi sesión con AnimagineXL 4.0 Optimizado que salió hace poco pero tuve muy mala suerte con ese modelo.

(456.37 KB 1152x768 830624075211688927.png)

>>7119 cual es la diferencia entre euler y karras exactamente?, siempre dejo eso por defecto y cuando lo cambiaba no notaba un gran cambio que digamos.
(1.65 MB 1536x1080 00009-4032.png)

(1.12 MB 1280x1024 Scheduler Type Diferencia.png)

>>7120 Sin entrar en mucha mierda técnica, los sampler basados en Euler son los más básicos y rápidos, siempre dan un efecto más "suave" o hasta natural. Los sampler basados en Euler se han vuelto algo así como los reyes de los modelos anime. Ahora bien Karras (y aquí viene un poco de mierda técnica) es un scheduler / agendador, estos definen los pasos de tiempo en el que se encuentra el sampler. Karras lo que hace es ajustar la agenda (schedule) de ruido dependiendo del número de pasos (steps) y removerá el ruido progresivamente en menos pasos al final del proceso (por alguna razón Karras no es compatible con los modelos Noob) hay samplers que funcionan mejor en algunos modelos que otros. Por ejemplo para los sampler DPM (basados en DDIM) el scheduler type por defecto debería ser "Karras", para los Sampler Euler/Euler A el scheduler type por defecto debería ser "Simple", aunque en la metadata me sale solo como "Automatic". En modelos realistas siempre he notado que van mejor los samplers con schedule type así: DPM++ 2M SDE + KARRAS Ahora bien sobre los efectos pueden tener o no, a veces es un tanto imperceptible, pero es un hecho que cada uno trabaja con el ruido de diferente forma, Aquí te subo un ejemplo, la imagen de Marisa con el mini Hakkero que subí antes, logré esos efectos de partículas de luz tan solo cambiando el scheduler type de Euler A+Simple a Euler A+Beta fíjate que es el mismo sampler pero el cambio del scheduler es notable, simplemente no me preguntes que hace Beta exactamente, ni siquiera yo estoy seguro que lo haya entendido, pero en resumen ofrece un proceso de refinamiento más gradual. Traté de ser lo más sencillo que pude.
(1.52 MB 1536x768 00002-5641.png)

(1.45 MB 1152x1536 00007-3103.png)

(1.84 MB 1248x1824 00017-3844.png)

(1.17 MB 1536x640 00026-1136.png)

(2.42 MB 1536x2048 00028-1240.png)

Más de mis últimas sesiones de Illustrious v1.0, lo estoy disfrutando mucho, veo que en CivitAI ya esta disponible para usar la v1.1 pero no para descargar aún, usaré la v1.0 hasta que la liberen de manera oficial y con suerte la 1.1 será mejor que la versión anterior aunque es un hecho que su dataset es mayor, aunque ahora que lo pienso se me olvidó subir el enlace de Liberata, gracias a este no tuve que esperar un mes para usarlo ni pasar por una paywall. Sé que dije que iba a subir de mi sesión de AnimagineXL 4.0 Opt pero he tenido una suerte fatal y no precisamente porque funcionara mal, sino más bien todo sale mal cuando planeo usarlo, kek. >Illustrious v1.0 https://huggingface.co/Liberata/illustrious-xl-v1.0
(2.20 MB 1152x2016 00048-3937.png)

(2.32 MB 1152x2016 00052-4902.png)

(2.43 MB 1152x2016 00053-5208.png)

(2.14 MB 1248x1824 00028-0611.png)

(4.47 MB 1872x2736 Noob_00023-2522_v2.png)

Algunas poképutas más de mi sesión en Noob, me sobran algunas felaciones de Jasmine (Mikan) pero quise centrarme en Mei (Rosa) también aprendí a la mala que ReForge no funciona bien en Colab, en Kaggle funciona mucho mejor, aunque claro es la más potente, de hecho, ayer pude usar ReForge seis horas en este servicio sin problemas mientras que en Colab, esta UI crashea como en 15 min. Comprobé que aún con Refiner es posible llevar la imagen a resoluciones grandes tipo 1872x2376 solo tarda un poquito más de lo habitual, es preferible usar ya sea A1111 en Colab o para aprender ComfyUI si tienen el autismo tiempo suficiente para aprender esta interfaz tan compleja.
(2.20 MB 1344x1728 00010-5042.png)

(3.35 MB 1344x1728 Noob_00014-3135.png)

(3.47 MB 1344x1728 Noob_00015-3808.png)

(2.38 MB 1152x2016 00004-2204.png)

(3.04 MB 1344x1728 Noob_00035-4632-v3.png)

Más de mi sesión de Noob V-Pred 1.0 + Refiner, quise variar un poco y un amigo me pidió unas Verosika Mayday y como el modelo la reconoce eso facilitó las cosas + un par de Mei que rescate de la sesión pasada, si bien Colab se ha vuelto mi opción preferida para Inpaint he notado que este crashea al cambiar los modelos lo cual es un poco cansino si van a hacer inpainting ya que hay reiniciar la celda de nuevo, la mano de Mei sosteniendo el pedazo de pizza por ejemplo tomó como 30 minutos, lo cual es poco considerando otros Inpaint que he hecho en el pasado, aunque con V-Pred más refiner siento que mis sesiones de Inpaint se han acortado mucho.
(2.81 MB 1248x1824 Anim4gineOPT_00034-2630.png)

(2.86 MB 1824x1248 Anim4gine_00015-3920v3.png)

(2.50 MB 1824x1248 Anim4gine_00011-5435 v5.png)

(2.69 MB 1536x1536 Anim4gine_00021-2413.png)

(1.87 MB 1344x1728 00041-0729.png)

He estado fatal con los meme apagones, son diarios, dobles y a veces hasta de cuatro horas, pero dije que subiría algo de mi sesión con Animagine XL 4 OPT y aquí esta. No es un modelo que recomiende del todo, no es malo pero he notado que tiene un grave problema de reconocimiento con los adetailers lo cual significa más inpaint, pero le he agarrado cierta manía tipo modelo maldito, todo sale mal cuando lo uso; superstición a un lado, creo que el 4.0 normal no me daba este problema con los adetailers, así que solo por eso quedaría con esa versión, me duele decirlo ya que este nuevo modelo solo me dan ganas de volver a usar Animagine 3.1 y le tengo cero interés al finetune que van a sacar para SD 3 Medium de nombre Animaestro. De todas formas es mejor seguir con modelos basados en Illustrious y Noob.
Bueno, me estoy acostumbrando más al nuevo Animagine, también debo decir que pude probar la interfaz de SwarmUI en Sagemaker, tiene ciertas ventajas como que es un dos en uno, puedes usar tanto ComfyUI con los nodos y la interfaz de Swarm que sí bien cuesta un poco acostumbrase tiene ventajas como que permite incluso obtener imágenes a 1536x2688 de resolución algo que con A1111 no se puede y si bien es posible obtener estas resoluciones en ReForge, en SwarmUI funciona el control net a diferencia de ReForge que esta roto desde hace meses, SwarmUI es muy ligera y tampoco se bugea tanto como las otras dos ya mencionadas. Digo esto porque siempre ando usando una interfaz diferente para todo y siempre veo que a equis interfaz le falta algo o es incompatible ye. Así que desde hace un tiempo vengo queriendo encontrar una interfaz que lo tenga todo. En fin, dejo algunas más de mis pruebas.
(3.16 MB 1152x2016 Noob_2211.png)

(3.25 MB 1152x2016 Noob_2301_v2.png)

(3.08 MB 1344x1728 Noob_2332.png)

(3.05 MB 1344x1728 Noob_2324.png)

(2.80 MB 1344x1728 Noob_2347.png)

Algunas más de una sesión que tuve en SwarmUI con Noob:
(871.00 KB 1000x744 00099-2813.png)

(805.58 KB 1000x744 00098-2813.png)

(877.01 KB 1000x744 00089-2121.png)

(778.55 KB 704x1024 00069-0940.png)

Siento que no haya publicado nada en las ultimas semanas es solo que no creo que tenga mucho que agregar al post y he estado algo jodido de salud.
(4.61 MB 1728x2304 Illust_00029-3221.png)

(551.96 KB 1075x680 SwarmUI.png)

>>7128 Joder, que buena waifu, yo tengo los mismos problemas de siempre, sino es trabajo es la inseguridad y tener que cerrar temprano, eso o con cinco meme bajones en el día o tres apagones diarios, se me quitan todas ganas de usar la GPU. Pero mentiría si dijera que no me he estado olvidando de actualizar desde último viernes, pero sigo feliz de poder usar Illustrious cada vez que puedo y sigo tratando de aprender a usar la interfaz de SwarmUI en Sagemaker, que al menos lo sentí como un soplo de aire nuevo ante el viejo y abandonado A1111 y también con extensiones que funcionan a diferencia de Reforge. De todas formas, me alegra ver que haya pasado a saludar.
(5.02 MB 1296x2304 Illust_00008-2127.png)

(3.58 MB 1296x2304 00013-5631.png)

(4.60 MB 1296x2304 00014-0015.png)

(4.64 MB 1296x2304 Illust_00016-2439.png)

(3.64 MB 1296x2304 00018-5443.png)

Algunas más de mi ultima sesión en Illustrious 1.0 pensar que si no hubieran retrasado siete meses su salida, los modelos open source tipo anime que salieron gracias a este como Noob hubieran sido mucho mejores.
(766.17 KB 768x1152 839622744661555771.png)

(781.38 KB 768x1152 839983998655706188.png)

(415.63 KB 768x1152 839999563617011447.png)

(366.29 KB 768x1152 839995882830222938.png)

>>7129 me alegra que te guste negro, intentaba replicar a una morra de un hentai (Jk bitch ni shiboraretai) a punta de prompts y olvide quitar el el tag 'tan skin' y me arrojo a esa mona con relativa consistencia. No es exactamente lo que buscaba pero creo que quedo bastante bien.
(2.09 MB 1536x1536 00001-5532.png)

(1.52 MB 1152x2016 00003-0450.png)

(2.38 MB 1152x2016 00005-3739.png)

(3.12 MB 1344x1728 00006-5015.png)

(1.92 MB 1152x2016 00000-5919.png)

>>7131 Excelentes tetas, me encanta ese tipo de accidentes felices creo que hasta pudiera ser un OC de alguien, yo hace poco estaba usando la GPU de Kaggle que al fin tenía algo de tiempo libre diurno ya que tengo que cerrar temprano, pero justamente me pegó un bajón de luz y se me quitaron todas las ganas de seguir, solo te digo que las Marnie son de hoy y el resto de sesiones semanas a meses pasados, todas son de Noob V-pred si, acaso espero algún día poder terminar el resto. Suerte.
(1.56 MB 1824x1248 Noob_00002-0650.jpg)

(1.95 MB 1344x1728 00001-4512.jpg)

(1.49 MB 1248x1824 00002-1858.jpg)

(9.33 MB 3456x6048 Noob_2214.jpg)

(1.62 MB 1248x1824 Noob_00018-0208.jpg)

Algunas de mis sesiones de Noob que recordé que tenía guardadas, no he podido hacer nada nuevo últimamente, un poco de Inpaint en la primera, la cuarta y última. A modo de recomendación es posible hacer funcionar Reforge en Colab con el argumento de: --always-high-vram Por lo tanto el comando en Colab debería lucir más o menos así: --xformers --cuda-stream --pin-shared-memory --always-high-vram Si noté una mejora en el sentido de que ya no quiebra, no he probado este argumento en Sagemaker (que de por sí Reforge anda mejor ahí) y en Kaggle también siento que sería innecesario.
(1.28 MB 2304x1152 00011-5753.jpg)

(1.44 MB 1296x2304 00010-2322.jpg)

(2.29 MB 2304x2304 00001-1730.jpg)

(2.15 MB 1728x2304 Noob_00018-4726.jpg)

(1.60 MB 1296x2304 00013-5645.jpg)

Parece que los de Illustrious o mejor dicho OnomaAI (que ni siquiera es el creador del modelo solo la empresa) no aprenden a comunicarse con su audiencia, cada vez hay menos confianza, más drama y luego la gente odia al modelo por odiarlo y ya a pesar de qué es gratis. En mis pruebas la v1.1 de Illustrious ha estado bastante bien, solo un poco pero sentí una cierta mejora en las manos, confío en que seguirán liberando los modelos que falten, apuesto a que la 2.0 con su dataset de 20 millones de imágenes será la mejor, luego después de eso sé que hay planes para una v3.5 y v4.0 ambas con V-prediction cómo NoobAI, lo cual sin duda será interesante, simplemente espero que se queden en el camino del open source.
(1.54 MB 1344x1728 00004-1329.jpg)

(1.64 MB 1344x1728 00000-4552.jpg)

(1.40 MB 1152x2016 00005-2050.jpg)

(2.24 MB 2016x2592 Noob_00030-0958.jpg)

(1.49 MB 1152x2016 00013-4323.jpg)

Otra buena noticia ya los de NoobAI-XL han anunciado que se han comprometido en el desarrollo de Noob V2 no dijeron si era de la rama Epsilon o Vpred (o quizá ambos) pero probablemente se dieron cuenta de que los de Illustrious los estaban alcanzando en calidad, sería interesante si lo entrenaran en tope de Illustrious 1.0 y así pudiera soportar resoluciones de 1536x1536 aunque tomaría más tiempo de entrenamiento. Y parece que los de OpenAI han decido actualizar su generador de imágenes también pero prefiero centrarme en lo que la comunidad open source puede ofrecer. Dejo algunas de mis sesiones de Noob, solo la de Kasusa es de hace unos meses
(2.77 MB 1344x1728 00001-0948.png)

(2.03 MB 1152x2016 00004-1309.png)

(2.82 MB 1344x1728 Illust_00006-2836.png)

(2.80 MB 1344x1728 Illust_00008-3828.png)

(4.43 MB 1728x2304 Illust_00018-4702.png)

Un poco de mi sesión de hoy de Illustrious 1.0 lamento no estar muy activo, muchos problemas.
(1.42 MB 1024x1024 849528853712890080.png)

(1.02 MB 768x1152 849529634323186523.png)


>>7136 Perdon por la inactividad no he tenido tiempo para usar el collab y solo he estado probando cosas en Tensor Art, alguno Loras que entrene y el modelo PornMaster-Pro 色情大师 para generar imagenes mas realistas, es util para tener consistencia en ciertos detalles anatomicos en el rostro o el cuerpo si buscas una ilustracion mas semirealista.
(1.88 MB 1152x2016 00002-5324.png)

(1.56 MB 1344x1728 Noob_00001-2820.png)

(2.12 MB 1248x1824 00023-2858.png)

(6.47 MB 1920x2304 Illust_00002-5751.png)

(1.67 MB 1536x1152 00000-1919.png)

>>7137 Tranquilo, yo he estado igual aunque con otros problemas, aunque hace poco tuve que cambiar el formato a .JPG de las imágenes o sí no no podía actualizar nada. Eso sí, te recomendaría realmente que le robaras el número celular o correo a algún familiar y te hicieras una cuenta en Kaggle es magnifico tener 30 horas de GPU a la semana sin tensiones, también vi un tutorial de como instalar SwarmUI en la GPU de LightningAI (no en Jewtubo) pero soy muy torpe para seguirlo, kek. Casi no estoy probando modelos, pero, encontré una joya llamada Age of Quimeras, es un merge raro de los modelos más top, Animagine, Noob, WAI (Illustrious) y Pony, es interesante por lo mínimo, eso sí, algunos usuarios dicen que la mejor versión sigue siendo la V1 pero la V3 me respondió bien, sin quejas. Aunque me equivoqué en un pequeño detalle cuando me preguntó sobre los schedule type, el por defecto de Euler es Normal no Simple. >Age Of Quimeras https://civitai.com/models/1196007/age-of-chimeras-pony-or-noob-or-animagine-or-wai Generalmente no hago esto, pero dejo un poco de multi sesión esta vez: Noob, Ilustrious y Animagine XL 4.0 OPT en ese orden. P.D.: Me gusta como quedó la piel en tú última pic aunque no es realismo 100 % es mejor que el realismo que ofrece Noob 0.9
(719.55 KB 1200x1024 00038-4608.png)

(1.35 MB 1200x1024 00043-5306.png)

(1.33 MB 1200x1024 00033-4016.png)

(1.34 MB 1200x1024 00024-2914.png)

>>7138 Ya he intentado sin exito usa Kaggle, y no funciono. Por ahora tengo 2 cuentas de Google para alternar tampoco las uso tan a menudo asi que no me han baneado o algo por el estilo. He estado probando un nuevo modelo especializado en hacer furros pero tambien da buenos resultados a la hora de generar personajes corrientes. Algunas imagenes que genere ayer: Intente hacer a Chel Loli pero el Lora siempre forzaba esas caderas anchas de modo que en todas menos la segunda y la tercera imagen, parece mas una shortstack kek, de todos modos me gustan los resultados en especial la segunda imagen.
(997.78 KB 1024x1024 00000-4851.png)

(166.97 KB 1216x832 HYAPFJZ9DZ3SPMJ2PRDYAXGGE0.jpeg)

(148.45 KB 1216x832 G6PGNVGRG01HXRGCC4BX3Q61W0.jpeg)

(108.12 KB 1024x1024 CR8T0ZXETADD7P5CXM3XENNJ80.jpeg)

>>7139 un par de ejemplos de imagenes realizadas con el mismo modelo, anteriormente habia tenido algunos problemas generando a este tipo de personajes porque los resultados incluso en Illustrious daban resultados variospintos. Este modelo esta basado en Illustrious pero entrenadoy especializado en eso y se nota: https://civitai.com/models/1281214?modelVersionId=1445455
(1.95 MB 1152x2016 00002-0719.png)

(1.91 MB 1152x2016 00005-2622.png)

(2.82 MB 1536x2304 00000-1203.png)

(4.06 MB 1536x2304 Illust_00015-3136.png)

(3.62 MB 2304x1296 00009-4416.png)

>>7139 Una lastima que no haya podido hacer funcionar Kaggle, aunque yo casi no tengo tiempo de usar la GPU de todas formas. Hablando de servicios de GPU en línea, van a actualizar Sagemaker Jupyter Lab, pero no sé si eso es bueno o malo la verdad, llevo tanto tiempo sin usarlo que me olvide de este. >Loli Chel Me gusta la idea (sobre todo pic 2), aunque creo que a muchos no les importaría una Chel shortstack pero lo importante es conseguir lo más cercano a lo que quieres. Cuando un personaje esta muy apegado a cierto tipo de cuerpo, en este caso las caderas de Chel por lo general es mejor bajarle la fuerza al LoRA o combinarlo con otro. Estoy seguro que deben haber loras de concepto de caderas pequeñas, yo por ejemplo para las pics de Alexis Rhodes de más arriba use un LoRA de caderas pequeñas y pechos grandes para ese cuerpo tipo Chonyuu. Lo único malo es que si no tienes cuidado, te va a generar cuerpos muy largos. >LoRA: https://civitai.com/models/586675/huge-tits-tiny-hips-illustrious-or-pony-xl >Modelo furry Yo el último que use fue NovaFurryXL 6B según entendí tiene un mejor coloreado. Aquí lo dejo, pero siéntase libre de probar la versión que quiera, funciona bien para Inpainting también. >NovaFurryXL https://civitai.com/models/503815/nova-furry-xl >>7140 Yo de vez en cuando sigo generando furry aunque a veces más que nada para algunos amigos, dejo un poco de multi-sesión de mis ultimas semanas, en orden: Noob 1.0 Vpred (Dawn), Illustrious 1.1 (las más nuevas) e Ilustrious 1.0 (la última) Debo decir, se siente raro generar a Marisa sin sombrero, como un Mario sin bigote, kek.
Hola, negros, soy el anon que hace unos meses sugirió la idea de que este general tenga un tablón propio. Por la ocasión de la migración de 4chan se me ocurrió ir a conversar con el dueño de >>>/ais/ (tablón de discusión de herramientas de inteligencia artificial) y está bastante cómodo con la idea de hacer el tablón bilingüe para que hayan generales de inteligencia artificial como este o el de /hisparefugio/. Creo que esta sería una buena oportunidad para tener un lugar donde hablar de Stabble Diffussion y programas similares en español, especialmente ahora que hay un montón de refugiados de 4chan deambulando por toda la página. Valga agregar, soy un anon hispano, así que no tienen por qué preocuparse que por la barrera de idiota no entiendan sus memes.
>>7142 Bueno, yo imagine que algún día iba a llegar un cambio y justamente tuvieron que juankear 4chanclas para ello, kek. Lo único malo es que de ser tres pasamos a ser sólo dos, aunque si me gustaría continuar la tradición de estos hilos de ser posible.
>>7143 >Lo único malo es que de ser tres pasamos a ser sólo dos No tienes que preocuparte por ello. Los anons muchas veces no es que se "hayan muerto definitivamente" sino que andan ocupados con otras cosas, sea por asuntos IRL o de otros tablones. Precisamente creo que moviéndolo a /ais/ este general tendrá más visibilidad y más anons se van a sumar; ahora mismo hay un recurrente de los hilos de SD de /trash/ en el hilo de refugiados de /refugio/. Entonces voy a decirle al BO de este tablón y al BO de /ais/ para que hagan la transferencia.
>>7144 Comprendo, aunque tengo una última pregunta, por así decirlo, ¿en ese tablón están bien con el contenido NSFW? lo digo simplemente por si tengo que poner spoiler a mis imágenes dependiendo del caso.
>>7145 /ais/ no está marcado como NSFW, así que si.
>>7146 De las pocas veces que me responden tan rápido. Kek. Bueno, me limitaré a contenido más suave entonces (aunque de por sí generar NSFW nunca fue mi favorito)
>>7147 Me leíste mal, me refiero a que /ais/ es un tablón NSFW, significa que si está bien con el contenido NSFW, no necesitas subir tus lewds con spoiler.
>>7148 Ok, vale, ya me había preocupado. Poner y quitar el spoiler a las imágenes se me hace muy cansino.
Listo, la transferencia ya fue hecha. Si tienen alguna duda háganmela saber, tenemos un hilo meta aquí >>6894 pero también pueden escribirla EEH. Espero que con esto este general pueda recibir más visibilidad, también espero que puedan publicitarlo entre más anons.
(236.60 KB 1216x832 76F6AZM47DVGW7Y18CQ3PT5CV0.jpeg)

Ah nos transfiero de Tablón. Con razón no mire el hilo en /pruebas/ ya me había preocupado. Bueno yo seguiré posteando de vez en cuando supongo que para el próximo hilo tendremos qe renombrar esto como "Stable Diffusion General en Español." o " Ñ Edition" o algo así. Encontré ayer modelos para Illustratious de SMJ, tenía más de un año queriendo hacer un lora de Bloodberry/Zarzamora pero debido a tiempo no lo había hecho, a diferencia de las otras 2 no hay mucho fanart de ella asi que la única otra opción era sacar capturas de pantalla de serie y limpiarlas por lo que nunca termine el dataset. Md alegra que alguien se tomara el tiempo de hacerlo por mi KEK
(2.77 MB 1728x1344 Illust_00006-1014.png)

>>7154 Se me olvidó decir, muchas gracias, aunque estaba ocupado ayer y no se lo dije. Si es posible no sé si se puedan mover los otros hilos más viejos también, sería bueno tenerlos archivados aquí >>7713 Ahora tenemos un lugar más adecuado. Por ahora le ando haciendo Inpaint a algunas de mis más viejas imágenes de Illustrious o hacerles un upscale para una resolución más alta con Fooocus como la del post 7143 >alegra que alguien se tomara el tiempo de hacerlo por mi Así me siento yo cada vez que veo un LoRA de un concepto o personaje que me gusta, lo malo es que no todos están en el modelo correcto. Aunque si tan solo tuviera una 5090/A100 pudiera incluso hacer merge de mis modelos favoritos, los usarían cuatro gatos pero contribuiría a la comunidad. De todas formas, ya mi situación no me da para generar a gusto ni siquiera para entrenar LoRA pero es algo que me hubiera gustado. De todas formas, muchas gracias por seguir aquí, ¡ha sido un miembro valioso para estos hilos! P.D.: Pequeño edit a la imagen y respuesta más ordenada.
(178.39 KB 832x1216 t_Jca8Y858jf2BU2B3.webp)

(164.52 KB 832x1216 t_LURsHyk2L7CWTMyV.webp)

(105.40 KB 832x1216 t_9jNa8AghofX3XkkH.webp)

(199.55 KB 1216x832 t_hs6thpAfdXCGdjZK.webp)

>>7713 >supongo que para el próximo hilo tendremos qe renombrar esto como "Stable Diffusion General en Español." o " Ñ Edition" o algo así. Si actualizan el OP, quiten el link de Nemusoma pues el creador lo dejó abandonado. Algunas alternativas que encontré >Tungsten.run https://tungsten.run/ Requiere hacerse una cuenta. El máximo para generar imágenes es de 10 pero permite hacer el batch por lo que puedes generar hasta 40 imágenes. >Perchance.ai https://perchance.org/ai-character-generator Más limitado que el anterior en cuanto a funciones pero al igual que Nemusoma, no requiere cuenta y no hay límite.
Ya lo había posteado en /hisparefugio/ pero también los traigo aquí. Un par de notebooks para correr ComfyUI y SD reForge en colab, funcionan en gratuito, solo tienen que conseguir un token de civitai para poder descargar modelos y agregar los que deseen. El único problema es que en reForge no consigo hacer funcionar el Tag Autocomplete, y no se porque, con Forge tampoco funciona, tampoco es la versión de Python ni que funcione en un venv, pero del resto funciona bien. Si tienen alguna duda o tienen algún problema, solo pregunten, no soy programador ni nada por el estilo pero veré que puedo hacer. >ComfyUI https://colab.research.google.com/drive/113Vc8xHpgZpwGH13drraZD_ZCRFcZsaX?usp=drive_link >Stable Diffusion WebUI reForge https://colab.research.google.com/drive/1YstbbUzSax7mQutDXfNGgCDCHMMr2PUg?usp=drive_link ¿Y que es lo que mas les gusta hacer? A mi me gusta darle unas indicaciones muy básicas y dejar que se invente el resto >artist: minahamu,dark-skinned_female, small_breasts >artist: minahamu,1girl, dark-skinned_female, white_hair, red_eyes, small_breasts, ponytail, holding_axe, double_sided_axe, O taggear imágenes random y ver que salve >una imagen de shikanoko con un ciervo >una captura del GTA San Andreas
(6.34 MB 1792x2304 Juggernaut_00044-5929.png)

>>8313 Gracias por hacermelo notar y bienvenido, aunque la verdad ya no uso esos servicios de generación en línea, yo me centro en las GPU de Colab, Sagemaker y Kaggle, pero a lo mejor alguien más le sirve para probar. Lo último que actualice de ahí fue el auto-etiquetador de imágenes, si hay un próximo hilo los agregaré. >>8599 Muchas gracias por contribuir con notebooks y bienvenido, ya que estoy aquí bien pudiera compartir el mío. Es un todo en uno, son cinco UI a instalar, por supuesto, solo puedes usar una a la vez y necesitas el código API de CivitAI también. A veces uso SD Fooocus para obtener mejor resolución en mis imágenes que no sean de anime pero esta versión no me deja instalar otros modelos, cada upscale suele tardar como 4 minutos, pero la mayoría de las veces vale la pena. >Multi Colab (Forge, ReForge, A1111, ComfyUI, SwarmUI) https://colab.research.google.com/github/gutris1/segsmaker/blob/main/notebook/Segsmaker_COLAB.ipynb >SD Fooocus: https://colab.research.google.com/drive/1GJjtm5Umvcbw33L9QNnLpWQ9f-JwCmNb Si alguien necesita los notebook de Kaggle o Sagemaker también se los puedo pasar, pero solo puedo dar ligeras instrucciones de como instalarlos y qué no hacer en estos. >¿Y que es lo que mas les gusta hacer? Me generar imágenes bonitas como pic related, también me gusta mejorar mis imágenes si puedo mediante Inpaint, GIMP, HiResFix, adetailer o el upscale de Fooocus, aparte de los montones de monas chinas que he generado y experimentar con estilos y de vez en cuando me gusta el realismo. Un habito que tengo es entrar a Danbooru, usar la opción random y de ahí selecciono tres artistas para mezclar sus estilos en un modelo basado en Noob/Illustrious y ver que sale de la mezcla, a veces es mejor a veces es peor, a veces hay que ajustarle la fuerza a cada uno, si quieres por ejemplo pruebe este: *riku \(melty drop\), eushufeal, seika okawari*
(4.41 MB 1536x2688 00044-449004081.png)

(5.43 MB 2688x1536 00155-3714213978.png)

(3.54 MB 1536x2688 00024-1320142521.png)

Que agradable sorpresa que acaban de dar muchachos, no tenia idea que habia un hilo aqui en español para todo este mundillo. Siempre eh tenido que convivir con los gringos y aunque no es malo del todo, me gustaria que hubiera mas interesandos en esto del lado hispano >Y que es lo que mas les gusta hacer? Monas chinas unicamente, tanto SFW como NSFW
(2.31 MB 1152x2016 Illust_00026-2911.png)

Generalmente soy fan de Illustrious hasta la muerte, pero veo que el 2.0 que salió hace poco me dio muy malos resultados en comparación a la v0.1, v1.0 y v1.1 las cuales amé (la 1.0 me pareció la mejor). De todas formas voy a seguir probando. >>9213 Bienvenido, llevábamos un tanto tiempo ocultos en el tablón de /pruebas/ pero me alegra ver las contribuciones de los demás y no solo sea un archivero de mis imágenes.
(2.91 MB 1408x2688 00083-2350155915.png)

(3.28 MB 1664x2432 00169-646619398.png)

>>9230 Dare vistazos de en vez en cuando tirando images aqui, he hecho y hago bastantes cada dia pero tampoco quiero spamear porque parece que son muy poco por aqui
(3.83 MB 1728x3024 Illust_00007-0354.png)

Al final era un problema del enlace, por alguna razón la versión de Hugginface de Illustrious 2.0 que dice "stable" y el de CivitAI son diferentes. Tras dos horas y media de prueba, debo decir que responde bien así que dí un juicio apresurado, adjunto pic related. >>9275 Bueno, de la tradición de hilos de Hentai Diffusion, habíamos quedado solo dos, sin contar al Board Volunteir que hizo el favor de movernos, puedo contar al menos cuatro post de cuatro anons distintos, que es más de lo que tuvimos en mucho tiempo, así que es un buen comienzo, de todas formas haga como se sienta más cómodo, últimamente por el flujo de usuarios cuesta subir muchas pics de todas formas.
Mi mamá quiere que edite las fotos de mis gatos y los vuelva monos de Ghibli, como prefiero vender mis riñones antes de usar chatGPT voy a tener que aprender usar SD Para hacerlo.
(2.70 MB 1536x1536 00008-2459.png)

(2.57 MB 1536x1536 00013-3139.png)

(2.55 MB 1536x1536 00025-1404.png)

>>9299 >>9299 >y los vuelva monos de Ghibli Eso no debería ser muy difícil, sobre todo ahora que Colab esta devuelta y la comunidad open source se encargó de crear LoRAs estilo Ghibli GPT para Illustrious y Flux; hasta un checkpoint entero basado en Illustrious. Siempre hubo LoRA de estilo Ghibili para SD pero como ahora la gente no tiene que aprender a usarlo para obtenerlos todos pierden la cabeza, kek. Como mencionó eso de convertir una imagen a otro, lo más sencillo sería pasar la imagen por Img2Img (imagen a imagen) con una resolución manejable para SD (ejemplo 1024x1024 o similares) con un Denoise Strenght bajo o medio, mientras más bajo más lucirá como un filtro y mientras más alto será una imagen nueva. Otro método sería hacerles Inpaint, pero eso lleva más tiempo y paciencia. También creo que al menos uno de los LoRA de Ghibli GPT deben estar disponible para generar en CivitAI pero entonces tendría que mendigar por Buzz (tokens) y sería más limitado que las cuatro horas gratuitas que ofrece Colab (creo que un poco más) Ya después si quiere refinar la imagen, depende de usted, en lo personal preferí usar un LoRa en Illustrious v0.1 (base) en vez del checkpoint basado en Ghibli de todas formas, dejo ambos: >LoRA GhibliGPT https://civitai.com/models/1433257/ghibligpt?modelVersionId=1620115 >Checkpoint: Studio ChatGPT-Ghibli Illustrious https://civitai.com/models/1423079/studio-chatgpt-ghibli-illustrious Adjunto tres pic related como muestra de lo que se puede hacer con el LoRA y prompts simples, eso sí, el Clip Skip a 2 me dio mejores resultados que a 1 pese a lo que dice las recomendaciones del modelo, sé que es mucha información pero es fácil, si tiene alguna duda o algo aquí estoy.
(3.12 MB 1728x3024 Illust_00020-3920.png)

Subir esas tres pic de Reisen estilo Ghibli GPT me costó un montón por la lentitud del servidor, así que adjunto una sola pic, fueron al menos cuatro primeras horas de testeo de Illustrious 2.0, me ha gustado mucho el modelo.
a no mames, hablan español aquí :o
(4.35 MB 2016x2592 AOQ_00016-4213.png)

>>10595 Bienvenido.
Ultimamente he vuelto al SD 1.5 entrene varios Loras de estilo en ese entonces y aunque he intentado replicar algunos en Illustratious los resultados varían. Capaz porque no estoy usando exactamente el mismo dataset. La mayoría de mis Loras viejos los entrene con un máximo de 45 imágenes y un mínimo de 24 o 25 entrenar en Illustratious con un dataset tan pequeño es más difícil. En especial si quieres que entrene un estilo.
(1.23 MB 1152x2016 00002-1418.png)

(2.02 MB 1152x2016 00011-3947.png)

(2.44 MB 1344x1728 AOQ_000028.png)

(2.23 MB 1152x2016 00013-5120.png)

(2.21 MB 1152x2016 00028-1333.png)

Un poco de mis ultimas imagenes de estas semanas, parece que los chinos le han sacado competencia a Flux con HiDream, que curioso que gracias a Flux pese a ser open source solo ayudo a que la generación de imagenes en general se estancara, todo por la maldita destilación, kek. Y eso que estaba emocionado cuando salio, también parece que todos los fanboys de SD 1.5 fueron a parar a Flux. >>12960 >SD 1.5 Lo uso de vez en cuando también, al menos el notebook de Colab que pase más arriba unifico los componentes de SDXL y SD 1.5, ahora no tienes que buscar aparte el VAE ni los TI Embeddings de cada arquitectura en cada instalación, ya vienen ambos por defecto, sabes que soy un noob en cuanto a los LoRA pero la gente con la que he hablado usa 70 pics para entrenar LoRA de estilos en Colab, debería ser posible con 50 pics minimo. No sé si recuerda LightningAI pero podrías usarlo para entrenar tus LoRA ahí, eso sí son 30 horas gratis mensuales, pero al menos no gastarías tiempo de Colab, lo malo es que los tutoriales de este servicio escasean y encima esta bloqueado en mi región.
(392.22 KB 512x768 858895853115435942.png)

(446.15 KB 768x512 858895726413912640.png)

(977.98 KB 736x976 00093-4734.png)

(1.03 MB 736x976 00098-5847.png)

>>13011 Algunas cosas que he hecho en Tensor Art, me ha dado pereza entrar al collab de Google y poder saltar de 1.5 (donde tengo varios Loras hechos y me gusta jugar con ellos.) Bonita la hermana de Quatro Vaginas.
(845.40 KB 1152x768 858186568257547391.png)

(126.10 KB 1600x1290 looking-something-145112.webp)

(90.58 KB 1067x1690 low-angle-portrait-man-729701.webp)

(50.86 KB 686x386 hq720 (1).jpg)

>>13249 me a dado pereza entrar al collab y tensor art me deja saltar de Illustrious a SD 1.5 rapidamente* El anterior mensaje lo escribi como el culo kek btw han notado que cuando generan monas chinas SD tiene problemas con generar la parte inferior de la mandibula desde ese angulo (pic relatada.)
(2.26 MB 1152x2016 00014-3608.png)

(1.96 MB 1152x2016 AOQ_00009-3333.png)

(2.53 MB 1248x1824 00017-1814.png)

(1.98 MB 1536x1536 AOQ_00038-8888.png)

Un poco de mis últimas sesiones probando diferentes estilos, las primeras dos las había comenzado en SwarmUI pero las termine en ReForge porque me siento más acostumbrado a esa interfaz, todavía hay mucho en Swarm que no entiendo del todo pero me gusta, es mucho más fluido y con menos lag que las otras UI y puedo usarla sin necesidad de importar workflows de Comfy que solo me van a dar error. >>13249 Sayla es uno de mis personajes favoritos de Gundam, pero no vi Origin hasta hace poco y me llamó la atención que su etapa loli ya tenía pechos bastante grandes en la escena de la piscina, quizás por el estrés, kek. Recordé porqué me gusta tanto el personaje, todavía me falta terminar la versión sin bra y quizá hacer una topless, también me han dado ganas de generar a Machu, pero la he estado posponiendo. Creo que lo único malo de Colab (al menos en ReForge o A1111) es que la interfaz crashea al cambiar el VAE o el modelo. Así que, aunque suena bien en teoría que los dos estén incluídos, en la práctica sigue siendo un solo modelo a la vez, creo que Swarm y ComfyUI son las únicas que se salvan de esto, pero son un poco más complejas. >>13250 Probablemente algo que se solucioné con el tiempo y/o dependa del modelo que este usando. Yo por ahora solo espero que salgan los Illustrious posteriores a 2.0 y que desarrollen NoobAI-XL 2.
(539.34 KB 1152x768 860025860084739350.png)

(510.21 KB 1152x768 860028060181774330.png)

(845.42 KB 1152x768 860022919105872354.png)

(828.04 KB 1152x768 860010223182553231.png)

Ayer luego de que estuviera sin internet todo el dia me puse a jugar Soul Caliburn y se me ocurrio intentar hacer un Lora de uno de los personajes que hice en el juego. Tome varias capturas de pantalla y las use para entrenar hoy con el Collab de Google en Illustrious. Adjunto los resultados. Lo siguiente es crear un Lora solo para su mascara porque no tiene mucha consistencia en esa parte kek
(2.26 MB 1152x2018 Illust_00011-3000 v2.png)

(1.80 MB 1152x2016 Illust_00013-5638 v2.png)

(1.67 MB 1152x2016 00023-4907.png)

(1.88 MB 1152x2016 Inpaint_00009-0921-v2.png)

(614.88 KB 1195x717 AI Cows.png)

Algunas imagenes de unas vaquitas de cuando me gustaba usar Illustrious v0.1 y todavía me gusta de hecho, pero creo que las nuevas versiones son mejores aunque la penultima era de un modelo basado en Pony que se me olvidó cambiar en A1111, aunque hasta la fecha siempre veo gente que les cuesta con los modelos Illustrious y no los culpo, a mi también me costó bastante acostumbrarme, ya después de eso todas las demás versiones se me hicieron fáciles de usar, excepto la 2.0 "stable" que imagino será para entrenamientos, de resto, recuerdo que las hice por el meme de vacas IA antes vs ahora y me entró una nostalgia tremenda al ver este meme.
Hola, lo siento por no tener mucho que contribuir pero empece a experimentar con el notebook de collab de ComfyUI que esta al inicio del hilo con Illustrious XL v1 y algunos loras. Pero las imágenes me salen todas así. SI bien se nota bien el personaje claramente algo no estoy haciendo bien.
Como nota curiosa y esta noticia puede ser tanto buena como mala para algunos, es que ahora se puede usar la API de OpenAI's GPT-image-1 para generar en CivitAI, mala porque se supone que es un sitio orientado al Open Source y buena porque... supongo que los resultados son decentes, es la primera vez que uso el generador de CivitAI, aunque lo personal no pude usar Img2Img en absoluto, no sé si fue porque los maricas de CivitAI lo bloquearon o si el sitio simplemente funciona mal y CivitAI siempre funciona mal, en lo personal siento que pierden el rumbo, la última de Reisen tuve que hacerle cherry picking y la de Zeta Gundam salió fallida pero GPT obtuvo la mayoría de sus detalles, supongo que el primer Gundam siempre será el más iconico.
(1.96 MB 1536x1536 Illust_00003-5839.png)

>>13369 Bienvenido, justamente estaba hablando de Illustrious, kek, pero la verdad soy más usuario de SwarmUI (backend de ComfyUI) y ReForge/A1111 Ahora bien, se me ocurren un par de cosas, si bien Illustrious a partir de la v1.0 esta entrenado en resoluciones nativas más altas (1536x1536) muchos, sino la gran mayoría de LoRA siguen entrenados en resoluciones de SDXL (o sea el clásico 1024x1024) lo que hago cuando uso Illustrious de 1.0 para arriba si voy a usar un LoRA yo uso las resoluciones nativas de SDXL ya sea 768x1344 ó 832x1216, 1024x1024, etc. De resto viendo tu imagen recomendaría más un sampler basado en Euler con un scheduler type ya sea: Normal/Simple/Beta/Exponential/SMG Uniform/KL optimal (este solo es viable en Comfy/Swarm) que son los que generalmente uso en modelos tipo anime, también los sampler Euler/Euler A CGF++ son buenos pero tienes que bajarle el CGF scale 2 ó 1,50 o menos, también fijate que el LoRA sea compatible con Illustrious, aunque en un aprieto a veces me han funcionado loRA's de Pony en Illustrious, ya de resto lo último que quedaría sería el clip skip a -2 en Comfy (en SwarmUI es similar) o a 2 en Reforge/A1111 sino mal recuerdo el VAE no importa en Illustrious ya viene incorporado. También existe una versión superior de Illustrious 1.0 llamada CyberFix, la dejo por si acaso, pero mantiene la esencia y versatilidad del modelo original sin sacrificar su estilo a cambio de mejor anatomía. La versión perpendicular debería ser ligeramente mejor. https://civitai.com/models/1251904/illustrious-xl-v10-cyberfix
>>13372 Muchas gracias! Pude generar algunas cosas bastante satisfactorias y tener opciones de base me ayuda bastante a entender mas todo esto. He notado ahora que existe una version 2.0 de Illustrious, pero supongo que experimentare con eso despues.
(3.79 MB 1296x2304 00002-1244.png)

>>13382 De nada, me gusta ayudar dentro de lo posible, simplemente recuerde que LoRAs entrenados a 1024x de resolución luciran peores a resoluciones de 1536x y LoRAs entrenados a 1536x luciran peores en resoluciones de 1024x y por supuesto más resolución = más tiempo de entrenamiento. >Illustrious 2.0 Lo he probado, aunque no tanto como quisiera y subí pocos ejemplos, si bien soy gran fan de Illustrious, el propio creador comentó que la mejor versión sigue siendo la v1.0 y la v2.0 es mejor para entrenamientos (yo teorizaba algo similar antes de leerlo kek) de todas formas si he logrado obtener buenos resultados con la v2, simplemente evite la versión que dice "stable" a toda costa, pero supongo que el típico caso de: más nuevo ≠ mejor Los de Animagine hicieron algo similar al sacar una versión pura entrenamientos y dos para generar. Pero, de todas formas el dataset de 20 millones de imagenes de Illustrious v2 no es para nada despreciable, pero supongo que la 3.0 o superiores serán las buenas para generar, cuando las liberen, de todas formas sientase libre de experimentar.
(2.62 MB 1536x1536 00000-4718.png)

(3.30 MB 1536x1536 00004-3806.png)

(3.02 MB 1536x1536 00005-1350.png)

(3.69 MB 1536x1536 00006-1747.png)

(6.61 MB 2304x2304 00009-4303.png)

Siempre termino volviendo a Illustrious v0.1 sigue siendo mi favorito, lamentablemente las primeras 4 son intentos fallidos del Zeta Gundam no lo reconoce en absoluto pero al RX-78-2 sí que fue la que generé al final.
>>7104 He estado teniendo problemas con mi notebook de ComfyUI, alguna extensión me actualiza el torch, que me jode muchas dependencias como el xformers, entonces me toda desinstalar muchas cosas y reinstalar las entonces término con una versión de torch actualizada que me bloquea los modelos de facedetailer tipo segm por alguna cosa de seguridad, Python fue un error.
(3.00 MB 2304x1728 Illust_00036-0634.png)

>>13405 No soy usuario de ComfyUI, pero después de la mierda que tuve hoy haciendo Inpaint en A111111111111111111 desearía serlo y mudarme definitivamente a otra interfaz pero no soy lo suficientemente autista para usar Comfy (SwarmUI sí), en fin le comparto el notebook que yo uso, según el changelog tiene Python portable así que no debería preocuparse por actualizaciones de eso. Tiene multiples interfaces a elegir, selecciones la que quiere e ignoré la canción de youtube que le sale. <Notebook: https://colab.research.google.com/github/gutris1/segsmaker/blob/main/notebook/Segsmaker_COLAB.ipynb
(687.48 KB 768x1152 861878124860672151.png)

(1012.33 KB 1024x1024 861876397210120792.png)

(895.89 KB 1152x768 861880478502765330.png)

(865.24 KB 1152x768 861882130991423914.png)

>>13324 Aun no he pensado en que tipo de diseño deberia tener la mascara. >>13369 Bienvenido al hilo, ahora ya somos 3 o 4?, anyways el pequeño boom de 8chan luego de la caida de 4chan ya paso pero por lo menos sumamos un par al hilo para comentar algo es algo kek Si estas usando Loras fijate en el peso que le estan asignando, tampoco vayas a lo loco y generes imagenes con mas de 1500x1500 para algo existe el Upscaler.
>>13406 Tengo que aprender a usar bien regional prompting y el inpaint, seria una mejor manera de hacer las cosas por partes, aunque al menos en ComfyUI no tendría ni idea como empezar, en A1111 al menos se veía mas fácil.
(2.03 MB 1728x1344 00009-2350.png)

(187.12 KB 550x789 Inpaint.png)

>>13425 Bueno, contando las ID más tú y yo, en teoría seríamos 10, pero claro, creo que algunos responden desde distintos dispositivos, así que creo que somos 4 pero bueno al menos el tablón es más fácil de encontrar. >tampoco vayas a lo loco y generes imagenes con mas de 1500x1500 Que sepas que poder generar a 1536x1536 es de mis cosas favoritas de los nuevos Illustrious, incluso he visto usuarios se olvidan del HiResFix con ese alcance de resolución, a mi me encanta poder obtener resoluciones más altas más fácil, aunque lamentablemente Colab al ser el más débil se tarda demás, una vez me tardé 34 minutos en una imagen a 2304x2304 de resolución con triple adetailer y tres personajes, aunque ayer estaba usando el Illustrious v2 y seguí usando las resoluciones base de SDXL por costumbre, kek. Pero claro, el 99.9 % de los LoRA de SDXL están entrenados en 1024x así que ese problema de resolución nativa entre modelo (1536x) vs LoRA (1024x) va a perdurar un tiempo. >>13435 >regional prompting y el inpaint <Advertencia mucho texto Yo he subido varios ejemplos de Regional Prompter e Inpainting (aquí y en mis hilos anteriores), si no mal recuerdo creo que SwarmUI tiene Regional Prompter integrado y ReForge también (pero Reforge de GPU en línea es un desastre con un montón de extensiones que no funcionan), si te toca usar un LoRA entonces el Regional Prompter es 100 % ideal para que no se te mezclen los personajes. Casi siempre uso Inpainting para mis imagenes, la de Alice con la que le respondí ayer le dediqué dos horas de Inpaint y todo para que me fallara en dos UI seguidas, ni siquiera me desconectaron de A1111 solo se detuvo sin más, lo cual es raro porque he hecho Inpaint cómodo por tres horas o más en esa UI, así que sentí que quedó a medio terminar. El antiguo OP de estos hilos recuerdo que me dió unos consejos valiosos de Inpainting, pero yo uso una configuración así como pic 2 DDIM es el más rápido, pero me esta dando muchos artifacts ultimamente y lo cambie a Euler A + Beta (es el que uso también en mis imagenes) y la velocidad es casi igual, dependiendo de lo que hagas puedes querer cambiar algunos parametros. DPM++2M SDE Huen Exponential por ejemplo es lento. El Denoise Strenght lo más que he bajado es 0,15 más elevado de 0,75 y los resultados se van a desviar demasiado de la imagen original. Los steps los mantengo entre 50 a 80, el Padding Pixels es para que el modelo "reconozca qué encaja en la imagen" de 50 a 80 también son buenos valores. CFG Scale puedes ponerlo entre 2 a 3, algunos lo suben a 7 o más pero en Inpaint yo nunca lo he hecho. También ten en mente que hay modelos específicamente hechos para Inpainting; resoluciones de 1024x1024 siempre será más rápido y cómodo aunque una resolución como la mostrada en pic 2 es viable para hacer Inpainting pero será un poco más lenta y por último Inpaint area "Only Masked" fue el valioso consejo que me dieron, muy pocas veces obtengo buenos resultados con la opción de "Whole Picture". Y bueno, eso es lo básico, le deseo suerte.
>>13437 Sin animos de ofender pero esa configuracion para inpaint es realmente mala empezando con la dimensiones usadas y el valor de denoise. Siempre debes de usar dimensiones que al final te den un cuadrado para mejores resultados en temas de esparcimiento de pixeles ya que lo que realmente hace inpaint es "injectar pixeles" El sampling method y valor de CFG debe ser igual o debe ser uno que asemeje los que usaste en tu image base porque si no va a afectar mucho de mala manera el area en donde estes trabajando (colores erroneos y marcas claras de que diste una pasada por esa area). Lo mismo con el valor de denoise, yo no pasaria de 0.6 y esto es en casos extremos en donde quiera completamente quitar o cambiar algo de lugar de manera significativa ya que el denoise es lo que hace "alucinar" a la maquina y por ende estropear la composicion de nuestra imagen. Un tip adicional es usar el soft inpaint lo cual hace que el area donde trabajemos se mezcle de maravilla con el resto de la imagen. Comparto mi configuracion para inpaint, eh heho varios testeos con esta y fue la mas optima para mi pero invito a cambiar los valores a criterio propio ya que como dije, es una recomendacion en base a experiencia y resultados.
(2.12 MB 960x2304 Ilust_00007-0233.png)

>>13438 >base a experiencia y resultados. Exacto, en mi caso, la configuración de arriba es lo que me funciona desde hace bastante tiempo y he hecho montones de Inpaint con esa configuración casi exacta y he subido mis ejemplos en estos hilos antes y después, he sabido de gente que incluso usa DDIM exclusvamente para Inpainting (aunque últimamente me esta dando fallos) pero si algo he aprendido de la generación de imagenes es que a todos les funciona algo distinto y todos se contradicen entre sí entre lo que es correcto y lo que no, aunque yo mismo mencioné que 1024x1024 siempre será más rápido pero quise decir aún así era posible con un poco más, trataba de dar una recomendación básica y así fue como aprendí a hacer Inpainting. Por cierto también he estado pensando en usar Euler Ancestral ++ para Inpaint también,pero se me olvida porque tiendo apegarme a lo me funciona en vez de probar nuevas cosas, lo que me lleva a que me alegra a dejar de ser la única voz en este hilo y que podamos compartir recursos, trucos y experiencias con otros.
(2.01 MB 1152x2016 00016-2901.png)

(2.02 MB 1152x2016 00021-0102.png)

(1.97 MB 1152x2016 00018-3120.png)

(1.97 MB 1152x2016 00032-3934.png)

Algunas de mis últimas pics de Kamiya Kaoru, he querido hacer más pero no he tenido tiempo, espero poder conseguir un mouse propio pronto ya que andar intercambiandolo uno en dos PC que ni siquiera son mías es molesto por decir lo minimo además se me han ido acumulando muchas imagenes y algunas simplemente quedan en el olvido, iba a hacer un par de pics del día de la Madre, pero se me pasó.
(683.25 KB 1216x832 00003-0559.png)

(1.04 MB 1216x832 00015-0737.png)

Termine encontrando bastante mas cómodo usar A1111 que Comfy. Sin embargo, al fin paso lo que tenia que pasar y Google me hecho de colab. Existe algún notebook .ipynb que pueda usar en otros servicios como Kaggle? Todavía estoy esperando que me aprueben para lightnng.ai.
(4.00 MB 1728x3024 Illust_00038-0654.png)

(176.27 KB 1272x885 Kaggle Config.png)

>>13484 Bienvenido a Automatic 1111 dónde todas las UI basadas en esta interfaz están muertas o semi abandonadas, kek. Aún así, sigue siendo la UI más cómoda considerando que la mayoría los usuarios quieren es el típico "1girl" de los cuales me incluyo, aunque a lo mejor alguien retoma Forge por tercera verz, quién sabe. >Existe algún notebook .ipynb que pueda usar en otros servicios como Kaggle? Si, yo tenía mi cuenta de Kaggle acumulando polvo por casi un año hasta que encontré un notebook con encriptación, verás el sitio prohibe contenido NSFW, pero este notebook lo protege, simplemente tiene que configurarlo de esta forma y la instalación del notebook hará el resto, recuerde que tiene que activar Kaggle con su número telefónico. Abre el enlace "Copy & Edit" selecciona "Edit in Kaggle Notebooks" y pone las configuraciones necesarias como dicta el notebook incluyendo el código API de CivitAI, es muy simple. Solamente recomiendo usar A1111 y ReForge para Kaggle ya que son compatibles con la extensión de encriptación, la cual también debo admitir no es 100 % a prueba de fallos. Pero hasta la fecha no me han baneado así que supongo que es muy raro que llegué a fallar, creo que lo máximo que llegué a usarlo fueron siete horas seguidas sin desconexiones. No use la extensión de CivitAIBrowser+ si va a descargar LoRA o modelos dentro de la UI, use la celda del notebook en su lugar. De resto, no creo que este servicio necesite multicuenta, total son 30 horas semanales. Es del mismo que compartí más arriba de Colab así que es seguro que lo sigan actualizando. La instalación es casi igual, solo que en vez de click hay que escribir el nombre de la interfaz (que solo dos son compatibles con la encriptación) en el caso de escribir "ReForge" pues copia y pega los argumentos correspondientes en el WebUI launcher que están al final, el de A1111 ya viene por defecto y es un solo argumento. <Notebook de Kaggle https://www.kaggle.com/code/jejejojo/asdasd
>>13486 Muchas gracias. > dónde todas las UI basadas en esta interfaz están muertas RIP. Prefiero como A1111 muestra todo lo que es posible sin tener que usar los nodos que no entendí bien como instalar.
(4.54 MB 2304x2304 00012-1455.png)

(86.77 KB 1274x885 ReForgeClassic.png)

(100.96 KB 1280x868 SwarmUI.png)

Siguiendo el tema de UI's como el DEV chileno Panchovix abandonó su fork de ReForge este dejo el Forge clásico sin retoques y pude usarlo por dos horas, me sentí muy nostalgico ya que era mi interfaz favorita, aunque claro ya hoy día no es lo más adecuado. Dejo el notebook que encontré, tiene cinco UI en total: <Notebook: A1111, ComfyUI, Forge, Classic (Forge), ReForge, SD-UX. https://colab.research.google.com/github/anxety-solo/sdAIgen/blob/main/notebook/ANXETY_sdAIgen_EN.ipynb >>13488 De nada, disfrutelo. >sin tener que usar los nodos que no entendí bien como instalar. Kek, me paso lo mismo pero es lo malo del open source, muchas buenas ideas terminan siendo abandonadas. La única UI "fácil" que queda es SwarmUI, pero esta se beneficia mucho de tener memoria persistente para agregarle cosas básicas como el autocompletado de tags o no viene con adetailer por ejemplo, mientras que Automatic 1111 y sus variantes siempre las disfrute porque traen todo lo básico nada más instalarlo. De todas formas, yo espero que alguien más retome el proyecto de Forge.
(1.80 MB 1152x2016 00022-0412.png)

(1.83 MB 1152x2016 00032-2455.png)

(3.77 MB 1728x3024 00040-1410.png)

(3.53 MB 2016x2592 00045-1132.png)

(4.18 MB 1728x3024 Noob_00068-2646.png)

Extrañaba usar la GPU de Kaggle.
Después de mucha practica con el Inpaint creo ya voy consiguiendo resultados, mas o menos, tampoco tengo mucho tiempo entre trabajo y estudio. Aunque todavía me falta mas practica, porque obligarlo a crear una persona es difícil, supongo que en esos casos deberia usar OpenPose, pero ahora tengo que aprender a usarlo kek. >>13488 Lo mejor es instalarlas directamente en el notebook antes de iniciarlo para ahorrarte el lio de copiar y pegar un montón de enlaces y reiniciarlo cada vez. En el notebook que deje aquí >>8599 puedes ver como es, igualmente seria algo así <!cd /TuDirecciondeComfy/ComfyUI/custom_nodes/; git clone EnlaceDeExtension Si necesita instalar requisitos >!cd /TuDirecciondeComfy/ComfyUI/custom_nodes/NombreExtension/; pip install -r requirements.txt Ejemplo >!cd /content/ComfyUI/custom_nodes/; git clone https://github.com/ltdrdata/ComfyUI-Impact-Pack >!cd /content/ComfyUI/custom_nodes/ComfyUI-Impact-Pack/; pip install -r requirements.txt Para el diccionario del ComfyUI-Custom-Scripts que no se instala con la extension se arreglaria con esto. >!curl -Lo /content/ComfyUI/custom_nodes/ComfyUI-Custom-Scripts/user/autocomplete.txt "https://gist.githubusercontent.com/pythongosssss/1d3efa6050356a08cea975183088159a/raw/a18fb2f94f9156cf4476b0c24a09544d6c0baec6/danbooru-tags.txt" De hecho, no es que A1111 venga con todo por defecto, sino que los que hacen los notebooks lo instalan todo antes de iniciarlo igualmente.

(152.91 KB 832x1216 tmpm876v657_1.png)

(10.84 KB 832x1216 tmp5kqpn8w7.png)

(1.87 MB 1248x1824 00025-4112.png)

(2.76 MB 1248x1824 AnimagineXL_00013-3043.png)

>>13583 >OpenPose Ese es el más básico de los control net (el de los palitos) en mi experiencia suele ser mejor con Canny y Depth Midas o Depth Anything (estilo anime) a para poses, era divertido porque podía crear las poses haciendo un colab de imagenes en Gimp y luego pasarlas por Img2Img, también me gustaba recuperar algunas de mis viejas imagenes o para obtener una simple sombrilla recta, pero luego pasó algo raro y ReForge de repente dejo de funcionar sus extensiones (al menos el notebook que yo uso) así que tuve que conformarme con dejar de usarlo y apoyarme en el Img2Img + Inpainting, pero si puedes hacer ambos (Img2Img + Control Net) sería más recomendable. >sino que los que hacen los notebooks lo instalan todo antes de iniciarlo igualmente. Buen punto, en el caso el notebook que pase es bastante completo y solamente instalaba pocas veces extensiones extra como una para quitar fondos o una de pixel art, aunque noté que estos notebooks que uso nunca incluyen el autocompletador de tags de E621 solo el de Danboouru. En fin dejo de un ejemplo de las diferentes control Net tome una imagen base de un prompter random y como ven pic 2 se convirtió en pic final y pic 3 se convirtió en pic 4.
>>13585 Que yo recuerde no era muy complicado, las primeras dos son varias pruebas que hice hace años, por eso se ven horripilantes, además todavía no sabia hacer loras y las otra dos son mas recientes. Igual voy a probar como dices y usar Midas y Canny en conjunto, mas que todo lo que quiero hacer es crear imágenes en partes, hacer el escenario, crear un personaje, luego otro y hacerlos interactuar. Su que obviamente eso llevaría bastante trabajo. >ReForge de repente dejo de funcionar sus extensiones Que extraño, la única extensión que no me funciona es el tag autocomplete ¿Cuales no te funcionan? >que uso nunca incluyen el autocompletador de tags de E621 solo el de Danboouru. Suele ser el por defecto, en A1111 puedes ir a la configuración de tagautocomplete y cambiarlo, en ComfyUI habría que descargar el que quieres.
(239.55 KB 832x1216 depth_anything_v2 tmpoh2rvl3c.png)

(2.08 MB 1248x1824 00048-4105.png)

(1.23 MB 896x1152 Noob_00027-2308.png)

(897.87 KB 896x1152 CannyInvert_tmp2emteu6v.png)

(2.97 MB 1344x1728 Illust_00016-4123.png)

>>13589 No es complicado de usar pero me refiero a que Open Pose es el más básico en el sentido de que es lmás simplista. En el ejemplo que subí, el open pose ni siquiera sabía dónde iban las piernas de Yuroichi, kek. >las primeras dos son varias pruebas que hice hace años, Kek, me recuerda lo difícil que era hacer posar a SD 1.5 yo solía tener muchas imagenes así también. Yo solía depender de Control Net como un respirador sobre todo porque en esa época el tema de las manos era mucho peor que ahora o incluso obtener una espada recta. Pero al final termine dependiendo más de Img2Img e Inpaint que de Control Net, sin mecionar los adetailer ya que me había cansado de A1111 y prefería ReForge a pesar de su problema de extensiones que voy a explicar más tarde. También me gustaba recuperar imagenes que a veces me salían mal en un modelo con otro, por ejemplo esta imagen de Kaho me salió sobre saturada en NoobAI y como es un finetune de Illustrious 0.1 el entedimiento de prompts de ambos es similar, así que lo pase a ese modelo con Canny Invert de Control Net y convertirlo en pic final (un poco de Inpaint a ciertas áreas), lo único malo fue... que las axilas quedan mucho mejor en Noob, así que eso inevitablemente se pierde. >Su que obviamente eso llevaría bastante trabajo. Dimelo a mí, llevo haciendo Inpaint por un par de semanas a una imagen de 2304x2304 me he tardado tanto por problemas diaros y por el hecho que soy un maldito flojo. Mi ultima buena sesión fue el pasado miercoles, desde entonces reciclo muchas imagenes, pero pueden servir de ejemplo. >¿Cuales no te funcionan? Varias extensiones incluyendo Mahiro y Control Net (que fueron de las razones por las que me cambie a SwarmUI), pero me di cuenta demasiado tarde que era un problema del notebook que estoy usando, en el otro notebook que pasé: >>13489 Si funcionan extensiones como Mahiro. Pero no lo probé más a fondo por otros problemas que me encontré, de todas formas es un hecho que ReForge quedó abandonado. >puedes ir a la configuración de tagautocomplete y cambiarlo Por lo general estoy bastante a gusto con los tags de Danbooru y los tags de E621 casi ni los uso ni mucho menos casi nunca visito el sitio, quizás por eso prefiero tanto Illustrious sobre NoobAI, pero al menos E621 tiene un sistema de tags eficiente así que cuando uso SwarmUI con un Modelo basado en Noob me aseguro de usar un archivo .CSV con ambos sistemas de tags y lo puedo subir directo a la carpeta SwarmUI/Data/Autocompletions Dejo más ejemplos de Control Net pasados.
(563.72 KB 640x1018 Drawatoon.png)

>>13592 Nada mal aunque lo malo en este caso sería, depender del google, el último avance interesante para comics IA open source fue Drawatoon v1 basado en Pixart-Sigma. aunque por supuesto en ambos están lejos de ser perfectros, pero el de Google es más impresionante.
(4.41 MB 1728x2736 00001-4056.png)

(4.80 MB 1728x3024 00011-5132.png)

(19.97 MB 1728x3024 Noob_00016-5926.png)

(2.84 MB 1728x3024 Noob_00006-4310.png)

(5.52 MB 2304x2304 Illust_00009-5449 v3.png)

Disculpen por no estar demasiado activo, algunas de mis últimas sesiones en Noob & Illustrious. Es gracioso la cantidad de Inpaint que pueden llevar tres personajes, aunque quiero pensar que de haberlo tenido en local no me hubiera tardado tanto, aunque el tema del hilo es tener de dos a tres personajes diferentes dentro de lo posible.
(2.89 MB 1728x3024 Noob_00007-4757.png)

>>13632 Subí la Lain con el pezón destrozado, kek. Bueno mini correción a ultima hora, ya que no me deja borrarlo. Me arrepiento un poco tambié de pasar aquel otro notebook. Si bien las extensiones de ReForge funcionan, en general solo anda peor incluso en Kaggle aunque el Forge clásico si me anda bien.
(4.66 MB 1872x2736 00025-3024.png)

(4.60 MB 1872x2736 00026-4210.png)

(3.69 MB 2016x2592 Noob_00007-3248.png)

(3.76 MB 2016x2592 Noob_00020-0435.png)

(3.27 MB 1296x2304 00012-0317.png)

Y un poco más de mis ultimas sesiones de Noob e Illustrious. A veces desearía que el notebook de A1111 no se colgara cada 4 a 5 generaciones, sino todo sería mucho más cómodo.
(3.27 MB 1728x3024 00008-5326.png)

(3.86 MB 1728x3024 00016-2603.png)

(3.06 MB 2016x2592 00028-3456.png)

(1.61 MB 1248x1824 2025-05-24-84613977-11.png)

Mi sesión de Illustrious 2.0 entre ReForge y una pic que hice con SwarmUI hace un timepo, creo que quizás debí haber hecho más pics de Machu y Nyan antes de descubrir que no me gustan, kek. Y de paso informo que actualizaron el notebook con Forge Classic, el cual corre mejor que A1111 pero claro, ambos tienen la contra de estar muy obsoletos, pero al menos es una alternativa más, ya son seis UI a total a eligir: <Notebook actualizado con Forge-Classic https://colab.research.google.com/github/gutris1/segsmaker/blob/main/notebook/Segsmaker_COLAB.ipynb
(1.34 MB 1344x1728 00006-4906.png)

(1.37 MB 1344x1728 00008-0056.png)

(1.83 MB 1344x1728 00009-0520.png)

(2.36 MB 1344x1728 00003-4721.png)

(2.35 MB 1344x1728 00017-5137.png)

Y no sé que hicieron pero parece que el destino de Forge es permanecer roto en todas sus versiones, el panorama de las UI basadas en A1111 pinta bastante mal, dejo un par de pruebas.
Una practica de descensura en Inpaint de hace un tiempo, la imagen censurada es del prompter MoonFish.
entrener loras en Illustrious con imagenes de cartas de Yugioh arroja resultados interesantes. Definitivamente hare mas experimentos asi. Hola, veo que este hilo esta poco abandonado jaja, perdon por la ausencia he estado ocupado.
>>13699 ¡Hola!, si parece que quedamos solos tú y yo de nuevo, kek. Aunque sigo aquí, pero no puedo mantener el hilo vivo yo solo, tampoco he podido usar tanto la GPU en línea como quisiera, o estoy ocupado o no hay tiempo, hoy tuve un apagón de tres horas y media por ejemplo, aunque entre buenas noticias, ahora tengo acceso a NovelAI con generaciones ilimitadas, le prometí a la persona que me dió la cuenta no usar los aslans (tokens de pago) y pienso cumplirlo. Tengo que admitir, NovelAI es bastante bueno y lo mejor es que puedo terminar de refinarlas después en Illustrious o NoobAIXL, dejo algunas de mi sesión de hoy de NovelAI 4.5 Full el más nuevo:
(2.69 MB 1152x2016 00020-2239.png)

(2.63 MB 1152x2016 00026-4852.png)

(2.93 MB 1872x2736 00003-4007.png)

(1.26 MB 1152x2016 00004-4638.png)

(2.73 MB 1152x1832 Inpaint_00038-1515_v2.png)

Aquí dejo mi actualización semanal, la de Clownpiece es un tanto vieja, de hecho del 17-10-2024 pero me acordé que era 4 de julio así que le hice un par de retoques con Inpaint y GIMP el resto son más recientes.
(7.54 MB 2016x2592 00001-0808.png)

(1.70 MB 1152x2016 00003-3838 V2.png)

(2.20 MB 1248x1920 00004-4012.png)

(2.79 MB 1344x1728 Inpaint_00011-3629.png)

(4.28 MB 1536x1536 Inpaint_00021-5609.png)

Y mi actualización semanal, la verdad es que sigo prefiriendo usar SD antes que NovelAI, aunque el obtener multiples personajes es mil veces más fácil (después subiré pruebas) ni que decir del texto, la última es Illustrious XL v2 me sigue gustando bastante aunque se ha vuelto tremendo bait el cuando van a liberar las versiones que faltan.
(1.23 MB 1152x768 883661064040874173.png)

(1.11 MB 1152x768 883661591248140825.png)

(988.52 KB 1024x672 00027-1634.png)

>>13724 perdi muchisimo pero muchisimas cosas que guarde en el disco duro de mi vieja laptop, esta dandome problemas desde hace mas de una semana pero lo deje para mas tarde la recuperacion(esta muy lenta y da mucha lata usarla) pero ahora que trate de copiar una carpeta llena de imagenes que genere todas estaban corruptas. No se hasta que punto este corrupto el disco duro pero ahora si tendre que ponerme a revisar como recuperar lo que pueda y luego formatear.
Parece que TensorArt se ha vuelto más pro-censura, no aprenden nada de los errores de CivitAI ni Yodayo, menos mal que deje ese sitio hace mucho. >>13725 Lamento que haya tenido que pasar por eso y entiendo su frustración, perder cosas que me gustan es algo que me pasa siempre hasta el punto que estoy acostumbrado, yo tendría que salvaguardar mis imagenes. Tengo todas desde la primera vez que use Colab en estos hilos. Yo lo unico que le puedo recomendar es que guarde todo en archivos RAR en Telegram siempre uso "añadir registro de recuperación" por si acaso, encima Telegram tiene alcenamiento ilimitado siempre y cuando no supere un 2GB por archivo y a no ser que te baneen la cuenta sus archivos siempre estaran seguros ahí, también quiero formatear pero estoy en un bucle infinito de salvaguardar archivos, descargar nuevos, etc. Pero le deseo suerte con ello. En fin ya que no esperaba una respueta dejo algunas de mis pruebas de texto en español de NovelAI 4.5 Full más el mensaje de censura de Tensor.
(1.29 MB 1024x1024 880249936589900998.png)

(1.21 MB 1024x1024 880249441594914069.png)

(1.29 MB 1024x1024 880055116873343343.png)

>>13726 yo uso tensor art para probar loras y no cuando me da pereza usar el collab, una mierda que hagan eso y habra que ver hasta que punto afecta la censura. Quiero creer que la censura afectara mas a modelos relacionados a gente real para evitar que los usuarios hagan contenido nsfw de ese estilo, justo hace unos dias de hecho mientras buscaba un lora para Flux me tope a un usuario muy sospechoso que tenia varios modelos Flux hiperrealistas de chicas muy jovenes y los nombres me recordaban a esos alias que usan en videos ilegales, no pongo el enlace porque tendria que buscarlo y me da hueva y ademas no se como se ponga la moderacion si comparto eso. Pero si yo encontre eso mientras vagueaba estoy seguro que la gente que maneja el sitio esta mas que enterado que hay gente usando su pagina para generar contenido asi por lo que es entendible el ban, una vez mas unos pocos joden la diversion de todos. Tendre que guardar los loras de Illustrious que uso ahi por si acaso los borran.
(2.58 MB 1248x1824 00035-0319.png)

>>13728 >Quiero creer que la censura afectara Eso es siempre la excusa que dicen pero en mi experiencia la censura siempre termina cagando a todos. >mientras vagueaba estoy seguro que la gente que maneja el sitio esta mas que enterado Kek, me recuerda cuando navegaba en VK yo te digo, llegué a encontrarme literalmente cam1ones p3sados ahí vagueando en perfiles raros que me recomendaba pero si yo subía una película normal me comía una restricción de hasta un mes (así el vídeo estuviera en privado) igual ahora el sitio es más estricto con ese contenido, es mejor no mencionar o pasar cosas de ese estilo acá tampoco, aunque en lo personal me encantaba generar pelirojas realistas en SD 1.5 y XL pero siempre adultas. Igual yo siempre imagine que el futuro de los servicios de IA era volverse más mierda, restrictivos y censurados, por eso prefiero seguir usando Colab y la única restricción sea un limite de tiempo aunque creo que te desconectan de Colab si usas Reactor para rostros humanos solo lo use una vez pero ya no recuerdo si fue en Colab o Sagemaker, que por cierto desde que volvió Colab por alguna razón ahora es más dificil que nunca conseguir una GPU en Sagemaker en vez de reducir el flujo de gente solo aumentó o bien los de Mamazon no quieren que uno obtenga la GPU gratuita. >Tendre que guardar los loras de Illustrious que uso ahi por si acaso los borran. Ah por cierto esto me recuerda y a lo mejor ya lo conocías pero existe una alternativa a CivitAI se llama Arc en Ciel creado por FallenIncursio la última vez que lo revise tenía 9000 modelos (incluyendo loras) ahora tienen poco más de 10676 no es tanto como Civit pero no es una cantidad despreciable, siempre es bueno tener alternativas. <Arc En Ciel Modelos: https://arcenciel.io/models <También tienen su propia extensión para A1111 (necesita token igual) https://github.com/FallenIncursio/arcenciel-link-webui?tab=readme-ov-file
(1.24 MB 1024x1024 884525686054726834.png)

>>13729 guardare el repositorio siempre es bueno tener alternativas, hace unos dias estuve buscando modelos de DiffSVC(un programa para voz con IA) y mierda el discord que usaba borro todos los modelos aportados por los usuarios, creo que el deepfake con IA es incluso mas restrictivo que la generacion de imagenes. >me recuerda a cuando navegaba por VK nunca use esa pagina pero ni me sorprende viniendo de los rusos kek, tengo la teoria de que cuando un sitio encuentra cosas asi y dan aviso legal los propios agentes les dicen que dejen las cosas tal y como estan para tenerlo de Honeypot porque si es otra cosa no me explico el desinteres que parecen tener en casos asi.
Parece que la censura esta pegando fuerte en TensorArt como me esperaba, leí que modelos como NovaFurryXL han desaparecido del sitio y no me aparece aunque Illustrious Multistyle Variations si me aparece pese a haber leído que desapareció, también post flageados como NSFW pese a no serlo realmente, pero quizá lo mas kekeante fue ver prohibido el prompt de "bare shoulders".
>>13735 no tengo creditos como para probar pero acabo de generar esto y no me salto un carajo kek, por lo menos loli no esta baneado tampoco, swimsuit.
(716.75 KB 1024x1024 885208568674969728.png)

>>13739 que raro no se subio la imagen adjunta
>>13740 Kek, he leído casos similares, parece que la censura es bastante dispareja de lo que es permitido y lo que no, parece que varía de usuario a usuario por lo que veo, hasta me llegó un correo de que los loras que había subido eran inseguros pese a ser personajes anime 2D, kek. Parece que es el destino de los servicios de IA en línea ser las perras de las compañías de tarjetas de créditos, kek.
Algunas pruebas más de NovelAI 4.5 Curated (solo la primera) y NoveAI 4.5 Full (el resto) me gustó que pudiera reconocer a Izutsumi a diferencia de Illustrious y Noob que no la reconocen, aunque en parte es culpa que son pocos la cantidad de fan arts que tiene donde ella esta sola, lo me recuerda que NAI ahora usa su propio dataset privado, quería hacer unas pics de ella en Illustrious con Falin y Marcille pero me daba flojera tener que lidiar con el bendito Regional Prompter + LoRA, que por cierto aquellas pics de Izutsumi playboy nunca las termine, kek. También noté que se le da ligeramente mejor el estilo de Tite Kubo que los modelos open source o al menos a NAI v4.5 no le dio una embolía en ningún momento, también noté que el tag de "kubo_tite_(style)" me dio mejores resultados que el propio tag de "kubo_tite" pero supongo que su estilo cambio mucho con los años e incluso a NAI le cuesta entender que emular en este caso.
(491.10 KB 768x1152 885276665381447546.png)

>>13741 creo que al paso que vamos tendremos que darle la razon a los cripto bros y usar Monero o alguna otra cripto con anonimato para hacer transacciones porque las compañias de tarjetas de creditos han venido jodiendo bastante con eso. Tambien recibi un correo, me quitaron dos loras, pero uno me lo han devuelto y el otro aun esta bloqueado pese a que ambos estan basados en arte 2d de monas chinas. En cuanto a restricciones de generacion, nada, siguien sin bloquearme prompts.
Encontré una forma para probar Flux Kontext en línea, lo malo es que esta bien censurado, me dijeron que lo pusiera a Safety Tolerance a 6 pero nada y eso que no use desnudos, así que preferí probarlo con portadas de manga. No es perfecto y le encontré varios contras aparte de la censura en línea, primero que nada reduce la imagen original a una resolución tipo SDXL en este caso tipo 832x1248 aunque al menos lo mantiene en PNG (si seleccionan la opción), segundo literalmente corta la imagen, tercero solo te dan 200 tokens por correo electronico. Si bien hago un poco de cherrypicking, les digo pic 1 salió bien a la primera pero la portada del tomo dos me tomó seis intentos ya que Flux trataba añadir o quitar los helicópteros del fondo y tuve que ser más especifico. Recomiendo quitar la opción de generar cuatro a la vez (aunque en mi caso sirvió al final). Creo que para los que quieran limpiar imagenes para crear un LoRA les vendría bien. La única alternativa sería tener una PC lo suficientemente potente para correr la versión DEV en local. <Flux Kontext Playground: https://playground.bfl.ai/image/generate
>>13745 si lo conocia pero habia gastado mis creditos antes de poder probarlo bien y por eso no lo comente por aca.
Y todo tiene algo malo, simplemente a veces no sabes qué es y NovelAI si bien dice que puede manejar hasta seis personajes, la verdad que manejando tres es horrible iba a ser más pruebas con otros personajes (y mayor cantidad) de personajes pero después de hoy me desanimó, aunque NovelAI 4.5 Full en Tx2Img, reconoimiento personaje,adeherencia al prompt, manejo de dos personajes, Inpaint y estilos esta bastante bien y diría que sigue siendo superior a lo que los modelos open source ofrecen, supongo que estas fueron las menos deformes aunque casi obtuve lo que quería en tres ocasiones de más 100 intentos, al menos esta experiencia me hizo valorar herramientas de SD como Control Net y Regional Prompter aunque están lejos de ser perfectos. >>13743 >darle la razón a los cryptobros. A lo mejor sueno un poco squizo, pero a este punto se siente que están empujando a la gente a las criptomonedas, soy neutral con estas viendo el desastre de Tensor (aunque entiendo el temor a los deepfake en la IA) que pasaron las 72 horas y no arreglaron un coño o lo que esta pasando con Steam me hace pensar solo quieren causar una frustración general en el consumidor restringiendo la venta de productos +18 y como siempre solo queda jodernos.
(57.37 KB 524x773 UK-CivitAI-BAN.png)

Y más censura en CivitAI. Ahora van a bloquear las IP del Reino Unido, si bien no nos afecta, siempre esta el dicho de "cuando veas a las barbas de tu vecino arder" y es que el Internet se ha esta volviendo una mierda restringida.
>>13763 Reino Unido viendo bloqueando contenido nswf de todo tipo desde hace rato, esto viene a ser mas culpa de los politicos de ese pais que la pagina en si.
>>13764 Es cierto, pero quizás debí haber aclarado que no es UK bloqueando acceso, sino que los de CivitAI tomaron la decisión banear esas IP para cuidarse las espaldas ya que no pueden enfrentar las represalias ya de por sí les cuesta mantenerse en pie, aunque visto de otro modo, pareciera que los países Europeos están alentando a la gente a usar VPN, kek.
(1.38 MB 1248x1920 00010-0641.png)

(3.46 MB 2016x2592 00031-5917.png)

(3.64 MB 1728x3024 Inpaint_00018-1328.png)

(3.73 MB 2016x2592 Inpaint_00034-5422 v2.png)

(3.04 MB 1872x2736 Inpaint_00001-1343 v2.png)

Otra actualización semanal de SD, preferí llevarlas todas a ReForge el cual por cierto su DEV parece que ya esta dando señales de vida, también debo decir que si bien el adetailer es más automático, a veces simplemente es mejor hacer Inpaint directo al área, que si bien es un modelo muy AI Slob todas las versiones "B" de NovaFurryXL me dan muy buenos resultados para el Inpainting aunque en Txt2Img deja que desear, ya si me acuerdo supongo que trataré de refinar las imágenes de NovelAI que tengo, aunque el texto será un problema considerando el VAE de SDXL.
(2.97 MB 1728x3024 Vpred 1.0_00005-4300.png)

(3.13 MB 1728x3024 Vpred1.0_00015-2330.png)

(3.95 MB 1728x3024 00007-5931.png)


(4.35 MB 2016x2592 Inpaint_00020-3102.png v3 F.png)

Por poco se me olvida actualizar semanalmente, pero he estado ocupado, estas son algunas de las que logré terminar, hace tiempo que no hacía tres personajes en SD después de mi decepción con el manejo de tres personajes en NovelAI, sigue requiriendo Inpaint y alguna que otra ayuda de edición externa pero al menos no me costó tanto obtener la base de este trío como quería.
(1010.46 KB 1024x768 00179-2912.png)

(939.71 KB 1024x768 00181-2913.png)

(1.14 MB 1024x768 00186-3225.png)

>>13774 Se agradece tu continua actividad pese a lo abandonado que esta este tablon lol En mi experiencia los resultados de generar mas de un personaje y que estos conserven sus caracteristicas individuales y no se mezclen dependera de cuan bien reconozca el modelo a esos personajes, aqui por ejemplo estas imagenes que genere ayer, Marisa y Reimu se distinguen bien la una de la otra, la tercera imagen por otro lado se suponia debian de ser dos personajes de Sailor Moon pero no ha quedado, de todos modos guarde el resultado porque me ha parecido interesante.
>>14594 ¡Y muchas gracias a usted por seguir aquí! Supongo que la pasión por aprender a usar la IA murió con Colab en aquel entonces y veo que todos en todos lados se acostumbraron a los servicios de IA por tokens (dónde uno no aprende mucho) y aprender SD por Colab mediante notebooks se volvió algo muy de nicho, trate de promocionar el tablón un par de veces, pero veo que no funcionó. >dependera de cuan bien reconozca el modelo a esos personajes, En parte tienes razón, porque el modelo tiene que ser lo suficientemente inteligente o tener suficiente conocimiento para reconocer distinguir y diferenciar diferentes personajes, pero un modelo no puede reconocerlo todo, muchos datasets de modelos open source están capados hasta Octubre de 2024 (excepto el nuevo Animagine que llega a enero de este año) y si bien no necesité Regional Prompter para esta pic de Makima x Miku x Canela (aunque algunos ejemplos de al inicio del hilo), esta extensión sigue siendo la mejor para obtener múltiples personajes sobre todo sí hay un LoRa (o más), que curiosamente Regional Prompter funciona mejor solo en interfaces basadas en A1111 que en ComfyUI, aunque claro más personajes, más detalles igual más necesidad de arreglos o inpaint lo cual lleva a más tiempo o proceso, lo cual sigue siendo necesario.
(433.05 KB 512x640 00109-5409.png)

>>14596 a ti tambien el collab te esta dando problemas de out of memory?, hoy a cada rato me esta marcando ese error y tengo que reiniciar el entorno. No se si tenga algo que ver con el cambio visual que le metieron, ahora aparece al pestana de extras al inicio en lugar de txt to img y francamente es molesto, a veces por costumbre le pico y pego texto donde no es kek medio que puedo generar imagenes con baja resolucion pero en cuanto le subo arriba de 1000 px se queda sin memoria y se desconecta.
>>14599 >Colab out of memory No en lo absoluto y lo sigo usando a diario, es raro lo que me cuenta, pero claro depende de qué notebook estemos hablando además de que uso la GPU de Kaggle. Yo hace poco estaba testeando un nuevo notebook (de hecho tiene más de un año pero me di cuenta hace poco kek) con ReForge y funciona todo, no conozco al creador pero esta firmado como WhiteZ y la interfaz luce como pic related 2 y 3. En mi caso hay que que ponerle los argumentos: "--theme dark" (sin comillas) para activar la interfaz oscura. Aunque note que si activas Control Net ProMax es un crash instantáneo es mejor evitarlo descargar los Controlnet Lite son varios pero para esta sesión solamente use uno. En cuanto a rendimiento es bueno, lo primero que hice fue llevar una imagen a 1728x3024 así que las resoluciones no son un problema. Eso sí se tarda un poquito más en generar a esta resolución tan alta que otro notebook con ReForge que tengo, pero imagino que tiene que ver con los argumentos del notebook. Estaba así de cerca de mudarme definitivamente a SwarmUI si no fuera por su falta de adetailer sería perfecto para mí, a veces admito que usar Colab se siente como pic related 1 pero me reconforta cuando logro hacer que algo funcione como hoy, eso sí no te recomiendo cambiar el resto de argumentos por el momento, salvo que quieras activar el tema oscuro, pero en fin disfrútalo: <Colab de WhiteZ_ReForge en español: https://colab.research.google.com/drive/1D6IugnTKaiPVHyr9-NerZWHJHojlqlUv?usp=sharing&authuser=1#scrollTo=nY422RKvb_xf
(854.62 KB 1152x768 00011-0622.png)

(1017.07 KB 1152x768 00001-0013.png)

(844.21 KB 1152x768 00021-1325.png)

(759.87 KB 1024x768 00202-3731.png)

>>14601 yo siempre uso este que creo que tu dejaste en el hilo anterior a este y no es hasta ahora que me dio esos problemas. https://colab.research.google.com/github/gutris1/segsmaker/blob/main/notebook/Segsmaker_COLAB.ipynb#scrollTo=1rU4mCbvPpzs Dejo un par de Lains que genere hoy y una Ougi con un Lora que entrene hace unos dias. Todas tienen algun desperfecto pero el estilo quedo bastante bien
>>14602 Se me olvidó preguntarte que UI especifica estábamos hablando, pero supongo que estamos hablando de ReForge, aunque cuando te respondí ayer se me olvidó decirte que el día anterior estaba enseñándole a un amigo a usar Colab con ese Notebook de Segsmaker, siempre les enseño primero a todos a usar A1111 debido a que es la interfaz padre de los Forks basados en esta UI y ahora mismo es como el Windows 7 de las interfaces de IA, esta obsoleto pero todavía corre algunas cosas, además la mayoría de extensiones funcionan en A1111 (ya volveré a tocar este tema) y bueno no había notado ningún cambio tampoco. Revisando el Github de Panchovix de ReForge parece que al fin hizo una actualización y ahora luce diferente, creo que debería ser reForge2 ahora. Chequeando los logs de actualización el notebook de Segsmaker ya debería estar arreglado, ReForge main-old debería ser el ReForge principal (al que estamos acostumbrados) y también cambiaron los argumentos de Forge Classic ahora no debería quebrarse al usar tres LoRA's al mismo tiempo (suelo usar Forge Classic para Inpaint). Aunque yo use el ReForge del notebook de WhiteZ ayer y no noté ningún cambio en la interfaz. Y a diferencia del notebook de Segsmaker (que te pase primero) todas las extensiones de la UI de ReForge funcionan, Mahiro, Kohya HiResFix, Regional Prompter, Forge Couple el ya mencionado Control Net, etc. Así que ya no me dan ganas de usar ese notebook de Segsmaker al menos no en Colab, excepto quizás por SwarmUI ya que como punto positivo, tiene la función de poder montarse en la memoria persistente de Google Drive así que al menos tiene esa ventaja además de las versiones del notebook de Sagemaker y la versión encriptada de Kaggle, así que sigue siendo útil.
(1.24 MB 768x1152 00125-3147.png)

(1.20 MB 1152x768 00095-0543.png)

(1.36 MB 1152x768 00014-4302.png)

>>14603 Pues el problema se resolvio solo fue algo de una sesion parece, ni idea del porque, hubiera sacado captura de la UI pero no se me ocurrio hacerlo ni modo >tiene la función de poder montarse en la memoria persistente de Google Drive tengo rato de no hacer eso, sobretodo porque tengo algo lleno mi drive ya jaja Dejo un par de una mona que si alguna vez viste animax tal vez se te haga familiar.
>>14610 Como le explico, básicamente el notebook esta conectado al repositorio de ReForge, en ese plazo de tiempo que lo uso hubo una actualización de parte del DEV de la UI que estaba usando (que ahora es la rama principal) ahora esta resuelto ya que ReForge esta separado en una rama diferente (ya van 4 Forge kek) y ahora el notebook esta configurado para instalar todo lo que proviene de esa rama separada, yo tengo acceso a los logs del notebook y eso fue lo que pasó, pero, le recomiendo mucho más el notebook de WhiteZ, si quiere una experiencia con ReForge plena, ya me cercioré que todo funciona, un día de estos de estos subo ejemplos, solo me arrepiento de no haber conocido ese notebook antes. Me alegra que ReForge haya vuelto pero no volvió como quería, kek. >Animax No, si bien viví cosas como el cambio de Fox Kids a Jetix pero no viví Animax. Pero gracias a Yandex descubrí que es de Vandread. Como hoy fue un día ocupado, dejo algunas de mis imágenes de NoveAI siempre digo que las voy a pasar por SD pero siempre se me olvida kek, y veo que las yeguas están de moda de nuevo.
(43.69 KB 554x554 images.jpeg)

Negros... ¿Podrían ayudar a un nuevín a iniciarse en todo esto de las IAs de monas chinas. Estoy en el cero absoluto, o bueno, digamos que en el 5 de 100 por saber mínimamente usar chatgpt. Esto también lo hago para en caso haya alguien más que sea nuevo poder citarles estos posts y que aprenda desde el principio. O bueno, no sé si ya hayan hecho alguno donde pueda ayudarme. En este momento no cuento con laptop pero sí con Tablet. ¿Qué necesito saber primero? ¿Con qué modelo empiezo? ¿Qué galerías puedo usar para entrenar modelos y esas cosas,? Les estaré agradecido y publicaré el proceso de transición de 0 a IAnon aquí.
(2.42 MB 2048x2048 Inpaint_00014-0423.png)

>>14626 Hola y bienvenido a lo que queda de los hilos de Hentai Diffusion, trataré de responder a sus preguntas y dudas, de ante mano le advierto que hay mucho texto. >¿Qué necesito saber primero? Tratamos de aprender y disfrutar de Stable Diffusion (SD) y sus variantes, compartimos nuestras imágenes, hallazgos y/o recursos, tips o trucos también, gracias al regreso de SD a Google Colab hoy día es más fácil que nunca usarlo en GPU en línea que ya básicamente se ha vuelto algo de nicho, pero al menos nos da la seguridad de que no vuelva a haber un segundo baneo a Colab, debe durar como 4 horas gratuitas y se recarga a diario, pero lo importante es que es lo real, no tiene censura y le permitirá familiarizarse con el entorno. De resto diría que se trata de tener intuición, paciencia y cierto nivel de entendimiento con el modelo/interfaz que estés usando. Pero recuerde, lo más importante es divertirse. >¿Con qué modelo empiezo? Estamos usando modelos (se les llama checkpoints) Open Source basados SD (aunque gracias a un amigo puedo usar NovelAI que es privativo) pero SD siempre permite más control, hoy día la comunidad anime de IA gira entorno a SDXL 1.0 con IllustriousXL y NoobAI-XL como sus ramificaciones más prominentes hubo un tiempo dónde Animagine y Pony reinaban en los modelos anime pero eso quedó en el pasado por no decir que SD 1.5 también esta súper obsoleto pero junto con SDXL permanecen como los únicas arquitecturas realmente open source de la IA generativa de imágenes actualmente, mis dos modelos favoritos son Noob Vpred 1.0 e Illustrious V2 aunque no los recomiendo para novatos, pero estoy seguro que puede encontrar un modelo basado en Noob/Illustrious más fácil de usar. Aunque a veces uso Animagine 4.0 Zero debido a su dataset más actualizado y uno que otro modelo fusión de vez en cuando. Tenga en mente que no todo es compatible entre sí, incluso dentro de la misma arquitectura, ya sea de SDXL a Pony, de Pony a Illustrious o incluso de Illustrious a Noob es una ruleta rusa a veces. Ya ni hablar de que SD 1.5 y SDXL son totalmente incompatibles entre sí, descargue los modelos con compatibilidad correcta y se evitará una mala pasada. >¿Qué galerías puedo usar para entrenar modelos y esas cosas,? Para los modelos a gran escala estos usan Danbooru y E621 (furry y western) como datasets para entrenar modelos pero aquí nadie tiene el nivel de computación para eso, kek, aparte de esos dos, el usuario promedio que entrena LoRA estos usan Gelbooru o Pixiv, por su facilidad de uso ya que Danbooru limita los tags que puedes buscar a dos (al menos E621 no hace esto), también podrías usar Kemono para encontrar pics que normalmente no encontrarías en otro lado de equis artista/creador de contenido, aunque imagino que algunos resuben material de ahí a Rule 34 aunque el sitio es mierda. También esta Sankaku pero he visto que muchos odian ese sitio. Siempre hay fuentes alternativas para encontrar imágenes de un personaje y/o estilo. Aunque por ejemplo si un personaje tiene suficientes apariciones en un anime o serie puedes tomar capturas de pantalla de este y entrenar un LoRA en base a este personaje, pero, he notado que modelos de LoRA entrenados solo con capturas de pantalla de anime tienden a ser más rígidos y menos versátiles que LoRa de personajes entrenados con más variedad de estilos en su dataset, así que estas sacrificando variedad por fidelidad al personaje. Hablando de capturas de animación también esta sakugabooru pero tiene un muy pobre sistema de etiquetado (tags) para encontrar algo especifico. También puede aportar a Danbooru artistas que le gusten y muy a larga quizá con esperanza estos terminen en un dataset de un modelo mayor, pero se beneficia mucho en aprender a etiquetar imágenes en Danbooru e investigando tags para usar en SD. De resto si ha llegado leyendo hasta aquí, le dejo los dos notebook que uso actualmente. Por lo general recomiendo más aprender primero a usar A1111 antes que las otras UI (interfaz de usuario) aunque en lo personal la que más recomiendo es ReForge del notebook de WhiteZ, ReForge no solo esta más actualizado que A1111 y le permitirá usar más modelos como las variantes Vpred de SDXL con las que A1111 no es compatible además de que el ReForge de este notebook sí funciona al 100 %. Nada más necesita conseguir un token de CivitAI que simplemente le ayudará a descargar modelos directo a Colab y es gratuito, guarde el código API en un archivo de texto. Cualquier duda o pregunta sigo activo. <NoteBook Múltiple cinco UI a instalar (En Inglés) https://colab.research.google.com/github/gutris1/segsmaker/blob/main/notebook/Segsmaker_COLAB.ipynb <Notebook de WhiteZ ReForgeUI uno solo (En Español) https://colab.research.google.com/drive/1D6IugnTKaiPVHyr9-NerZWHJHojlqlUv?usp=sharing&authuser=1#scrollTo=4pPmJGsR_wPL
(251.29 KB 800x1280 Screenshot_20250820-121929.jpg)

>>14627 Mis kekes, a ver, ya que dices que esto está muerto y necesita de actividad voy preguntando paso a paso para no perderme porque hay muchísimas cosas que no entiendo. Primero, ¿Reforge es mejor para Tablet o funciona en todas las tostadoras? Y apenas entro a la interfaz y ya estoy perdidísimo... ¿Qué cosas debo activar y cuáles no? Por ejemplo en las primeras 4 casillas que están en la screenshots... Solo puse lo de la interfaz más amigable en celular pero luego no he tocado nada.
(99.73 KB 1238x884 ReForgeUI.png)

(219.23 KB 387x771 CivitAI.png)

(78.65 KB 788x680 Codigo Api CivitAI.png)

(81.34 KB 1214x612 Argumentos.png)

(94.41 KB 899x590 3 enlaces.png)

>>14628 Si negrito, antes eramos muchos ahora apenas somos dos activos, aunque al menos ahora estamos un tablón más visible y fácil de conseguir que antes, aunque se me olvidó revisar ayer. >¿Reforge es mejor para Tablet o funciona en todas las tostadoras? No exactamente, verás el notebook de WhiteZ esta configurado con unas celdas opcional para celulares y usarlo más fácil en este, la interfaz de ReForge (pic related 1) imagino que debe re-escalarse bien en Tablet, el caso es que los modelos IA requieren una GPU NVIDIA con mayor VRAM posible para correrlos. PERO, para eso tenemos Google Colab si bien su uso diario esta limitado a cuatro horas, le permitirá correr todo en línea, gratis sin gastar recursos locales, sin censura y encima el servicio de GPU NVIDIA T4 esta especializado en IA y es perfecto para correr tanto checkpoints de SD 1.5 y SDXL, aunque también ReForge esta caracterizado por ser más ligero u optimizado que A1111. Además ya viene pre configurado con lo más básico, yo siempre gasto 10 minutos en configurar A1111 como me gusta. Para PC de muy bajos recursos solo se recomienda ComfyUI y no creo que quieras usarlo en tablet nunca. Todo en A1111 y ReForge es más intuitivo. Primero que nada ve a CivitAI hazte una cuenta, es gratis. Luego como muestro en pic 2 y 3 vas a la rueda dentada del perfil de usuario y al fondo podrás conseguir el código API guárdalo en un archivo de texto, solo necesitaras uno solo >¿Qué cosas debo activar y cuáles no? La primera celda que dice <"Colab Activo en el celular" Es totalmente opcional al menos en mi caso que uso PC. Después sigue la celda: >"Instalar Reforge y alguna extensiones" Obviamente es necesaria. Hay una celda que dice para tener una interfaz más cómoda en el celular es 100 % opcional. <Descarga VAE Opcional pero si puedes descarga el SDXL VAE fix <Descarga upscaler Opcional pero los tres que trae son buenos, usa Anime_Sharp para imágenes tipo anime. <Descargar Cotrolnet union ProMax NO descargar y no funciona realmente. <Controlnet Lite 100 % opcionales y funcionan >Descargar modelos El notebook trae 13 modelos a descargar por defecto puedes seleccionar uno de ellos. Te recomiendo usar un solo modelo por sesión. >Descargar modelos personalizados Celda opcional pero prefiero descargar los modelos que me gustan aquí el token de CivitAI va ahí debajo de la celda de la URL. <Descargar Loras Drive, Civitai o Hugginface Opcional pero una sesión de SD sin loras es como pizza sin queso, te recomiendo decidir que loras usar antes de iniciar para que no estés descargando a lo loco en plena sesión. >Inicia la webui El propio nombre te dice que hace, Pic 4 muestra los argumentos por defecto del notebook notarás que le hice una pequeña edición y agregué "--dark theme" (sin comillas) para activar el tema oscuro, después de que todo se haya instalado correctamente te deberán aparecer un par de enlaces para entrar a la interfaz WebUI de SD como pic 5 generalmente el mejor enlace es el de Gradio también hay una alternativa para iniciar con el tunel de Zrok pero es 100 % opcional. Ya después te pones a generar en SD y vas guardando las imágenes que generas ten en mente que este notebook tiene una celda para conectar las imágenes directamente a Google Drive y para descargarlas todas en un ZIP (opcional) pero una vez terminada la sesión tendrás que hacer la instalación de nuevo, pero no tarda mucho. Eso sí hay notebooks que te permiten montar todo SD en Google Drive como memoria persistente y así no tener que hacer toda la instalación desde cero pero yo ya estoy acostumbrado a hacerlo así. Sé que es mucha información pero es fácil e intuitivo y ya he enseñado a varios a usar Colab así. >Solo puse lo de la interfaz más amigable en celular pero luego no he tocado nada. Tenías que instalar la UI de ReForge primero luego la interfaz para celular.
(188.09 KB 832x1216 70453093.jpeg)

Bueno negros he regresado, hablo en plural porque veo que tenemos un nuevo anon por aqui en horabuena ya no somos dos nada mas kek Es de mi amarga desagrado informar que hace unos pocos dias, tuvo un problema muy grave con un malware que se instalo en mi computadora, robo todas mis credenciales y encima de eso corrompio mi windows dejando con una pantalla azul, he tenido que formatear y perdi muchas cosas incluyendo algunas imagenes que genere con este mismo lora >>14610 y otras de Vandread y algunos archivos safetensors sin respaldo aparte del todo el cagadero que ha sido ir cambiando contraseñas y monitoreando la actividad de mis cuentas cruzando dedos. Quien sabe, tal vez el hijo de puta este lurkeando por aqui. >>14626 Hola negro, muy sospechoso ver a alguien nuevo justo cuando alguien me hackeo eh?, no me hagas caso ando muy esquizo y paranoico de todo desde entonces. >>14627 extendiendo a lo que dijo este negro, recomiendo modelos basados en Illustrious en mi experiencia los que mejor calidad y estabilidad poseen, Pony XL puro o y variantes en cambio son un quebradero de cabeza por algo llamado scores que determinan la calidad de la imagen pero son complicados de usar si estas empezando incluso para mi que use ese modelo por meses . >>14628 kek valiente en usar collab en movil, yo tenia uno con poca ram y a cada rato me recargaba la pagina perdiendo lo que tenia escrito , aunque si tienes algo mejor no deberias tener problemas.
(3.29 MB 2304x2304 Inpaint_00008-478231244.png)

>>14633 Hola, lamento que haya tenido que pasar por eso, a mi me surgieron unos cuantos problemas muy personales que prefiero no mencionar acá. Así que he tenido menos tiempo y menos ganas para generar pero al menos puedo seguir dando un poco de consejo y/o orientación, yo a la mayoría les enseño a usar lo básico del notebook una o dos veces y después dejo que encuentren su propio camino. Si bien prefiero modelos base o "vainilla" (Animagine, Noob e Illustrious) ya que aparte que no tengo tiempo ni las ganas de probar muchos modelos ya que lo que conozco me dan los resultados que quiero, hoy día sé que lo más recomendable es darle un modelo más básico a un novato. HassakuXL no me pareció nada mal y su versión 3.0 salió hace relativamente poco el 21 de julio. Creo que un problema de los elitistas es que quieren tirarle un modelo como Noob Vpred con ComfyUI sin lora a un novato esto sería el equivalente a tirarle Arch Linux a alguien que quiere iniciarse en Linux kek. U obligarles a usar Hugginface en lugar de CivitAI (tengo que admitir CivitAI es bastante mierda pero es lo más fácil) . También probé Prefectious XL NSFW pero ya tiene 8 meses de haber salido, igual no me pareció tan malo, quizás debí haber recomendado uno de esos aunque no son lo que yo usaría a diario. Lurkeando conseguí un par de repositorios extra ya que CivitAI es muy pro censura, conseguí un sitio que resguarda todo lo borrado de CivitAI es como un baúl de los recuerdos: >CivitaiArchive / CivArchive (archivo de modelos borrados) https://civitaiarchive.com/ >CivitasBay Modelos IA por Torrent https://civitasbay.org/ >DataDrones (también por Torrent pero parece más orientado a LoRA) https://datadrones.com/ Y eso es todo por el momento.
(142.70 KB 1216x832 Origenes.jpeg)

(143.96 KB 1216x832 Al infierno se va.jpeg)

(243.12 KB 1216x832 Tercera, grata sorpresa.jpeg)

>>14629 >Controlnet Lite ¿Y esos que hacen o qué? Me puse el lineart anime Denoise solo porque sonaba bonito y decía anime, pero ni idea de para qué son... >Modelos ¿S-Sugerencias? ¿Qué hacen los trece? Me puse el Nova anime XL solo porque es el que más me llamó la atención... ¿Qué significa el XL por cierto, veo que muchos lo tienen en el nombre... >modelos personalizados Y eso como lo hago, veo que tengo que poner un URL pero no sé de dónde lo saco o dónde ponerlo ni como usarlo para empezar, ¿Qué es un token de Civitai? Dice quede ser uno azul o algo... >Potros y Conducir o Xenomorpho Lo mismo de arriba, ¿Cómo hago eso? >aldo Ya tengo cuenta en Civitai, como un anon perdido me puse a generar, tomé el primer modelo (Pony Diffusion XL) que me gustó, el primer Lora que me interesó (Penis Worship) y le di a generar... Como me esperaba, una verga en el primer intento kek... Desde ya "Cartoon, Western y Cómic" se van a la basura y jamàs saldràn del infierno de promts negativos, aún con todo salió mejor el segundo. El tercero me tomó por sorpresa, hizo algo que me gustó màs rápido de lo que esperaba... No he generado mucho màs con esa interfaz... >aldo 2 ¿Hay alguna manera correcta o general de escribir promts? Por lo general hago como los tags y pongo una o máximo tres palabras juntas, pero no sé si pueda escribir párrafos como con GPT. Sé que entre más te explayes y especifiques es mejor pero sé poco de tecnicismos artísticos como para hacerlo tan bien kuek >aldo 3 ,¿Qué es un pony y en qué se diferencian los nombres de los modelos? Los únicos ponys que conozco son la burras de colores. >>14633 Hola, soy el nuevo. >Malware Ya me entró miedo, ¿Cómo o quién te la metió tan doblada, negrín? >Paranoico No sé ni usar una simple IA y voy a estar sabiendo hackear, me tienes mucha estima, anon >Illustrious ¿Qué es eso? Recuerda, de 0 a héroe... >Valiente Es que es una tablet de esas que se defiende en ese apartado, solía generar con mi celular pero dudo que sea lo mismo, aparte que me quiero quitar las cadenas del SFW de una vez. También la conseguí por descuento en temu así que no sé qué tanto sea de potente. Aún no tengo mi laptop.
(87.17 KB 1036x818 CN Opciones.jpg)

(32.89 KB 1152x896 Depth Anything V2.jpg)

(837.26 KB 1152x896 00006-1058.png)

(859.76 KB 1152x896 Canny Invert.png)

(1.75 MB 1728x1344 00015-2110.png)

>>14636 Hola y bienvenido de nuevo, quise responder más temprano pero tuve tres apagones, me alegra que haya logrado instalar el notebook de Colab siguiendo mis indicaciones trataré de responder sus dudas lo mejor posible ya que veo que quiere aprender. >Controlnet Lite / ¿Y esos que hacen o qué? Vamos por partes, los Control Net o CN para abreviar son como su nombre indica, herramientas que le permiten tener más control al momento de generar sobre las poses y/o composición de su imagen. No se van a activar por si solos kek. Hay muchos para muestra un ejemplo viejo, pero sirve, en el fondo hay una opción que te permite abrir control net, ponlo en "enable" subes la imagen y si lo tienes configurado como Pic Related 1 entonces CN "leerá" y le ayudará al modelo a seguir la pose (o la composición dependiendo del CN) de esa imagen que subas, por ejemplo yo quería una imagen de Izutsumi lamentablemente me di cuenta tarde que el modelo no la reconocía sola y me dió pic related 2 (un error), pero, no quería perder la idea de esta imagen así que la pase de vuelta por CN con Depth Anything v2 entrenado en anime + LoRa de personaje y después de un poco de paciencia, más control net, refinamiento e inpainting logré obtener la imagen que quería de Izutsumi. Ahora bien te preguntaras porque uso CN ProMax en pic related y te recomiendo CN Lite, bueno simple, el notebook viejo que usaba estaba más optimizado para usar CN ProMax que son muchas herramientas de CN en un solo archivo (más cómodo) mientras que el notebook que te recomendé tiene varios CN en diferentes archivos, pero Colab da suficiente espacio para usarlos. Obviamente "lite" significa que son más ligeros u optimizados pero al costo de que vengan en varios archivos separados, el punto es que los probé y funcionan igual de bien. >S-Sugerencias? Esto lo estaba discutiendo con el otro negro, quizás debí haberle recomendado un modelo como Hassaku XL cuya versión 3.0 salió hace relativamente poco y esta bastante orientado al anime. >Hassaku XL (Illustrious) 3.0 https://civitai.com/models/140272?modelVersionId=2010753 >¿Qué hacen los trece? Cada modelo puede estar especializado en algo distinto ya sea que haya modelos especializados en 3DCGI, en Fotorealismo, en anime, en contenido western, cartoon, furry, etc. Cada modelo puede tener sus pros y sus contras, pueden tener mejor o peor conocimiento, pueden tener mejor o peor adeherencia al prompt, mejor o peor entrenamiento, es cuestión de probar y conseguir uno que se adecue a sus necesidades. Veo que la selección de modelos del notebook es semi decente y todo pueden usarse en ReForge. > ¿Qué significa el XL por cierto Como su nombre indica XL viene de EXTRA LARGE o sea extra grande. Y es que cuando salió XL este pesaba 13 GB pero afortunadamente lograron reducirlo a 6 GB además de ser mucho más grande en todos los sentidos que SD 1.5 (estos modelos apenas solían pesar 2GB) algo en lo que estaba 100 % correcto el antiguo OP de estos hilos es que todos nos mudariamos a SDXL y efectivamente XL es el meta actual de los modelos de IA generativa de anime. El cual si bien es una arquitectura que ya tiene sus años todavía se le puede sacar jugo a XL. >Y eso como lo hago, (?) Es sencillo va a CivitAI copia y pega el enlace ya sea de la URL del navegador o de la flechita azul al lado del pulgar de calificación del modelo y este descargará el modelo el modelo directo a su carpeta correcta de SD en Google Colab. >Qué es un token de Civitai? El código API o Token de CivitAI le permitirá descargar los modelos que tienen una restricción de edad o que necesitan cuenta de CivitAI para su uso, de nuevo nada más copia y pega el código API/Token de CivitAI en su respectiva celda y el notebook hará el resto. Si se fija en el código del notebook notará que tiene enlaces de Hugginface que no necesita token (a no ser que tenga un repositorio privado) ya que no tiene restricciones. Pero como le comentaba al otro negro, CivitAI aún con todos su problemas es más fácil de navegar y encontrar recursos que en Hugginface. >Nova Anime XL Si revisa el código del notebook notará que la versión que descarga es la v8 mientras que el desarrollo actual del modelo ya va por la v10, ojo, no siempre en la IA más nuevo ≠ a mejor pero igual es algo a tener en cuenta y no solamente este limitado a lo que trae el notebook por defecto y pueda experimentar más a gusto. >Potros y Conducir o Xenomorpo Vas a tener que reformular bien esa pregunta, no entendí nada, kek. >PonyXL Justamente lo que dije que ya no se usa, y sobre todo no se lo recomiendo si quiere evitar el contenido western, ojo, no soy detractor de Pony ni del contenido western, pero esta cayendo en deshuso y en el olvido. De nuevo, hoy día todo gira en torno a Illustrious y Noob. >¿Hay alguna manera correcta o general de escribir promts? Si, tags de Danbooru son algo más preciso y conciso que el lenguaje natural. Limítese a lenguaje natural en modelos anime dentro de lo mínimo posible y piense en tags de Danbooru cuando vea una imagen. Un ejemplo correcto de cómo componer tu prompt en un modelo anime sería así: "1girl, black hair, black jacket, black pantyhose, black skirt, blazer, blurry, blurry background, breasts, bright pupils, crossed legs, feet out of frame, halo, hand on own thigh, holding, holding pen, indoors, jacket, large breasts, long hair, looking at viewer, miniskirt, monitor, on chair, pantyhose, pen, red eyes, sitting, skirt, solo, straight hair, sweater, very long hair, white pupils, white sweater," Así describes lo que tiene el personaje, sus características, proporciones, su ambiente, su vestimenta, fondo, pose, que tanto se verá del personaje y qué no (los pies fuera del marco) etc, ya después tú decides que más va en los prompts positivos y negativos, si añadir más o menos, aparte de los típicos prompts de calidad ya sea masterpiece, best quality o worst quality, low quality. Yo lo que siempre hago es recomendarle a la gente que vaya a Danbooru e investigue tags estos incluso tienen una wiki pero nadie hace eso kek, así que lo que hago es recomendarles este etiquetado automático trae muchos modelos pero por lo general uso dos, el que viene por defecto y el eva02-large-tagger-v3 para cuando realmente quiero la mayor cantidad posible de tags de una imagen. Básicamente "leerá" la imagen por usted y le dará sus tags. >WaifuDiffusion Tagger (Etiquetador automatico <Creo que el notebook de ReForge lo trae en las pestañas de extensiones https://huggingface.co/spaces/SmilingWolf/wd-tagger Se me olvidaba existe un rango calificativo de si una imagen es lasciva o no, si escribes "general" en positivos estas técnicamente bloqueando todo el contenido NSFW de tu resultado final. Si escribes "sensitive" estas permitiendo un contenido ligeramente subido de tono a tu prompt. Si escribes "questionable" aumentará el contenido lascivo, "Explicit" ya es porno. Si escribes "nsfw" o "explicit" en negativos también bloquearas gran parte de contenido NSFW a tu resultado final, etc. Usa el rating de imágenes a consciencia dependiendo del resultado que quieras. >¿Qué es un pony y en qué se diferencian los nombres de los modelos? Volvemos a Pony y las ramificaciones de modelos, verás SDXL es un modelo grande y se le ha logrado entrenar en diferentes ramificaciones. En este caso PonyV6 fue entrenado por un western para contenido Furry, NSFW y lo adivnaste My Little Pony, kek. Fue el meta por un buen tiempo, si bien el modelo siempre estuvo orientado más al contenido western supongo que le puedo dar crédito de que ayudó a mucha gente a salirse de SD 1.5 el caso es que Pony debido a un error de entrenamiento esta tan frito que sus loRAs puede que no funcionen en otros modelos que no estén basados en el PonyV6 original. Afortunadamente llegó Illustrious y la comunidad lo prefirió como el nuevo meta, digamos que no voy a extrañar la era Pony, kek. >y en qué se diferencian los nombres de los modelos?
[Expand Post]Bueno, en CivitAI pony tiene el simbolo de un caballito, Illustrious esta marcado como "IL", NoobAI-XL esta marcado como "NAI" (esto puede causar confusión con "NovelAI", SD 1.5 esta marcado como "SD 1.5", SDXL como "SDXL" y así, es para guardar registro de qué se basa cada modelo y no te confundas al momento de usar loRA en estos, por ejemplo si bien NoobAI-XL esta basado en Illustrious si usas un LoRA de Illustrious en NoobAI Vpred tienen problemas notables y es que la brecha de entrenamiento entre ambos modelos es demasiado grande. >Illustrious /¿Qué es eso? Responderé esa pregunta por el otro negro, Illustrious es el meta actual de los modelos de generación de imágenes tipo anime y a diferencia de Pony es un modelo verdaderamente diseñado por y para el anime. Y que curioso los mejores modelos con estilo de anime open source siempre vienen de países asiáticos, en este caso Illustrious es de Sur Corea, Illustrious es un modelo SDXL avanzado, con mucho mejor entrenamiento, un dataset mucho mayor y mejor adherencia al prompt. Si bien la V01 se volvió absolutamente uno de mis modelos favoritos, NO lo recomiendo para novatos. Y bueno creo que eso es todo, si tiene alguna duda o algo más sigo aquí.
>>14637 ¿Qué tal, negrín? Solo quiero decirte que no me he muerto, solo he andado ocupado. Y pues no pude activar la WebUI no aparecía el Link que me llevaba a la otra página como tú decías. No sé si sea por hacerlo en tablet, por ni ponerle modelos o loras personalizados o porque simplemente soy tan autista que ni lo vi. El punto es que las imágenes que mostré las generé en civitai con su interfaz. Tenía bastantes créditos acumulados sin hacer nada... Pero ya me quedan muy pocos y es molesto así que volveré a intentar cuando esté libre... En fin, te dejo con lo mejor que saqué de esas andadas.
(2.20 MB 1152x2016 00008-1305.png)

(1.98 MB 1536x1536 00024-2147.png)

(2.38 MB 1536x1536 00026-5049_v2.png)

(2.26 MB 1536x1536 00018-4503.png)

(2.74 MB 1248x1824 00015-3165759517 v2.png)

>>14646 ¡Hola de nuevo! pues sí están mejores que los resultados que mando la primera vez, tanto anatomía y tienen menos ruido, pero siguen teniendo ese look indistinguible de Pony que de nuevo afortunadamente ya esta en deshuso, además de muchos artifacts. Si bien el NSFW representa apenas el 5 % de mi generaciones al menos los modelos de Illustrious (pic related es de la v01) me convencieron de dejar de usar Pony para NSFW que era el único fallo que sentí que tenía Animagine en su día y el NSFW sentí que era el único atractivo que le veía a Pony así que al menos Illustrious y Noob combinan ambos mundos para mí, le recomiendo experimentar con modelos más nuevos basados en Illustrious y/o Noob así tendrá un rango más amplio de estilos con que experimentar y pueda lograr resultados más expresivos y/o con ilusión de movimiento sí así lo prefiere. Dejo algunos resultados un tanto reciclados de cuando estábamos ocultos en otro tablón.
Esto no es lo que tenía planeado subir pero digamos que voy a tener menos tiempo para usar SD me han surgido unas dificultades, por suerte sigo teniendo acceso a NovelAI sé que no es lo más ideal ya que el tema es usar SD y los modelos IA Open Source pero todavía sigo pensando en pasarlas por SD WebUI aunque al menos pude usar el equivalente al HiResFix que tiene con el crossover de Urumi x Cathyl aunque NAI tiene unas cuantas opciones un tanto ocultas para sacar un mejor resultado y es en parte debido a que es un juguete con esteroides y tiene que ser lo más amigable posible con el usuario.
No he posteado nada por aca ultimamente dado que no me he encontrado de animos, pero dado que soy de los pocos anons en este hilo me siento en la obligacion de postear algo aunque no sea mucho. Hoy he intendado hacer una Medb de Fate GO con la expresion del panel de manga adjunto, logre resultados mas bien decentes luego de varios intentos con img2img y Controlnet.
(1.32 MB 832x1216 00012-186162269.png)

(1.26 MB 832x1216 00021-1286878856.png)

(1.22 MB 832x1216 00041-3834225888.png)

(1.35 MB 832x1216 00045-643470471.png)

(262.92 KB 832x1216 5WXHN49VRDS0WJDT8MCR08M5P0.jpeg)

>>14647 Hola, negrín, aquí el novato de nuevo. Hasta ahora he estado generando y copiando el estilo de artistas que me gustan con la webUI. Es un mundo totalmente provechoso del que me alegro haber entrado, y no solo para el porno pero es parte de lo que hace a la IA ser la IA. El caso es que ya he vuelto a la civilización desde mi rancho meado y por fin tengo mi laptop de vuelta. Nada del otro mundo pero no es un armatoste. Y pues algo que me molesta es el límite de tiempo que da la UI con Grados... Así que es probablemente que deba descargar los modelos y volver mi tostadora mi nuevo edén. ¿Qué cosas debo descargar exactamnete y no son virus rusos? Si te preguntas qué haré con el espacio porque cada modelo pesa mínimo 6GB, pues me pedí un disco duro portátil de TB, por lo que el espacio no es ningún problema. Eso quería saber, además de ir preguntando las cosas que hay en la interfaz, como la cantidad de pasos (steps) y por qué entre más haya, más deforme sale el resultado y así. Te dejo con los mejores resultados que obtuve. >>14654 Hola, negro, soy nuevo. ¿Cómo hiciste tus picas? Imagino que photoshop o algo para los diálogos pero me refiero al modelo.
(4.10 MB 1728x3024 00006-1808054666.png)

>>14659 Hola negro, no eres el único que se encuentra falto de animo, mi situación ha sido difícil y digamos que mi oficina ahora es un asadero, así que me es más difícil concentrarme para usar SD así que quizás termine reciclando más pics como las del pasado martes 26 que son de hace casi un año. Esta sí es más reciente a cambio pero no es la sesión semanal que quería subir. Generalmente hacer Img2Img después de Control Net es lo mejor que puedes hacer, ya que así no se nota tanto la imagen base y te libras de artifacts del control net, aunque también pudieras crear las poses tu mismo en equis programas de edición o hacer un sketch para que la IA lo siga con el control net, a veces hago eso, muchas de mis imágenes favoritas use Control Net para lograrlas, lo único malo es que Colab por su poca RAM tiende a crashear más con el control net, pero creo que a veces puedo usarlo 8 a 10 veces seguidas antes del crasheo. >>14661 Experimentar con estilos es uno de mis aspectos favoritos de la IA, gracias a los modelos Illustrious que son capaces de fusionar estilos y no son tan dependientes de LoRA's. También me gusta descensurar de vez en cuando con Inpaint. >Y pues algo que me molesta es el límite de tiempo que da la UI con Grados Bueno, tengo una alternativa, hay otro servicio de GPU en línea que le puedo enseñar a usar es igual de fácil que Colab pero es ligeramente riesgoso, se llama Kaggle ofrece 30 horas de GPU mensuales totalmente gratuitas... pero, esta censurado (algo malo tenía que tener) el chiste es que el notebook esta encriptado para que no lo baneen yo llevo mi cuenta 100 % intacta por más de un año usándolo, dicho esto no voy a negar que sí he conocido a varios con la mala suerte de ser baneados ya que la encriptación no es perfecta, pero el servicio vale la pena el riesgo, solo necesita su numero de celular para verificar la cuenta, así que recomiendo que Colab siga siendo el principal y Kaggle la alternativa, generalmente si espera un día o dos Google Colab le recarga las seis horas gratuitas. >¿Qué cosas debo descargar exactamnete y no son virus rusos? Es una pregunta ambigua, generalmente descarga modelos de CivitAI y Hugginface son sitios seguros dónde suben recursos de IA, hay muchas extensiones. Por ejemplo los modelos checkpoint, VAE y loRA suelen terminar en extensión ".safetensors", los adetailer que uso suelen terminar en ".pt" y los upscaler suelen terminar en ".pth" Aquí arriba mencioné más sitios: >>14634 pero admito que no los he probado. Generalmente estos sitios son seguros: <Modelos upscalers para HiResFix https://openmodeldb.info/models/4x-NomosUni-span-multijpg <Adetailers que uso ignore que dice "unsafe" si lo fueran me hubieran baneado hace tiempo https://huggingface.co/Anzhc/Anzhcs_YOLOs/tree/main <Control net lite (los mismos del notebook) https://huggingface.co/bdsqlsz/qinglong_controlnet-lllite Etc, pero esas son las herramientas que uso. >como la cantidad de pasos (steps) y por qué entre más haya, más deforme sale el resultado Esto se puede deber a que el modelo esta sobre leyendo demás la orden (el prompt) cuando voy a SD lo mínimo de steps que suelo usar son 28 y lo máximo a 40 steps, a veces uso 30 y a veces uso 32 steps. Generalmente estos días no salgo de esos números en Text2Img o Im2Img. Es gracioso porque en Inpaint es lo opuesto y más steps suele ser beneficioso uso como entre 50 a 80 steps en una sesión de Inpainting. Ojo si bien más steps no significa más calidad, yo he tenido buenos resultados a 60 steps en el pasado haciendo Txt2Img múltiples veces, pero puede depender tanto del modelo y/o configuración que use. >Hola, negro, soy nuevo. ¿Cómo hiciste tus picas Un muy buen amigo me tuvo lastima ya que soy pobre y me dio la oportunidad de usar NovelAI simplemente prestándome su cuenta con un par de reglas, odio decirlo ya que es un modelo privativo pero es que el servicio es simplemente así de bueno manejando texto y muchas cosas, el texto no esta al nivel de Chat ojete 4 pero es algo que no podemos alcanzar en SDXL debido a problemas de entrenamiento del modelo base lo único similar que tenemos en el open source de buen manejo de texto sería FLUX pero el entrenamiento de Flux nunca llegó a nada (y curiosamente los de NAI admitieron usar VAE de Flux para su modelo actual), tengo muchas imágenes de NAI V4.5 de sus dos versiones pero prefiero subir mis sesiones de SDXL ya que que esa la idea de estos hilos. Aprender a usar la IA open source que al final siempre será más versátil y sin censura y con menos restricciones. Así que para SD la única opción sería añadir el texto tu mismo con un programa secundario. Lamento no haber respondido antes a ambos, estaba ocupado.
(1.48 MB 832x1216 00001-2410379440.png)

>>14662 Estoy fuera así luego me explayo, pero me refería más bien al programa para correr la generación de imágenes, recuerdo haber leído alguna vez que recomendaban algunas para tener la interfaz en la PC pero el recuerdo es borroso cuanto menos... >Flux ¿Con lo de generar texto te refieres a generar historias o algo así? No te entendí muy bien. ¿Y cuanto cuesta la NovelAI para tenerlo como opción aunque soy pobre. >si esperas un día o dos Ese es el problema, cuando me llega la inspiración o algo que quiero probar el peor sentimiento es el de "no te quedan creditos", es como ir a una cabina y cuando vas de pro en GTA te digan que tu medio hora acabó. Aunque no es tampoco el fin del mundo. El caso es que sí apreciaría saber usar el Kaggle como opción a costa del número. Simplemente me consigo otro como el Dun. >gpu ¿De qué son esas siglas? >aldo Antes de que me olvidé otra vez, en la UI, dice que el controlNet Máx o algo así "ya funciona", ¿es verdad? O lo sigo dejando si activar...
(2.34 MB 1024x1024 4o Image Gen 1-Reisen.png)


(1.21 MB 832x1216 NAI v4.5 Full s-3709212716.png)

(1.27 MB 1024x1024 Flux Texto.png)

(1.97 MB 1536x1536 Texto SDXL.png)

>>14664 >pero me refería más bien al programa para correr la generación de imágenes, Bueno en ese caso hay varias interfaces para correr SD dependiendo de lo que tenga, el viejo A1111 esta obsoleto y lleva actualmente un año sin actualizare, afortunadamente ReForge volvió a las andadas y esta mucho más optimizado y actualizado, el DEV es Chileno. Creo que esto debería seguir funcionando, si tiene una maquina lo suficientemente poderosa podría correrlo. <nstala Stable Difussion WebUI Local y cualquier otra UI con un Click! (ir a Releases y descargar el archivo .exe) https://github.com/LykosAI/StabilityMatrix?tab=readme-ov-file >¿Con lo de generar texto te refieres a generar historias o algo así? No, no me refiero a los modelos de lenguaje, los modelos actuales de generación de imagenes pueden manejar dialogos de texto y algunos hasta infografía, el mejor que he visto es Chat GPT 4o, el segundo mejor es Google Gemini, le dejo varios ejemplos de imágenes recicladas excepto Gemini y NAI de cómo diferentes modelos manejan el texto, en este caso la peor manejando texto es SDXL pero claro ni Chat ojete y ni Gemini le van a dar una oppai loli haciendo una turca, kek. En este caso el texto que maneja es una sola palabra y el nombre del personaje "IB" en el fondo. >¿Y cuanto cuesta la NovelAI 25 dolares al mes, lo uso a diario y se ha vuelto una valiosa herramienta para terminar mis imágenes ya sea que este dentro o fuera del servicio de GPU. Aunque tiene algunas limitantes odiosas como los tokens de mierda, pero al menos como servicio de generación de imágenes tipo anime, no tiene censura. Lo privativo vs open source se resume a potencia vs versatilidad (este es el lado del Open Source) >te digan que tu medio hora acabó Comprendo el sentimiento, aunque si quiere, use esta aproximación que le funcionó a un amigo, use Colab un día si, el día siguiente descanse Colab y planee lo que que generar para el próximo y que LoRA, personajes u extensiones o estilos que vas a usar. Así tendrás seis horas seguras y repites lo mismo al día siguiente, mi amigo esta complacido con este proceso y no necesita otras GPU. Aunque le digo que muchas veces se me ocurren buenas ideas que por no poder abrir la GPU cuando yo quiero (ya sea por trabajo u otros) simplemente se me olvidan. > sí apreciaría saber usar el Kaggle Perfecto, este es: <Kaggle https://www.kaggle.com/ Haga una cuenta, verificarla con su numero y yo puedo guiarlo mediante la instalación del notebook (aunque es básicamente lo mismo) Para mí hoy día el combo de Colab + Kaggle es más que suficiente, aunque antes usaba otro servicio de GPU. >¿De qué son esas siglas? Graphics Processing Unit o Procesador de gráficos por unidad recuerdo que el antiguo OP nos dejó poco después de que se consiguió su RTX 4060 TI de 16 GB de VRAM aunque en esa época SD 1.5 todavía era relevante pero le debió haber salido bien la inversión. >controlNet Máx o algo así "ya funciona", ¿es verdad? Ehhh... 50/50 como le comentaba al otro negro Colab ofrece muy poca RAM (no confundir con VRAM) así que ProMax tiende a crashear más que el otro Control Net Lite (en este no necesite cambiar nada), puedes quitar los argumentos "cuda stream, cuda malloc y pin shared memory" y agregar el argumento: --lowram pero sino te sientes confiado o no sabes que hacen esos argumentos mejor solo agrega --theme dark al inicio para no quedar ciego, Control Net es una herramienta muy valiosa y que me encanta pero por el momento creo que es mejor que no te compliques mucho ya que apenas estas iniciando.
(111.79 KB 832x1216 IMG-20250902-WA0003.jpg)

(105.86 KB 832x1216 IMG-20250902-WA0002.jpg)

(146.21 KB 832x1216 IMG-20250902-WA0001(1).jpg)

(131.61 KB 832x1216 IMG-20250902-WA0004.jpg)

(116.91 KB 832x1216 IMG-20250902-WA0005.jpg)

>>14666 Trips satánicos checados, ojalá no sean una señal... Bien. Descargaré eso cuando tenga acceso a mi laptop. >ahora manejan diálogo Ah, eso ya lo sabía, no por nada en tiktok se hacen tendencia eso de fotos realistas y puro terror con diversos personajes, yo mismo generaba esas. Aunque claro solo sirve para SFW son contar con el límite de generación que creo que es 5 por día. Tendré que probar SDXL, ¿tienes el link? Aunque bueno, supongo que a efectos prácticos bastaría con combinar un poco de tags y generación de texto amplio. >dentro o fuera del servicio del GPU? ¿Cómo así? ¿A qué te refieres? >aldo ¿Trabajas en algo relacionado a la generación de imágenes como marketing, etc? ¿O todo es por puro amor al arte? ¿Y en qué sentido es más valiosa? ¿Qué tiene que las otras no para considerar comprarlo de forma no irónica? ¿Los tokens son como los de CivitAI? ¿No se supone que ya estas pagando por usarlo? Qué putos kek >Kaggle Ya tengo una cuenta verificada con mi número. Prosiga con la explicación, caballero. ¿Algunos consejos preventivos para que no puedan rastrearme el culo y banearme? Dices que llevas más de 1 año con ella, quiero aprender a traficar imágenes xd Sí, probablemente a mí también me valga con ambas GPU, la cosa es que Colab se me hace muy poco y a la mínima que me quitan libertad me pongo mi pasamontañas y busco otras opciones. >el otro OP nos dejó Qué puto. Conoció el cielo y ya no se quiso seguir juntando con mortales como nosotros. ¿Y de qué sirve ese RTX exactamente? ¿Cuál es la diferencia entre Ram y Vram? Por juegos y así conozco los términos pero nunca me molesté en aprender hasta ahora. Justo estaba pensando en ir "chipeando" mi máquina hasta volverla más potente de a pocos. Aunque creo que una PC es directamente mejor pero no es que me la pueda permitir kuek. >muchas complicaciones Te haré caso, igualmente tengo tiempo y así, cuando veas que esté listo para otras interfaces o aditamentos me muestras. Por ahora aún sigo trasteando con la UI como niño. En la sesión de hoy me preguntaba si podía hacer imágenes genderbender, y sí pudo, aunque con ayuda de prompts con los que tuve que pelear que generaban varias caras. A veces salía bien, pero creo que ya descubrí como hacerle. Te dejo con algunos resultados... El personaje el Lighter del ZZZ en caso te lo preguntes. >aldo Sé manejar o ando aprendiendo photoshop (crackeado porque no le piensa dar ni un centavo a esas ratas de adobe) para arreglar mis imágenes cuando toque.
(20.01 KB 327x605 Kaggle Opciones.png)

(56.77 KB 811x558 Celda de descarga.png)

(57.30 KB 837x598 Celda de LoRA.png)

(83.03 KB 814x679 Adetailers especificos.png)

(2.22 MB 1892x1551 Inpaint Clownpiece.png)

>>14668 ¡Hola de nuevo! Ok, vamos por partes. >¿tienes el link? No realmente, cualquier modelo basado en SDXL tendrá un pobre manejo de texto, de hecho el texto "Ib" en el fondo ni siquiera fue intencional kek, salió porque le aumente la fuerza al personaje y no quise buscar un loRA pero el modelo medio la reconoce, pero me pareció buena idea dejar el nombre y convertirlo en libros apilados en el fondo ya que fue parte del tema del juego. Me alegre cuando mi amigo que me presto NovelAI la reconoció ya que nos encantó ese juego, es de horror en RPG Maker. A lo mucho es una suerte que salga una sola palabra de SDXL sin estar deforme, pero he notado que otros usuarios entrenan loRA con Globos de texto predeterminado no es mucho pero es algo: <Recuerdo usar estos LoRA en modelos basados en Illustrious: https://civitai.com/user/degeneratemomofan/models Ojo, algunos dicen que simplemente hay que entrenar a SDXL en texto... pero ya van años y nadie lo ha hecho. >¿Cómo así? ¿A qué te refieres? Me refiero a que cuando prendo la GPU ya sea Colab, Kaggle u otro. Aprovecho el servicio de Inpaint de NovelAI es realmente potente. Y si estoy fuera de la GPU puedo seguir usando NovelAI y hacerle retoques antes de volver a mandarla a SD o sea ya sea que este dentro o fuera del servicio de GPU, NovelAI sigue siendo muy útil, lo que me tardaba una hora haciendo Inpainting dentro de SD me tardo menos de 15 minutos en NovelAI. >¿Trabajas en algo relacionado a la generación de imágenes como marketing, etc? ¿O todo es por puro amor al arte? No trabajo en nada relacionado a la generación de imágenes, ojo, si tuviera GPUs lo suficientemente potentes me gustaría meterme al mundo de desarrollar modelos y/o fusionar modelos para que luego los usen cuatro gatos y me dejen una mala reseña kek, pero la situación no me da ni para entrenar LoRA algo que al menos se puede hacer en Colab pero con tantos apagones nunca me atreví a ello. Así que solamente hago imágenes por diversión y trato de que me queden lo más bonitas posibles y luego si puedo enseñar a usar SD pues mejor aún. >¿Y en qué sentido es más valiosa? ¿Qué tiene que las otras no para considerar comprarlo de forma no irónica? Bueno, aparte del servicio de Inpainting, básicamente estas pagando básicamente la por comodidad y la potencia, NovelAI es algo así como el meta de la generación de imágenes IA de anime, todos los desarrolladores de modelos open source apuntan a tener el nivel de calidad de NovelAI sé que no estuvo en ese tiempo, pero en su momento NAI V3 fue la bomba al igual que lo fue Dall E 3 para los normies. Había puesto la barra muy alta para todos los desarrolladores de modelos open source. Y lamentablemente los modelos privativos siempre van a estar un paso adelante del open source en potencia y odio decirlo, pero NAI V4.5 Full es literalmente de los mejores modelos que he probado en mi vida. Otra cosa que hace especial a NovelAI es que de no haberse filtrado sus primeros modelos la comunidad open source no hubiera llegado a ningún lado en temas de NSFW como estamos ahora. >¿Los tokens son como los de CivitAI? ¿No se supone que ya estas pagando por usarlo? Un poco como los de CivitAI, mi amigo pagó por generaciones ilimitadas PERO, hay ciertas funciones que están restringidas mediante tokens. Por ejemplo, ¿quieres generar a resoluciones más altas que 1024x1024? te cuesta tokens, ¿quieres hacer el equivalente de HiResFix de SD? te cuesta tokens, ¿quieres hacer upscale a 4k? te cuesta tokens, ¿quieres usar la transferencia de estilos? te cuesta tokens, ¿quieres quitar fondos? te cuesta tokens, ¿usas una imagen de muy alta resolución para inpaint? te cuesta tokens... etc, etc. etc. Cuando lo pongo así no suena tan genial NovelAI, pero el modelo 4.5 Full es muy bueno, eso sí el 4.5 Curated leí que esta censurado, menos mal que recapacitaron y lanzaron la versión 4.5 Full sin censura, así que estuvieron así de cerca de volverse unos putos de mierda totales, además todo eso que mencione lo puedo hacer gratuito desde la SD WebUI. >¿Algunos consejos preventivos para que no puedan rastrearme el culo y banearme? Bueno, Kaggle es un buen servicio con políticas de mierda y es gracioso porque le pertenece a Google pero a Colab no les importa que generes una mona china siendo penetradas por todos los orificios. Para instalar Kaggle tengo dos notebooks funcionando. Pero esencialmente hay que tener estas opciones así: >GPU T4 x2 >Lenguaje Python >NO PERSISTENCE >Always use Latest Enviroment >Internet On Literalmente Kaggle ofrece dos GPU T4 pero creo que el notebook solo esta configurado para usar una aunque un amigo me dijo que lo forzó tanto una vez que logró activar la segunda, kek (no recomiendo hacer esto) De resto no sé, supongo que el chiste es no abusar de Kaggle, o sea sí lo he usado casi siete horas seguidas a veces pero no lo abro todos los días solo pocas veces que espero que se me recargue las seis horas de Colab, por ejemplo ayer le estaba enseñando a usar Inpainting a otra persona en SD y pensé en usar Kaggle hoy aún con el calor. También recomiendo no subir imágenes que no hayas generado antes en Kaggle, me explico, las imágenes que generes quedaran encriptadas y en teoría son seguras de volver a subir a Kaggle, mi amigo quedó tan paranoico con Kaggle luego de su primer baneo que solo usa lectores de PNG alternativos en la red como este: <Lector de metadata alternativo a PNG Info https://pngchunk.com/ Aunque hasta la fecha no me han baneado por subir imágenes no encriptadas a Kaggle... pero lo mejor es no arriesgarlo, así que lo recomendable es que si genera algo en Kaggle y no lo termina en Kaggle pues llévelo a Colab y no viceversa. En teoría llevo dos años con Kaggle y digo eso porque el primer año mi cuenta estaba acumulando polvo antes de que encontrara el notebook encriptado definitivo y luego encontré uno mejor, pero nunca me han baneado. Tengo dos: <Notebook encriptado 1 en inglés: https://www.kaggle.com/code/nurnurirm/asdasd-050add/edit Notebook encriptado 2 en español: https://drive.google.com/file/d/1N88HHRtQWlG7vnAJ1-JD50Wr3ZG7PqNm/view Obviamente el que esta en español es mejor y más fácil de instalar los modelos deben ir dentro de las comillas rojas. Descarga el archivo y le da a importar como notebook. El primero no lo recomiendo tanto, aunque tiene 6 UI a instalar, pero en Kaggle solo te van a servir 4 y a medias. Ten también en mente que Kaggle no ofrece tanto espacio como Colab. Su almacenamiento es más limitado. En fin descarga el archivo .ipynb en Kaggle da click en File y entonces importar notebook. En Kaggle debería funcionar mejor el Control Net Pro Max debido a que literalmente ofrece 30 GB de RAM mucho más que Colab. >y ya no se quiso seguir juntando con mortales como nosotros
[Expand Post]Yo siempre voy a extrañar al viejo OP, él tenía la paciencia y conocimientos y experiencia para enseñar (mucho mejor que yo) pero si, el hecho es le salió bien esto de la IA y pues nos dejó, aunque al menos en su caso él si fue alguien que empezó desde cero y aprendió todo lo necesario a tiempo y al menos tuvo éxito con ello. No sé como le irá hoy día pero espero que este bien. >¿Y de qué sirve ese RTX exactamente? Para Gaming, trabajos audiovisuales e IA, actualmente NVIDIA tiene tremendo monopolio con la IA los que se compraron una tarjeta RTX lo suficientemente potentes podrán correr esto sin problemas, la GPU T4 que usamos es de NVIDIA también, es gracioso porque para que te des una idea la T4 es comparable a una RTX 2060 pero el chiste es que que la T4 esta especializada en IA así que por eso corre tan bien el SDXL en Colab sobre todo hoy día que las interfaces están más optimizadas que nunca, todos esperan que China derrote el monopolio de NVIDIA de las GPU. >¿Cuál es la diferencia entre Ram y Vram? RAM: Ayuda a tu computadora a hacer varias cosas rápido. VRAM: La tarjeta gráfica usa la VRAM para renderizar imágenes, video, juegos, IA, etc, por no decir mostrar cosas bonitas y fluidas en pantalla. Para mantenerlo lo más simple posible las tarjetas de NVIDIA si bien fueron pensadas ya sea para el gaming o el trabajo audiovisual inicialmente las RTX estaban listas de casualidad para la IA así que NVIDIA tomo ventaja de esto. >ando aprendiendo photoshop ¡Muy bien negro! yo me ayudo con GIMP el cual no deja de romperme el culo, pero ha sido valioso para ayudarme a terminar mis imágenes y por supuesto el Inpaint es una herramienta valiosa y trato de no olvidar lo aprendido de Inpainting en SD. Aunque dejo un ejemplo de que tan bueno es el Inpaint de NovelAI, la imagen original la generé en ya obsoleto Animagine XL 3.1 Si tiene alguna duda o algo más del proceso de instalación de este Notebook pregunte que aquí estoy.
(1.74 MB 1536x1536 00001-4732.png)

Un pequeño post y pensamiento al aire, generalmente ya no publico noticias IA y creo que por fin podemos dar por muerto a IllustriousXL, me explico OnomaAI como empresa incumplió sus promesas y no parecen tener intención de liberar los modelos Illustrious del 3.0 en adelante y el creador original de Illustrious abandonó esa empresa de mierda, kek. Espero que este siga trabajando en entrenar modelos y saque un sucesor espiritual, ya que Illustrious v0.1 fue de por mucho mi modelo anime favorito, de hecho me encantaron todos sus modelos hasta el 2.0. Al final tuve que darle la razón a los de NoobAI-XL no solo él modelo es mejor que Illustrious, sino que silenciosamente tomó la escena open source, y es que la mayoría de modelos que ven que dicen "basados en Illustrious" como Wai están mintiendo y realmente están basados en NoobAI, por lo tanto no me gusta mucho el giro que esta tomando la comunidad open source no solo de ocultar información a los usuarios sino de directamente mentirles solo para vadear una estúpida licencia y no dar crédito. Lo único que se puede hacer al respecto es que por favor entrenen sus LoRa en Illustrious v0.1 (no usen WAI) y si van a usar Noob entonces entrenen sus LoRA en Noob Vpred 1.0 para que no haya confusiones ni problemas de compatibilidad entre modelos, informe terminado.
>>14671 uso WAI para todo como que no esta basado en Illustrious!?
(1.94 MB 1152x2016 00005-2050.png)

>>14674 >uso WAI para todo como que no esta basado en Illustrious!? Pues sí he estado lurkeando y ponderando sobre esto un tiempo, esto es algo que no me esta gustando de la comunidad IA para nada y son las mentiras y ocultar información de parte de los autores de modelos. Verá, en resumen el 95 % de los modelos populares no esta basado realmente en Illustrious sino en NoobAI, el autor de WAI miente cuando dice que el WAI v15 esta basado en Illustrious v1.0 si acaso es un merge de NoobAI eps v1.0 y la v0.5 ¿Por qué el autor miente? Fácil se salta la licencia de NoobAI que prohíbe cualquier forma de comercialización así los autores de modelos se saltan esa licencia sin dar crédito su autor original. Ahora se preguntará, ¿en que nos afecta realmente? Obviamente las licencias valen verga a todos que no sean los autores de modelos, pero si nos afecta en lo que a LoRA se refiere, mucha gente esta entrenando sus LoRA en el modelo incorrecto y no saben lo que están usando realmente y esto creara problemas de compatibilidad a la larga. En este caso lo correcto sería entrenar LoRA para Illustrious v0.1 para mayor efectividad y mayor compatibilidad o NoobAI EPS 1.0 y/o entrenar un loRA exclusivo para la Noob Vpred 1.0. Con esto no le digo que no siga usando WAI (así el autor sea un mentiroso) o al menos siga usándolo para generar sus pics si gusta, pero nunca fue el modelo correcto para entrenamientos. Por este tipo de cosas no me gusta probar muchos modelos hoy día y me quedo con los modelos base de los autores originales, pero lamentablemente no puedo salir a predicar en el desierto a los prompters que no entrenen sus loRA en el modelo incorrecto ya que el daño, mentiras y desinformación ya esta más que hecho, que de por sí es básicamente lo opuesto al Open Source, es un poco choqueante pero la comunidad se ha vuelto así.
>>14669 >Ib Recuerdo el juego de hace varios años, me lo volví a ver en su versión definitiva y me sigue pareciendo buen juego, de hecho creo que podría sacar una que otra inspiración de ahí en caso lo vuelva a visitar. Por el momento, haré imágenes genderbend de Larry kek >SDXL en texto ¿Y por qué nadie lo hace? No creo que esté todavía por la labor de entrenar loras y así, pero me parece curioso que siendo tan simple aún nadie se haya puesto a darle. >inpaint de novelAI ¿Qué era o hacia el inpaint? Todavía no voy por ahí. Aunque te iba si tenías el tag para el estilo de cabello de la primera pic. Lo demás lo tengo controlado, pero no consigo justo ese... O si tienes otro tageador de imágenes o conoces a un personaje que lo tenga, me terminé obsesionado con la imagen porque no me salía kek... El tipo de flequillo es Himecut, pero lo otro no lo sé... >no trabajo en nada de Oh, vale, entonces se agradece su labor, buen samaritano >enseñar a usar SD Ahora que lo pienso... yo no sé usarlo, o no sé bien qué es "saber usar" SD... >NovelAI A la mierda... Pues sí que me lo planteas bien, aunque por ahora voy a dejar en paz la cartera hasta que aprenda bien las bases y no esté gastando solo por tener un pisapapeles que apenas aprenda a usar. Y bueno, es obvio y pasa con todo que lo de paga siempre es mejor, aunque casos como Apple te hagan levantar una ceja. ¿Qué es hiresfix y transferencia de estilo? ¿Gratuito desde la UI de SD, a qué te refieres, funciones? >kaggle y Colab ¿Ambos se recargan por día, no? >datos técnicos Merci, mon ami >GIMP ¿Cuál es ese? Aunque bueno, creo que con Photoshop me basta para borrar desperfectos como dedos extra y demás, es muchísimos más simple que dibujar y también se puede insertar elementos que encajen en tu imagen como manos ya hechas en varias poses.
>>14678 >aldo ¿Cómo cuantos prompts negativos y positivos es recomendable usar de forma óptima para que genere cosas bien?
(4.60 MB 1872x2736 Noob_00020-2908_v2.png)

>>14678 Hola de nuevo, ya estaba a punto de cerrar, pero voy a responder sus dudas como pueda. >¿Y por qué nadie lo hace? Simple Ese es el problema no es simple, supongo que costaría demasiado. No solo habría que re-entrenar el modelo para algo que ni siquiera estaba planeado hacer habría que entrenar un VAE y el costó de entrenar un VAE así sea un archivo de 300 MB es lo mismo que cuesta entrenar un modelo entero y el VAE de SDXL es muy incompatible con el texto. Algunos usuarios teorizan que lo único que queda es entrenar lo suficiente SDXL hasta que se convierta en otro arco/arquitectura totalmente distinta pero eso tomaría tiempo, ya no estamos en 2023 dónde un fallo de entrenamiento significaba un gran avance ahora todos juegan a lo seguro y prefieren no retocar demasiado lo que ya esta hecho. Así que aparte de LoRA entrenados en texto no hay mucho que se pueda hacer. Aunque al menos hoy día es más fácil generar una Uzaki Chan con texto en su busto de "Sugoi dekai" sin que este texto salga super deforme como antes. Aunque personajes como Jane Doe con su logo "STAB" en el hombro solo me ha salido bien únicamente en NAI 4.5. >¿Qué era o hacia el inpaint? Es una herramienta de rellenado generativo de la IA le llamamos Inpaint porque "pinta adentro" (kek) de la imagen, en efecto el modelo "leerá" la imagen y tratará de rellenar y modificar los espacios de la imagen que tú marques siguiendo tus prompts manteniendo el estilo de la imagen. Es una herramienta muy poderosa y trato de que todos la aprendan realmente yo ya dejé de subir mis ejemplos de Inpainting pero aquí hay algunos que subí antes: >>7105 y >>7107 y una descensura de la cuca de Bocchi. >>13698 Hubo un anon más arriba que no le gustó mis parámetros de Inpaint pero hasta la fecha me funcionan. Eso si, quizá la peor limitación del Inpaint es que funciona mejor a resoluciones base de SDXL mientras más alto será más tardado (también depende de la GPU) y peor mientras que con Photoshop no hay un limite de resolución. >HimeCut Sí luce como una variante del himecut pero sin los sidelocks, si no hay un tag especifico para ese corte (y creo que no) supongo que pudiera recrearlo con prompts ya sea himecut en positivos y sidelocks en negativos, o también olvidarse del tag de himecut y escribir long hair, blunt bangs, hair behind ear, hair over shoulders y con sidelocks en negativo también por si acaso. >o no sé bien qué es "saber usar" SD Bueno supongo que saber usar SD en parte se debe a entendimiento e intuición y paciencia. Generalmente trato de que la gente aprenda lo más básico, text2Img, Img2Img es lo más básico de lo básico, luego esta control net para poder tener control de tanto las poses y composición de la imagen con tan solo aprender esto ya estará por encima del prompter promedio, el Inpaint es realmente útil para tanto arreglos grandes y pequeños que el adetailer no puede alcanzar, el adetailer es un Inpaint automático pero útil para obtener buenos ojos y rostros ya que estos están entrenados específicamente en hacer una sola cosa. Regional Prompter es esencial para obtener múltiples personajes en una sola imagen con diferentes características, samplers que pueden darle mejores resultados, entrenar loRAs... Y supongo que pudiera seguir y seguir, hay mucho que aprender aquí, ya los usuarios más avanzados crean sus propios workflows personalizados en ComfyUI. >¿Qué es hiresfix El HiResFix es una herramienta muy básica para mejorar nuestras imágenes ¿te fijas como la mayoría de mis imágenes son resolución 1536x1536 ó 2048x2048 a 2304x2304 bueno, bueno en un pasado eso solo se lograba con HiResFix, lo que hace esta en el nombre, primero generas una imagen en Text2Img, luego activas el número seed de la imagen, que es básicamente un código de barras único para cada imagen, luego activas la opción de HiResFix seleccionas un upscaler de calidad (¿te acuerdas que mencione Remacri o AnimeSharp?) y luego después de seleccionas una resolución mayor digamos a 1.5x de la imagen original y entonces el modelo trabajará en darte una mayor resolución (Hires) y en arreglar (Fix) errores de la imagen original, ojo también es posible que te de errores nuevos. Ajustando el Denoise Strenght tú decides que tanto quieres que se acerque o aleje de la imagen original. Te digo esto del pasado porque modelos basados en Illustrious (los originales) del v1.0 en adelante estos pueden manejar resoluciones base de 1536x1536 la serie 3.0 en adelante parece que soportan resoluciones de 2048x2048x, pero lamentablemente parece que OnomaAI no tienen la intención de liberarlos. >¿Gratuito desde la UI de SD, a qué te refieres, funciones? Bueno creo que ya explique las funciones kek, pero cuando estoy dentro de SD me gusta instalar esta extensión para quitar fondos, no es perfecto pero es mil veces mejor que esos servicios en línea limitados de quitar fondos además tiene un modelo entrenado en anime. >Herramienta de quitar fondos en SD https://github.com/AUTOMATIC1111/stable-diffusion-webui-rembg También en la sección de extras hay una extensión para hacerle upscale a las imágenes y estas puedan llegar a 4k o más pero eso ya casi ni lo uso la verdad. Pero el punto es, casi todo lo que NAI cobra ya puedo hacerlo gratuito en SD pero por supuesto sigo estando agradecido con mi amigo que me prestó su cuenta. >y transferencia de estilo? Casi se me olvida esta pregunta, hay una extensión llamada NoobIPA adapter básicamente subes una imagen, el modelo la "lee" y la imagen que generes tendrá un estilo similar a la imagen que hayas puesto de referencia es útil para cuando no hay un LoRA de equis estilo que quieras probar. O incluso puede potenciar el efecto del LoRA del estilo que uses u obtener más mezclas diferentes. Los de NovelAI le llaman "Vibe Transfer" ambas funcionan igual de bien. Pero los de NAI van a ir un paso más allá e integrar una opción de "transferencia de personaje" no he encontrado un equivalente open source a eso, y es que si no te dejan entrenar LoRA pues es normal que te den un método para generar personajes que no reconozca el modelo. >¿Ambos se recargan por día, no? <Colab Seis horas gratuitas en un día, recomendado esperar un día o dos para que se recarguen completas <Kaggle 30 horas gratis semanales, recomendado usar cuando estés esperando por Colab. Afortunadamente nunca me han baneado de Kaggle pero he conocido a varios que sí, así que recomiendo no abusarlo y que Colab sea el principal. Tengo otro servicio pero se volvió imposible de conseguir una GPU gratuita ahí... >GIMP ¿Cuál es ese? Es una herramienta gratuita de edición de imágenes Open Source, ende el Fotoshó para pobres como yo, kek. Yo combinando las herramientas de SD y GIMP es como logro la mayoría de mis imágenes desde hace un buen tiempo. Igual es muy arcaico el GIMP, si tienes Photoshop crackeado entonces sigue con este. >>14679 >¿Cómo cuantos prompts negativos y positivos es recomendable usar de forma óptima para que genere cosas bien? Depende del modelo, por lo general NO recomiendo usar squizo neg prompts de 1194 caracteres porque estos al final crearan conflictos en el estilo de la imagen. Un prompt negativo que se quedó conmigo desde hace dos años fue este: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, Pero igual esta viejo, un prompt negativo así estaría más actualizado: text, watermark, artist name, artistic error, bad anatomy, bad perspective, bad proportions, censored, worst quality, normal quality, extra arms, extra legs, extra digit, missing limb, amputee, adversarial noise, ai-assisted, stable diffusion, bad hands, Y sí, los modelos IA de imágenes actuales reconocen los resultados de IA como baja calidad, kek. De resto recomiendo tener los prompts negativos lo más cortos posibles ya que así cuando agregues nuevos prompts negativos estos puedan tener un efecto mayor en la imagen, tengo más prompts negativos para cada modelo especifico que uso y uno que uso solo para modelos de Illustrious pero como le estaba explicando al otro negro, que le metieron la WAI doblada >>14674 la mayoría de autores de modelos mienten y los modelos basados Illustrious no son realmente Illustrious pero ya explique ese tema, este prompt negativo debería servir bien para modelos actuales. Ya me dieron ganas de hacerle genderbender a un personaje que conozco, con suerte mañana arreglan el aire acondicionado en mi oficina.
>>14666 Mirar a la prota de IB con tetas así de grandes es sacrilegio(?).
(732.51 KB 768x1152 ib.jpg)

(468.96 KB 768x1024 ib_ib.jpg)

>>14681 >>14666 >>14669 Illustratious WAI 14 la reconoce sin problemas, bueno tampoco es que Ib tenga un diseño complicado.
>>14681 Chi. >>14684 La reconoce aunque el caso de Ib sus su cabello es marrón como en la primera y su lazo es más como la segunda igual sus mangas pero el cuello de la camisa es normal sin puntas. De resto todo bien aunque la longitud del lazo debería llegar hasta el ombligo aunque en mi caso se lo puse difícil al modelo por dos obvias razones kek, aunque si trate de alargar el lazo rojo con Img2Img un par de veces.
Hola negros, soy nuevo en este hilo (Aunque fui el OP de un hilo de IAs en hispa hace unos meses) Posteo porque recientemente encontre una manera de generar slop de buena calidad, sin la necesidad de una cuenta ni de pagar nada. Y quisiera compartir este recurso con ustedes, La cuestion es que esta alternativa esta limitada (No se pueden usar LoRAs ni Inpaint porque solo usa el modelo base), ademas de que no se cuales son los limites de uso de este servicio. Hay veces que puedo generar multiples imagenes y otras veces que no puedo generar ni una sola. Supongo que depende de la IP y/o una cantidad de computo total disponible. No tengo mucho tiempo libre asi que no la he testeado mucho, pero talvez les pueda interesar probarlo. En este perfil se encuentran cuatro modelos diferentes, (WAI-NSFW-illustrious-SDXL, Nova Furry XL, Raehoshi Illust XL, y Ikastrious) https://huggingface.co/IbarakiDouji Como sugerencia revisen el boton de "more settings" y "advanced parameters" para poder configurar cosas como las dimensiones de la imagen, la semilla, la cantidad de pasos de inferencia, etc... Ademas recomiendo cambiar el prompt negativo por algo como dice este anon. >>14680 Adjunto algunas imagenes que genere con uno de los modelos usando 25 pasos de inferencia. Also para conseguir los multiples estilos de las imagenes use los tags "pixel art" y "monochrome".
>>14687 ¡Hola y bienvenido! Entre lo que re editaba mi imagen de Kaguya, creo recordar haberlo visto en los post al inicio cuando nos transfirieron de tablón, recuerdo ver ese personaje con curly/messy hair un par de veces de su última pic, de todas formas muchas gracias por pasar y dejar recursos de un Space de Hugginface, estoy seguro que será útil para probar el nivel de respuesta de estos modelos antes de probarlos a fondo en Colab, en lo personal considero que el Nova Furry XL solo decayó en sus versiones posteriores a la V7 pero para inpainting siempre es es muy bueno. Y de Raehoshi illust XL estaba pensando en probar la v7 que salió este 2 de septiembre ya que de este autor probé el Rae Diffusion XL hace tiempo, pero nunca pasó de la v2, aunque como en mi caso cuando te acostumbras a un par de modelos que funcionan es difícil salir de estos, pero la oficina dónde uso la PC sigue siendo un horno y no me permite mucho concentrarme para usar SD.
(966.81 KB 1208x856 1000002231_isnet-anime.png)

>>14687 ¡En hora otro anon en este hilo! Nunca aporto recursos porque el OP francamente hace un mejor trabajo explicando cosas que ni yo termino de entender pero hace unos días me tope con esta página: fyrean.itch.i o/bgbye-background-remover Si alguna vez han querido remover el fondo de una imagen pero les da parece usar Photoshop o algún programa similar esto les puede ahorrar mucho tiempo.
(1.07 MB 1120x720 1756014242472478.webm)

Negros alguien sabe cómo se genera video con IA? Últimamente he estado viendo más de ello y los resultados son bastante más decentes de lo que eran hace un año. Pic relatada que encontré en un hilo de 4chan.
>>14690 >Remover fondos Yo uso RemBG tanto en un Space de Hugginface o instalarlo dentro de SD mediante el enlace Git, en lo personal lo he usado dentro de SD bastante, también esta BiRefNet, pero el Space que conseguí literalmente es una demo que no te deja descargar nada, kek. No lo he instalado en SD aún, pero se puede, pero parece que no tiene un modelo dedicado al anime, dejo una prueba con una 2B que generé en NovelAI. >RemBG Space (en línea) https://huggingface.co/spaces/KenjieDec/RemBG >SD Rembg (para instalar dentro de SD) https://github.com/AUTOMATIC1111/stable-diffusion-webui-rembg >BiRefNet_demo (no deja descargar) https://huggingface.co/spaces/ZhengPeng7/BiRefNet_demo >BiRefNet background removal (para SD) https://github.com/dimitribarbot/sd-webui-birefnet Iba a subir imágenes de Cirno por lo de ayer ya que al fin restablecieron el aire en mi oficina, pero tuve un apagón y perdí las horas de Colab, mi típica suerte, de resto según un autor de modelos que sigo, Bluvoll, este recomienda configurar el ReForge así para mejores resultados, pic related 3. >>14691 >Negros alguien sabe cómo se genera video con IA? Vas a necesitar ComfyUI sí o sí, el modelo que todos están usando es Wan de los chinos que es open source, ya sea la 2.1 o 2.2, muy seguro con una versión quantitizada para que pueda correr en la pobre GPU T4, la mayoría lo que hace es generar una imagen con "inserte equis modelo aquí" y luego pasarlo por Wan para que este no tenga que generar toda la escena desde cero y tenga una base con que trabajar más fácil y tarde menos, en lo personal si bien ha mejorado bastante ya no estoy interesado en la generación de vídeos con IA en lo absoluto tengo muy poco tiempo y muy poco espacio para ello, aunque mucha gente me llega preguntando (casi rogando) que les ayude con eso pero no puedo, tengo un amigo que logró hacerlo correr en Colab con Comfy pero no es muy activo, quizás en otras circunstancias me hubiera gustado esto de la generación de vídeos. Aldo, me gustan los vídeos generados de Aizumanga, el tipo usa NovelAI más Wan como explique más arriba, dejo un par de sus vids, créditos a él.
(127.93 KB 800x1280 IMG-20250911-WA0000.jpg)

(111.88 KB 832x1216 IMG-20250911-WA0001.jpg)

(108.60 KB 832x1216 IMG-20250911-WA0002.jpg)

(29.48 KB 458x670 images (1) (1).jpeg)

(184.74 KB 1080x1578 906907.small.jpg)

>>14680 Hola, negro, por fin puedo ponerme a generar, se sintieron como años kek... Tengo un problema y es que me sale esto en la UI del Kaggle, no tengo idea de qué puede ser... ¿Me ayudas? >aldo Ya pude adivinar la combinación de cabello de las lolis del otro día y estuve generando. No son perfectas pero se parecen mucho, y una duda que me generé al buscar hentai... ¿Exactamente qué modelo o lora usa la cuarta y quinta pic? ¿O cómo puedo saberlo? Creo que mencionaste una página o algo así... Me gusta la mona
(829.10 KB 2333x4096 20250911_153104.jpg)

>>14694 >aldo También tengo varios artistas que me gustan pero que no están en Danbooru o en ningún lado... ¿Cómo puedo hacer para copiar su estilo de alguna manera? Por ejemplo Zikin, Setsu, Gayuchi... O soy muy idiota como para buscar nombres o no existen porque ellos no quieren o algo así.
>>14695 si el modelo reconoce bien el estilo basta con promptear su nombre de lo contrario se utilizan Loras.
>>14694 ¡Hola! soy el OP pero le estoy respondiendo desde otro dispositivo. >UI de Kaggle Como decirlo, esta usando el notebook de Kaggle en Colab, kek, si bien Kaggle le pertenece a Google no es que ambos notebook sean intercambiables. Aunque como he estado tan ocupado con el trabajo no he vuelto a tocar la GPU de Kaggle pero el proceso es simple. >Ve a Kaggle >https://www.kaggle.com/ >Haga y verifique su cuenta con numero celular >Hecho esto importar el notebook de White Z >Parámetros de sesión como los que indique mas arriba >O sea estos <GPU T4 x2 <No persistence <Internet On <Always latest enviroment >Los enlaces van dentro de las comillas rojas >Realizar la instalación celda por celda >Generar Es casi lo mismo que Colab pero con mas RAM y son 30 hora semanales gratuitas mas el hecho que esta encriptado tendrías que tener muy mala suerte para que lo banearan el primer día kek, pero igual recomiendo no abusar de ello pero el combo de Colab (como principal) mas Kaggle encriptado son las mejores opciones gratuitas para generar hoy día. >¿Exactamente qué modelo o lora usa la cuarta y quinta pic? >¿O cómo puedo saberlo? Creo que mencionaste una página o algo así... Esa la pregunta mas fácil que me has hecho, es ephildis agraliel de kyonyuu elf oyako saimin, y estas de suerte, hay 11 LoRA de ella y seis fueron entrenados en Ilustrious, es gracioso porque quien lo subió a Rule 34 le borro la metadata o sino la metadata queda borrada ahí igual que acá, supono que por eso la imagen pesa menos, pero, dejo el nombre del creador/autor/entrenador del LoRA original, Kageno, lamentablemente el hecho de que aparentemente lo entreno en WAI (o al menos solo lo uso para generar a la elfa si es así esta bien) me da severas desconfianzas por razones que explique mas arriba pero es el LoRA exacto por el cual pregunta, por cierto si bien SD ya trae un lector de Metadata como PNG info si va a usar Kaggle le recomiendo un lector de metadata externo: <PNG Chunk Lector de metadata en linea: https://pngchunk.com/ Aparte de que que el creador del LoRA dejo la metadata intacta en sus imágenes de prueba por lo tanto serán fáciles de replicar así use un modelo distinto al del autor, también puede usar tags como "anime screencap" para mayor parecido posible aunque en mi experiencia, LoRA entrenados con solo captura de pantalla de anime suelen ser menos versátiles, pero también depende de como los entrenen. >>14695 >¿Cómo puedo hacer para copiar su estilo de alguna manera? Ok, esto ya es un terreno mas amplio hay 4 opciones, la primera es un clásico, entrenar un LoRA basado en el estilo de estos artistas, un amigo me dijo que usa mínimo 70 imágenes para crear un LoRA de estilo, 50 debería ser el absoluto mínimo. Segunda opción y lamentablemente no funciona en ReForge y es usar NoobIPA adapter es una herramienta de transferencia de estilos, literalmente colocas una imagen de referencia y el modelo la "lee" y transferirá el estilo a tu imagen generada, pero ya hice la prueba es demasiado pesado para ReForge, en SwarmUI y ComfyUI si funciona debido a que son UI 100 veces mas ligeras pero no las recomiendo para ningún novato. Es una lastima que la herramienta mas infravalorada de NoobAI y la mas fácil para emular estilos sea al mismo tiempo la mas difícil de usar por sus requerimientos. Opción 3, subir tu mismo sus imágenes a Danbooru rezar que te las acepten y de aquí esperar a que estos caigan en un dataset de algún modelo, estarías contribuyendo a la distancia a los entrenamientos de modelos y a la comunidad en general y aprenderías a etiquetar correctamente el proceso!, pero serias el equivalente a una hormiga en un hormiguero... diría que es la opción menos viable. Opción 4 rogarle pedirle a alguien que entrene LoRA por ti, esto me funciono una vez, kek. Algunos lo hacen gratis y otros cobran y es que tiene sentido ya que que entrenar LoRA lleva tiempo, ya que tienen que curar el dataset ellos mismos, etiquetarlo correctamente y de ahí entrenarlo que puede variar entre tres horas a 20 minutos dependiendo de la potencia de la GPU o incluso el servicio, recuerdo que algunos usan Tensor o hasta CivitAI. Dejo algunas 2B que me sobraron de unos experimentos que hacia, si tiene mas duda aquí estoy!
(1.73 MB 1248x1824 00027-4632.png)

>>14695 Ok, volví a mi dispositivo de uso habitual. Si bien lo que dice >>14696 es cierto aquí hay un problemita... Zikin es obviamente un prompter sus imágenes no creo que terminen en Danbooru nunca, Gayuchi también es uno pero este le aceptaron mínimo seis post. Note varios artifacts en sus imágenes, con Setsu creí que te referías a せつ。pero creo que a este punto imagino que te refieres a Setsuaiart este tuvo más suerte y aparentemente le aceptaron 35 pics antes de prohibirlo en Danbooru, pero al igual que Gayuchi no son visibles, si te fijas su estilo es similar al de Hews, así que te sale mejor promptear ese estilo que ya tiene más de 2000+ pics en Danbooru por lo tanto debería ser fácil de replicar sin necesidad de LoRA, que buscar el "estilo" de setsuaiart, resuelto eso y no es por desanimarlo en el caso de los otros dos diría que es mejor usar el Noob IPA adapter antes que gastar horas curando y entrenando un dataset basado en IA, pero lamentablemente ya que explique este pesa mucho para usarse en ReForge. Con esto no digo que le dejen de gustar estos prompter, en lo absoluto, pero siéntase libre de experimentar con otros estilos que estén más a su alcance.
>>14697 También se puede usar el collab de Google para entrenar pero tienes que estar al pendiente y si o si va usar todo tu tiempo disponible(alrededor de cuatro horas.)
(39.88 KB 720x722 20240119_180100.jpg)

>>14697 >estas usando Kaggle y Colab Xddddddddd Bueno, ¿ya dije que soy nuevo y autista? Kek Creo que ya le agarré la onda a Kaggle... Ahora el tema antes de que haga algo, ¿exactamente como o dónde cambio esos parámetros que dices que necesito para que no me baneen? Estoy apunto de iniciar la WebUI pero no quiero problemas y no sé donde hago lo que dices... >aldo Voy rápido porque no estoy en casa... A la elfa la conozco, y vamos que la conozco, lo que preguntaba era por una forma de saber el lora y el modelo, y pues encontré uno en CivitAI que creo que fue el que se usó en las dos que puse... En algún momento quiero entrenar yo un lora pero vamos por partes y primero quiero tener Kaggle cuando se me acabe mi hora en el cyber kek >aldo 2 ¿Le hiciste genderbend al personaje que mencionaste? Kek
(112.83 KB 800x1280 IMG-20250912-WA0005.jpg)

(110.21 KB 832x1216 IMG-20250912-WA0003.jpg)

(153.66 KB 832x1216 IMG-20250912-WA0004.jpg)

(126.11 KB 832x1216 IMG-20250912-WA0002.jpg)

(173.03 KB 832x1216 IMG-20250912-WA0006.jpg)

>>14700 >aldo ¿Puedo Salvar la versión "Save Version" para no tener que escribir mis Modelos y Loras predilectos otra vez? Y pues me salio esto... ¿Alguna idea? Kek
(60.95 KB 1227x849 Importar.png)

(92.30 KB 1244x844 Importar2.png)

(111.26 KB 1257x841 EDIT.png)

(130.73 KB 1200x856 Kaggle.png)

(161.24 KB 1199x852 Notebook de Instalación.png)

>>14700 ¡Hola! Bueno, todos nos confundimos yo también fui nuevo en su tiempo. La interfaz de Kaggle luce así, este es un notebook viejo que solía usar, pero los parámetros deben lucir exactamente así a la derecha en pic 4. Lo más importante es No Persistence. >lo que preguntaba era por una forma de saber el lora y el modelo, Dios, se me olvidó pasarle enlace, kek, mis disculpas, pero en mi defensa no estaba en mi PC de uso habitual que ni siquiera es mía Tenga este es el enlace al lora del autor original, puede comprobar que es el mismo: <LoRA de elfa puta https://civitai.com/models/731967/ephildis-agraliel-kyonyuu-elf-oyako-saimin-ponyil >¿Le hiciste genderbend al personaje que mencionaste? No, no he tenido nada de tiempo, iba a hacer pics del día de Cirno y me pegó un apagón de tres horas. >>14701 >¿Puedo Salvar la versión "Save Version" Por lo general yo siempre eliminó el notebook y lo vuelvo a importar para la próxima siempre, pero en teoría no tiene nada de malo así que puedes hacerlo. Eso sí igual que Colab lo importante es que la memoria no sea persistente así que todo se borra y en el caso de Kaggle hace más difícil que te baneen. >Y pues me salio esto... ¿Alguna idea? ¿Le salió algún error? he estado ocupado y hace días que no abro Kaggle.
(126.40 KB 832x1216 IMG-20250912-WA0010.jpg)

(127.90 KB 832x1216 IMG-20250912-WA0007.jpg)

(104.00 KB 832x1216 IMG-20250912-WA0009.jpg)

>>14702 Vale, ya está, ya estoy en Kaggle y todo va como la seda por ahora. Muchas gracias... El único problema que veo es que creo que desde el principio los loras que puse, que hasta ahora son siete, no se acoplarnos directamente... Aunque sí vi que fueron descargados... ¿Hay alguna forma de asegurarme o de elegir uno para usar y los otros no en plan pestañas? Es que pongo los 7 porque no quiero luego tener que buscarlos luego kek... Lo mismo con los modelos... He tocado muy poco de la interfaz como para saberlo... Pero las imágenes que genero no se parecen en nada al estilo del lora y diría que tampoco al de los modelos, por lo que no sé si están entrando en conflicto... Incluso usando las palabras clave que pone en el reverso. En caso sea cuestión de lora dejo el que yo encontré de la elfa puta https://civitai.com/models/1813767?modelVersionId=2052543
(63.20 KB 1360x574 Hub.jpg)

(320.56 KB 2511x1410 Pestaña LoRA.jpg)

(323.58 KB 1080x520 LoRA-Swarm.png)

>>14703 >que hasta ahora son siete, no se acoplarnos directamente >¿Hay alguna forma de asegurarme o de elegir uno para usar y los otros no en plan pestañas? Creo que los descargo en una celda incorrecta, puede hacer es volverlos a descargar desde la pestaña de HUB, coloca el código API de CivitAI donde esta blurreado y ya sea save o load y escribe el comando del dolar mas el enlace exactamente como esta captura, todos los lora deberían aparecer exactamente como aparecían cuando los descargaban en Colab o como pic related 2 simplemente que la visualización de las celdas del notebook no es exactamente la misma que la de Colab y por eso confunde pero funciona igual, si HUB no le funciona... eso quiere decir que probablemente le envié una versión mas vieja de ese notebook o mejor dicho debieron acualizarlo mientras yo no lo usaba (estoy ocupado), porque la primera vez que estrene ese notebook HUB no funcionaba. También hay un mini buscador por si tiene muchos loRA, pero tipo pestaña solo se me ocurre la interfaz de SwarmUI donde todo es una sola ventana con opciones re organizable y ajustable en cambio en A1111/ReForge con un montón de pestañas con sub pestañas, etc. Asi no se me ocurre un método con pestañas. >Pero las imágenes que genero no se parecen en nada al estilo del lora Eso puede deberse a muchos factores, tendría que mandarme una captura de sus settings. puede deberse tanto al modelo que use, los prompts que use, sampler que use, los parámetros que use y en el caso de los LoRA estos tienen un nivel de fuerza que empieza en 1 este lo puedes bajar ya sea a 0.8 o subirlo dependiendo de la recomendación del autor del LoRA. Y si es posible que diferentes LoRa puedan entrar en conflicto, me ha pasado aunque también he conocido gente que usa de cinco a siete LoRA al mismo tiempo. Por el momento trate de usar algo simple y basico, >Sampler: Euler A >Schedule Type: Beta o SMG Uniform >Sampling Steps 28 >CFG Scale: 3,5 >Mahiro On También es posible: >Sampler Euler A cfg ++ >Schedule Type: SMG Uniform >CFG Scale 1,2 Considere usar extensiones como adetailer que puede activar para que al final de la generación este arregle detalles como rostros u ojos y un largo etc dependiendo del modelo adetailer, creo que el notebook trae varios adetailers personalizados para descargar.
(109.29 KB 832x1216 IMG-20250915-WA0001.jpg)

(114.29 KB 832x1216 IMG-20250915-WA0004.jpg)

(100.61 KB 832x1216 IMG-20250915-WA0002.jpg)

(124.89 KB 832x1216 IMG-20250915-WA0003.jpg)

(106.14 KB 832x1216 IMG-20250915-WA0000.jpg)

>>14704 >pestaña correcta ¿Puedo hacer lo mismo para los modelos? Es un poco tedioso pero supongo que no hay de otra. Puede ser, aunque juro que puse los links separados por comas en la pestaña. Hasta hace todo ese proceso de código de que sí lo descargó... Es raro, pero hasta ahora he estado generando sin modelos ni loras si a esas vamos kek... Y los resultados me parecieron jodidamente buenos. Para el caso, hice lo que me dijiste con solamente uno y pues fue el de la elfa, y uf... Al principio estaba algo escéptico con el lora que descargué, pero fue cuestión de darle a icono de brillitos debajo de la imagen para que hiciera IARTE. Hasta yo me sorprendí. ¿Qué es ese icono en particular? Y no, el HUB funciona perfectamente, de a pocos voy aprendiendo, gracias. Por ahora no voy a comer más... Por ahora... Y pues el error fue ese... Nunca tuve loras ni modelos kuek... Perfectamente pude haber seguido haciendo el mismo proceso si no preguntaba kuek. Ahora, tengo un par de dudas, cuando pongo muchos steps, en plan 28 como tú, me sale horrible, pero si lo pongo en 20 o máximo 22 salen bien... No sé por qué pasa eso pero me parece curioso. ¿Dónde se ve el nivel de fuerza de un lora? Y para terminar, cuando genero, si le doy al icono de los brillitos, la imagen da un maldito salto de calidad. O sea, el resultado está bien, pero luego de elegir esa opción se dispara... De animación hentai a jodida película animu. Y sin embargo, en muchos casos esto genera muchas pero que muchas fallas de anatomía y bultos incluso poniendo Fat rolls y derivados en prompts negativos. ¿Por qué pasa eso? Te dejo un ejemplo... ¿Hay formas de reducirlo o eliminarlo, o todo será una ruleta ruso de 1 minuto en lo que limpia la imagen? ¿Se puede hacer de otro modo?
>>14707 Por lo general recomiendo un solo modelo por sesión (entiéndase el checkpoint con el que generamos las imagenes) aunque esto mas que nada porque el notebook que usaba antes de este crasheaba con cambiar un checkpoint por otro, no he vuelto a hacer sesiones de Inpainting con dos modelos al mismo tiempo desde hace mucho. >Generando sin modelos ni loras General sin loras se puede ahora generar sin modelo... no, kek. Pero generalmente se entiende checkpoint = modelo Por si acaso los LoRA (Low-Rank Adaptation) son modelos en miniatura, pero me gusta la analogía de que como los garabatos de la Mansion Foster. >¿Qué es ese icono en particular? Es un atajo a los settings de HiResFix personalmente no lo uso ya que me que acostumbre a otro método mejor de HiResFix, en su caso, esta beneficiándose del efecto de arreglo HiResFix pero sin la mejora de resolución. No hiciste mal aunque tampoco es lo mas correcto. >cuando pongo muchos steps, en plan 28 como tú, me sale horrible Esto no debería ser... si bien ya explique mas steps no necesariamente significa mas calidad, en los sitios donde lurkeo usualmente recomiendan hasta 50 steps (yo no paso de 40 steps a no ser que haga Inpaint pero ese es otro tema distinto) el poner 28 steps no deberia ser considerado siquiera como mucho, ¿se acuerda la influencia que le dije que tuvo NovelAI? pues los 28 steps vienen de ellos, porque si pones steps mas alto que eso te cobran tokens, kek. Así que la comunidad open source trato de emular los 28 steps como numero base para muchos modelos, dicho esto puede haber autores de modelos que entrenen sus modelos a menos steps, aunque de nuevo no debería ser que el resultado sea peor, pero, si he visto prompters que literalmente bajan los steps para darle un efecto mas suave y hasta "sin terminar" a sus imágenes esto combinado con Euler A en teoría puede funcionar, pero de nuevo si bien estamos usando el mismo notebook y la misma UI de ReForge no se que modelo esta usando ni que parámetros esta usando. Así que ahí ya poco puedo guiarlo. De hecho yo estaba a punto de recomendarle 30 steps en el segundo set de parámetros pero se me olvido kek, esos me funcionan desde hace un tiempo. Aunque se me olvido mencionar el rescaleCFG a 7. Por cierto, se me olvido que existen los modelos Lightning y Turbo estos funcionan a menos steps tipo 4 u 8 steps, pero es sacrificar calidad por velocidad solo se recomienda para equipos muy lentos y Colab corre perfecto el SDXL. >¿Dónde se ve el nivel de fuerza de un lora? Eso es fácil, tome por ejemplo esto: <lora:noobai_vp10_stabilizer_v0.275_2_fp16:1> En el caso la fuerza del LoRA esta al final el "1" este uno seria algo así como un 100, ojo no significa que sea lo máximo, puedes aumentar la fuerza del LoRA a 1.5 o incluso a 2, pero no lo recomiendo... generalmente he notado que muchos autores recomiendan valores de LoRA entre 1 (el valor base) o 0.8 esto tiene su razón ya que si el efecto del LoRA del personaje esta muy fuerte entonces entonces este puede ser menos versátil, o puede entrar en conflictos con otros LoRA, hay lora tan mal entrenados que no pueden cambiar de atuendo al personaje hasta que lo bajes la fuerza 0.6 o quizás menos. Una vez activo un LoRA este siempre tendrá un efecto en la imagen así el valor sea cero así que sea consiente de los valores que usa y como le pueden afectar a su imagen y recuerde mientras mas LoRA mas carga para la GPU en lo personal casi nunca paso de tres LoRA al mismo tiempo. >¿Se puede hacer de otro modo? Si, si bien jugamos a prevenir errores con los prompts negativos a veces no hay de otra que tratar de arreglar esos errores por otros medios, como le dije ese atajo no es el método ideal porque esta usando los parámetros por defecto de HiResFix del SD que ni siquiera son muy buenos. De hecho hacer HiResFix desde Text2Img ni siquiera es la mejor opción, como dije hay muchas herramientas de control y creo que es hora de que aprenda a usar Image2Img esta es posiblemente la herramienta mas versátil de todo SD junto con el Inpainting y ambas van de la mano pero Img2Img es mas fácil de usar, si activas el numero Seed y entre los botones cercanos al de brillitos estará la opcion de "send to img2img" ahí se enviaran todos los parámetros y el numero seed y sino copias el numero seed de nuevo. Ahora bien aquí depende de lo que quieras hacer, como el modelo tiene de donde "leer" puedes seguir editando la imagen añadiendo prompts mientras con el denoise strenght decides que tanto alejarte de la imagen original en este caso quitarle ese escroto es mejor con Img2Img pero sin activar el HiResFix primero, también pudieras quitarle el bulto con Inpainting pero requeriría mas paciencia por no decir otros parámetros, una vez la imagen lista, la reenvías de nuevo a Img2Img seleccionas la opción de mayor resolución y selecciona x1.5 de la resolución original con un denoise strenght bajo y ahí sí te beneficias realmente del HiResFix. Si bien el factor sorpresa es algo que me encanta de la IA, no, no todo tiene porque ser una ruleta rusa, pero si pueden haber accidentes felices que enriquezcan el proceso de refinamiento de sus imágenes, espero que estas respuesta le ayuden, cualquier cosa me avisa.
(81.91 KB 832x1216 IMG-20250917-WA0002.jpg)

(103.27 KB 832x1216 IMG-20250917-WA0005.jpg)

(84.74 KB 832x1216 IMG-20250917-WA0001.jpg)

(99.57 KB 832x1216 IMG-20250917-WA0003.jpg)

>>14708 >sin modelo no Me refería a sin modelo personalizado kek. Aunque creo que voy a dedicarme a entrenar todo lo que tenga que aprender con la elfa a modo de musa y ver qué cosas todavía me falta por saber... >img to img Bien. He estado probando y creo que mi método será el de generarlos en bajos steps, 22 o 20 y luego al mandarlas a img to img darles muchos más, en algunos casos les di 40 y solo aumentaban la resolución con pocos cambios gracias al denoising... Aún no sé por qué pasa porque apenas he tocado la interfaz pero si la vida te da limones... >seed y mandalo a img2img Si, la pude enviar sin problemas y estuve trasteando con el tipo de cfg y el denoising, me daba curiosidad el nivel 1 y me dio una imagen con detalles nuevos pero bienvenidos a decir verdad como añadir un hombro que aunque al principio me chocó hasta que me di cuenta que así funciona la anatomía kuek. >no actives el hiresfix antes Enterado. Una cosa que he notado es que al activarlo, tarda muchísimo más en dar el resultado aunque empieza en el 50% o así dice la interfaz, supongo que pulir detalles le toma tiempo y recursos al programa, ¿no? Hablo de la opción "brillitos". Y pues la enorme mayoría, por no decir todos, de errores o bultos se dan después de darle al icono, como crear bultos en los pechos, darle más culo, no volumen sino cantidad de culos kek... Entre otros, alargar cuellos hasta el infinito. La generación base es perfecta para mandarla directo, lo único que busco es eso, darle ese toque de más calidad que hasta parece cinematográfico como las imágenes que mandé al principio. Me dejó loco que pudiese hacerlo... >seleccionas la opción de mayor resolución y selecciona x1.5 de la resolución original No veo esa opcion o no entendí, ¿me la puedes señalar con manzanitas? Lo del denoising ya lo tengo, entre más le des, más diferente puede ser a la original... >me gusta que sea ruleta A mí también, muchas de las imagenes que he generado las he hecho así sin darle muchas vueltas, pero por cuestiones de tiempo, cuando solamente quiero la imagen en más resolución es cuando me molesta eso de esperar 1 minuto o dos por resultado.
>>14712 >aldo Me he fijado que en CivitAI a menudo colocan BREAK en los Prompts o similares ¿Para qué sirve eso exactamente qué utilidad tiene?
(221.88 KB 1234x703 ReForgeUI parametros.png)

(106.88 KB 654x901 HiResFix Txt2Img Parametros.png)

(48.42 KB 942x628 Img2Img HiResFix.png)

(4.39 MB 4000x2047 Upscalers Reisen.png)

(1.46 MB 1344x1728 Remacri Original.png)

>>14712 Se me olvidaba mencionar, que cuando yo usaba SD Fooocus (que era una interfaz alternativa en GPU en línea más fácil de usar a costa de ser demasiado simple) yo siempre generaba a 60 steps de resolución cada imagen y yo use interfaz de Fooocus a 60 steps bastante, así que no sé que a que se deba que no le funciona a más steps. >aumentaban la resolución con pocos cambios gracias al denoising Veo que aún no ha aumentado la resolución, pero vamos a eso. >upongo que pulir detalles le toma tiempo y recursos al programa, ¿no? Por supuesto, la calidad tardará más tiempo, y esto también depende tanto de los parámetros que uses y de los modelos de upscalers que use. >Hablo de la opción "brillitos". Si, es un atajo al HiResFix. >La generación base es perfecta para mandarla directo >¿me la puedes señalar con manzanitas? Por supuesto y creo que ya sé dónde esta el problema, este es otro método valido de HiResFix (aunque yo ya lo abandoné hace mucho y ya te expliqué por qué) Aunque acabo de notar que la interfaz de ReForge esta opción esta mejor que en el viejo A1111, e incluso tiene dos cajas, una de prompts positivos y una de negativos que afectan solo el HiResFix por si quieres añadir algo que afecte solamente durante el proceso HiResFix y no la generación de la imagen normal (de nuevo similar a lo que yo hago con Img2Img) pero el proceso es el mismo, en fin genera una imagen que te guste, activas el número Seed (semilla) en el símbolo de reciclaje, ahora bien muy importante SELECCIONA UN UPSCALER DE CALIDAD, hay muchos, en mi caso voy a usar Remacri Original pero puedes UltraSharp o Anime Sharp (descargarlos desde el notebook) también puedes descargar más upscaler de otros sitios, te lo digo así porque mucha gente activa el HiResFix sin más, ahora bien, en mi caso los steps de HiResFix deben ser la mitad de los sampling steps base, seleccioné 40 así que pongo 20, si seleccionas 28 pones 14, si seleccionas 30 pones 15, si pones 20 pon 10, ya captas la idea. Si vas a llevar la resolución a x2 bájale el Denoise Strenght aún más. También ReForge te permite cambiar el Sampler y el Scheduler durante el proceso de HiResFix que (de nuevo) es similar a lo que yo hago en Img2Img pero por simplicidad lo dejaré por defecto, pero se me había olvidado lo que había avanzado ReForge en comparación a A1111 en cuanto comodidades. También tienes el HiRes CFG es como el control deslizante del CFG normal, pero solo afecta a los pasos de hires.fix y a la eliminación de ruido (Denoising). Su influencia es menor, especialmente sin un prompt separado para hires.fix en mi caso no lo voy a usar porque estoy usando Euler Ancestral CFG++ y este solo funciona con CFG Scale muy bajo, pero con otros samplers, me gusta ponerlo a 7. El Denoising strength lo voy a poner bajo a 0,4 en este caso, para que no se separé mucho de la imagen original y por ultimo la opción de "Upscale by" en este caso a x1.5 de la resolución original como te he mencionado ReForge esta más optimizado e incluso puedes llevar tus imágenes a una resolución mayor sí así lo deseas pero te recomiendo quedarte en resoluciones tipo 1536x1536. >cuando me molesta eso de esperar 1 minuto o dos por resultado. Ufff, negro yo espero hasta 13 a 16 minutos en la fase de refinamiento final con los 4 adetailer seguidos a 2304x2304 de resolución, aunque por eso le recomiendo más quedarse resoluciones de 1536x1536, en mi caso con estos parámetros se tarda 1 min. 57.1 segundos nada del otro mundo. <aldo Noté que descargando DAT X2 el notebook se tardó un minuto en descargarlo, como que no viene incluido por defecto realmente es bueno pero es mejor si usa Remacri, Dat x2 se tarda hasta 3 min. 12.2 sec. en un solo upscale a x1.5 de la resolución original, mucho más que YandereNeoXL otro upscaler que me gusta que no viene por defecto aquí. Y como puede ver hay una mejoría entre ambas imágenes, el artifact del cuello de Reisen desapareció, hay un botón de camisa más, el mechón de pelo de abajo ya no esta desconectado, las sombras son diferentes, por supuesto hay ligeros errores nuevos y me gustaban más las pupilas en la primera pero también se pueden arreglar por otros métodos como el adetailer o el Inpainting. El Upscaler con Dat x2 añadió más detalle a los botones, etc. En el caso de Img2Img esta pestaña la configuro así, ten en mente que envíe la misma de Reisen así que por eso puse el Denoise Strenght tan bajo, recuerda no puedes pasarte de 2304x2304 en ReForge o al menos no con la GPU T4, te dará un error, pero no la voy a llevar a una resolución mayor porque la imagen de Reisen ya cumplió su deber de servir como ejemplo. >>14714 >BREAK >¿Para qué sirve eso exactamente qué utilidad tiene? El comando BREAK solo sirve con Regional Prompter activado, así que si no están usando Regional Prompter ese comando se convierte en placebo al 100 % kek. En fin es un comando para dividir la imagen en regiones, una región para un personaje y otra para el otro, también esta [SEP] para el adetailer pero prefiero hacer Inpainting si hay múltiples personajes en una imagen ya he subido ejemplos de esto antes. Regional Prompter y Forge Couple son las dos mejores extensiones para generar múltiples personajes al mismo tiempo sin que se mezclen... o evitar lo más posible que se mezclen. Son vitales si esta usando LoRA y los modelos no reconocen a equis personaje. En fin cualquier duda o pregunta hagamelo saber y veré si puedo ayudarlo, tuve un ligero bajón de luz mientras le respondía así que disculpe la tardanza.
>>14699 >También se puede usar el collab de Google Es cierto, eso me recuerda estoy tratando de curar un dataset para hacer dos LoRA de dos personajes, pero tuve un apagón de cuatro horas y luego se me pasa la idea, kek. Pero decidí no rendirme y seguir tratando, ya que hacer LoRA es algo que he estado posponiendo demasiado, a un amigo le tardó 47 minutos con apenas 15 imágenes y yo estoy apuntando a 20 por ser solo una OVA, tengo mis dudas pero tengo que tratar, esos sí, si sucede un apagón durante el entrenamiento voy a gritar, kek.
>>14715 Sí. Lo que buscaba era eso, normalmente tiene un tipo de iluminado cálido, si no es por el prompts de soft lighting, no sé por qué sea... Pero luego de usar el Hiresfix la iluminación también mejora drásticamente dándole ese estilo pulido que buscaba. Y de nuevo, no sé por qué, pero las cosas menos ortodoxas son las que más me funcionan. Conseguí lo que quería con el atajo del hiresfix, los "brillitos" poniendo el denoising a 0.4 y el CFG a 8.5... Nuevamente, tendría que probar, pero los otros métodos que me dices no corrigen la iluminación, sino que siguen esa línea de colores cálidos y la mejora. Muy útil, pero no lo que buscaba. >ya expliqué por qué ¿Me lo recuerdas...? Kuek También estuve probando el 4x Anime Sharp, que no sé si sea el que se descarga de la propia WebUI, pero estuvo bastante bien. Pero creo que ya tengo dominados los Hiresfix, o por lo menos al nivel que me gustan las imágenes. >Adeteiler ¿Eso que era y donde se ve? ¿Por qué cuanto específicamente? Lo de la resolución hablas de las dos barras de 832 y 1216, ¿verdad? Ya las he ido trasteando también. El Impaiting lo estuve probando un poco y tuve buenos resultados pero luego toca profundizar en eso, solo marqué el espacio mal hecho y le di a generar con los mismo parámetros. Ya me imagino que habrá mucho más que solo eso. >16 minutos Ouch... ¿Eso es por tu Internet mamaguavo o porque el proceso de por sí es pesado? Lo del tiempo no importaría si no fuese porque solo son 4 horas de uso. No quiero abusar del Kaggle. ¿Cuál es la diferencia de euler y euler a y para qué sirven? >Remacri ¿Viene por defecto? Porque ni lo veo en los upscalers. >el artifact del cuello desapareció ¿Qué es artifact? El único cambio que noto es que le añadió un botón un poco cuestionable en la parte derecha del cuello kuek. Además de lo obvio... >te dará error Tampoco puedes pasar de 2 en scale, anotado, ¿en kaggle se puede? >regional prometer ¿Ahora también va por regiones? Kek. >aldo Estuve probando un lora de Mamimi porque su estilo me activa las neuronas y pues voy a intentar agregar un tercer lora a la próxima. Ah, y probando el img2img de manera empírica, generé estas, ya me imaginaba que se podía... Aunque creo que mencionaste un mejor método para que el modelo reconozca las poses de los PJ involucrados. >aldo 2 Antes de que me olvidé. Surgió un problema. Luego de generar algunas imágenes, a veces ninguna, está sé inclina a la fuerza por un tipo de pose, en este caso from behind y looking at viewer sin ponerlo en los prompts o incluso poniéndolos en los negativos. ¿Por qué pasa esto? ¿Hay alguna forma de eliminarlo en plan limpiando el caché? Es con todo, incluso si lo pongo en Img2img con pics que no tienen nada que ver, deforma la imagen para forzar esos prompts.
[Expand Post]>>14699 Me recuerda la estilo de Tite Kubo y Bleach, ¿Ese lora está entrenado en ese estilo? >>14716 >solo una OVA ¿Cuál? ¿Capturas de pantalla también valen? Eso me recuerda a que existe un lora de una mona de Aiue Oka que solo salió en dos doushinji de 14 páginas o así kuek. >aldo Cuando llegue a la fase de entrenar lora. Que eventualmente llegaré... Te lo puedo entrenar yo si me das las imágenes o la OVA en cuestión... Aún tengo el vago recuerdo de haber entrenado un lora en Civit AI muy pobre cuando tenía créditos de sobra. De una Puta virtual en la que gaste 5 dólares hace años en OF solo porque quería saber como era todo eso... Todavía tengo las capturas conmigo. Tocara sacarle todo el jugo a esos 5 dólares kuek.
(55.27 KB 589x698 Adetailer.png)

(1.12 MB 1280x1024 Scheduler Type Diferencia.png)

(267.78 KB 1217x737 Adetailer 2.png)

(480.99 KB 1266x855 Adetailer.png)

(3.24 MB 2304x2304 Inpaint_00008-478231244_v3.png)

>>14717 >las cosas menos ortodoxas son las que más me funcionan Bueno mi negro, si algo aprendido de la IA es que a cada uno le funciona algo diferente, yo trato de dar consejos de lo que me funciona en base a mi experiencia, explicar un par de cosas y enseñar un par de cosas más, pero ya ahí en adelante no puedo controlar el proceso de los demás ni lo que hacen, así que cada prompter encuentra su propio camino de hacer las cosas, yo soy muy de seguir las reglas al dedillo y eso me funciona desde SD 1.5 pero no me voy a enojar con usted por no seguir mis métodos, ni que fuera profesor de Universidad, kek. >¿Me lo recuerdas...? En resumen el HiResFix desde la pestaña de Text to Img (Text2Img) es el más arcaico, PERO, si me di cuenta que lo mejoraron bastante en ReForge con las opciones que te mencioné, pero de nuevo, llevaba tanto tiempo usando el HiResFix desde Img2Img que se me había olvidado que hicieron esos cambios en ReForge en primer lugar, en fin, el HiResFix desde Img2Img es mejor y te da más control, yo lo tengo pre-configurado para que me lea el upscaler de Remacri desde Img2Img. >4x Anime Sharp También es bueno, yo lo solía usar bastante, en la celda debajo de "descarga VAE" esta la pestaña de descargar Upscaler, el mundo de los upscalers es bastante amplio, yo he usado: YandereNeo XL, Remacri original, 4x foolhardy Remacri, AnimeSharp,4x-NomosUni span multijpg, RealESRGAN_x4Plus Anime 6B, 4x Lollypop, etc, pero me acostumbre a Remacri por velocidad y conveniencia. Pero el que más me impactó, fue DAT X2, me dijeron que es bueno (y lo es) pero tarda 3 minutos en un HiResFix a x1.5 de resolución, demasiado hasta para mí y eso que me considero paciente. >¿Eso que era y donde se ve? Los adetailer es un juego de palabras, significa tanto After Detailer (detalle posterior) y add detailer (añadir detalle) como su nombre indica añadirá detalles a la imagen después de ser generada de forma automática con un modelo pre entrenado en el área que quieras que añada esos detalles. Es más cómodo usarlos desde Img2Img con mayor control. >¿Por qué cuanto específicamente? Depende de lo que quieras y ver cuando el adetailer es más efectivo, como siempre los adetailer que vienen por defecto no son los mejores, yo uso adetailer personalizados entrenados en anime (lo cual es gracioso porque mi upscaler favorito Remacri es para fotos IRL) cada uno viene con un área de detección y resolución entrenada, por no decir que es un Inpainting automático, aquí entra de nuevo la intuición, ¿me beneficia más usar el adetailer con la resolución base, ¿debería hacerlo antes o después del HiResFix?, ¿debería cambiar los samplers, steps y schdedule type durante el proceso de adetailer?, ¿debería cambiar los parámetros del adetailer o los dejo por defecto?, etc. Le dejo un ejemplo de uso adetailer pechos con Ilulu a 1536x1536 de resolución. >o porque el proceso de por sí es pesado? Es así de pesado en las etapas finales del postprocesado que me gusta hacer, pero ya casi no tengo tiempo para eso. >¿Cuál es la diferencia de euler y euler a y para qué sirven? Ufff, negro esa pregunta da para una respuesta muy extensa, veré que puedo resumir que se entienda. Los samplers o métodos de muestreo, son algoritmos que guían el proceso de denoising (eliminación de ruido) en los modelos de difusión de imágenes, o sea, ayudan a transformar el ruido aleatorio en una imagen coherente paso a paso (steps) siguiendo las instrucciones y el modelo latente. >Euler Probablemente el más simple y de lo más rápidos pero quizá no el más preciso, producirá imágenes más suaves pero menos detalladas. >Euler ancestral (Euler a) Similar pero en cada paso (step), añade y sustrae un poco de ruido aleatorio nuevo para alinearse con el agendador de ruido (schedule type) esto básicamente lo hace más "creativo" que Euler pero también menos determinista. Los sampler Euler y Euler A son los predilectos para los modelos anime, en mi caso uso "Euler" para modelos NoobAI y Euler A para el resto de modelos anime, si necesita un buen shedule type Beta es el mejor, aunque SMG Uniform también es bueno si quieres líneas más definidas. Para modelos realistas solía usar Sampler: DPM++ 2M + Karras (Schedule Type). También te recomendé parámetros para usar Euler/Euler A CFG++ para no repetirme mucho digamos que es Euler pero con un extra, se vuelve bastante loco con los detalles. >¿Viene por defecto No, pero ya le explique como descargarlo, es mi upscaler favorito, pero de nuevo si se siente cómodo con 4x-Anime Sharp siga usándolo. >¿Qué es artifact? Son defectos visuales no deseados ya sea distorsiones o anomalías de una imagen generada con IA, pueden ser pixeles, lineas mal formadas, ruido, etc, en este caso Reisen tenía una malformación en el cuello que no concordaba con la imagen. >El único cambio que noto Necesita entrenar su ojo aún más, hay varios cambios pero son diminutos, básicamente DAT X2 es superior a Remacri como upscaler, PERO, 3 minutos de espera es mucho hasta al menos en las fases iniciales de postprocesado. >Tampoco puedes pasar de 2 en scale, anotado No, no, no entendió, como se lo explico, si puedes pasarte de upscale x2 yo lo hago todo el tiempo y llego hasta 2304x2304 (de ahí si que no te puedes pasar sin que crashee), una resolución x2 sería 2048x2048 (pocas veces la uso) pero en el viejo A1111 llegar a resoluciones x2 con XL es imposible, generalmente trato de que la gente aprenda A1111 primero y ReForge después, pero en su caso preferí que aprendiera ReForge directamente, es más completo, actualizado y optimizado. >¿en kaggle se puede? Kaggle es más poderoso que Colab en el sentido de que da 30 GB de RAM, aunque la GPU T4 es la misma, bueno, técnicamente te da una T4 X2 (si el doble) pero no sé como activarla. >¿Ahora también va por regiones? Si, Regional Prompter es una herramienta muy antigua, pero sigue siendo útil, aunque Forge Couple debería ser mejor, pero, en ese entonces usaba otro notebook de ReForge con extensiones que no funcionaban. >y pues voy a intentar agregar un tercer lora a la próxima. Le recuerdo que al igual que puede fusionar estilos de artistas con los tags que reconoce el dataset del modelo y cambiándoles la fuerza, puede hacer lo mismo con los LoRA de estilos, ojo, no siempre el resultado será bueno, o a veces el resultado no será bueno a la primera hasta que lo ajuste. >un mejor método para que el modelo reconozca las poses Si, es Control Net no puedo vivir sin esta extensión. >from behind y looking at viewer Creo que sería mejor escribir "from behind, looking back". >¿Por qué pasa esto? ¿Hay alguna forma de eliminarlo en plan limpiando el caché? Puede depender del modelo y fíjese si no dejó la seed activada de la imagen anterior eso era un error que yo solía cometer cuando era novato y se mezclaban cosas de la imagen anterior con la nueva, puede causar interferencia, de resto si el modelo se pone a alucinar de verdad entonces me voy a "Settings" y "Reload UI" si esto no funciona también puede detener la celda del launcher y relanzarla y le dará un nuevo share link, pero cuidado si se cuelga puede desconectar toda la sesión y no quiere eso. <aldo Puede compartir el share link con un amigo y generar juntos, pero le recomiendo hacerlo en Colab no arriesgue nunca Kaggle.
[Expand Post]>cache Creo que ReForge ya limpia la cache automáticamente después de cada imagen generada, pero Colab no nos da una terminal para hacerlo manualmente, así que creo que el problema debe ser otro. >¿Cuál? Es un secreto, me gusta mantenerme anónimo. >¿Capturas de pantalla también valen? Chi, pero (siempre hay un pero) personajes entrenado con capturas de pantalla de anime tienden a ser menos versátiles, por el ejemplo el amigo que le conté entrenó su LoRA apenas con 15 imágenes (eran 16 pero una se le quebró en el proceso), y cada imagen era de un artista distinto, ¿resultado? su LoRA es más versátil para poder generar estilos de artistas distintos, supongo que lo bueno de entrenar con capturas de pantalla de anime es que el personaje va a ser 100 % fiel al diseño original, supongo que el problema de entrenar con fan arts sería tener que coger los resultados más fieles, por ejemplo viendo fan arts de Urumi noté que muchos se olvidaban de ponerle una cola de vaca roja, por lo tanto si ves a Urumi sin cola roja puedes saber automáticamente que el dibujo esta mal y que no conocen al personaje. O viendo las imágenes de IB noté que algunos les añaden sidelocks a su peinado mientras que en el diseño original esta no los tiene (también su peinado es marrón oscuro y no negro), etc. >LoRA de un personaje de Doujin En términos generales, puedes entrenar usando solo imágenes en monocromo/escalas de grises y aun así generar imágenes a color; simplemente, suelen resultar un poco más planas o con tonos más apagados de lo que pudieras querer. También pudieras colorearlas paginas con Control Net line art, pero claro, no sé si sería lo más correcto. Eso sí, como le estaba explicando al otro, si va a entrenar algo lo más correcto es que sea Illustrious v01 para mayor compatibilidad de modelos posible. No entrene en WAI ni en los otros Illustrious. De resto de los modelos actuales las otras opciones de entrenamiento que quedan serían PonyV6 (así este en deshuso pero sería lo correcto antes que otros modelos Pony), NoobVpred 1.0 y Animagine XL 4.0 Zero (nació muerto esta cosa pese a su robusto dataset), que son los modelos de entrenamiento viable actualmente. Creo que esas son todas las dudas, voy a tratar de curar mi dataset de imágenes, saqué 213 capturas de pantalla. Mínimo 20 ó 40 me tienen que servir para cada personaje. Y dejo una versión arreglada de la boca de Ilulu que subí antes, la densidad de pixeles de mi celular pirata es mucho mejor que la pantalla de mi oficina, y pude notar más errores que no había notado antes, kek.
>>14717 >Está basado en Kubo Tite? Si >>7110 >>7131 >>7128
(889.65 KB 1024x1024 00049-5546.png)

Cómo comenté hace unas semanas sufrí un hackeo y tuve que formatear mi computadora. Perdí mucho pero una parte de las imágenes que genere y me habían gustado las había respaldado en una cuenta de Mediafire ahora resulta que nada de lo que subí a esa cuenta está ahí, nada, la cuenta está vacía. Ya no volveré a confiar en servicios de nude negros, si quieren respaldar algo aunque sea pequeño usen un usb o algo físico, confiar en terceros es un asco.
>>14691 >Negros alguien sabe cómo se genera video con IA? ¡Hola!, conseguí algo, en este repositorio puedes conseguir notebooks para generar vídeos con IA en Colab... Pero no sé como usarlos, kek. Ten en mente, que la GPU T4 es lentísima para estas cosas hablando con un amigo me contó que el proceso de Imagen a vídeo tardaba media hora, lo cual es raro porque el proceso de texto a vídeo tardaba siete minutos, ojos, sus palabras no mía. >Notebook Wan 2.2 Img2Video LIGHTX2V https://colab.research.google.com/github/Isi-dev/Google-Colab_Notebooks/blob/main/wan2_2/wan22_Lightx2v.ipynb#scrollTo=96675e45HYsu >Repositorio de notebooks random https://github.com/Isi-dev/Google-Colab_Notebooks El que los hizo tiene un canal de Youtube, dónde explica un poco de esto, dicho esto no sé si alguien más le puede enseñar a usarlos, se los pase a otro amigo y me dijo que le dio error, kek. >>14720 >si quieren respaldar algo aunque sea pequeño usen un usb o algo físico, Te hablo desde la pobreza absoluta como desearía tener suficiente espacio físico en el que guardar mis mierdas pero ni eso puedo tener. De resto tengo el Internet muy lento hoy, así que aún sigo curando el dataset de mi LoRA.
>>14687 Kek, me habia olvidado de este hilo. No he generado casi nada interesante esta semana, asi que lamento las imagenes de baja calidad. Also, se permiten postear furras en este hilo? jeje >>14689 >Nova Furry XL solo decayó en sus versiones posteriores a la V7 Estoy de acuerdo, los modelos mas recientes solo generan puras cosas "genericas" (aunque con una mayor calidad claro), yo aun recuerdo cuando los modelos antiguos (Como Craiyon o Dall-e) generaban cosas incoherentes y sin sentido pero que tenian una mayor complejidad. Han pasado años y aunque tengamos mejores modelos parece que mucha gente se ha quedado estancada generando cosas que se ven "bonitas" pero que carecen de proposito alguno... Lamento la reflexion filosofica repentina lel >>14689 >han querido remover el fondo de una imagen pero les da pereza usar Photoshop Pues no suelo editar las cosas que genero (aunque me gustaria) pero recientemente vi que sacaron este modelo: https://huggingface.co/joelseytre/toonout Que supuestamente remueve el fondo con un 99.5% de aciertos, aunque no tiene demo aun asi que no lo he probado. >>14691 >cómo se genera video con IA? He visto que algunos de esos videos son hechos con Wan 2.2. Yo no lo he probado porque pide un monton de creditos pero este espacio talvez te pueda servir. https://huggingface.co/spaces/multimodalart/wan-2-2-first-last-frame >>14695 >¿Cómo puedo hacer para copiar su estilo de alguna manera? Pues se me ocurren tres maneras de hacerlo. La primera es usar el nombre del artista como un tag con un peso alto. Ej: (Art by Setsu:1.3), la otra seria buscar LoRAs en algun sitio como Civitai o Seaart y rezar para encontrar algo lol. Y la tercera opcion es usar algun plugin de "style transfer" en algun programa como Comfyui. >>14720 >Cómo comenté hace unas semanas sufrí un hackeo y tuve que formatear mi computadora F por tu coleccion de imagenes anon, he escuchado de algunos programas (como Photorec) pueden ayudar a recuperar archivos formateados. >Ya no volveré a confiar en servicios de nude negros Yo lo unico que tengo en la nube son cosas del trabajo en el google drive kek. A las empresas no les importa ni les conviene mantener seguros nuestros archivos, asi que lo mejor es tener copias en local y en varios dispositivos. Also Te recomiendo usar catbox, una pagina para subir archivos y poder compartirlos sin necesidad de cuenta, y que tambien guarda la metadata de las imagenes (como el prompt y los settings) aca un ejemplo (Aviso que es nsfw): https://files.catbox.moe/gx3h24.png
>>14727 ¡¡Hola!!, bueno al menos digamos que esto ha estado un poco más movido últimamente gracias al nuevo, pero yo tampoco he estado generando casi nada estas últimas semanas así que me encuentro reciclando mis viejas imágenes de cuando estábamos ocultos en el tablón de pruebas, kek. >Also, se permiten postear furras en este hilo? Nunca estuvieron prohibidas, había un furro anon que recuerdo con cariño y yo a veces le hacía Inpaint a sus imágenes, pero eventualmente también desapareció, también me gusta generar furras de vez en cuando, aunque por gusto personal prefiero a las scalies antes que las otras razas de furras. >y sin sentido pero que tenian una mayor complejidad Concuerdo, creo que antes la IA daba interpretaciones no solo más artísticas, sino hasta más interesantes de los prompts incluso cuando alucinaba, probando NovelAI 4.5 si bien es re potente y me hizo sentir como cuando descubrí la IA por primera vez generando montones de cosas que me gustaban los dos primeros días, esta tan arreglado para darte buenos resultados que literalmente es difícil fallar, no hay curva de aprendizaje con modelos así. De resto todo apunta que el futuro serán los modelos IA generativa de imágenes open source chinos, así que probablemente en unos años todos estén usando Wan o Qwen para generar. Aunque bueno, yo también peco de volverme esclavo de "1girl, solo", yo antes buscaba generar cosas más interesantes, pero al menos me alegra de que nunca caí en el elitismo de algunos prompters que se enojan cuando no usas lo mismo que ellos y que "mi slob es menos slob que tú slob así que soy mejor", kek. También perdí la pasión de probar nuevos modelos (similar con las distros de GNU/Linux), así que todo lo que no sea Illustrious v01 hasta el v2.0 o Noob Vpred 1.0/EPS 1.1 no existen para mí, pero trato de recomendarle a los nuevos modelos más fáciles de usar, a veces uso Animagine XL 4.0 Zero por nostalgia derivada de Animagine XL 3.1 (mi segundo modelo anime favorito después de Illustrios v01) quizás en 2025 el próximo Animagine sea bueno, o bien surja algo más que reemplace a Illustrious & Noob, ya que el primero OnomaAI abandonó el open source y Noob de L-A-X terminó con SDXL y Noob v2 será en una nueva arquitectura, pero eso sí me alegra poder seguir guiando gente a usar SD. >Remover fondos Le recomiendo el Space que pase de REMBG trae BiRefNet incluido (no el que dice demo) y o por dios es por mucho de los mejores removedores de fondos para SD que he probado, simplemente tarda un poco más. Aquí >>14692 También encontré un repositorio cargado con notebooks de Wan >>14722 Pero no sé como usarlos... y ni me interesa usarlos, kek. Tampoco tengo tiempo para eso, aunque supongo que pagando por Colab Pro con una A100 deben correr con mejor velocidad que con la pobre T4, ojalá Google active mejores GPU gratuitas pero lo dudo, también extraño Sagemaker pero es casi imposible conseguir una GPU ahí ahora. >>14720 Se me olvidó decirte, también puedes intentar usar Recuva para recuperar archivos borrados, aunque imagino que la mejor versión siempre es la paga.


Forms
Delete
Report
Quick Reply