/ais/ - Artificial Intelligence Tools

"In the Future, Entertainment will be Randomly Generated" - some Christian Zucchini

Index Catalog Archive Bottom Refresh
+
-
Name
Options
Subject
Message

Max message length: 12000

files

Max file size: 32.00 MB

Total max file size: 50.00 MB

Max files: 5

Supported file types: GIF, JPG, PNG, WebM, OGG, and more

E-mail
Password

(used to delete files and posts)

Misc

Remember to follow the Rules

The backup domains are located at 8chan.se and 8chan.cc. TOR access can be found here, or you can access the TOR portal from the clearnet at Redchannit 3.0 (Temporarily Dead).

Ghost Screen
Hilda Anniversary Marathon


8chan.moe is a hobby project with no affiliation whatsoever to the administration of any other "8chan" site, past or present.

Use this board to discuss anything about the current and future state of AI and Neural Network based tools, and to creatively express yourself with them. For more technical questions, also consider visiting our sister board about Technology

(2.32 MB 1824x1248 00039-5733.png)

(2.18 MB 1728x1344 00005-4133.png)

(2.89 MB 1536x1536 Illlust_00034-0315.png)

(9.02 MB 1536x1536 Illust Final 00032-3449.png)

(6.04 MB 2016x2592 Noob_00065-1046.png)

Hentai Diffusion General #17 Dobles y Triples Anonymous 01/21/2025 (Tue) 22:45:01 No. 7104
Decimoséptimo A este punto no hay mucho que decir, el otro hilo estaba muy congestionado y solo somos tres apenas, que dure lo que tenga que durar. El tema será poner de dos a tres personajes en una sola imagen, sí pueden. Hilo anterior: >>980 Recursos >Etiquetado automático si no te ocurren prompts https://huggingface.co/spaces/SmilingWolf/wd-tagger >Instala Stable Difussion WebUI Local y cualquier otra UI con un Click! (ir a Releases y descargar el archivo .exe) https://github.com/LykosAI/StabilityMatrix https://lykos.ai/ <Alternativa EasyDiffusion https://easydiffusion.github.io >Herramientas de GPU en línea <Sagemaker (4 horas de GPU en línea gratuita) https://studiolab.sagemaker.aws/ <Kaggle (censurado 30 horas de GPU gratuito semanal) https://www.kaggle.com <LightningAI (22 horas gratuitas al mes) https://lightning.ai >huggingface Spaces https://huggingface.co/spaces >COLAB SD FOOOCUS (solo permite usar JuggernautXL por corto tiempo) https://colab.research.google.com/drive/1OG-t4snVisfZoMcmRCPmgJjjtwdJCIIj >Recursos: Modelos, Prompts, LoRas, Hypernetworks y Embeddigs/Textual Inversion https://civitai.com >Guía: Como crear Datasets especialmente cuando tienes pocas imágenes https://spainias.notion.site/Como-hacer-LORAs-con-muy-pocas-imagenes-Consejos-y-Tips-1d65bea1379047ccad243c35eb3980f0 <XL Lora Trainer by Hollowstrawberry https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Lora_Trainer_XL.ipynb <Dataset Maker (taguea las imagenes automáticamente) https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Dataset_Maker.ipynb <Tutorial LoRA para PonyDiffusion (Jewtubo) https://www.youtube.com/watch?v=fF5CDySZw3o[Embed][Embed] <AutoTrain DreamBooth https://colab.research.google.com/github/huggingface/autotrain-advanced/blob/main/colabs/AutoTrain_Dreambooth.ipynb <Kohya LoRA Trainer XL https://github.com/Linaqruf/kohya-trainer/blob/main/kohya-LoRA-trainer-XL.ipynb >Colab: Entrenamiento de LoRa https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Lora_Trainer.ipynb >Colab: Creación de Datasets https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Dataset_Maker.ipynb >Recurso: Modelos ControlNet 1.1 https://github.com/lllyasviel/ControlNet-v1-1-nightly >Prompt Generator https://huggingface.co/spaces/Gustavosta/MagicPrompt-Stable-Diffusion
[Expand Post]>Guía para cambiar estilos con Img2img https://medium.com/@alickwong/transfer-your-image-to-cartoon-style-in-stable-diffusion-d466565ae18a >Boooru AI para Furros https://e6ai.net/ >Booru AI para anime https://aibooru.online >Páginas Web judías dónde generar imágenes: <Ideogram (casi igual o mejor que Dall E 3 tiene ligera censura) https://ideogram.ai Krea.AI (genera imágenes en tiempo real) https://www.krea.ai/ <NovelAI (pago) https://novelai.net <PixAI https://pixai.art <TensorArt https://tensor.art/ <Yodayo https://yodayo.com/ <Nemusona https://waifus.nemusona.com/ <Holara.ai: https://holara.ai/ <Leonardo.AI https://app.leonardo.ai/ <seaart (censurado) https://www.seaart.ai/
(829.10 KB 2333x4096 20250911_153104.jpg)

>>14694 >aldo También tengo varios artistas que me gustan pero que no están en Danbooru o en ningún lado... ¿Cómo puedo hacer para copiar su estilo de alguna manera? Por ejemplo Zikin, Setsu, Gayuchi... O soy muy idiota como para buscar nombres o no existen porque ellos no quieren o algo así.
>>14695 si el modelo reconoce bien el estilo basta con promptear su nombre de lo contrario se utilizan Loras.
>>14694 ¡Hola! soy el OP pero le estoy respondiendo desde otro dispositivo. >UI de Kaggle Como decirlo, esta usando el notebook de Kaggle en Colab, kek, si bien Kaggle le pertenece a Google no es que ambos notebook sean intercambiables. Aunque como he estado tan ocupado con el trabajo no he vuelto a tocar la GPU de Kaggle pero el proceso es simple. >Ve a Kaggle >https://www.kaggle.com/ >Haga y verifique su cuenta con numero celular >Hecho esto importar el notebook de White Z >Parámetros de sesión como los que indique mas arriba >O sea estos <GPU T4 x2 <No persistence <Internet On <Always latest enviroment >Los enlaces van dentro de las comillas rojas >Realizar la instalación celda por celda >Generar Es casi lo mismo que Colab pero con mas RAM y son 30 hora semanales gratuitas mas el hecho que esta encriptado tendrías que tener muy mala suerte para que lo banearan el primer día kek, pero igual recomiendo no abusar de ello pero el combo de Colab (como principal) mas Kaggle encriptado son las mejores opciones gratuitas para generar hoy día. >¿Exactamente qué modelo o lora usa la cuarta y quinta pic? >¿O cómo puedo saberlo? Creo que mencionaste una página o algo así... Esa la pregunta mas fácil que me has hecho, es ephildis agraliel de kyonyuu elf oyako saimin, y estas de suerte, hay 11 LoRA de ella y seis fueron entrenados en Ilustrious, es gracioso porque quien lo subió a Rule 34 le borro la metadata o sino la metadata queda borrada ahí igual que acá, supono que por eso la imagen pesa menos, pero, dejo el nombre del creador/autor/entrenador del LoRA original, Kageno, lamentablemente el hecho de que aparentemente lo entreno en WAI (o al menos solo lo uso para generar a la elfa si es así esta bien) me da severas desconfianzas por razones que explique mas arriba pero es el LoRA exacto por el cual pregunta, por cierto si bien SD ya trae un lector de Metadata como PNG info si va a usar Kaggle le recomiendo un lector de metadata externo: <PNG Chunk Lector de metadata en linea: https://pngchunk.com/ Aparte de que que el creador del LoRA dejo la metadata intacta en sus imágenes de prueba por lo tanto serán fáciles de replicar así use un modelo distinto al del autor, también puede usar tags como "anime screencap" para mayor parecido posible aunque en mi experiencia, LoRA entrenados con solo captura de pantalla de anime suelen ser menos versátiles, pero también depende de como los entrenen. >>14695 >¿Cómo puedo hacer para copiar su estilo de alguna manera? Ok, esto ya es un terreno mas amplio hay 4 opciones, la primera es un clásico, entrenar un LoRA basado en el estilo de estos artistas, un amigo me dijo que usa mínimo 70 imágenes para crear un LoRA de estilo, 50 debería ser el absoluto mínimo. Segunda opción y lamentablemente no funciona en ReForge y es usar NoobIPA adapter es una herramienta de transferencia de estilos, literalmente colocas una imagen de referencia y el modelo la "lee" y transferirá el estilo a tu imagen generada, pero ya hice la prueba es demasiado pesado para ReForge, en SwarmUI y ComfyUI si funciona debido a que son UI 100 veces mas ligeras pero no las recomiendo para ningún novato. Es una lastima que la herramienta mas infravalorada de NoobAI y la mas fácil para emular estilos sea al mismo tiempo la mas difícil de usar por sus requerimientos. Opción 3, subir tu mismo sus imágenes a Danbooru rezar que te las acepten y de aquí esperar a que estos caigan en un dataset de algún modelo, estarías contribuyendo a la distancia a los entrenamientos de modelos y a la comunidad en general y aprenderías a etiquetar correctamente el proceso!, pero serias el equivalente a una hormiga en un hormiguero... diría que es la opción menos viable. Opción 4 rogarle pedirle a alguien que entrene LoRA por ti, esto me funciono una vez, kek. Algunos lo hacen gratis y otros cobran y es que tiene sentido ya que que entrenar LoRA lleva tiempo, ya que tienen que curar el dataset ellos mismos, etiquetarlo correctamente y de ahí entrenarlo que puede variar entre tres horas a 20 minutos dependiendo de la potencia de la GPU o incluso el servicio, recuerdo que algunos usan Tensor o hasta CivitAI. Dejo algunas 2B que me sobraron de unos experimentos que hacia, si tiene mas duda aquí estoy!
(1.73 MB 1248x1824 00027-4632.png)

>>14695 Ok, volví a mi dispositivo de uso habitual. Si bien lo que dice >>14696 es cierto aquí hay un problemita... Zikin es obviamente un prompter sus imágenes no creo que terminen en Danbooru nunca, Gayuchi también es uno pero este le aceptaron mínimo seis post. Note varios artifacts en sus imágenes, con Setsu creí que te referías a せつ。pero creo que a este punto imagino que te refieres a Setsuaiart este tuvo más suerte y aparentemente le aceptaron 35 pics antes de prohibirlo en Danbooru, pero al igual que Gayuchi no son visibles, si te fijas su estilo es similar al de Hews, así que te sale mejor promptear ese estilo que ya tiene más de 2000+ pics en Danbooru por lo tanto debería ser fácil de replicar sin necesidad de LoRA, que buscar el "estilo" de setsuaiart, resuelto eso y no es por desanimarlo en el caso de los otros dos diría que es mejor usar el Noob IPA adapter antes que gastar horas curando y entrenando un dataset basado en IA, pero lamentablemente ya que explique este pesa mucho para usarse en ReForge. Con esto no digo que le dejen de gustar estos prompter, en lo absoluto, pero siéntase libre de experimentar con otros estilos que estén más a su alcance.
>>14697 También se puede usar el collab de Google para entrenar pero tienes que estar al pendiente y si o si va usar todo tu tiempo disponible(alrededor de cuatro horas.)
(39.88 KB 720x722 20240119_180100.jpg)

>>14697 >estas usando Kaggle y Colab Xddddddddd Bueno, ¿ya dije que soy nuevo y autista? Kek Creo que ya le agarré la onda a Kaggle... Ahora el tema antes de que haga algo, ¿exactamente como o dónde cambio esos parámetros que dices que necesito para que no me baneen? Estoy apunto de iniciar la WebUI pero no quiero problemas y no sé donde hago lo que dices... >aldo Voy rápido porque no estoy en casa... A la elfa la conozco, y vamos que la conozco, lo que preguntaba era por una forma de saber el lora y el modelo, y pues encontré uno en CivitAI que creo que fue el que se usó en las dos que puse... En algún momento quiero entrenar yo un lora pero vamos por partes y primero quiero tener Kaggle cuando se me acabe mi hora en el cyber kek >aldo 2 ¿Le hiciste genderbend al personaje que mencionaste? Kek
(112.83 KB 800x1280 IMG-20250912-WA0005.jpg)

(110.21 KB 832x1216 IMG-20250912-WA0003.jpg)

(153.66 KB 832x1216 IMG-20250912-WA0004.jpg)

(126.11 KB 832x1216 IMG-20250912-WA0002.jpg)

(173.03 KB 832x1216 IMG-20250912-WA0006.jpg)

>>14700 >aldo ¿Puedo Salvar la versión "Save Version" para no tener que escribir mis Modelos y Loras predilectos otra vez? Y pues me salio esto... ¿Alguna idea? Kek
(60.95 KB 1227x849 Importar.png)

(92.30 KB 1244x844 Importar2.png)

(111.26 KB 1257x841 EDIT.png)

(130.73 KB 1200x856 Kaggle.png)

(161.24 KB 1199x852 Notebook de Instalación.png)

>>14700 ¡Hola! Bueno, todos nos confundimos yo también fui nuevo en su tiempo. La interfaz de Kaggle luce así, este es un notebook viejo que solía usar, pero los parámetros deben lucir exactamente así a la derecha en pic 4. Lo más importante es No Persistence. >lo que preguntaba era por una forma de saber el lora y el modelo, Dios, se me olvidó pasarle enlace, kek, mis disculpas, pero en mi defensa no estaba en mi PC de uso habitual que ni siquiera es mía Tenga este es el enlace al lora del autor original, puede comprobar que es el mismo: <LoRA de elfa puta https://civitai.com/models/731967/ephildis-agraliel-kyonyuu-elf-oyako-saimin-ponyil >¿Le hiciste genderbend al personaje que mencionaste? No, no he tenido nada de tiempo, iba a hacer pics del día de Cirno y me pegó un apagón de tres horas. >>14701 >¿Puedo Salvar la versión "Save Version" Por lo general yo siempre eliminó el notebook y lo vuelvo a importar para la próxima siempre, pero en teoría no tiene nada de malo así que puedes hacerlo. Eso sí igual que Colab lo importante es que la memoria no sea persistente así que todo se borra y en el caso de Kaggle hace más difícil que te baneen. >Y pues me salio esto... ¿Alguna idea? ¿Le salió algún error? he estado ocupado y hace días que no abro Kaggle.
(126.40 KB 832x1216 IMG-20250912-WA0010.jpg)

(127.90 KB 832x1216 IMG-20250912-WA0007.jpg)

(104.00 KB 832x1216 IMG-20250912-WA0009.jpg)

>>14702 Vale, ya está, ya estoy en Kaggle y todo va como la seda por ahora. Muchas gracias... El único problema que veo es que creo que desde el principio los loras que puse, que hasta ahora son siete, no se acoplarnos directamente... Aunque sí vi que fueron descargados... ¿Hay alguna forma de asegurarme o de elegir uno para usar y los otros no en plan pestañas? Es que pongo los 7 porque no quiero luego tener que buscarlos luego kek... Lo mismo con los modelos... He tocado muy poco de la interfaz como para saberlo... Pero las imágenes que genero no se parecen en nada al estilo del lora y diría que tampoco al de los modelos, por lo que no sé si están entrando en conflicto... Incluso usando las palabras clave que pone en el reverso. En caso sea cuestión de lora dejo el que yo encontré de la elfa puta https://civitai.com/models/1813767?modelVersionId=2052543
(63.20 KB 1360x574 Hub.jpg)

(320.56 KB 2511x1410 Pestaña LoRA.jpg)

(323.58 KB 1080x520 LoRA-Swarm.png)

>>14703 >que hasta ahora son siete, no se acoplarnos directamente >¿Hay alguna forma de asegurarme o de elegir uno para usar y los otros no en plan pestañas? Creo que los descargo en una celda incorrecta, puede hacer es volverlos a descargar desde la pestaña de HUB, coloca el código API de CivitAI donde esta blurreado y ya sea save o load y escribe el comando del dolar mas el enlace exactamente como esta captura, todos los lora deberían aparecer exactamente como aparecían cuando los descargaban en Colab o como pic related 2 simplemente que la visualización de las celdas del notebook no es exactamente la misma que la de Colab y por eso confunde pero funciona igual, si HUB no le funciona... eso quiere decir que probablemente le envié una versión mas vieja de ese notebook o mejor dicho debieron acualizarlo mientras yo no lo usaba (estoy ocupado), porque la primera vez que estrene ese notebook HUB no funcionaba. También hay un mini buscador por si tiene muchos loRA, pero tipo pestaña solo se me ocurre la interfaz de SwarmUI donde todo es una sola ventana con opciones re organizable y ajustable en cambio en A1111/ReForge con un montón de pestañas con sub pestañas, etc. Asi no se me ocurre un método con pestañas. >Pero las imágenes que genero no se parecen en nada al estilo del lora Eso puede deberse a muchos factores, tendría que mandarme una captura de sus settings. puede deberse tanto al modelo que use, los prompts que use, sampler que use, los parámetros que use y en el caso de los LoRA estos tienen un nivel de fuerza que empieza en 1 este lo puedes bajar ya sea a 0.8 o subirlo dependiendo de la recomendación del autor del LoRA. Y si es posible que diferentes LoRa puedan entrar en conflicto, me ha pasado aunque también he conocido gente que usa de cinco a siete LoRA al mismo tiempo. Por el momento trate de usar algo simple y basico, >Sampler: Euler A >Schedule Type: Beta o SMG Uniform >Sampling Steps 28 >CFG Scale: 3,5 >Mahiro On También es posible: >Sampler Euler A cfg ++ >Schedule Type: SMG Uniform >CFG Scale 1,2 Considere usar extensiones como adetailer que puede activar para que al final de la generación este arregle detalles como rostros u ojos y un largo etc dependiendo del modelo adetailer, creo que el notebook trae varios adetailers personalizados para descargar.
(109.29 KB 832x1216 IMG-20250915-WA0001.jpg)

(114.29 KB 832x1216 IMG-20250915-WA0004.jpg)

(100.61 KB 832x1216 IMG-20250915-WA0002.jpg)

(124.89 KB 832x1216 IMG-20250915-WA0003.jpg)

(106.14 KB 832x1216 IMG-20250915-WA0000.jpg)

>>14704 >pestaña correcta ¿Puedo hacer lo mismo para los modelos? Es un poco tedioso pero supongo que no hay de otra. Puede ser, aunque juro que puse los links separados por comas en la pestaña. Hasta hace todo ese proceso de código de que sí lo descargó... Es raro, pero hasta ahora he estado generando sin modelos ni loras si a esas vamos kek... Y los resultados me parecieron jodidamente buenos. Para el caso, hice lo que me dijiste con solamente uno y pues fue el de la elfa, y uf... Al principio estaba algo escéptico con el lora que descargué, pero fue cuestión de darle a icono de brillitos debajo de la imagen para que hiciera IARTE. Hasta yo me sorprendí. ¿Qué es ese icono en particular? Y no, el HUB funciona perfectamente, de a pocos voy aprendiendo, gracias. Por ahora no voy a comer más... Por ahora... Y pues el error fue ese... Nunca tuve loras ni modelos kuek... Perfectamente pude haber seguido haciendo el mismo proceso si no preguntaba kuek. Ahora, tengo un par de dudas, cuando pongo muchos steps, en plan 28 como tú, me sale horrible, pero si lo pongo en 20 o máximo 22 salen bien... No sé por qué pasa eso pero me parece curioso. ¿Dónde se ve el nivel de fuerza de un lora? Y para terminar, cuando genero, si le doy al icono de los brillitos, la imagen da un maldito salto de calidad. O sea, el resultado está bien, pero luego de elegir esa opción se dispara... De animación hentai a jodida película animu. Y sin embargo, en muchos casos esto genera muchas pero que muchas fallas de anatomía y bultos incluso poniendo Fat rolls y derivados en prompts negativos. ¿Por qué pasa eso? Te dejo un ejemplo... ¿Hay formas de reducirlo o eliminarlo, o todo será una ruleta ruso de 1 minuto en lo que limpia la imagen? ¿Se puede hacer de otro modo?
>>14707 Por lo general recomiendo un solo modelo por sesión (entiéndase el checkpoint con el que generamos las imagenes) aunque esto mas que nada porque el notebook que usaba antes de este crasheaba con cambiar un checkpoint por otro, no he vuelto a hacer sesiones de Inpainting con dos modelos al mismo tiempo desde hace mucho. >Generando sin modelos ni loras General sin loras se puede ahora generar sin modelo... no, kek. Pero generalmente se entiende checkpoint = modelo Por si acaso los LoRA (Low-Rank Adaptation) son modelos en miniatura, pero me gusta la analogía de que como los garabatos de la Mansion Foster. >¿Qué es ese icono en particular? Es un atajo a los settings de HiResFix personalmente no lo uso ya que me que acostumbre a otro método mejor de HiResFix, en su caso, esta beneficiándose del efecto de arreglo HiResFix pero sin la mejora de resolución. No hiciste mal aunque tampoco es lo mas correcto. >cuando pongo muchos steps, en plan 28 como tú, me sale horrible Esto no debería ser... si bien ya explique mas steps no necesariamente significa mas calidad, en los sitios donde lurkeo usualmente recomiendan hasta 50 steps (yo no paso de 40 steps a no ser que haga Inpaint pero ese es otro tema distinto) el poner 28 steps no deberia ser considerado siquiera como mucho, ¿se acuerda la influencia que le dije que tuvo NovelAI? pues los 28 steps vienen de ellos, porque si pones steps mas alto que eso te cobran tokens, kek. Así que la comunidad open source trato de emular los 28 steps como numero base para muchos modelos, dicho esto puede haber autores de modelos que entrenen sus modelos a menos steps, aunque de nuevo no debería ser que el resultado sea peor, pero, si he visto prompters que literalmente bajan los steps para darle un efecto mas suave y hasta "sin terminar" a sus imágenes esto combinado con Euler A en teoría puede funcionar, pero de nuevo si bien estamos usando el mismo notebook y la misma UI de ReForge no se que modelo esta usando ni que parámetros esta usando. Así que ahí ya poco puedo guiarlo. De hecho yo estaba a punto de recomendarle 30 steps en el segundo set de parámetros pero se me olvido kek, esos me funcionan desde hace un tiempo. Aunque se me olvido mencionar el rescaleCFG a 7. Por cierto, se me olvido que existen los modelos Lightning y Turbo estos funcionan a menos steps tipo 4 u 8 steps, pero es sacrificar calidad por velocidad solo se recomienda para equipos muy lentos y Colab corre perfecto el SDXL. >¿Dónde se ve el nivel de fuerza de un lora? Eso es fácil, tome por ejemplo esto: <lora:noobai_vp10_stabilizer_v0.275_2_fp16:1> En el caso la fuerza del LoRA esta al final el "1" este uno seria algo así como un 100, ojo no significa que sea lo máximo, puedes aumentar la fuerza del LoRA a 1.5 o incluso a 2, pero no lo recomiendo... generalmente he notado que muchos autores recomiendan valores de LoRA entre 1 (el valor base) o 0.8 esto tiene su razón ya que si el efecto del LoRA del personaje esta muy fuerte entonces entonces este puede ser menos versátil, o puede entrar en conflictos con otros LoRA, hay lora tan mal entrenados que no pueden cambiar de atuendo al personaje hasta que lo bajes la fuerza 0.6 o quizás menos. Una vez activo un LoRA este siempre tendrá un efecto en la imagen así el valor sea cero así que sea consiente de los valores que usa y como le pueden afectar a su imagen y recuerde mientras mas LoRA mas carga para la GPU en lo personal casi nunca paso de tres LoRA al mismo tiempo. >¿Se puede hacer de otro modo? Si, si bien jugamos a prevenir errores con los prompts negativos a veces no hay de otra que tratar de arreglar esos errores por otros medios, como le dije ese atajo no es el método ideal porque esta usando los parámetros por defecto de HiResFix del SD que ni siquiera son muy buenos. De hecho hacer HiResFix desde Text2Img ni siquiera es la mejor opción, como dije hay muchas herramientas de control y creo que es hora de que aprenda a usar Image2Img esta es posiblemente la herramienta mas versátil de todo SD junto con el Inpainting y ambas van de la mano pero Img2Img es mas fácil de usar, si activas el numero Seed y entre los botones cercanos al de brillitos estará la opcion de "send to img2img" ahí se enviaran todos los parámetros y el numero seed y sino copias el numero seed de nuevo. Ahora bien aquí depende de lo que quieras hacer, como el modelo tiene de donde "leer" puedes seguir editando la imagen añadiendo prompts mientras con el denoise strenght decides que tanto alejarte de la imagen original en este caso quitarle ese escroto es mejor con Img2Img pero sin activar el HiResFix primero, también pudieras quitarle el bulto con Inpainting pero requeriría mas paciencia por no decir otros parámetros, una vez la imagen lista, la reenvías de nuevo a Img2Img seleccionas la opción de mayor resolución y selecciona x1.5 de la resolución original con un denoise strenght bajo y ahí sí te beneficias realmente del HiResFix. Si bien el factor sorpresa es algo que me encanta de la IA, no, no todo tiene porque ser una ruleta rusa, pero si pueden haber accidentes felices que enriquezcan el proceso de refinamiento de sus imágenes, espero que estas respuesta le ayuden, cualquier cosa me avisa.
(81.91 KB 832x1216 IMG-20250917-WA0002.jpg)

(103.27 KB 832x1216 IMG-20250917-WA0005.jpg)

(84.74 KB 832x1216 IMG-20250917-WA0001.jpg)

(99.57 KB 832x1216 IMG-20250917-WA0003.jpg)

>>14708 >sin modelo no Me refería a sin modelo personalizado kek. Aunque creo que voy a dedicarme a entrenar todo lo que tenga que aprender con la elfa a modo de musa y ver qué cosas todavía me falta por saber... >img to img Bien. He estado probando y creo que mi método será el de generarlos en bajos steps, 22 o 20 y luego al mandarlas a img to img darles muchos más, en algunos casos les di 40 y solo aumentaban la resolución con pocos cambios gracias al denoising... Aún no sé por qué pasa porque apenas he tocado la interfaz pero si la vida te da limones... >seed y mandalo a img2img Si, la pude enviar sin problemas y estuve trasteando con el tipo de cfg y el denoising, me daba curiosidad el nivel 1 y me dio una imagen con detalles nuevos pero bienvenidos a decir verdad como añadir un hombro que aunque al principio me chocó hasta que me di cuenta que así funciona la anatomía kuek. >no actives el hiresfix antes Enterado. Una cosa que he notado es que al activarlo, tarda muchísimo más en dar el resultado aunque empieza en el 50% o así dice la interfaz, supongo que pulir detalles le toma tiempo y recursos al programa, ¿no? Hablo de la opción "brillitos". Y pues la enorme mayoría, por no decir todos, de errores o bultos se dan después de darle al icono, como crear bultos en los pechos, darle más culo, no volumen sino cantidad de culos kek... Entre otros, alargar cuellos hasta el infinito. La generación base es perfecta para mandarla directo, lo único que busco es eso, darle ese toque de más calidad que hasta parece cinematográfico como las imágenes que mandé al principio. Me dejó loco que pudiese hacerlo... >seleccionas la opción de mayor resolución y selecciona x1.5 de la resolución original No veo esa opcion o no entendí, ¿me la puedes señalar con manzanitas? Lo del denoising ya lo tengo, entre más le des, más diferente puede ser a la original... >me gusta que sea ruleta A mí también, muchas de las imagenes que he generado las he hecho así sin darle muchas vueltas, pero por cuestiones de tiempo, cuando solamente quiero la imagen en más resolución es cuando me molesta eso de esperar 1 minuto o dos por resultado.
>>14712 >aldo Me he fijado que en CivitAI a menudo colocan BREAK en los Prompts o similares ¿Para qué sirve eso exactamente qué utilidad tiene?
(221.88 KB 1234x703 ReForgeUI parametros.png)

(106.88 KB 654x901 HiResFix Txt2Img Parametros.png)

(48.42 KB 942x628 Img2Img HiResFix.png)

(4.39 MB 4000x2047 Upscalers Reisen.png)

(1.46 MB 1344x1728 Remacri Original.png)

>>14712 Se me olvidaba mencionar, que cuando yo usaba SD Fooocus (que era una interfaz alternativa en GPU en línea más fácil de usar a costa de ser demasiado simple) yo siempre generaba a 60 steps de resolución cada imagen y yo use interfaz de Fooocus a 60 steps bastante, así que no sé que a que se deba que no le funciona a más steps. >aumentaban la resolución con pocos cambios gracias al denoising Veo que aún no ha aumentado la resolución, pero vamos a eso. >upongo que pulir detalles le toma tiempo y recursos al programa, ¿no? Por supuesto, la calidad tardará más tiempo, y esto también depende tanto de los parámetros que uses y de los modelos de upscalers que use. >Hablo de la opción "brillitos". Si, es un atajo al HiResFix. >La generación base es perfecta para mandarla directo >¿me la puedes señalar con manzanitas? Por supuesto y creo que ya sé dónde esta el problema, este es otro método valido de HiResFix (aunque yo ya lo abandoné hace mucho y ya te expliqué por qué) Aunque acabo de notar que la interfaz de ReForge esta opción esta mejor que en el viejo A1111, e incluso tiene dos cajas, una de prompts positivos y una de negativos que afectan solo el HiResFix por si quieres añadir algo que afecte solamente durante el proceso HiResFix y no la generación de la imagen normal (de nuevo similar a lo que yo hago con Img2Img) pero el proceso es el mismo, en fin genera una imagen que te guste, activas el número Seed (semilla) en el símbolo de reciclaje, ahora bien muy importante SELECCIONA UN UPSCALER DE CALIDAD, hay muchos, en mi caso voy a usar Remacri Original pero puedes UltraSharp o Anime Sharp (descargarlos desde el notebook) también puedes descargar más upscaler de otros sitios, te lo digo así porque mucha gente activa el HiResFix sin más, ahora bien, en mi caso los steps de HiResFix deben ser la mitad de los sampling steps base, seleccioné 40 así que pongo 20, si seleccionas 28 pones 14, si seleccionas 30 pones 15, si pones 20 pon 10, ya captas la idea. Si vas a llevar la resolución a x2 bájale el Denoise Strenght aún más. También ReForge te permite cambiar el Sampler y el Scheduler durante el proceso de HiResFix que (de nuevo) es similar a lo que yo hago en Img2Img pero por simplicidad lo dejaré por defecto, pero se me había olvidado lo que había avanzado ReForge en comparación a A1111 en cuanto comodidades. También tienes el HiRes CFG es como el control deslizante del CFG normal, pero solo afecta a los pasos de hires.fix y a la eliminación de ruido (Denoising). Su influencia es menor, especialmente sin un prompt separado para hires.fix en mi caso no lo voy a usar porque estoy usando Euler Ancestral CFG++ y este solo funciona con CFG Scale muy bajo, pero con otros samplers, me gusta ponerlo a 7. El Denoising strength lo voy a poner bajo a 0,4 en este caso, para que no se separé mucho de la imagen original y por ultimo la opción de "Upscale by" en este caso a x1.5 de la resolución original como te he mencionado ReForge esta más optimizado e incluso puedes llevar tus imágenes a una resolución mayor sí así lo deseas pero te recomiendo quedarte en resoluciones tipo 1536x1536. >cuando me molesta eso de esperar 1 minuto o dos por resultado. Ufff, negro yo espero hasta 13 a 16 minutos en la fase de refinamiento final con los 4 adetailer seguidos a 2304x2304 de resolución, aunque por eso le recomiendo más quedarse resoluciones de 1536x1536, en mi caso con estos parámetros se tarda 1 min. 57.1 segundos nada del otro mundo. <aldo Noté que descargando DAT X2 el notebook se tardó un minuto en descargarlo, como que no viene incluido por defecto realmente es bueno pero es mejor si usa Remacri, Dat x2 se tarda hasta 3 min. 12.2 sec. en un solo upscale a x1.5 de la resolución original, mucho más que YandereNeoXL otro upscaler que me gusta que no viene por defecto aquí. Y como puede ver hay una mejoría entre ambas imágenes, el artifact del cuello de Reisen desapareció, hay un botón de camisa más, el mechón de pelo de abajo ya no esta desconectado, las sombras son diferentes, por supuesto hay ligeros errores nuevos y me gustaban más las pupilas en la primera pero también se pueden arreglar por otros métodos como el adetailer o el Inpainting. El Upscaler con Dat x2 añadió más detalle a los botones, etc. En el caso de Img2Img esta pestaña la configuro así, ten en mente que envíe la misma de Reisen así que por eso puse el Denoise Strenght tan bajo, recuerda no puedes pasarte de 2304x2304 en ReForge o al menos no con la GPU T4, te dará un error, pero no la voy a llevar a una resolución mayor porque la imagen de Reisen ya cumplió su deber de servir como ejemplo. >>14714 >BREAK >¿Para qué sirve eso exactamente qué utilidad tiene? El comando BREAK solo sirve con Regional Prompter activado, así que si no están usando Regional Prompter ese comando se convierte en placebo al 100 % kek. En fin es un comando para dividir la imagen en regiones, una región para un personaje y otra para el otro, también esta [SEP] para el adetailer pero prefiero hacer Inpainting si hay múltiples personajes en una imagen ya he subido ejemplos de esto antes. Regional Prompter y Forge Couple son las dos mejores extensiones para generar múltiples personajes al mismo tiempo sin que se mezclen... o evitar lo más posible que se mezclen. Son vitales si esta usando LoRA y los modelos no reconocen a equis personaje. En fin cualquier duda o pregunta hagamelo saber y veré si puedo ayudarlo, tuve un ligero bajón de luz mientras le respondía así que disculpe la tardanza.
>>14699 >También se puede usar el collab de Google Es cierto, eso me recuerda estoy tratando de curar un dataset para hacer dos LoRA de dos personajes, pero tuve un apagón de cuatro horas y luego se me pasa la idea, kek. Pero decidí no rendirme y seguir tratando, ya que hacer LoRA es algo que he estado posponiendo demasiado, a un amigo le tardó 47 minutos con apenas 15 imágenes y yo estoy apuntando a 20 por ser solo una OVA, tengo mis dudas pero tengo que tratar, esos sí, si sucede un apagón durante el entrenamiento voy a gritar, kek.
>>14715 Sí. Lo que buscaba era eso, normalmente tiene un tipo de iluminado cálido, si no es por el prompts de soft lighting, no sé por qué sea... Pero luego de usar el Hiresfix la iluminación también mejora drásticamente dándole ese estilo pulido que buscaba. Y de nuevo, no sé por qué, pero las cosas menos ortodoxas son las que más me funcionan. Conseguí lo que quería con el atajo del hiresfix, los "brillitos" poniendo el denoising a 0.4 y el CFG a 8.5... Nuevamente, tendría que probar, pero los otros métodos que me dices no corrigen la iluminación, sino que siguen esa línea de colores cálidos y la mejora. Muy útil, pero no lo que buscaba. >ya expliqué por qué ¿Me lo recuerdas...? Kuek También estuve probando el 4x Anime Sharp, que no sé si sea el que se descarga de la propia WebUI, pero estuvo bastante bien. Pero creo que ya tengo dominados los Hiresfix, o por lo menos al nivel que me gustan las imágenes. >Adeteiler ¿Eso que era y donde se ve? ¿Por qué cuanto específicamente? Lo de la resolución hablas de las dos barras de 832 y 1216, ¿verdad? Ya las he ido trasteando también. El Impaiting lo estuve probando un poco y tuve buenos resultados pero luego toca profundizar en eso, solo marqué el espacio mal hecho y le di a generar con los mismo parámetros. Ya me imagino que habrá mucho más que solo eso. >16 minutos Ouch... ¿Eso es por tu Internet mamaguavo o porque el proceso de por sí es pesado? Lo del tiempo no importaría si no fuese porque solo son 4 horas de uso. No quiero abusar del Kaggle. ¿Cuál es la diferencia de euler y euler a y para qué sirven? >Remacri ¿Viene por defecto? Porque ni lo veo en los upscalers. >el artifact del cuello desapareció ¿Qué es artifact? El único cambio que noto es que le añadió un botón un poco cuestionable en la parte derecha del cuello kuek. Además de lo obvio... >te dará error Tampoco puedes pasar de 2 en scale, anotado, ¿en kaggle se puede? >regional prometer ¿Ahora también va por regiones? Kek. >aldo Estuve probando un lora de Mamimi porque su estilo me activa las neuronas y pues voy a intentar agregar un tercer lora a la próxima. Ah, y probando el img2img de manera empírica, generé estas, ya me imaginaba que se podía... Aunque creo que mencionaste un mejor método para que el modelo reconozca las poses de los PJ involucrados. >aldo 2 Antes de que me olvidé. Surgió un problema. Luego de generar algunas imágenes, a veces ninguna, está sé inclina a la fuerza por un tipo de pose, en este caso from behind y looking at viewer sin ponerlo en los prompts o incluso poniéndolos en los negativos. ¿Por qué pasa esto? ¿Hay alguna forma de eliminarlo en plan limpiando el caché? Es con todo, incluso si lo pongo en Img2img con pics que no tienen nada que ver, deforma la imagen para forzar esos prompts.
[Expand Post]>>14699 Me recuerda la estilo de Tite Kubo y Bleach, ¿Ese lora está entrenado en ese estilo? >>14716 >solo una OVA ¿Cuál? ¿Capturas de pantalla también valen? Eso me recuerda a que existe un lora de una mona de Aiue Oka que solo salió en dos doushinji de 14 páginas o así kuek. >aldo Cuando llegue a la fase de entrenar lora. Que eventualmente llegaré... Te lo puedo entrenar yo si me das las imágenes o la OVA en cuestión... Aún tengo el vago recuerdo de haber entrenado un lora en Civit AI muy pobre cuando tenía créditos de sobra. De una Puta virtual en la que gaste 5 dólares hace años en OF solo porque quería saber como era todo eso... Todavía tengo las capturas conmigo. Tocara sacarle todo el jugo a esos 5 dólares kuek.
(55.27 KB 589x698 Adetailer.png)

(1.12 MB 1280x1024 Scheduler Type Diferencia.png)

(267.78 KB 1217x737 Adetailer 2.png)

(480.99 KB 1266x855 Adetailer.png)

(3.24 MB 2304x2304 Inpaint_00008-478231244_v3.png)

>>14717 >las cosas menos ortodoxas son las que más me funcionan Bueno mi negro, si algo aprendido de la IA es que a cada uno le funciona algo diferente, yo trato de dar consejos de lo que me funciona en base a mi experiencia, explicar un par de cosas y enseñar un par de cosas más, pero ya ahí en adelante no puedo controlar el proceso de los demás ni lo que hacen, así que cada prompter encuentra su propio camino de hacer las cosas, yo soy muy de seguir las reglas al dedillo y eso me funciona desde SD 1.5 pero no me voy a enojar con usted por no seguir mis métodos, ni que fuera profesor de Universidad, kek. >¿Me lo recuerdas...? En resumen el HiResFix desde la pestaña de Text to Img (Text2Img) es el más arcaico, PERO, si me di cuenta que lo mejoraron bastante en ReForge con las opciones que te mencioné, pero de nuevo, llevaba tanto tiempo usando el HiResFix desde Img2Img que se me había olvidado que hicieron esos cambios en ReForge en primer lugar, en fin, el HiResFix desde Img2Img es mejor y te da más control, yo lo tengo pre-configurado para que me lea el upscaler de Remacri desde Img2Img. >4x Anime Sharp También es bueno, yo lo solía usar bastante, en la celda debajo de "descarga VAE" esta la pestaña de descargar Upscaler, el mundo de los upscalers es bastante amplio, yo he usado: YandereNeo XL, Remacri original, 4x foolhardy Remacri, AnimeSharp,4x-NomosUni span multijpg, RealESRGAN_x4Plus Anime 6B, 4x Lollypop, etc, pero me acostumbre a Remacri por velocidad y conveniencia. Pero el que más me impactó, fue DAT X2, me dijeron que es bueno (y lo es) pero tarda 3 minutos en un HiResFix a x1.5 de resolución, demasiado hasta para mí y eso que me considero paciente. >¿Eso que era y donde se ve? Los adetailer es un juego de palabras, significa tanto After Detailer (detalle posterior) y add detailer (añadir detalle) como su nombre indica añadirá detalles a la imagen después de ser generada de forma automática con un modelo pre entrenado en el área que quieras que añada esos detalles. Es más cómodo usarlos desde Img2Img con mayor control. >¿Por qué cuanto específicamente? Depende de lo que quieras y ver cuando el adetailer es más efectivo, como siempre los adetailer que vienen por defecto no son los mejores, yo uso adetailer personalizados entrenados en anime (lo cual es gracioso porque mi upscaler favorito Remacri es para fotos IRL) cada uno viene con un área de detección y resolución entrenada, por no decir que es un Inpainting automático, aquí entra de nuevo la intuición, ¿me beneficia más usar el adetailer con la resolución base, ¿debería hacerlo antes o después del HiResFix?, ¿debería cambiar los samplers, steps y schdedule type durante el proceso de adetailer?, ¿debería cambiar los parámetros del adetailer o los dejo por defecto?, etc. Le dejo un ejemplo de uso adetailer pechos con Ilulu a 1536x1536 de resolución. >o porque el proceso de por sí es pesado? Es así de pesado en las etapas finales del postprocesado que me gusta hacer, pero ya casi no tengo tiempo para eso. >¿Cuál es la diferencia de euler y euler a y para qué sirven? Ufff, negro esa pregunta da para una respuesta muy extensa, veré que puedo resumir que se entienda. Los samplers o métodos de muestreo, son algoritmos que guían el proceso de denoising (eliminación de ruido) en los modelos de difusión de imágenes, o sea, ayudan a transformar el ruido aleatorio en una imagen coherente paso a paso (steps) siguiendo las instrucciones y el modelo latente. >Euler Probablemente el más simple y de lo más rápidos pero quizá no el más preciso, producirá imágenes más suaves pero menos detalladas. >Euler ancestral (Euler a) Similar pero en cada paso (step), añade y sustrae un poco de ruido aleatorio nuevo para alinearse con el agendador de ruido (schedule type) esto básicamente lo hace más "creativo" que Euler pero también menos determinista. Los sampler Euler y Euler A son los predilectos para los modelos anime, en mi caso uso "Euler" para modelos NoobAI y Euler A para el resto de modelos anime, si necesita un buen shedule type Beta es el mejor, aunque SMG Uniform también es bueno si quieres líneas más definidas. Para modelos realistas solía usar Sampler: DPM++ 2M + Karras (Schedule Type). También te recomendé parámetros para usar Euler/Euler A CFG++ para no repetirme mucho digamos que es Euler pero con un extra, se vuelve bastante loco con los detalles. >¿Viene por defecto No, pero ya le explique como descargarlo, es mi upscaler favorito, pero de nuevo si se siente cómodo con 4x-Anime Sharp siga usándolo. >¿Qué es artifact? Son defectos visuales no deseados ya sea distorsiones o anomalías de una imagen generada con IA, pueden ser pixeles, lineas mal formadas, ruido, etc, en este caso Reisen tenía una malformación en el cuello que no concordaba con la imagen. >El único cambio que noto Necesita entrenar su ojo aún más, hay varios cambios pero son diminutos, básicamente DAT X2 es superior a Remacri como upscaler, PERO, 3 minutos de espera es mucho hasta al menos en las fases iniciales de postprocesado. >Tampoco puedes pasar de 2 en scale, anotado No, no, no entendió, como se lo explico, si puedes pasarte de upscale x2 yo lo hago todo el tiempo y llego hasta 2304x2304 (de ahí si que no te puedes pasar sin que crashee), una resolución x2 sería 2048x2048 (pocas veces la uso) pero en el viejo A1111 llegar a resoluciones x2 con XL es imposible, generalmente trato de que la gente aprenda A1111 primero y ReForge después, pero en su caso preferí que aprendiera ReForge directamente, es más completo, actualizado y optimizado. >¿en kaggle se puede? Kaggle es más poderoso que Colab en el sentido de que da 30 GB de RAM, aunque la GPU T4 es la misma, bueno, técnicamente te da una T4 X2 (si el doble) pero no sé como activarla. >¿Ahora también va por regiones? Si, Regional Prompter es una herramienta muy antigua, pero sigue siendo útil, aunque Forge Couple debería ser mejor, pero, en ese entonces usaba otro notebook de ReForge con extensiones que no funcionaban. >y pues voy a intentar agregar un tercer lora a la próxima. Le recuerdo que al igual que puede fusionar estilos de artistas con los tags que reconoce el dataset del modelo y cambiándoles la fuerza, puede hacer lo mismo con los LoRA de estilos, ojo, no siempre el resultado será bueno, o a veces el resultado no será bueno a la primera hasta que lo ajuste. >un mejor método para que el modelo reconozca las poses Si, es Control Net no puedo vivir sin esta extensión. >from behind y looking at viewer Creo que sería mejor escribir "from behind, looking back". >¿Por qué pasa esto? ¿Hay alguna forma de eliminarlo en plan limpiando el caché? Puede depender del modelo y fíjese si no dejó la seed activada de la imagen anterior eso era un error que yo solía cometer cuando era novato y se mezclaban cosas de la imagen anterior con la nueva, puede causar interferencia, de resto si el modelo se pone a alucinar de verdad entonces me voy a "Settings" y "Reload UI" si esto no funciona también puede detener la celda del launcher y relanzarla y le dará un nuevo share link, pero cuidado si se cuelga puede desconectar toda la sesión y no quiere eso. <aldo Puede compartir el share link con un amigo y generar juntos, pero le recomiendo hacerlo en Colab no arriesgue nunca Kaggle.
[Expand Post]>cache Creo que ReForge ya limpia la cache automáticamente después de cada imagen generada, pero Colab no nos da una terminal para hacerlo manualmente, así que creo que el problema debe ser otro. >¿Cuál? Es un secreto, me gusta mantenerme anónimo. >¿Capturas de pantalla también valen? Chi, pero (siempre hay un pero) personajes entrenado con capturas de pantalla de anime tienden a ser menos versátiles, por el ejemplo el amigo que le conté entrenó su LoRA apenas con 15 imágenes (eran 16 pero una se le quebró en el proceso), y cada imagen era de un artista distinto, ¿resultado? su LoRA es más versátil para poder generar estilos de artistas distintos, supongo que lo bueno de entrenar con capturas de pantalla de anime es que el personaje va a ser 100 % fiel al diseño original, supongo que el problema de entrenar con fan arts sería tener que coger los resultados más fieles, por ejemplo viendo fan arts de Urumi noté que muchos se olvidaban de ponerle una cola de vaca roja, por lo tanto si ves a Urumi sin cola roja puedes saber automáticamente que el dibujo esta mal y que no conocen al personaje. O viendo las imágenes de IB noté que algunos les añaden sidelocks a su peinado mientras que en el diseño original esta no los tiene (también su peinado es marrón oscuro y no negro), etc. >LoRA de un personaje de Doujin En términos generales, puedes entrenar usando solo imágenes en monocromo/escalas de grises y aun así generar imágenes a color; simplemente, suelen resultar un poco más planas o con tonos más apagados de lo que pudieras querer. También pudieras colorearlas paginas con Control Net line art, pero claro, no sé si sería lo más correcto. Eso sí, como le estaba explicando al otro, si va a entrenar algo lo más correcto es que sea Illustrious v01 para mayor compatibilidad de modelos posible. No entrene en WAI ni en los otros Illustrious. De resto de los modelos actuales las otras opciones de entrenamiento que quedan serían PonyV6 (así este en deshuso pero sería lo correcto antes que otros modelos Pony), NoobVpred 1.0 y Animagine XL 4.0 Zero (nació muerto esta cosa pese a su robusto dataset), que son los modelos de entrenamiento viable actualmente. Creo que esas son todas las dudas, voy a tratar de curar mi dataset de imágenes, saqué 213 capturas de pantalla. Mínimo 20 ó 40 me tienen que servir para cada personaje. Y dejo una versión arreglada de la boca de Ilulu que subí antes, la densidad de pixeles de mi celular pirata es mucho mejor que la pantalla de mi oficina, y pude notar más errores que no había notado antes, kek.
>>14717 >Está basado en Kubo Tite? Si >>7110 >>7131 >>7128
(889.65 KB 1024x1024 00049-5546.png)

Cómo comenté hace unas semanas sufrí un hackeo y tuve que formatear mi computadora. Perdí mucho pero una parte de las imágenes que genere y me habían gustado las había respaldado en una cuenta de Mediafire ahora resulta que nada de lo que subí a esa cuenta está ahí, nada, la cuenta está vacía. Ya no volveré a confiar en servicios de nude negros, si quieren respaldar algo aunque sea pequeño usen un usb o algo físico, confiar en terceros es un asco.
>>14691 >Negros alguien sabe cómo se genera video con IA? ¡Hola!, conseguí algo, en este repositorio puedes conseguir notebooks para generar vídeos con IA en Colab... Pero no sé como usarlos, kek. Ten en mente, que la GPU T4 es lentísima para estas cosas hablando con un amigo me contó que el proceso de Imagen a vídeo tardaba media hora, lo cual es raro porque el proceso de texto a vídeo tardaba siete minutos, ojos, sus palabras no mía. >Notebook Wan 2.2 Img2Video LIGHTX2V https://colab.research.google.com/github/Isi-dev/Google-Colab_Notebooks/blob/main/wan2_2/wan22_Lightx2v.ipynb#scrollTo=96675e45HYsu >Repositorio de notebooks random https://github.com/Isi-dev/Google-Colab_Notebooks El que los hizo tiene un canal de Youtube, dónde explica un poco de esto, dicho esto no sé si alguien más le puede enseñar a usarlos, se los pase a otro amigo y me dijo que le dio error, kek. >>14720 >si quieren respaldar algo aunque sea pequeño usen un usb o algo físico, Te hablo desde la pobreza absoluta como desearía tener suficiente espacio físico en el que guardar mis mierdas pero ni eso puedo tener. De resto tengo el Internet muy lento hoy, así que aún sigo curando el dataset de mi LoRA.
>>14687 Kek, me habia olvidado de este hilo. No he generado casi nada interesante esta semana, asi que lamento las imagenes de baja calidad. Also, se permiten postear furras en este hilo? jeje >>14689 >Nova Furry XL solo decayó en sus versiones posteriores a la V7 Estoy de acuerdo, los modelos mas recientes solo generan puras cosas "genericas" (aunque con una mayor calidad claro), yo aun recuerdo cuando los modelos antiguos (Como Craiyon o Dall-e) generaban cosas incoherentes y sin sentido pero que tenian una mayor complejidad. Han pasado años y aunque tengamos mejores modelos parece que mucha gente se ha quedado estancada generando cosas que se ven "bonitas" pero que carecen de proposito alguno... Lamento la reflexion filosofica repentina lel >>14689 >han querido remover el fondo de una imagen pero les da pereza usar Photoshop Pues no suelo editar las cosas que genero (aunque me gustaria) pero recientemente vi que sacaron este modelo: https://huggingface.co/joelseytre/toonout Que supuestamente remueve el fondo con un 99.5% de aciertos, aunque no tiene demo aun asi que no lo he probado. >>14691 >cómo se genera video con IA? He visto que algunos de esos videos son hechos con Wan 2.2. Yo no lo he probado porque pide un monton de creditos pero este espacio talvez te pueda servir. https://huggingface.co/spaces/multimodalart/wan-2-2-first-last-frame >>14695 >¿Cómo puedo hacer para copiar su estilo de alguna manera? Pues se me ocurren tres maneras de hacerlo. La primera es usar el nombre del artista como un tag con un peso alto. Ej: (Art by Setsu:1.3), la otra seria buscar LoRAs en algun sitio como Civitai o Seaart y rezar para encontrar algo lol. Y la tercera opcion es usar algun plugin de "style transfer" en algun programa como Comfyui. >>14720 >Cómo comenté hace unas semanas sufrí un hackeo y tuve que formatear mi computadora F por tu coleccion de imagenes anon, he escuchado de algunos programas (como Photorec) pueden ayudar a recuperar archivos formateados. >Ya no volveré a confiar en servicios de nude negros Yo lo unico que tengo en la nube son cosas del trabajo en el google drive kek. A las empresas no les importa ni les conviene mantener seguros nuestros archivos, asi que lo mejor es tener copias en local y en varios dispositivos. Also Te recomiendo usar catbox, una pagina para subir archivos y poder compartirlos sin necesidad de cuenta, y que tambien guarda la metadata de las imagenes (como el prompt y los settings) aca un ejemplo (Aviso que es nsfw): https://files.catbox.moe/gx3h24.png
>>14727 ¡¡Hola!!, bueno al menos digamos que esto ha estado un poco más movido últimamente gracias al nuevo, pero yo tampoco he estado generando casi nada estas últimas semanas así que me encuentro reciclando mis viejas imágenes de cuando estábamos ocultos en el tablón de pruebas, kek. >Also, se permiten postear furras en este hilo? Nunca estuvieron prohibidas, había un furro anon que recuerdo con cariño y yo a veces le hacía Inpaint a sus imágenes, pero eventualmente también desapareció, también me gusta generar furras de vez en cuando, aunque por gusto personal prefiero a las scalies antes que las otras razas de furras. >y sin sentido pero que tenian una mayor complejidad Concuerdo, creo que antes la IA daba interpretaciones no solo más artísticas, sino hasta más interesantes de los prompts incluso cuando alucinaba, probando NovelAI 4.5 si bien es re potente y me hizo sentir como cuando descubrí la IA por primera vez generando montones de cosas que me gustaban los dos primeros días, esta tan arreglado para darte buenos resultados que literalmente es difícil fallar, no hay curva de aprendizaje con modelos así. De resto todo apunta que el futuro serán los modelos IA generativa de imágenes open source chinos, así que probablemente en unos años todos estén usando Wan o Qwen para generar. Aunque bueno, yo también peco de volverme esclavo de "1girl, solo", yo antes buscaba generar cosas más interesantes, pero al menos me alegra de que nunca caí en el elitismo de algunos prompters que se enojan cuando no usas lo mismo que ellos y que "mi slob es menos slob que tú slob así que soy mejor", kek. También perdí la pasión de probar nuevos modelos (similar con las distros de GNU/Linux), así que todo lo que no sea Illustrious v01 hasta el v2.0 o Noob Vpred 1.0/EPS 1.1 no existen para mí, pero trato de recomendarle a los nuevos modelos más fáciles de usar, a veces uso Animagine XL 4.0 Zero por nostalgia derivada de Animagine XL 3.1 (mi segundo modelo anime favorito después de Illustrios v01) quizás en 2025 el próximo Animagine sea bueno, o bien surja algo más que reemplace a Illustrious & Noob, ya que el primero OnomaAI abandonó el open source y Noob de L-A-X terminó con SDXL y Noob v2 será en una nueva arquitectura, pero eso sí me alegra poder seguir guiando gente a usar SD. >Remover fondos Le recomiendo el Space que pase de REMBG trae BiRefNet incluido (no el que dice demo) y o por dios es por mucho de los mejores removedores de fondos para SD que he probado, simplemente tarda un poco más. Aquí >>14692 También encontré un repositorio cargado con notebooks de Wan >>14722 Pero no sé como usarlos... y ni me interesa usarlos, kek. Tampoco tengo tiempo para eso, aunque supongo que pagando por Colab Pro con una A100 deben correr con mejor velocidad que con la pobre T4, ojalá Google active mejores GPU gratuitas pero lo dudo, también extraño Sagemaker pero es casi imposible conseguir una GPU ahí ahora. >>14720 Se me olvidó decirte, también puedes intentar usar Recuva para recuperar archivos borrados, aunque imagino que la mejor versión siempre es la paga.
>>14719 >>7131 >>7128 Quería venir haciendo esto desde la primera vez que las vi y menos mal que las trajo a mención de vuelta, aunque creo que me gusta más como quedó el estilo de las primeras tres, también quería hacer más variaciones con el vestido blanco tipo race queen, pero pensé que mejor lo dejo así, prefiero las cucas lisas, pero por esta vez hice una excepción, arreglos mínimos en Inpainting.
>>14732 Uff hasta dan ganas de crear un lora dedicado a ella, el mejor accidente que he tenido en SD la verdad. La últimas dos imágenes son las que mejor te han quedado.
>>14733 Hola, ¡me alegra que te gustaran!, en serio quería hacer más sobre todo con el segundo atuendo, pero luego recordé que era mejor no sobre pasarme sobre todo porque estoy gastando tokens de una cuenta que no es mía. Me he divertido mucho con la opción de transferencia de personajes, aunque no es perfecta, aprendí a la mala que a NovelAI le cuesta el estilo western y algunos detalles hay que añadirlos tú mismo en Inpaint, no es de sorprender que el mejor modelo anime privativo viene de Japón (y los mejores modelos anime open source también vienen de asia) a propósito en serio es bastante bueno el removedor de fondos de BiRefNet adjunto pic related 2 como prueba, pero como dije NAI le cuesta tanto el estilo western que no pude obtener una mejor que pic 5 que fue la base, con su personaje me costó mucho menos obtener resultados decentes y/o trabajables.
Al final me terminé contradiciendo como siempre y termine usando el notebook de Wan 2.2 ahora puedo hacer vídeo slob, kek, recomiendo resoluciones tipo 480p ó 640p para que la espera no se haga una eternidad, no hagan a 720p de resolución les puede dar error y/o se tardara media hora, pueden hacer NSFW con LoRA de CivitAI entrenados en Wan 2.2 aunque según leí LoRAS de Wan 2.1 deberían ser compatibles, pero es como SDXL de Pony a Ilustrious, siempre van a funcionar mejor en sus ramas base, si quieren hacer NSFW necesitaran un LoRA y el notebook solo admite máximo hasta 3 LoRA, pero, es posible subir una imagen NSFW o picante y Wan la procesara, aquí hay algunas de mis pruebas SFW, mi favorita fue la de Suwako Moriya, hace un año hice esa imagen en Sagemaker. También si se les olvida el paso de interpolación para volver el vídeo a 30 FPS hay un Notebook secundario que se dedica solo a eso, debo decir que si bien no es perfecto y solo son vídeos de 4 segundos, lo sentí relajante como cuando solía usar JuggernautXL. Ojalá Alibaba no se mande un OnomaAI 2.0 y no se vuelvan closed source con Wan 2.5 como pasó con Illustrious.
(1.18 MB 832x1216 00011-1291335343.png)

Primera prueba de Forge Couple, y debo decir, Regional Prompter funciona fatal en NovaFurryXL. Peor de lo que recuerdo en la v7 B, sino fuera por el Inpainting creo que hasta me olvidaría de este modelo.
(137.43 KB 832x1216 IMG-20251007-WA0000.jpg)

(124.29 KB 832x1216 IMG-20251007-WA0001.jpg)

(155.18 KB 832x1216 IMG-20251007-WA0003.jpg)

(154.17 KB 832x1216 IMG-20251007-WA0002.jpg)

(166.58 KB 832x1216 IMG-20251007-WA0004.jpg)

>>14718 Hola, mi negro, ha pasado mucho tiempo. Y es que he estado ocupado, aunque veo que no me he perdido de mucho. Aunque tengo un par de cosas que decir antes de que se me olvide... Primero, he estado probando el estilo de Okitakung y el de Chronozberg, combinándolo con otros y demás. Y pues creo que juntar esos dos será mi estilo predilecto a la hora de generar al menos por ahora, me gusta mucho el resultado y los errores son mínimos luego de poner en 0.3 el denoise y escalarlo. Aunque aún no sé usar el Inpaiting o bien no me sirve de mucho con lo poco que lo he probado... Pero me he dado cuenta de algo, y es que los artistas tipo Momomo906 o Evie (baoxiao) y más artistas de acuarelas/reverso colors o diseños excéntricos no están disponibles ni en el Notebook o en CivitAI a modo de lora... ¿Es porque no está actualizado a porque el artista nukeó las fuentes? Quería probar/emular el estilo jojos de esta manera sin copiar la anatomía pero eso... En cuyo caso creo que es hora de entrenar un lora yo mismo y así ayudar al genocidio de artistas. Por cierto, ¿te enteraste del Sora2? De verdad parece que quieren dinamitar a los anones curiosos cuanto antes... >aldo >yo tengo preconfigurado el img2img ¿Me pasas captura para tenerlo igual? Por fa. >Schedule type ¿Eso que hacía? He visto varios... Pero no sé bien qué diferencias obtiene cada uno o qué hacen. Siempre lo he mantenido en "automatic", supongo que es hora de probar otros... >regional prompter Eso me recuerda. He estado usando el prompt de Koma2, 3, 4 y demás... Supongo que el Regional servirá de maravilla con ese tipo de comandos ya que literal separa la imagen de por sí... ¿Cómo se activa o se descarga exactamente? Podría ayudarme a tener mejor visión de espaciado a la hora de panelar. Mi objetivo con esto es el diseño de personajes, el Character Sheet y después pasar a la generación de Vídeos mientras pruebo. >hablando de eso Se le puede cambiar la fuerza a los estilos con los tags... Y esto conecta con lo otro, ¿las {} sirven de de algo o es puro placebo si no se usa bien? He visto usarlas más veces de las que puedo pasar por alto, estuve probándolas y aunque pueda parece que funcionan bien podría ser solo que me lo imagino como con los loras kuek. >controlNet ¿Ese no era el que funcionaba mal en ReForge? ¿Tengo que ir a Kaggle para usarlo? Y otra cosa ¿Me pueden banear el culo si meto imágenes generadas ahí mismo pero en otra sesión? En el Img2Img o el Inpaiting, por ejemplo... No lo he hecho por precaución o siquiera he usado el PNG info por lo mismo. >fíjate si no tienes la seed anterior ¿Cómo se verificaba eso? Y sí, creo que simplemente recargan la UI sirve para que no alucione demasiado. Aunque creo que se nota poco, aunque bien puede ser mi paranoia. >es un secreto Sí, negro. Obviamente puedo deducir que eres de Caracas y te llamas Felipe por el animu que ves... kek, ya en serio, no veo problema con decir el animu. A lo mejor y me gusta >entrenó su lora con 15 imágenes ¿De artistas distintos? ¿O sea que no era tan desconocido? Porque he visto diseños interesantes de animes que no los conocen ni en sus casas... >modelos realistas Por ahora creo que me quedaré con el animu o el 3d, el IRL en IA no me llama mucho la atención. Me la puede poner como diamante pero me da demasiado uncanny valley como para meterme de lleno...
[Expand Post]>aldo Lamento si son muchas preguntas, pero como nos movemos de 1 respuesta por día pues mejor abarcar mucho kek
(81.70 KB 800x562 IMG-20251007-WA0005.jpg)

>>14745 >aldo Estoy seguro que cuando me diste la Notebook por primera vez, estas opciones no estaban, de modo que sí la han actualizado... ¿Cómo se usan? Kekcito
(121.01 KB 1120x840 1 (1).webp)

>>14746 >aldo 2 Esto me pasó ayer. Y es que el personaje de Tamaki Kotatsu, la de Fire Force es muy difícil de emular... Siempre se mezcla con los demás personajes de ese anime, dandole piel oscura o cabello blanco, poniendo el prompt o no. Incluso subiendo el CFG a 9 termina haciéndolo, aunque ahora me causa más intriga que molestia. >aldo 3 En algunos casos, cuando descargo un lora desde el HUB este no aparece en la pestaña de los LoRa a pesar de que dice que se descargó correctamente y está en dicha pestaña. ¿Por qué pasa eso? En otros casos como en el de la elfa funciona normal, pero ya es muy común como para dejarlo pasar... >aldo 4 ¿Se le pueden quitar las letras a las portadas de los doushinjis y que solo quede la imagen? Como la pic, por ejemplo. Es que no sé cómo lo hacen, pero sacan versiones descensuradas no oficiales, incluso a color. Imagino que con photoshop, pero me da curiosidad. >aldo 5 Tengo un prompt negativo predilecto que me funciona en la mayoría eliminando algunos errores. Es este en caso a alguien le interese. text, artistic error, bad anatomy, bad perspective, bad proportions, censored, extra arms, extra legs, extra digit, missing limb, amputee, adversarial noise, ai-assisted, stable diffusion, bad hands, low quality, six fingers, extra straps, four fingers, anatomical nonsense, separated eyes, fat rolls, bad fingers,
(4.18 MB 4000x2328 Inpaint progress.png)

(2.64 MB 1344x1728 Inpaintv2_00033-2605544137.png)

(76.42 KB 627x864 Inpaint Parametros.png)

(112.19 KB 910x920 ForgeCouple.png)

(137.80 KB 1225x859 Miku.png)

>>14745 ¡Hola! también he estado ocupado y con problemas aunque casi se me había olvidado seguir publicando aquí, kek. Pero me alegra que pasara de vuelta. Mi último post fue una prueba muy fallida de Forge Couple de un crossover de Tsunade (personaje ya reconocido dentro del dataset) más LoRA de Ingrid, pero pude obtener un mejor resultado recientemente con dos LoRA de dos personajes distintos, Ayame x Ariane con sus tamaños canon (tanto altura y pechos). A lo mejor no sé si te diste cuenta pero el tema del hilo iba de obtener múltiples personajes en una sola imagen, a lo máximo que llego es a tres personajes pero más personajes es igula a más inpainting. Aparte de las pruebas animación gracias al notebook de Wan 2.2. Procederé a responder sus dudas y dar ejemplos de ser posible. >Aunque aún no sé usar el Inpaiting o bien no me sirve de mucho con lo poco que lo he probado... El inpainting es cuestión de practica, sirve tanto para expandir la imagen con Outpainting y arreglar aspectos de la imagen, por ejemplo me gustó la pic base del crossover de Ayame x Ariane, pensé "este es" pero, el resultado original dejaba mucho que desear (sobre todo del lado de Ariane) y sí le metía HiResFix directo sabía que iba a quedar mal, le agregué con Inpaint el moño rosado y arreglé detalles de los ojos y expresiones, mejoré los detalles de las sombras de las ataduras de las panties y los frills, etc. El inpaint me ayuda tanto para añadir eliminar resultados no deseados como dedos extras y/o agregar elementos que faltan, cambiarle el color a una prenda, agregar prendas, quitarlas arreglar auténticos horrores lovecraftianos que alucina la IA... a mi me gusta usar Inpaint para descensurar de vez en cuando y/o quitarle piercing en los pezones a ciertas imágenes. Aunque claro, si lo usas desde tablet puede que sea más incómodo que usarlo en PC, también hay que saberlo configurar, tanto samplers, parámetros y modelo y prompts afectan la calidad del Inpainting. >Momomo906 o Evie (baoxiao) Me puse a buscar sus nombres y al menos ambos deberían estar en el dataset de NoobAI, pero tienes que tener en cuenta el dataset de los modelos, Illustrious v01 su dataset de Danbooru llega hasta 2023 y NoobAI (basado y mejorado de Illustrious v01) su dataset llega a hasta octubre de 2024 y nosotros ya estando cerca de cerrar 2025 el tiempo les ha sacado peso a ambos datasets así los modelos sean objetivamente buenos, hoy día veo que esos dos tienen 189 pics (momomo 906) y 107 pics evie (baoxiao) por lo tanto sí tenían muy pocas pics antes de esas fechas los modelos no podrán imitar bien sus estilos. Como alternativa de dataset más actualizado esta AnimagineXL 4.0 hasta el 5 de enero de este año, pero fue tan irrelevante que nadie se molestó en entrenar nada ahí, kek. >¿Es porque no está actualizado a porque el artista nukeó las fuentes? No pueden nukear los datasets de los modelos y me atrevería a decir que solo el 2 % de los artistas revisa CivitAI para revisar si les hicieron un LoRA, el único artista ardido que vi en CivitAI fue uno western colorista, kek. (Y aún así tengo mis dudas que fuera realmente él) También hay sitios a prueba de normies dónde subir LoRA's. Lo que sí he notado es que la extensión de etiquetado automático a veces le cuesta leer el prompt y a veces termino copiando y pegando el tag con los underscores (_) pisos directamente de Danbooru o E621 pero muy pocas veces hago eso. >Quería probar/emular el estilo jojos de esta manera sin copiar la anatomía Puedes hacerlo con Noob IPadapter para transferir estilos de una imagen base a otra sin replicarla, PERO, (siempre hay un pero) es muy pesado para Colab y solo funciona en Kaggle que es más potente (y aún así tiene riesgo de crashear) y para más inri como el nombre indica esta entrenado en Noob y noté que la versión dónde tendrá mejor efecto es Noob Eps 1.1 los modelos basados en Illustrious noté que les cuesta transferir el estilo, sobre todo si es un estilo western (NoobAI pese a ser de un chino este decidió incluir más dataset western). Y si no siempre puede entrenar un LoRA de estos, 50 pics (mínimo) a 70 (recomendable) pìcs consistentes son suficientes para entrenar un LoRa de algún artista y/o estilo. >¿te enteraste del Sora2? No me importan mucho las IA closed source la verdad, solo me enteré que Sora 2 duró dos días sin censura, kek. Tardaré 10 a 13 minutos en obtener un vídeo de 4 segundos de una imagen con Wan 2.2 en Colab pero al menos no me van a censurar. >Preconfigurado No exactamente, más que preconfigurado yo siempre uso parámetros diferentes para Img2Img (aquí se puede experimentar mucho), aunque para agilizar el proceso puedes generar una imagen con los parámetros base que te gusta usar ya sea en Txt2Img y/o de Inpainting (no importa que tan mala sea la imagen) y luego para la próxima sesión te vas a PNG info y envías la imagen y cargaran los parámetros automáticamente, pero ojo, se transferirá el numero seed, le recomendé esto a un amigo que le cansaba poner los parámetros de Inpainting cada vez (esto si que casi no los cambio) pero igual diría que al menos con el Inpainting es crucial memorizarlos. >Schedule type ¿Eso que hacía? Para simplificarlo lo más posible, el schedule type juega un papel crucial en quitarle el ruido a las imágenes para poder tener una imagen limpia. Los dos mejores que he probado son Beta + SMG Uniform. >Siempre lo he mantenido en "automatic", Si esta usando Euler A como sampler se cargara automaticamente Normal como schedule type, digamos que es balanceado pero no muy avanzado es mejor que "Simple" que yo antes solía usar en la era Animagine/Pony algunos te recomendarán "Karras" pero aparte de ser incompatible con Vpred, Karras es mejor para realismo. >Regional Prompter y Forge Couple Digamos que Regional Prompter... se quedó obsoleto, pero solía ser la única opción para obtener múltiples personajes en una imagen, hoy día Forge Couple es mejor, pero si puedes aprender ambas sería lo correcto, Forge Couple da aún más control de la composición de la imagen y deja usar mascaras, aunque ambos funcionan a base de regiones. La de Ayame x Ariane la conseguí gracias a Forge Couple más loras de cada personaje. > ¿las {} sirven de de algo o es puro placebo si no se usa bien? Las llaves son exclusivas de modelos de NovelAI, así que no, no sirven para absolutamente nada en nuestros modelos open source entrenados en anime. Use los paréntesis ya sea por ejemplo: (sweat:1.2) ó ((sweat)) también puede incluso reducirlo tipo (sweat:0.9) si quiere reducir algo por ejemplo una rellenita que no sea una gorda [plump:0.9] ó [plump] y escribir "artist:"(sin comillas) antes del tag de un artista que ya reconozca el modelo ayudara a evitar el sangrado de estilos. También pocas veces recomiendo subir la fuerza del prompt a más de 1.5 ejemplo: (sweat:1.5) más allá de uno 1.2 puede que comienza romper cosas en la imagen. Ah y se me olvidaba, nunca use los "Score_9", score_8_up" de pony fuera de modelos Pony, no solo de por sí ya eran confusos de usar en modelos Pony, literalmente no funcionaran en otros modelos que no tengan Pony mezclado en ellos, o incluso darán un resultado peor. >¿Si control net no funciona funciona mal en ReForge? 50/50 usar los Control Net Lite en el ReForge de Colab es más ligero pero son varios en pequeños archivos, Control Net ProMax es más completo en un solo archivo, tanto Kaggle y Colab ofrecen la misma GPU pero Colab da muy poca RAM los Control Net lite resuelven esto, pero como le comentaba NoobIP Adapter aún con la versión reducida de 600 MB es demasiado para Colab mientras que en Kaggle puede correr incluso la versión de 1GB. >¿Me pueden banear el culo si meto imágenes generadas ahí mismo pero en otra sesión? Justamente eso le pasó a un amigo... pero el cometió el error de arrastrar y soltar la imagen encima de la interfaz... no voy a decir que mi método es 100 % a prueba de fallos pero probé usando imágenes NSFW de referencia para el NoobIP adapter varias veces y no me banearon, pero en vez de soltarlas y arrastrarlas encima de la interfaz las seleccione desde la opción de abrir carpeta. También la imagen de Ayame x Ariane la comencé en Colab, la continué en Kaggle (no esta encriptada desde Colab) y después por un apagón la pase a Colab de nuevo, kek. Y tampoco me banearon, igual no es por ser paranoico, así que de todas formas recomiendo ser precabido con Kaggle. >¿Cómo se verificaba eso? La seed se verifica cerca del símbolo de reciclaje, la seed siempre es importante es como el código de barras que siempre te permitirá volver a una imagen, Txt2Img, Img2Img, Inpainting, el número Seed es esencial en todo. >Texto negro les diré cuando lo terminé pero te diré una pista tiene dos mellizas >¿De artistas distintos? Si, pero le quedó errores como que el personaje le faltaba la cola kek. Tienes que encontrar un balance entre estilos variados para que tú LoRA sea más versátil y fidelidad al diseño del personaje, a no ser que tu personaje sea de equis OVA olvidada de los 80s, ahí te vas a tener que valer a punta de capturar pantalla como loco. Piensa en hacer un LoRA como un deck de Yugioh. solo pon lo esencial del personaje en 40 a 50 imágenes, ni loco pongas 100 imágenes tampoco es que Colab sean tan potente, kek. >Lamento si son muchas preguntas Tranquilo, siempre responderé dentro de lo posible.
(3.26 MB 1280x1856 Inpaint-izutsumi_21623633.png)

(1.10 MB 1182x886 Limpio.png)

>>14747 Continuo la respuesta, hasta el chan cree que doy respuestas demasiado largas, kek. Edit: Borre los otros dos post para no usar tanto espacio. >>14746 >Config.json Oh, es una opción para tener la UI personalizada, sigue sin ser memoria persistente pero la verdad ayuda bastante a agilizar las cosas, en lo personal ya no pierdo tiempo extra en las configuraciones de settings cada vez. Yo lo hice a la antigua subiendo mi config.file a un repositorio privado de hugginface con el código api desde el Hub unos auténticos malabares pero si quieres te paso mi versión personalizada del notebook. >Tamaki Kotatsu A 2025 ella apenas tiene 355 pics en Danbooru, en estos casos es posible que aunque el personaje tenga un dataset decente el personaje este mal entrenado para ser reconocido por el modelo. Considerando que el anime empezó en 2019 tendrías que ver cuantas pics no tenía el personaje para fina de 2023 a octubre de 2024. Otra razón pudiera ser que el personaje no este en suficientes imagenes sola, ya expliqué esto con izutsumi de Dungeon Meshi a pesar de tener más de 1000 pics en Danbooru, muy pocas de ellas esta sola así que tanto Noob e Illustrious no pueden emularla bien sin necesidad de LoRA. Aunque dato gracioso, personajes como nijou aki de Maken Ki son reconocibles con apenas 128 pics sin necesidad de LoRA que por ejemplo falin touden que tiene más de 3000 pics en Illustrious, pero de nuevo, creo que es en parte por las fechas ya que el anime de Dungeon Meshi salió en 2024 pero ya tenía fan arts desde antes ya que el manga empezó en 2014. En modelos basados en Noob estos reconocen mejor a Falin sin LoRA. >LoRA no se descarga bien ¿Por qué pasa eso? Debe ser un bug visual, generalmente solo recomiendo descargar de HUB cuando se te olvida algo y es mejor tener todo descargado listo de la celda del notebook, dale a recargar desde la pestaña de LoRA en el semi circulo con flecha azul y deberían aparecer todos los LoRA. Aunque HUB es muy útil sobre todo porque te permite descargar/subir cosas ya sea Hugginface o Google Drive, pero no te pongas a descargar cosas ahí a lo loco desde la sesión un amigo se puso a descargar LoRA a lo loco durante la sesión de GPU y después no le cargaba ninguno kek. >¿Se le pueden quitar las letras a las portadas de los doushinjis y que solo quede la imagen? Chi, nunca use imágenes como esa para entrenar LoRA sin limpiarlas primero, usar una imagen para entrenar un LoRA con tanta cantidad de texto es como tirarse un tiro en el pie antes de la carrera. Con workflows de Flux DEV o Qwen Edit deberían bastar para quitarle el texto extra a una imagen. Pero para quitar censura (de nuevo yo hago eso) tipo pixeles va a tener que aprender Inpainting con SD dónde podrá tener siempre un mayor control y a veces le tocara hacer reconstrucciones o imaginarse el área dependiendo de lo censurado que este. >Prompt negativo No esta mal, se parece un poco al que recomendé hace un tiempo, los tags de dedos de E621 son útiles. Otro que me gusta es este: worst aesthetic, worst quality, low quality, lowres, scan artifacts, ai-generated, adversarial noise, abstract, old, early, bad hands, mutated hands, extra digits, fewer digits, ambiguous form, no pupils, very as2, Nota que VeryAs2 solo funciona en modelos basados en NoobAI lo moví al final si quieren reemplazarlo por otro prompt negativo.
>>14727 Uff, ya pasaron 2 semanas... y no he posteado nada. Lamento la falta de iniciativa pero generar imagenes ya casi no me genera emocion. Ademas han pasado muchas cosas estos dias y me estoy replanteando este hobby kek. Also no he podido generar nada de calidad, el modelo de NovaFurryXL en hugging face parece que me bloqueo la IP ;_; >>14728 >Nunca estuvieron prohibidas, Ok gracias por el aviso, aunque voy a intentar mantener el hilo sfw y spoilear las cosas furras nsfw. >prefiero a las scalies antes que las otras razas de furras. Interesante opinion, aunque te entiendo, yo tambien estoy aburrido de solo ver razas genericas como los lobos. Also, Aca una imagen de una Scalie que me robe de e6ai hace unas semanas. https://files.catbox.moe/1vn2vw.jpg >Antes la IA daba interpretaciones no solo más artísticas, sino hasta más interesantes Claro, antes habia que intentar descifrar que hacia la IA, (Como Loab, los perros alucinogenos o los memes de craiyon kek), tristemente ahora la gente se conforma con cualquier cosa que se vea "bonita" aunque no tenga ni sentido (Como los "brainrots" o basura similar) >el futuro serán los modelos IA generativa de imágenes open source chinos, Le atinaste kek, justo esta semana todo hugging face y youtube se llenaron de modelos de Qwen y Wan. Parece que ahora en lugar de darle nuestros datos a los americanos se los tendremos que dar a los chinos. >"mi slob es menos slob que tú slob así que soy mejor", Kekeo, he visto muchos hilos de IA en ingles que se conviertieron justamente en eso. Ya lo unico que les importa es que el "slob" sea 4k y tenga tetas hiper-realistas lol. >También perdí la pasión de probar nuevos modelos Totalmente de acuerdo, ya cada dia sale un "nuevo modelo que lo cambia todo" y resulta ser lo mismo de siempre. Ni dan ganas de probar nada si todo resulta ser los mismo con una "reskin" encima. Ya tristemente no se ven grandes revoluciones como lo fue Stable Diffusion o ChatGPT3. >>14747 >el personaje de Tamaki Kotatsu, la de Fire Force es muy difícil de emular Pues para referenciar personajes yo uso parentesis y un puntaje al lado del nombre del personaje. Aca un Ejemplo: (Barney:1.4) >¿Se le pueden quitar las letras a las portadas de los doushinjis y que solo quede la imagen? Nunca lo he intentado pero creo que se puede con algun modelo autoregressivo. (Como Nano banana, Qwen image edit, flux kontext, etc...) Aunque no se que tan censurados esten esos modelos, aun faltan meses para que saquen alternativas Open Source. >prompt negativo predilecto Yo uso este, ni idea que tan bueno sea: lowres, bad anatomy, bad hands, very displeasing, (worst quality, bad quality:1.2), bad anatomy, sketch, jpeg artifacts, signature, watermark, username, conjoined, bad ai-generated
(2.38 MB 1248x1824 00034-5858.png)

>>14754 Kek, ya iba a cerrar, pero ¡muchas gracias por pasar! >en hugging face parece que me bloqueo la IP Le recomiendo usar el notebook de Colab o Kaggle, tengo par que funcionan. >estoy replanteando este hobby No eres el único negro, yo mismo me lo he reemplanteado muchas veces en dejar esto y en como mantener la flama viva... problemas personales o de tiempo a un lado, a pesar de qué tengo más conocimientos y en teoría puedo hacer aún mejores imágenes, y hasta personalizar el notebook que uso, ya hoy día siento que pocas imágenes me salen bien, o simplemente me tardo más que antes pese a que en teoría hago lo mismo incluso en interfaces más optimizadas y con más opciones como ReForge o SwarmUI, supongo que mi época favorita fue la de Illustrious v0.1 hasta la fecha no he vuelto a sentir algo así por otro modelo y lo peor es que se siente como si hubiera sido ayer, ni siquiera los otros Illustrious me terminaron gustando tanto aunque tuve una buena experiencia con todos, pero bueno, si soy posible de ayudar y enseñar a usar esto pues por mí es más que suficiente para continuar. Estas palabras me las dijo un autor de modelos al que le tengo aprecio y con el que mantengo contacto: "continuar sin importar qué, es algo realmente sincero en lo que la gente hace". >voy a intentar mantener el hilo sfw Siéntase libre de publicar lo que le gusta por mi esta bien, generar NSFW nunca fue mi cosa favorita tampoco, pero claro, todos nos ponemos horny de vez en cuando, kek, pero por lo general prefiero el softcore, aunque para mantener la tradición dejé el nombre de Hentai Diffusion en honor al antiguo OP. >Loab Eso me recuerda, Loab me apareció una vez en una imagen, fue bastante deforme y mi primer instinto fue eliminarla en seguida, pero fue un fenómeno real, un tanto interesante que la IA alucinara eso de forma general y le pasara a mucha gente incluido a mi. >tristemente ahora la gente se conforma con cualquier cosa que se vea "bonita" Es cierto, yo nunca me contento con el primer resultado, yo pasé por mi época de try hard de text 2 img go vrrrrrrrr hace mucho, prefiero tomarme el tiempo de ver que hice bien o mal y como puedo mejorar una imagen mediante las herramientas que tengo a mano ya sea control net, inpaint o GIMP, nunca me conformo con el primer resultado. Pero si algo he aprendido con los años es, lo simple es siempre más efectivo y el factor caótico de la IA a veces da a luz a accidentes felices. >tendremos que darle nuestros datos a los chinos Es lo que estaba pensando, Wan 2.1 y 2.2 son open source y se pueden correr en local, pero el 2.5 solo esta disponible mediante API y si se vuelven closed source... ¿entonces para quién termina siendo el producto? entonces recuerdo a los normies y ahí obtengo la respuesta, ojalá no se manden un OnomAI 2.0 como los coreanos detrás de Illustrious. >no se ven grandes revoluciones en IA de imágenes Exacto, pero luego pienso, esto de la generación de imágenes evolucionó como una línea hacía arriba en muy poco tiempo. Por lo tanto es difícil sacar algo que impresione hoy día, también esta el hecho de que no hay tanto interés en hacer evolucionar a los generadores de imágenes a un equivalente a próxima generación. Todo el poder de computo se va al Chat Ojeté o ShitSeek o lo que sea de modelo de lenguaje. Solo uso Qwen como lenguaje de modelo de texto, y su modelo de imágenes no me impresionó tanto la verdad, pero aún tengo que probarlo en Colab como hice con Wan, quizá la única ventaja es que los modelos chinos no se notan tan censurados como los occidentales, en Qwen he visto Miku desnudas a lo barbie frontal pero las nalgas las dejaba intactas, y Hunyan te permitía generar a Miku con pañales, kek. Pero no te permitía generar a Whinnie Pooh si lo escribías directamente pero podías saltarte la censura escribiendo a Piglet y describiendo la forma de Winnie Pooh. >Aunque no se que tan censurados esten esos modelos Flux Kontext Pro estaba tan censurado que no me dejaba editar una tabla (o sea una chica plana) en bikini de una revista de modelos, kek. Ni siquiera era una foto erótica. La versión DEV de Kontext debe estar menos censurado pero es menos potente. Otro problema de estos modelos es que no pueden agregar NSFW, pero de por sí ya facilitan mucho la limpieza para entrenamiento de LoRA de estilos y así poder limpiar paneles enteros de onomatopeyas en pagina. También tengo un notebook para Qwen Image Edit, Supongo que sí logran entrenar uno de estos modelos en anime, supongo que sería el adiós al Inpainting, el cual todavía uso casi a diario. No me gusta mucho tampoco la dirección de la generación de imágenes con esto de "pon una cosa aquí" o "Junta esta cosa con esta otra cosa", aunque por como va de lento todo esto, vamos a seguir usando SDXL hasta el 2032, kek.
>>14733 >>14745 >>14754 Bueno como somos apenas 4 casi se me olvida pero tengo un par de noticias, primero que nada, Reforge esta muerto otra vez, kek. Ojo, esto no significa que no podamos usarlo, se puede, pero significa que no va actualizarse ni mantenerse en un tiempo (de nuevo) hasta el DEV vuelva. Como buenas noticias todavía tenemos el fork de Forge Classic y la verdad a pesar de instalarse más lento en Colab, es mucho más fluido que ReForge una vez instalado, a costo de tener menos cosas como el adetailer, que por alguna razón no funciona. Y la verdad aparte de que me da mucha nostalgia el usarlo, sigue siendo mil veces mejor que el A1111 que ya esta demasiado obsoleto para los estándares actuales y a diferencia de este, funciona con modelos Vpred al igual que ReForge, la extensión de Mahiro esta medio oculta pero se puede activar. Segunda noticia PonyV7 salió y para sorpresa de nadie es una mierda, literalmente es el nuevo SD 3, kek. Por ahora solo se puede probar en CivitAI pero ya desde mucho antes los resultados de prueba eran bastante malos. Creo que el autor de Pony solo tuvo suerte con Pony v6 y ya, a lo mejor caerá en el olvido después de esta. De resto dejaré recursos como siempre, empezando por los notebooks: <Forge Classic Colab https://colab.research.google.com/drive/1uB_V0RY3UvalsTMgWPk_paSyzIN0wVo9?usp=sharing <Forge Classic Kaggle (descargar e importar a Kaggle) https://colab.research.google.com/drive/1RudmQe6dSx0VP8e-PGpzin-S8HOE_GAT?usp=sharing De resto les informo que sí quieren, puedo tanto hacerles limpieza a las imágenes que me envíen siempre y cuando no sean de muy alta resolución si son de resolución como la gyaru lactando con gusto les hago limpieza, las puedo subir a catbox para no inundar el hilo ya que el chiste es subir nuestras propias imágenes (adjunto a Reisen) pero que conste que no es perfecto, pero les puede servir al momento que quieran entrenar una imagen de un personaje y/o estilo y esta tenga mucho texto.También podría hacerles Inpainting a sus imágenes de resolución base SDXL, pero como me enseñó el antiguo OPé el chiste es que aprendan Inpainting ustedes, kek. Por otro lado sí la imagen que consiguen para el dataset de su LoRA es muy pequeña de resolución les dejo este upscaler RealESRGAN_x4plus_anime_6B es un millón de veces mejor que la mierda de Waifu2x que solía usar y sin captcha, las otras variantes pueden servir para realismo o lo que sea. Y tiene un cierto efecto anti aliasing, lo recomiendo bastante en el notebook de SD como upscaler en el HiResFix, pero, aquí solo úsenlo para cosas más triviales o como ya mencioné para aumentar la imagen del entrenamiento de LoRA y después de forma irónica empequeñecerla de nuevo, ya que SDXL fue entrenado en resoluciones tipo 1024x1024 (aunque es posible usar otras resoluciones tipo 768x1344 como la más alta, etc) También una alternativa a waifu tagger y un space para PNG info (este ultimo es para que no usen el de Kaggle pero es mejor PNG chunk pero lo dejo por si quieren usarlo) >Space de Upscaler https://huggingface.co/spaces/TheStinger/Ilaria_Upscaler >DeepDanbooru (etiquetado de imágenes simple) https://huggingface.co/spaces/hysts/DeepDanbooru >Space lector de Metadata https://huggingface.co/spaces/Linaqruf/pnginfo <aldo Felicito al nuevo por avanzar en tan poco tiempo, bonita fusión de estilos, me gustaron mucho esa Makima y la tercera pic de secuencia de Fern. Y gracias a 8be3cd por la pic de Covid pokemonizado. Espero que el otro negro se recuperé del hackeo, de resto hasta la próxima, espero poder subir algo que no sea una imagen solitaria con relleno pronto.


Forms
Delete
Report
Quick Reply