/ais/ - Artificial Intelligence Tools

"In the Future, Entertainment will be Randomly Generated" - some Christian Zucchini

Index Catalog Archive Bottom Refresh
+
-
Name
Options
Subject
Message

Max message length: 12000

files

Max file size: 32.00 MB

Total max file size: 50.00 MB

Max files: 5

Supported file types: GIF, JPG, PNG, WebM, OGG, and more

E-mail
Password

(used to delete files and posts)

Misc

Remember to follow the Rules

The backup domains are located at 8chan.se and 8chan.cc. TOR access can be found here, or you can access the TOR portal from the clearnet at Redchannit 3.0 (Temporarily Dead).



8chan.moe is a hobby project with no affiliation whatsoever to the administration of any other "8chan" site, past or present.

Use this board to discuss anything about the current and future state of AI and Neural Network based tools, and to creatively express yourself with them. For more technical questions, also consider visiting our sister board about Technology

(2.32 MB 1824x1248 00039-5733.png)

(2.18 MB 1728x1344 00005-4133.png)

(2.89 MB 1536x1536 Illlust_00034-0315.png)

(9.02 MB 1536x1536 Illust Final 00032-3449.png)

(6.04 MB 2016x2592 Noob_00065-1046.png)

Hentai Diffusion General #17 Dobles y Triples Anonymous 01/21/2025 (Tue) 22:45:01 No. 7104
Decimoséptimo A este punto no hay mucho que decir, el otro hilo estaba muy congestionado y solo somos tres apenas, que dure lo que tenga que durar. El tema será poner de dos a tres personajes en una sola imagen, sí pueden. Hilo anterior: >>980 Recursos >Etiquetado automático si no te ocurren prompts https://huggingface.co/spaces/SmilingWolf/wd-tagger >Instala Stable Difussion WebUI Local y cualquier otra UI con un Click! (ir a Releases y descargar el archivo .exe) https://github.com/LykosAI/StabilityMatrix https://lykos.ai/ <Alternativa EasyDiffusion https://easydiffusion.github.io >Herramientas de GPU en línea <Sagemaker (4 horas de GPU en línea gratuita) https://studiolab.sagemaker.aws/ <Kaggle (censurado 30 horas de GPU gratuito semanal) https://www.kaggle.com <LightningAI (22 horas gratuitas al mes) https://lightning.ai >huggingface Spaces https://huggingface.co/spaces >COLAB SD FOOOCUS (solo permite usar JuggernautXL por corto tiempo) https://colab.research.google.com/drive/1OG-t4snVisfZoMcmRCPmgJjjtwdJCIIj >Recursos: Modelos, Prompts, LoRas, Hypernetworks y Embeddigs/Textual Inversion https://civitai.com >Guía: Como crear Datasets especialmente cuando tienes pocas imágenes https://spainias.notion.site/Como-hacer-LORAs-con-muy-pocas-imagenes-Consejos-y-Tips-1d65bea1379047ccad243c35eb3980f0 <XL Lora Trainer by Hollowstrawberry https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Lora_Trainer_XL.ipynb <Dataset Maker (taguea las imagenes automáticamente) https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Dataset_Maker.ipynb <Tutorial LoRA para PonyDiffusion (Jewtubo) https://www.youtube.com/watch?v=fF5CDySZw3o[Embed][Embed] <AutoTrain DreamBooth https://colab.research.google.com/github/huggingface/autotrain-advanced/blob/main/colabs/AutoTrain_Dreambooth.ipynb <Kohya LoRA Trainer XL https://github.com/Linaqruf/kohya-trainer/blob/main/kohya-LoRA-trainer-XL.ipynb >Colab: Entrenamiento de LoRa https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Lora_Trainer.ipynb >Colab: Creación de Datasets https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Dataset_Maker.ipynb >Recurso: Modelos ControlNet 1.1 https://github.com/lllyasviel/ControlNet-v1-1-nightly >Prompt Generator https://huggingface.co/spaces/Gustavosta/MagicPrompt-Stable-Diffusion
[Expand Post]>Guía para cambiar estilos con Img2img https://medium.com/@alickwong/transfer-your-image-to-cartoon-style-in-stable-diffusion-d466565ae18a >Boooru AI para Furros https://e6ai.net/ >Booru AI para anime https://aibooru.online >Páginas Web judías dónde generar imágenes: <Ideogram (casi igual o mejor que Dall E 3 tiene ligera censura) https://ideogram.ai Krea.AI (genera imágenes en tiempo real) https://www.krea.ai/ <NovelAI (pago) https://novelai.net <PixAI https://pixai.art <TensorArt https://tensor.art/ <Yodayo https://yodayo.com/ <Nemusona https://waifus.nemusona.com/ <Holara.ai: https://holara.ai/ <Leonardo.AI https://app.leonardo.ai/ <seaart (censurado) https://www.seaart.ai/
>>14717 >Está basado en Kubo Tite? Si >>7110 >>7131 >>7128
(889.65 KB 1024x1024 00049-5546.png)

Cómo comenté hace unas semanas sufrí un hackeo y tuve que formatear mi computadora. Perdí mucho pero una parte de las imágenes que genere y me habían gustado las había respaldado en una cuenta de Mediafire ahora resulta que nada de lo que subí a esa cuenta está ahí, nada, la cuenta está vacía. Ya no volveré a confiar en servicios de nude negros, si quieren respaldar algo aunque sea pequeño usen un usb o algo físico, confiar en terceros es un asco.
>>14691 >Negros alguien sabe cómo se genera video con IA? ¡Hola!, conseguí algo, en este repositorio puedes conseguir notebooks para generar vídeos con IA en Colab... Pero no sé como usarlos, kek. Ten en mente, que la GPU T4 es lentísima para estas cosas hablando con un amigo me contó que el proceso de Imagen a vídeo tardaba media hora, lo cual es raro porque el proceso de texto a vídeo tardaba siete minutos, ojos, sus palabras no mía. >Notebook Wan 2.2 Img2Video LIGHTX2V https://colab.research.google.com/github/Isi-dev/Google-Colab_Notebooks/blob/main/wan2_2/wan22_Lightx2v.ipynb#scrollTo=96675e45HYsu >Repositorio de notebooks random https://github.com/Isi-dev/Google-Colab_Notebooks El que los hizo tiene un canal de Youtube, dónde explica un poco de esto, dicho esto no sé si alguien más le puede enseñar a usarlos, se los pase a otro amigo y me dijo que le dio error, kek. >>14720 >si quieren respaldar algo aunque sea pequeño usen un usb o algo físico, Te hablo desde la pobreza absoluta como desearía tener suficiente espacio físico en el que guardar mis mierdas pero ni eso puedo tener. De resto tengo el Internet muy lento hoy, así que aún sigo curando el dataset de mi LoRA.
>>14687 Kek, me habia olvidado de este hilo. No he generado casi nada interesante esta semana, asi que lamento las imagenes de baja calidad. Also, se permiten postear furras en este hilo? jeje >>14689 >Nova Furry XL solo decayó en sus versiones posteriores a la V7 Estoy de acuerdo, los modelos mas recientes solo generan puras cosas "genericas" (aunque con una mayor calidad claro), yo aun recuerdo cuando los modelos antiguos (Como Craiyon o Dall-e) generaban cosas incoherentes y sin sentido pero que tenian una mayor complejidad. Han pasado años y aunque tengamos mejores modelos parece que mucha gente se ha quedado estancada generando cosas que se ven "bonitas" pero que carecen de proposito alguno... Lamento la reflexion filosofica repentina lel >>14689 >han querido remover el fondo de una imagen pero les da pereza usar Photoshop Pues no suelo editar las cosas que genero (aunque me gustaria) pero recientemente vi que sacaron este modelo: https://huggingface.co/joelseytre/toonout Que supuestamente remueve el fondo con un 99.5% de aciertos, aunque no tiene demo aun asi que no lo he probado. >>14691 >cómo se genera video con IA? He visto que algunos de esos videos son hechos con Wan 2.2. Yo no lo he probado porque pide un monton de creditos pero este espacio talvez te pueda servir. https://huggingface.co/spaces/multimodalart/wan-2-2-first-last-frame >>14695 >¿Cómo puedo hacer para copiar su estilo de alguna manera? Pues se me ocurren tres maneras de hacerlo. La primera es usar el nombre del artista como un tag con un peso alto. Ej: (Art by Setsu:1.3), la otra seria buscar LoRAs en algun sitio como Civitai o Seaart y rezar para encontrar algo lol. Y la tercera opcion es usar algun plugin de "style transfer" en algun programa como Comfyui. >>14720 >Cómo comenté hace unas semanas sufrí un hackeo y tuve que formatear mi computadora F por tu coleccion de imagenes anon, he escuchado de algunos programas (como Photorec) pueden ayudar a recuperar archivos formateados. >Ya no volveré a confiar en servicios de nude negros Yo lo unico que tengo en la nube son cosas del trabajo en el google drive kek. A las empresas no les importa ni les conviene mantener seguros nuestros archivos, asi que lo mejor es tener copias en local y en varios dispositivos. Also Te recomiendo usar catbox, una pagina para subir archivos y poder compartirlos sin necesidad de cuenta, y que tambien guarda la metadata de las imagenes (como el prompt y los settings) aca un ejemplo (Aviso que es nsfw): https://files.catbox.moe/gx3h24.png
>>14727 ¡¡Hola!!, bueno al menos digamos que esto ha estado un poco más movido últimamente gracias al nuevo, pero yo tampoco he estado generando casi nada estas últimas semanas así que me encuentro reciclando mis viejas imágenes de cuando estábamos ocultos en el tablón de pruebas, kek. >Also, se permiten postear furras en este hilo? Nunca estuvieron prohibidas, había un furro anon que recuerdo con cariño y yo a veces le hacía Inpaint a sus imágenes, pero eventualmente también desapareció, también me gusta generar furras de vez en cuando, aunque por gusto personal prefiero a las scalies antes que las otras razas de furras. >y sin sentido pero que tenian una mayor complejidad Concuerdo, creo que antes la IA daba interpretaciones no solo más artísticas, sino hasta más interesantes de los prompts incluso cuando alucinaba, probando NovelAI 4.5 si bien es re potente y me hizo sentir como cuando descubrí la IA por primera vez generando montones de cosas que me gustaban los dos primeros días, esta tan arreglado para darte buenos resultados que literalmente es difícil fallar, no hay curva de aprendizaje con modelos así. De resto todo apunta que el futuro serán los modelos IA generativa de imágenes open source chinos, así que probablemente en unos años todos estén usando Wan o Qwen para generar. Aunque bueno, yo también peco de volverme esclavo de "1girl, solo", yo antes buscaba generar cosas más interesantes, pero al menos me alegra de que nunca caí en el elitismo de algunos prompters que se enojan cuando no usas lo mismo que ellos y que "mi slob es menos slob que tú slob así que soy mejor", kek. También perdí la pasión de probar nuevos modelos (similar con las distros de GNU/Linux), así que todo lo que no sea Illustrious v01 hasta el v2.0 o Noob Vpred 1.0/EPS 1.1 no existen para mí, pero trato de recomendarle a los nuevos modelos más fáciles de usar, a veces uso Animagine XL 4.0 Zero por nostalgia derivada de Animagine XL 3.1 (mi segundo modelo anime favorito después de Illustrios v01) quizás en 2025 el próximo Animagine sea bueno, o bien surja algo más que reemplace a Illustrious & Noob, ya que el primero OnomaAI abandonó el open source y Noob de L-A-X terminó con SDXL y Noob v2 será en una nueva arquitectura, pero eso sí me alegra poder seguir guiando gente a usar SD. >Remover fondos Le recomiendo el Space que pase de REMBG trae BiRefNet incluido (no el que dice demo) y o por dios es por mucho de los mejores removedores de fondos para SD que he probado, simplemente tarda un poco más. Aquí >>14692 También encontré un repositorio cargado con notebooks de Wan >>14722 Pero no sé como usarlos... y ni me interesa usarlos, kek. Tampoco tengo tiempo para eso, aunque supongo que pagando por Colab Pro con una A100 deben correr con mejor velocidad que con la pobre T4, ojalá Google active mejores GPU gratuitas pero lo dudo, también extraño Sagemaker pero es casi imposible conseguir una GPU ahí ahora. >>14720 Se me olvidó decirte, también puedes intentar usar Recuva para recuperar archivos borrados, aunque imagino que la mejor versión siempre es la paga.
>>14719 >>7131 >>7128 Quería venir haciendo esto desde la primera vez que las vi y menos mal que las trajo a mención de vuelta, aunque creo que me gusta más como quedó el estilo de las primeras tres, también quería hacer más variaciones con el vestido blanco tipo race queen, pero pensé que mejor lo dejo así, prefiero las cucas lisas, pero por esta vez hice una excepción, arreglos mínimos en Inpainting.
>>14732 Uff hasta dan ganas de crear un lora dedicado a ella, el mejor accidente que he tenido en SD la verdad. La últimas dos imágenes son las que mejor te han quedado.
>>14733 Hola, ¡me alegra que te gustaran!, en serio quería hacer más sobre todo con el segundo atuendo, pero luego recordé que era mejor no sobre pasarme sobre todo porque estoy gastando tokens de una cuenta que no es mía. Me he divertido mucho con la opción de transferencia de personajes, aunque no es perfecta, aprendí a la mala que a NovelAI le cuesta el estilo western y algunos detalles hay que añadirlos tú mismo en Inpaint, no es de sorprender que el mejor modelo anime privativo viene de Japón (y los mejores modelos anime open source también vienen de asia) a propósito en serio es bastante bueno el removedor de fondos de BiRefNet adjunto pic related 2 como prueba, pero como dije NAI le cuesta tanto el estilo western que no pude obtener una mejor que pic 5 que fue la base, con su personaje me costó mucho menos obtener resultados decentes y/o trabajables.
Al final me terminé contradiciendo como siempre y termine usando el notebook de Wan 2.2 ahora puedo hacer vídeo slob, kek, recomiendo resoluciones tipo 480p ó 640p para que la espera no se haga una eternidad, no hagan a 720p de resolución les puede dar error y/o se tardara media hora, pueden hacer NSFW con LoRA de CivitAI entrenados en Wan 2.2 aunque según leí LoRAS de Wan 2.1 deberían ser compatibles, pero es como SDXL de Pony a Ilustrious, siempre van a funcionar mejor en sus ramas base, si quieren hacer NSFW necesitaran un LoRA y el notebook solo admite máximo hasta 3 LoRA, pero, es posible subir una imagen NSFW o picante y Wan la procesara, aquí hay algunas de mis pruebas SFW, mi favorita fue la de Suwako Moriya, hace un año hice esa imagen en Sagemaker. También si se les olvida el paso de interpolación para volver el vídeo a 30 FPS hay un Notebook secundario que se dedica solo a eso, debo decir que si bien no es perfecto y solo son vídeos de 4 segundos, lo sentí relajante como cuando solía usar JuggernautXL. Ojalá Alibaba no se mande un OnomaAI 2.0 y no se vuelvan closed source con Wan 2.5 como pasó con Illustrious.
(1.18 MB 832x1216 00011-1291335343.png)

Primera prueba de Forge Couple, y debo decir, Regional Prompter funciona fatal en NovaFurryXL. Peor de lo que recuerdo en la v7 B, sino fuera por el Inpainting creo que hasta me olvidaría de este modelo.
(137.43 KB 832x1216 IMG-20251007-WA0000.jpg)

(124.29 KB 832x1216 IMG-20251007-WA0001.jpg)

(155.18 KB 832x1216 IMG-20251007-WA0003.jpg)

(154.17 KB 832x1216 IMG-20251007-WA0002.jpg)

(166.58 KB 832x1216 IMG-20251007-WA0004.jpg)

>>14718 Hola, mi negro, ha pasado mucho tiempo. Y es que he estado ocupado, aunque veo que no me he perdido de mucho. Aunque tengo un par de cosas que decir antes de que se me olvide... Primero, he estado probando el estilo de Okitakung y el de Chronozberg, combinándolo con otros y demás. Y pues creo que juntar esos dos será mi estilo predilecto a la hora de generar al menos por ahora, me gusta mucho el resultado y los errores son mínimos luego de poner en 0.3 el denoise y escalarlo. Aunque aún no sé usar el Inpaiting o bien no me sirve de mucho con lo poco que lo he probado... Pero me he dado cuenta de algo, y es que los artistas tipo Momomo906 o Evie (baoxiao) y más artistas de acuarelas/reverso colors o diseños excéntricos no están disponibles ni en el Notebook o en CivitAI a modo de lora... ¿Es porque no está actualizado a porque el artista nukeó las fuentes? Quería probar/emular el estilo jojos de esta manera sin copiar la anatomía pero eso... En cuyo caso creo que es hora de entrenar un lora yo mismo y así ayudar al genocidio de artistas. Por cierto, ¿te enteraste del Sora2? De verdad parece que quieren dinamitar a los anones curiosos cuanto antes... >aldo >yo tengo preconfigurado el img2img ¿Me pasas captura para tenerlo igual? Por fa. >Schedule type ¿Eso que hacía? He visto varios... Pero no sé bien qué diferencias obtiene cada uno o qué hacen. Siempre lo he mantenido en "automatic", supongo que es hora de probar otros... >regional prompter Eso me recuerda. He estado usando el prompt de Koma2, 3, 4 y demás... Supongo que el Regional servirá de maravilla con ese tipo de comandos ya que literal separa la imagen de por sí... ¿Cómo se activa o se descarga exactamente? Podría ayudarme a tener mejor visión de espaciado a la hora de panelar. Mi objetivo con esto es el diseño de personajes, el Character Sheet y después pasar a la generación de Vídeos mientras pruebo. >hablando de eso Se le puede cambiar la fuerza a los estilos con los tags... Y esto conecta con lo otro, ¿las {} sirven de de algo o es puro placebo si no se usa bien? He visto usarlas más veces de las que puedo pasar por alto, estuve probándolas y aunque pueda parece que funcionan bien podría ser solo que me lo imagino como con los loras kuek. >controlNet ¿Ese no era el que funcionaba mal en ReForge? ¿Tengo que ir a Kaggle para usarlo? Y otra cosa ¿Me pueden banear el culo si meto imágenes generadas ahí mismo pero en otra sesión? En el Img2Img o el Inpaiting, por ejemplo... No lo he hecho por precaución o siquiera he usado el PNG info por lo mismo. >fíjate si no tienes la seed anterior ¿Cómo se verificaba eso? Y sí, creo que simplemente recargan la UI sirve para que no alucione demasiado. Aunque creo que se nota poco, aunque bien puede ser mi paranoia. >es un secreto Sí, negro. Obviamente puedo deducir que eres de Caracas y te llamas Felipe por el animu que ves... kek, ya en serio, no veo problema con decir el animu. A lo mejor y me gusta >entrenó su lora con 15 imágenes ¿De artistas distintos? ¿O sea que no era tan desconocido? Porque he visto diseños interesantes de animes que no los conocen ni en sus casas... >modelos realistas Por ahora creo que me quedaré con el animu o el 3d, el IRL en IA no me llama mucho la atención. Me la puede poner como diamante pero me da demasiado uncanny valley como para meterme de lleno...
[Expand Post]>aldo Lamento si son muchas preguntas, pero como nos movemos de 1 respuesta por día pues mejor abarcar mucho kek
(81.70 KB 800x562 IMG-20251007-WA0005.jpg)

>>14745 >aldo Estoy seguro que cuando me diste la Notebook por primera vez, estas opciones no estaban, de modo que sí la han actualizado... ¿Cómo se usan? Kekcito
(121.01 KB 1120x840 1 (1).webp)

>>14746 >aldo 2 Esto me pasó ayer. Y es que el personaje de Tamaki Kotatsu, la de Fire Force es muy difícil de emular... Siempre se mezcla con los demás personajes de ese anime, dandole piel oscura o cabello blanco, poniendo el prompt o no. Incluso subiendo el CFG a 9 termina haciéndolo, aunque ahora me causa más intriga que molestia. >aldo 3 En algunos casos, cuando descargo un lora desde el HUB este no aparece en la pestaña de los LoRa a pesar de que dice que se descargó correctamente y está en dicha pestaña. ¿Por qué pasa eso? En otros casos como en el de la elfa funciona normal, pero ya es muy común como para dejarlo pasar... >aldo 4 ¿Se le pueden quitar las letras a las portadas de los doushinjis y que solo quede la imagen? Como la pic, por ejemplo. Es que no sé cómo lo hacen, pero sacan versiones descensuradas no oficiales, incluso a color. Imagino que con photoshop, pero me da curiosidad. >aldo 5 Tengo un prompt negativo predilecto que me funciona en la mayoría eliminando algunos errores. Es este en caso a alguien le interese. text, artistic error, bad anatomy, bad perspective, bad proportions, censored, extra arms, extra legs, extra digit, missing limb, amputee, adversarial noise, ai-assisted, stable diffusion, bad hands, low quality, six fingers, extra straps, four fingers, anatomical nonsense, separated eyes, fat rolls, bad fingers,
(4.18 MB 4000x2328 Inpaint progress.png)

(2.64 MB 1344x1728 Inpaintv2_00033-2605544137.png)

(76.42 KB 627x864 Inpaint Parametros.png)

(112.19 KB 910x920 ForgeCouple.png)

(137.80 KB 1225x859 Miku.png)

>>14745 ¡Hola! también he estado ocupado y con problemas aunque casi se me había olvidado seguir publicando aquí, kek. Pero me alegra que pasara de vuelta. Mi último post fue una prueba muy fallida de Forge Couple de un crossover de Tsunade (personaje ya reconocido dentro del dataset) más LoRA de Ingrid, pero pude obtener un mejor resultado recientemente con dos LoRA de dos personajes distintos, Ayame x Ariane con sus tamaños canon (tanto altura y pechos). A lo mejor no sé si te diste cuenta pero el tema del hilo iba de obtener múltiples personajes en una sola imagen, a lo máximo que llego es a tres personajes pero más personajes es igula a más inpainting. Aparte de las pruebas animación gracias al notebook de Wan 2.2. Procederé a responder sus dudas y dar ejemplos de ser posible. >Aunque aún no sé usar el Inpaiting o bien no me sirve de mucho con lo poco que lo he probado... El inpainting es cuestión de practica, sirve tanto para expandir la imagen con Outpainting y arreglar aspectos de la imagen, por ejemplo me gustó la pic base del crossover de Ayame x Ariane, pensé "este es" pero, el resultado original dejaba mucho que desear (sobre todo del lado de Ariane) y sí le metía HiResFix directo sabía que iba a quedar mal, le agregué con Inpaint el moño rosado y arreglé detalles de los ojos y expresiones, mejoré los detalles de las sombras de las ataduras de las panties y los frills, etc. El inpaint me ayuda tanto para añadir eliminar resultados no deseados como dedos extras y/o agregar elementos que faltan, cambiarle el color a una prenda, agregar prendas, quitarlas arreglar auténticos horrores lovecraftianos que alucina la IA... a mi me gusta usar Inpaint para descensurar de vez en cuando y/o quitarle piercing en los pezones a ciertas imágenes. Aunque claro, si lo usas desde tablet puede que sea más incómodo que usarlo en PC, también hay que saberlo configurar, tanto samplers, parámetros y modelo y prompts afectan la calidad del Inpainting. >Momomo906 o Evie (baoxiao) Me puse a buscar sus nombres y al menos ambos deberían estar en el dataset de NoobAI, pero tienes que tener en cuenta el dataset de los modelos, Illustrious v01 su dataset de Danbooru llega hasta 2023 y NoobAI (basado y mejorado de Illustrious v01) su dataset llega a hasta octubre de 2024 y nosotros ya estando cerca de cerrar 2025 el tiempo les ha sacado peso a ambos datasets así los modelos sean objetivamente buenos, hoy día veo que esos dos tienen 189 pics (momomo 906) y 107 pics evie (baoxiao) por lo tanto sí tenían muy pocas pics antes de esas fechas los modelos no podrán imitar bien sus estilos. Como alternativa de dataset más actualizado esta AnimagineXL 4.0 hasta el 5 de enero de este año, pero fue tan irrelevante que nadie se molestó en entrenar nada ahí, kek. >¿Es porque no está actualizado a porque el artista nukeó las fuentes? No pueden nukear los datasets de los modelos y me atrevería a decir que solo el 2 % de los artistas revisa CivitAI para revisar si les hicieron un LoRA, el único artista ardido que vi en CivitAI fue uno western colorista, kek. (Y aún así tengo mis dudas que fuera realmente él) También hay sitios a prueba de normies dónde subir LoRA's. Lo que sí he notado es que la extensión de etiquetado automático a veces le cuesta leer el prompt y a veces termino copiando y pegando el tag con los underscores (_) pisos directamente de Danbooru o E621 pero muy pocas veces hago eso. >Quería probar/emular el estilo jojos de esta manera sin copiar la anatomía Puedes hacerlo con Noob IPadapter para transferir estilos de una imagen base a otra sin replicarla, PERO, (siempre hay un pero) es muy pesado para Colab y solo funciona en Kaggle que es más potente (y aún así tiene riesgo de crashear) y para más inri como el nombre indica esta entrenado en Noob y noté que la versión dónde tendrá mejor efecto es Noob Eps 1.1 los modelos basados en Illustrious noté que les cuesta transferir el estilo, sobre todo si es un estilo western (NoobAI pese a ser de un chino este decidió incluir más dataset western). Y si no siempre puede entrenar un LoRA de estos, 50 pics (mínimo) a 70 (recomendable) pìcs consistentes son suficientes para entrenar un LoRa de algún artista y/o estilo. >¿te enteraste del Sora2? No me importan mucho las IA closed source la verdad, solo me enteré que Sora 2 duró dos días sin censura, kek. Tardaré 10 a 13 minutos en obtener un vídeo de 4 segundos de una imagen con Wan 2.2 en Colab pero al menos no me van a censurar. >Preconfigurado No exactamente, más que preconfigurado yo siempre uso parámetros diferentes para Img2Img (aquí se puede experimentar mucho), aunque para agilizar el proceso puedes generar una imagen con los parámetros base que te gusta usar ya sea en Txt2Img y/o de Inpainting (no importa que tan mala sea la imagen) y luego para la próxima sesión te vas a PNG info y envías la imagen y cargaran los parámetros automáticamente, pero ojo, se transferirá el numero seed, le recomendé esto a un amigo que le cansaba poner los parámetros de Inpainting cada vez (esto si que casi no los cambio) pero igual diría que al menos con el Inpainting es crucial memorizarlos. >Schedule type ¿Eso que hacía? Para simplificarlo lo más posible, el schedule type juega un papel crucial en quitarle el ruido a las imágenes para poder tener una imagen limpia. Los dos mejores que he probado son Beta + SMG Uniform. >Siempre lo he mantenido en "automatic", Si esta usando Euler A como sampler se cargara automaticamente Normal como schedule type, digamos que es balanceado pero no muy avanzado es mejor que "Simple" que yo antes solía usar en la era Animagine/Pony algunos te recomendarán "Karras" pero aparte de ser incompatible con Vpred, Karras es mejor para realismo. >Regional Prompter y Forge Couple Digamos que Regional Prompter... se quedó obsoleto, pero solía ser la única opción para obtener múltiples personajes en una imagen, hoy día Forge Couple es mejor, pero si puedes aprender ambas sería lo correcto, Forge Couple da aún más control de la composición de la imagen y deja usar mascaras, aunque ambos funcionan a base de regiones. La de Ayame x Ariane la conseguí gracias a Forge Couple más loras de cada personaje. > ¿las {} sirven de de algo o es puro placebo si no se usa bien? Las llaves son exclusivas de modelos de NovelAI, así que no, no sirven para absolutamente nada en nuestros modelos open source entrenados en anime. Use los paréntesis ya sea por ejemplo: (sweat:1.2) ó ((sweat)) también puede incluso reducirlo tipo (sweat:0.9) si quiere reducir algo por ejemplo una rellenita que no sea una gorda [plump:0.9] ó [plump] y escribir "artist:"(sin comillas) antes del tag de un artista que ya reconozca el modelo ayudara a evitar el sangrado de estilos. También pocas veces recomiendo subir la fuerza del prompt a más de 1.5 ejemplo: (sweat:1.5) más allá de uno 1.2 puede que comienza romper cosas en la imagen. Ah y se me olvidaba, nunca use los "Score_9", score_8_up" de pony fuera de modelos Pony, no solo de por sí ya eran confusos de usar en modelos Pony, literalmente no funcionaran en otros modelos que no tengan Pony mezclado en ellos, o incluso darán un resultado peor. >¿Si control net no funciona funciona mal en ReForge? 50/50 usar los Control Net Lite en el ReForge de Colab es más ligero pero son varios en pequeños archivos, Control Net ProMax es más completo en un solo archivo, tanto Kaggle y Colab ofrecen la misma GPU pero Colab da muy poca RAM los Control Net lite resuelven esto, pero como le comentaba NoobIP Adapter aún con la versión reducida de 600 MB es demasiado para Colab mientras que en Kaggle puede correr incluso la versión de 1GB. >¿Me pueden banear el culo si meto imágenes generadas ahí mismo pero en otra sesión? Justamente eso le pasó a un amigo... pero el cometió el error de arrastrar y soltar la imagen encima de la interfaz... no voy a decir que mi método es 100 % a prueba de fallos pero probé usando imágenes NSFW de referencia para el NoobIP adapter varias veces y no me banearon, pero en vez de soltarlas y arrastrarlas encima de la interfaz las seleccione desde la opción de abrir carpeta. También la imagen de Ayame x Ariane la comencé en Colab, la continué en Kaggle (no esta encriptada desde Colab) y después por un apagón la pase a Colab de nuevo, kek. Y tampoco me banearon, igual no es por ser paranoico, así que de todas formas recomiendo ser precabido con Kaggle. >¿Cómo se verificaba eso? La seed se verifica cerca del símbolo de reciclaje, la seed siempre es importante es como el código de barras que siempre te permitirá volver a una imagen, Txt2Img, Img2Img, Inpainting, el número Seed es esencial en todo. >Texto negro les diré cuando lo terminé pero te diré una pista tiene dos mellizas >¿De artistas distintos? Si, pero le quedó errores como que el personaje le faltaba la cola kek. Tienes que encontrar un balance entre estilos variados para que tú LoRA sea más versátil y fidelidad al diseño del personaje, a no ser que tu personaje sea de equis OVA olvidada de los 80s, ahí te vas a tener que valer a punta de capturar pantalla como loco. Piensa en hacer un LoRA como un deck de Yugioh. solo pon lo esencial del personaje en 40 a 50 imágenes, ni loco pongas 100 imágenes tampoco es que Colab sean tan potente, kek. >Lamento si son muchas preguntas Tranquilo, siempre responderé dentro de lo posible.
(3.26 MB 1280x1856 Inpaint-izutsumi_21623633.png)

(1.10 MB 1182x886 Limpio.png)

>>14747 Continuo la respuesta, hasta el chan cree que doy respuestas demasiado largas, kek. Edit: Borre los otros dos post para no usar tanto espacio. >>14746 >Config.json Oh, es una opción para tener la UI personalizada, sigue sin ser memoria persistente pero la verdad ayuda bastante a agilizar las cosas, en lo personal ya no pierdo tiempo extra en las configuraciones de settings cada vez. Yo lo hice a la antigua subiendo mi config.file a un repositorio privado de hugginface con el código api desde el Hub unos auténticos malabares pero si quieres te paso mi versión personalizada del notebook. >Tamaki Kotatsu A 2025 ella apenas tiene 355 pics en Danbooru, en estos casos es posible que aunque el personaje tenga un dataset decente el personaje este mal entrenado para ser reconocido por el modelo. Considerando que el anime empezó en 2019 tendrías que ver cuantas pics no tenía el personaje para fina de 2023 a octubre de 2024. Otra razón pudiera ser que el personaje no este en suficientes imagenes sola, ya expliqué esto con izutsumi de Dungeon Meshi a pesar de tener más de 1000 pics en Danbooru, muy pocas de ellas esta sola así que tanto Noob e Illustrious no pueden emularla bien sin necesidad de LoRA. Aunque dato gracioso, personajes como nijou aki de Maken Ki son reconocibles con apenas 128 pics sin necesidad de LoRA que por ejemplo falin touden que tiene más de 3000 pics en Illustrious, pero de nuevo, creo que es en parte por las fechas ya que el anime de Dungeon Meshi salió en 2024 pero ya tenía fan arts desde antes ya que el manga empezó en 2014. En modelos basados en Noob estos reconocen mejor a Falin sin LoRA. >LoRA no se descarga bien ¿Por qué pasa eso? Debe ser un bug visual, generalmente solo recomiendo descargar de HUB cuando se te olvida algo y es mejor tener todo descargado listo de la celda del notebook, dale a recargar desde la pestaña de LoRA en el semi circulo con flecha azul y deberían aparecer todos los LoRA. Aunque HUB es muy útil sobre todo porque te permite descargar/subir cosas ya sea Hugginface o Google Drive, pero no te pongas a descargar cosas ahí a lo loco desde la sesión un amigo se puso a descargar LoRA a lo loco durante la sesión de GPU y después no le cargaba ninguno kek. >¿Se le pueden quitar las letras a las portadas de los doushinjis y que solo quede la imagen? Chi, nunca use imágenes como esa para entrenar LoRA sin limpiarlas primero, usar una imagen para entrenar un LoRA con tanta cantidad de texto es como tirarse un tiro en el pie antes de la carrera. Con workflows de Flux DEV o Qwen Edit deberían bastar para quitarle el texto extra a una imagen. Pero para quitar censura (de nuevo yo hago eso) tipo pixeles va a tener que aprender Inpainting con SD dónde podrá tener siempre un mayor control y a veces le tocara hacer reconstrucciones o imaginarse el área dependiendo de lo censurado que este. >Prompt negativo No esta mal, se parece un poco al que recomendé hace un tiempo, los tags de dedos de E621 son útiles. Otro que me gusta es este: worst aesthetic, worst quality, low quality, lowres, scan artifacts, ai-generated, adversarial noise, abstract, old, early, bad hands, mutated hands, extra digits, fewer digits, ambiguous form, no pupils, very as2, Nota que VeryAs2 solo funciona en modelos basados en NoobAI lo moví al final si quieren reemplazarlo por otro prompt negativo.
>>14727 Uff, ya pasaron 2 semanas... y no he posteado nada. Lamento la falta de iniciativa pero generar imagenes ya casi no me genera emocion. Ademas han pasado muchas cosas estos dias y me estoy replanteando este hobby kek. Also no he podido generar nada de calidad, el modelo de NovaFurryXL en hugging face parece que me bloqueo la IP ;_; >>14728 >Nunca estuvieron prohibidas, Ok gracias por el aviso, aunque voy a intentar mantener el hilo sfw y spoilear las cosas furras nsfw. >prefiero a las scalies antes que las otras razas de furras. Interesante opinion, aunque te entiendo, yo tambien estoy aburrido de solo ver razas genericas como los lobos. Also, Aca una imagen de una Scalie que me robe de e6ai hace unas semanas. https://files.catbox.moe/1vn2vw.jpg >Antes la IA daba interpretaciones no solo más artísticas, sino hasta más interesantes Claro, antes habia que intentar descifrar que hacia la IA, (Como Loab, los perros alucinogenos o los memes de craiyon kek), tristemente ahora la gente se conforma con cualquier cosa que se vea "bonita" aunque no tenga ni sentido (Como los "brainrots" o basura similar) >el futuro serán los modelos IA generativa de imágenes open source chinos, Le atinaste kek, justo esta semana todo hugging face y youtube se llenaron de modelos de Qwen y Wan. Parece que ahora en lugar de darle nuestros datos a los americanos se los tendremos que dar a los chinos. >"mi slob es menos slob que tú slob así que soy mejor", Kekeo, he visto muchos hilos de IA en ingles que se conviertieron justamente en eso. Ya lo unico que les importa es que el "slob" sea 4k y tenga tetas hiper-realistas lol. >También perdí la pasión de probar nuevos modelos Totalmente de acuerdo, ya cada dia sale un "nuevo modelo que lo cambia todo" y resulta ser lo mismo de siempre. Ni dan ganas de probar nada si todo resulta ser los mismo con una "reskin" encima. Ya tristemente no se ven grandes revoluciones como lo fue Stable Diffusion o ChatGPT3. >>14747 >el personaje de Tamaki Kotatsu, la de Fire Force es muy difícil de emular Pues para referenciar personajes yo uso parentesis y un puntaje al lado del nombre del personaje. Aca un Ejemplo: (Barney:1.4) >¿Se le pueden quitar las letras a las portadas de los doushinjis y que solo quede la imagen? Nunca lo he intentado pero creo que se puede con algun modelo autoregressivo. (Como Nano banana, Qwen image edit, flux kontext, etc...) Aunque no se que tan censurados esten esos modelos, aun faltan meses para que saquen alternativas Open Source. >prompt negativo predilecto Yo uso este, ni idea que tan bueno sea: lowres, bad anatomy, bad hands, very displeasing, (worst quality, bad quality:1.2), bad anatomy, sketch, jpeg artifacts, signature, watermark, username, conjoined, bad ai-generated
(2.38 MB 1248x1824 00034-5858.png)

>>14754 Kek, ya iba a cerrar, pero ¡muchas gracias por pasar! >en hugging face parece que me bloqueo la IP Le recomiendo usar el notebook de Colab o Kaggle, tengo par que funcionan. >estoy replanteando este hobby No eres el único negro, yo mismo me lo he reemplanteado muchas veces en dejar esto y en como mantener la flama viva... problemas personales o de tiempo a un lado, a pesar de qué tengo más conocimientos y en teoría puedo hacer aún mejores imágenes, y hasta personalizar el notebook que uso, ya hoy día siento que pocas imágenes me salen bien, o simplemente me tardo más que antes pese a que en teoría hago lo mismo incluso en interfaces más optimizadas y con más opciones como ReForge o SwarmUI, supongo que mi época favorita fue la de Illustrious v0.1 hasta la fecha no he vuelto a sentir algo así por otro modelo y lo peor es que se siente como si hubiera sido ayer, ni siquiera los otros Illustrious me terminaron gustando tanto aunque tuve una buena experiencia con todos, pero bueno, si soy posible de ayudar y enseñar a usar esto pues por mí es más que suficiente para continuar. Estas palabras me las dijo un autor de modelos al que le tengo aprecio y con el que mantengo contacto: "continuar sin importar qué, es algo realmente sincero en lo que la gente hace". >voy a intentar mantener el hilo sfw Siéntase libre de publicar lo que le gusta por mi esta bien, generar NSFW nunca fue mi cosa favorita tampoco, pero claro, todos nos ponemos horny de vez en cuando, kek, pero por lo general prefiero el softcore, aunque para mantener la tradición dejé el nombre de Hentai Diffusion en honor al antiguo OP. >Loab Eso me recuerda, Loab me apareció una vez en una imagen, fue bastante deforme y mi primer instinto fue eliminarla en seguida, pero fue un fenómeno real, un tanto interesante que la IA alucinara eso de forma general y le pasara a mucha gente incluido a mi. >tristemente ahora la gente se conforma con cualquier cosa que se vea "bonita" Es cierto, yo nunca me contento con el primer resultado, yo pasé por mi época de try hard de text 2 img go vrrrrrrrr hace mucho, prefiero tomarme el tiempo de ver que hice bien o mal y como puedo mejorar una imagen mediante las herramientas que tengo a mano ya sea control net, inpaint o GIMP, nunca me conformo con el primer resultado. Pero si algo he aprendido con los años es, lo simple es siempre más efectivo y el factor caótico de la IA a veces da a luz a accidentes felices. >tendremos que darle nuestros datos a los chinos Es lo que estaba pensando, Wan 2.1 y 2.2 son open source y se pueden correr en local, pero el 2.5 solo esta disponible mediante API y si se vuelven closed source... ¿entonces para quién termina siendo el producto? entonces recuerdo a los normies y ahí obtengo la respuesta, ojalá no se manden un OnomAI 2.0 como los coreanos detrás de Illustrious. >no se ven grandes revoluciones en IA de imágenes Exacto, pero luego pienso, esto de la generación de imágenes evolucionó como una línea hacía arriba en muy poco tiempo. Por lo tanto es difícil sacar algo que impresione hoy día, también esta el hecho de que no hay tanto interés en hacer evolucionar a los generadores de imágenes a un equivalente a próxima generación. Todo el poder de computo se va al Chat Ojeté o ShitSeek o lo que sea de modelo de lenguaje. Solo uso Qwen como lenguaje de modelo de texto, y su modelo de imágenes no me impresionó tanto la verdad, pero aún tengo que probarlo en Colab como hice con Wan, quizá la única ventaja es que los modelos chinos no se notan tan censurados como los occidentales, en Qwen he visto Miku desnudas a lo barbie frontal pero las nalgas las dejaba intactas, y Hunyan te permitía generar a Miku con pañales, kek. Pero no te permitía generar a Whinnie Pooh si lo escribías directamente pero podías saltarte la censura escribiendo a Piglet y describiendo la forma de Winnie Pooh. >Aunque no se que tan censurados esten esos modelos Flux Kontext Pro estaba tan censurado que no me dejaba editar una tabla (o sea una chica plana) en bikini de una revista de modelos, kek. Ni siquiera era una foto erótica. La versión DEV de Kontext debe estar menos censurado pero es menos potente. Otro problema de estos modelos es que no pueden agregar NSFW, pero de por sí ya facilitan mucho la limpieza para entrenamiento de LoRA de estilos y así poder limpiar paneles enteros de onomatopeyas en pagina. También tengo un notebook para Qwen Image Edit, Supongo que sí logran entrenar uno de estos modelos en anime, supongo que sería el adiós al Inpainting, el cual todavía uso casi a diario. No me gusta mucho tampoco la dirección de la generación de imágenes con esto de "pon una cosa aquí" o "Junta esta cosa con esta otra cosa", aunque por como va de lento todo esto, vamos a seguir usando SDXL hasta el 2032, kek.
>>14733 >>14745 >>14754 Bueno como somos apenas 4 casi se me olvida pero tengo un par de noticias, primero que nada, Reforge esta muerto otra vez, kek. Ojo, esto no significa que no podamos usarlo, se puede, pero significa que no va actualizarse ni mantenerse en un tiempo (de nuevo) hasta el DEV vuelva. Como buenas noticias todavía tenemos el fork de Forge Classic y la verdad a pesar de instalarse más lento en Colab, es mucho más fluido que ReForge una vez instalado, a costo de tener menos cosas como el adetailer, que por alguna razón no funciona. Y la verdad aparte de que me da mucha nostalgia el usarlo, sigue siendo mil veces mejor que el A1111 que ya esta demasiado obsoleto para los estándares actuales y a diferencia de este, funciona con modelos Vpred al igual que ReForge, la extensión de Mahiro esta medio oculta pero se puede activar. Segunda noticia PonyV7 salió y para sorpresa de nadie es una mierda, literalmente es el nuevo SD 3, kek. Por ahora solo se puede probar en CivitAI pero ya desde mucho antes los resultados de prueba eran bastante malos. Creo que el autor de Pony solo tuvo suerte con Pony v6 y ya, a lo mejor caerá en el olvido después de esta. De resto dejaré recursos como siempre, empezando por los notebooks: <Forge Classic Colab https://colab.research.google.com/drive/1uB_V0RY3UvalsTMgWPk_paSyzIN0wVo9?usp=sharing <Forge Classic Kaggle (descargar e importar a Kaggle) https://colab.research.google.com/drive/1RudmQe6dSx0VP8e-PGpzin-S8HOE_GAT?usp=sharing De resto les informo que sí quieren, puedo tanto hacerles limpieza a las imágenes que me envíen siempre y cuando no sean de muy alta resolución si son de resolución como la gyaru lactando con gusto les hago limpieza, las puedo subir a catbox para no inundar el hilo ya que el chiste es subir nuestras propias imágenes (adjunto a Reisen) pero que conste que no es perfecto, pero les puede servir al momento que quieran entrenar una imagen de un personaje y/o estilo y esta tenga mucho texto.También podría hacerles Inpainting a sus imágenes de resolución base SDXL, pero como me enseñó el antiguo OPé el chiste es que aprendan Inpainting ustedes, kek. Por otro lado sí la imagen que consiguen para el dataset de su LoRA es muy pequeña de resolución les dejo este upscaler RealESRGAN_x4plus_anime_6B es un millón de veces mejor que la mierda de Waifu2x que solía usar y sin captcha, las otras variantes pueden servir para realismo o lo que sea. Y tiene un cierto efecto anti aliasing, lo recomiendo bastante en el notebook de SD como upscaler en el HiResFix, pero, aquí solo úsenlo para cosas más triviales o como ya mencioné para aumentar la imagen del entrenamiento de LoRA y después de forma irónica empequeñecerla de nuevo, ya que SDXL fue entrenado en resoluciones tipo 1024x1024 (aunque es posible usar otras resoluciones tipo 768x1344 como la más alta, etc) También una alternativa a waifu tagger y un space para PNG info (este ultimo es para que no usen el de Kaggle pero es mejor PNG chunk pero lo dejo por si quieren usarlo) >Space de Upscaler https://huggingface.co/spaces/TheStinger/Ilaria_Upscaler >DeepDanbooru (etiquetado de imágenes simple) https://huggingface.co/spaces/hysts/DeepDanbooru >Space lector de Metadata https://huggingface.co/spaces/Linaqruf/pnginfo <aldo Felicito al nuevo por avanzar en tan poco tiempo, bonita fusión de estilos, me gustaron mucho esa Makima y la tercera pic de secuencia de Fern. Y gracias a 8be3cd por la pic de Covid pokemonizado. Espero que el otro negro se recuperé del hackeo, de resto hasta la próxima, espero poder subir algo que no sea una imagen solitaria con relleno pronto.
(1.84 MB 1024x1048 00136-5811.png)

(1.93 MB 1024x1048 00123-4427.png)

(1.76 MB 1024x1048 00120-3914.png)

(1.70 MB 1024x1048 00115-3251.png)

>>14736 otro anon de un hilo en ingles compartio una pagina para generar video nsfw pero funciona con creditos y tienes que tener paciencia para acumularlos, es motionmuse.ai no he probado si funciona con imagenes 2d de monas chinas. >>14754 >dos semanas y no ha pasado nada Lo siento pero no me he sentido muy bien ultimamente tanto de humor y salud, aunque lo primero es consecuencia de lo segundo supongo. >>14754 >>14755 Asi pasa con esto, pierdes el interes y luego regresas, yo por eso entreno loras de estilo o uso otros de civitai y los mezclo entre ellos para ver los resultados.
(1.58 MB 1024x1048 00098-2333.png)

(1.41 MB 1024x1048 00096-1845.png)

(1.69 MB 1024x1048 00076-0220.png)

(1.68 MB 1024x1048 00063-5145.png)

>>14759 Generalmente uso pocas cosas que no sean los servicios de GPU en línea y si bien no he vuelto a abrir el notebook de Wan la verdad creo que preferiría seguir ahí, de todas formas gracias por mencionar ese servicio, sé que no muchos les gustaría esperar de 10 a 13 min. por un vídeo de 4 segundos también he visto muchos que se están pasando al servicio de Grok para animar imágenes ya que este ni siquiera necesita texto, aunque por lo que vi ahí duran seis segundos aunque ese sí no lo voy a probar, prefiero Wan. De resto espero que se recuperé, me gusta mucho el estilo de sus imágenes siempre han sido interesantes de ver además y gracias por estar estar aquí desde un inicio, una buena actitud y mente positiva siempre ayuda a mantenernos centrados frente a todo. >Asi pasa con esto, pierdes el interes y luego regresas, Es verdad, últimamente he encontrado diferentes formas de seguir disfrutando esto, ya sea usando el Noob IP-adapter para transferir estilos de una imagen a otra y últimamente al fin me adentré al mundo de entrenar LoRA, era algo que debí haber hecho hace mucho, llevo tres entrenados y estoy decidiendo cual de los dos últimos es el mejor, obviamente estoy pensando en publicarlos, aunque veo que CivitAI solo se esfuerza en ser cada vez más mierda, kek. Dejo algunos de mis experimentos de Noob IPadapter.
Habia estado usando ReForge en Kaggle felizmente por algunos meses pero en cuando decidi experimentar con Comfy fui banneado, RIP. Bueno, tocara hacer otra cuenta.
(2.40 MB 1344x1728 NoobVpred_2225287253.png)

>>14768 >Comfy >Kaggle Ufff, mala elección mi negro, y lamento que haya tenido que pasar por eso, la ID es diferente y de todas formas me disculpo sino se lo advertí antes pero la extensión de encriptado no viene por defecto en ComfyUI y/o no han logrado adaptarla para usarlo en Comfy tampoco, esta extensión solo esta disponible en interfaces basadas en A1111 (Forge, ReForge, Forge Classic, Forge Neo), además probar ComfyUI en servicios de GPU de memoria no persistente... es un infierno ya que siempre me encuentro instalando y actualizando dependencias y/o me tardo una hora en lo que me tardaba 10 ó 5 min. con ReForge en configurarlo (antes del Config.json), por eso cuando uso SwarmUI (backend de Comfy) lo hago en un servicio de GPU con memoria persistente. Es preferible experimentar con Comfy en Colab teniéndolo almacenado en una memoria persistente de Drive. Este notebook esta en inglés, pero creo que le dejaría montar cualquier UI a drive que escoja (aunque no sé si el autor de este notebook se molesto en arreglar ReForge funcionaba muy mal ya que me pasé a otro notebook) aunque yo me fui por la opción de tener mi config.json personalizado en ReForge para no gastar mi almacenamiento gratuito en Drive. <Aldo Reforge esta muerto de nuevo, pero claro, todavía se puede usar. Forge Classic es una buena segunda opción y cualquiera de los dos siguen siendo mil veces mejor que el viejo A1111. >Notebook opcional en inglés con 7 interfaces: https://colab.research.google.com/github/gutris1/segsmaker/blob/main/notebook/Segsmaker_COLAB.ipynb#scrollTo=tQqllRM-MCnT
(203.27 KB 1094x1600 IMG-20251008-WA0003.jpg)

(180.06 KB 1094x1600 IMG-20251008-WA0008.jpg)

>>14756 Hola, negrín. Bueno, no tengo mucho tiempo y he estado atrapado en el trabajo últimamente como para ponerme a generar, por lo que iré rápido con algunas cosas e ignoraré otras hasta el fin de semana probablemente. Y es que me he dado cuenta que aunque tenga que ir con cuidado de pisar una mina, prefiero Kaggle porque me da un poco de mejores resultado, aunque no sé si sea autosugestión kek. Algo que me fijado es que lo que dices de la incríptación. ¿Eso viene por defecto al generar la imagen, no? Pero, he visto que al mandarla a WhatsApp u otros, se pierden esos datos y el lector PNG no los reconoce. No sé si será lo mismo al pasarlo por Drive o si solo basta cambiarle la extensión a la imagen y volverla jpg por ejemplo... ¿Sí hago eso es menos probable que me baneen? Y descuida con lo de no usar el arrastrar imagen. Uso mi tablet para ponerme a generar, por lo que es imposible hacerlo inconscientemente. >aldo Vi por ahí que te sientes desmotivado y podrías dejar el hilo... Y bueno... Quédate, negrín, sin ti no hubiera podido ni siquiera comenzar a interesarme por las IAs de forma no irónica ;_;
(2.90 MB 1248x1824 Illust_00017-1720.png)

>>14771 ¡Hola de nuevo! >no sé si sea autosugestión kek No necesariamente lo sea, Kaggle da 30 GB de RAM y eso a mí me permite probar más herramientas en Kaggle que lo que puedo hacer en Colab pese a que este da más espacio. Por lo tanto Kaggle correrá mejor y será más fluido que Colab. >¿Eso viene por defecto al generar la imagen, no? Si, pero solamente en los notebooks que yo he pasado, esta extensión apenas conozco tres programadores que la usan y no he visto a nadie que tenga interés en adaptarla en ComfyUI >se pierden esos datos y el lector PNG no los reconoce Exacto hay servicios que eliminan la metadata, en esos casos esta se pierde al comprimirse, aquí simplemente se borra al subirla pese a mantenerse en el mismo formato. >No sé si será lo mismo al pasarlo por Drive Google Drive mantiene la integridad del archivo y la metadata siempre. >¿Sí hago eso es menos probable que me baneen? No hay una base real para afirmar algo como eso, por lo tanto es placebo, kek, verás esto me lo explico un programador lo que hace la extensión es pasar el archivo como "corrupto" y así evita que Kaggle te banee el culo, básicamente engaña al sistema. Ahora bien como funciona exactamente no sé, pero recuerdo decir al creador de esta extensión de encriptado que era difícil mantener la velocidad de encriptación con la detección de Kaggle. Y aquí viene lo curioso y a lo mejor me estoy arriesgando demás, pero subí una imagen NSFW para transferir el estilo en NoobIPA adapter sin que me banearan así que imagino que también nos protege las imágenes que subamos, también debo decir que lo de mi amigo baneado de Kaggle por subir y soltar una imagen sobre la interfaz fue hace mucho y quizás hayan mejorado la extensión desde entonces... o quizás no, pero desde entonces le tengo manía. Lo único que puedo asegurar es que no es aprueba de fallos pero por Kaggle vale la pena arriesgarse. Usar la GPU más de siete horas seguidas estando inspirado es algo que no se puede hacer en Colab. >Quédate, negrín Como dije he estado buscando métodos de mantener la flama viva, por suerte desde el pasado jueves diría que la cosa mejoró un tanto, he avanzado con mi LoRA y si bien estoy lejos de ser un experto al menos mi acercamiento de 50 imágenes funcionó. Eso sí, sigo reciclando una que otra imagen de vez en cuando, pic related la generé en febrero de este año (como extraño Illustrious pero su dataset ya le pesa mucho), pero seguiré ofreciendo mi apoyo y consejo a todos dentro de lo posible, aunque no actualice tan seguido como antes. <Aldo Muy buenas Makima, casi siempre le dedico una imagen de vez en cuando, me alegra que hayas conseguido un estilo con el que sentirte a gusto, ¡hasta la próxima!
(216.16 KB 1094x1600 IMG-20251019-WA0030.jpg)

(209.04 KB 1094x1600 IMG-20251020-WA0012.jpg)

(143.20 KB 1094x1600 IMG-20251020-WA0013.jpg)

(112.43 KB 1094x1600 IMG-20251020-WA0014.jpg)


>>14748 Bien. Primero voy a escribir lo que me estaba preguntando... Primero... ¡¿ZIKIM ES UN PROMPTER?! Hijo de la grandísima perra, jamás me hubiese dado cuenta si no me lo decían... Sé que no reaccione en su momento porque estaba ocupado, pero ahora vuelvo a ver otro post suyo y sí que veo los patrones típicos de IA aunque estén disimulados con photoshop... Joder... Definitivamente la IA está matando artistas. ¿Qué promtps, loras o modelos crees que use para tener ese acabado? Segundo, ¿hay una opción para regional promter en la propia Notebook? No sé si sea mejor o peor porque no la he probado o sí funciona... Pero ahí está... ¿Sabes cómo es? Hace ya un tiempo, no me deja descargar loras... De los modelos no me molesto porque no soy de probar tantos... Aunque me resulta curioso, no puedo ni desde la UI ni desde la notebook, o no sé muestran en lo absoluto salvo un par de excepciones como el de la elfa. Por lo cual no sé cuál será el error exactamente. Uso la clave API y los links desde la flechita azul... >NoobAI ¿Qué era eso exactamente? Con respecto a los artistas que dije de Evie, no es que salgan pocas pics, es que directamente sus nombres no salen en el Notebook para imitarlo... así que mi teoría es que comenzaron a dibujar después de 2023 o bien tiene shadowban... Aunque otros como Sakimichan sí se emulan aunque borraran sus galerías en el Booru. >estilos escasos de psicodélia Me había dado cuenta de ello y de cómo no todos los artistas están. No por nada sino que Astra Yao, la versión actual dice que tiene 58 pics o así, pero en poco tiempo pasó a tener mil, y ese personaje salió en Enero o así, de modo que se actualizó antes de ese año... ¿Cuando crees que sea la próxima actualización? Implicando que haya y no lo dejen morir así sin más. >aldo Por cierto... ¿A qué hora del lunes o domingo se reinician las 30 horas del Kaggle? Haciendo cálculos y así, si lo uso 4 horas por día a lo Collab tampoco es que tenga tantas me sale hasta más rentable que Collab y con más calidad a largo plazo. >aldo Creo que voy a hacer y dejar una lista aquí de mis artistas favoritos y para qué sirven en caso quieran emularlos, he estado probando bastantes de Danbooru y visto lo visto sé les pueden encasillar en varios estilos... Pero todavía me falta agarrar un momento libre. >Sora2 No me refiero a si lo probaste, solo si te enteraste, ya me imaginaba que estaba limitado hasta el culo y no te podría dar a una petit bailarina dándolo todo mientras le tiran monedas, solo quería saber si lo viste y un poco de qué opinas de la muerte de los artistas. >Forge Couple ¿Y donde está, cómo lo obtengo? >si quieres te paso mi versión A ver, presta... Aunque tal vez sea mejor crear la mía y saber cómo hacerlo. Casi siempre uso lo mismo... Ah, ¿Y a cuanto suelen dejar el CFG? >Workflows, Flux Dev, Qwen edit ¿Y esos qué son? Lo de quitar censura no sé si me sirva de mucho a la larga pero siempre está bien aprender... Aunque estimo que no será tan difícil con El impaiting. Eso sí, tardado sí he visto que es... Prácticamente es zona por zona y no demasiado grande para que quede fina. >NovaXL Que es el que uso siempre, ¿Qué parámetros tiene o de qué tipo es...? Supongo que probar otros modelos no hará daño. ¿Y a cuál decías que debía cambiar para la actualización hasta 2024? Por ahora eso es todo hasta que me acuerde de algo más o pueda tener tiempo de generar...
[Expand Post] >aldo ¿Cuál era el programa para videos? Quiero ver si puede hacer monas movimiento el culo como la última pic kek Además que dejo un OC en la cuarta pic, ya puedo empezar a adentrarme en el tema de las hojas de personaje para ver si me sale una narración o PJ decentes... >regiones ¿Recuerdas la pic de 3komas de Fern? Muero, pues me salió de suerte, y vaya suerte kek... ¿Cómo podría delimitar bien los comas, en plan, decirla, aquí el primer Koma, y dar una coordenada o algo en el plano y así... >aldo final ¿Qué se necesitaría para emular la imagen de la última pic? Puedo cortarla para que solo se vean a las monas y no al tipo del stream... Creo que lo intenté una vez, pero no me dio nada... Aunque no me acuerdo con cuál pic fue o si se veía. En fin, tampoco es tan importante, supongo que es mucho esfuerzo para algo que puedo tener empezando de 0... Pero me gusta su estilo.
>>14776 >aldo extra ¿Cómo puedo hacer que solo uno de los PJ reciba los prompts y el otro no? ¿O al contrario, que ambos lo reciban de forma uniforme? ¿O que compartan posición?
>>14776 Y aquí vamos de nuevo, voy a tratar de responder sus dudas lo más pronto y breve posible mientras sigo reciclando imágenes viejas. >Zikim es un prompter Cy, digamos que con el tiempo te vuelves un detector de IA con patas. >¿Qué promtps, loras o modelos crees que use para tener ese acabado? Esto es una pregunta interesante y complicada a la vez, de la misma forma que te vuelves un detector de IA automático, hacerle ingeniería a la inversa a una imagen con solo verla es imposible así puedas reconocer algunos de los estilos artistas fusionados. Ahora bien, gracias a CivitAI podemos hacer una investigación básica de Zikin ya que este tipo esta desde la era de SD 1.5 y hasta tiene LoRAs de Pony, pero revisando sus últimos post usa o llego a usar: >Uso en el pasado Hassaku XL 2.1 fix, Wai 12.0, NTR MIX | illustrious-XL | Noob-XL 14 >Tiene su propio modelo llamado ZikinIlustrousV3 (no liberado) >Le gusta usar la colección de LoRAs de Shiiro's Styles >LoRas como R754496 / Shiiro's Styles >Detailer | Tool / Concept LoRA IllustriousXL >96YOTTEA style >Pony: People's Works v1-v6 v4_noobEv1.0 >Detail Tweaker XL 1.0 (un clásico >SDXL FaeTastic Details >Aura Phantasy | Shiiro's Styles | Ai >Vengeful Spirits & Dark Arts - By HailoKnight Y ya, solo por mencionar los más recientes, veo que llegó a usar modelos como AnimagineXL 3.1 y Pony Smooth Mix v3 y LoRA's de Pony en Illustrious como ExpressiveH kek. Ahora bien, en sus post más recientes encontré que usa un LoRA exclusivo llamado PerfFrame a 0.6 de fuerza pero de poco nos sirve saberlo si no no libera, es muy común que algunos prompters entrenen sus propios LoRA de estilo, efectos o conceptos y se los queden ellos solos, un prompter que me encantaba era EyeAI de Japón, pero lo abandonó todo y decidió liberar todos sus LoRA's. <aldo Esta es imagen con metadata de Zikin y puedes comprobar que todo lo que digo es verdad y que parámetros y que WebUI usa tanto como su LoRA exclusivo, en su caso usa ReForge todo con parámetros muy básicos, así que no es nada muy allá como un workflow complicado de ComfyUI. <Metadata Zikin https://files.catbox.moe/1450mx.jpeg >¿hay una opción para regional promter en la propia Notebook? Si esta usando ReForge sí, pero, como todo creo que Regional Prompter ya esta obsoleto, es mejor usar Forge Couple o hasta que algo mejor salga. >¿Sabes cómo es? Luce así pic related 4, extraño esta mierda, aunque ReForge al menos te da la opción de usar ambos tanto Regional Prompter y Forge Couple, así que al menos tienes dos opciones por si alguno falla. Noté que en modelos Illustrious más viejos como PrefectiousXL, Nova Furry XL o incluso el Animagine XL v4 Zero (salió en enero de este año) el Regional Prompter todavía funciona, pero en modelos Illustrious más nuevos como el Nova Furry XL 12 o Nova AnimeXL 12.5 no tiende a funcionar muy bien. Así que no es cosa de que sea uno sea mejor o peor, es cosa de ajustarse a los tiempos. >Hace ya un tiempo, no me deja descargar loras >Uso la clave API y los links desde la flechita azul... Ok, eso es raro, aunque tengo entendido que ReForge esta muerto (de nuevo) pero no debería pasar esas cosas. Y eso que estoy usando el mismo notebook que usted, a no ser que use el de Gutris. De todas formas si quiere pruebe ForgeClassic tiene menos cosas pero corre más fluido y con menos lag. Ambas versiones están acá: >Notebooks de Forge Classic >>14756 <Admito que no he tenido tiempo de seguir usando el de Kaggle. >De los modelos no me molesto porque no soy de probar tantos Dígamelo a mí, estoy aquí desde SD 1.5 y llega un punto dónde todos los modelos son iguales, creo que a duras penas puedo nombrar cinco que hagan algo diferente. >¿Qué era eso exactamente? Un modelo basado en Illustrious v01, es un finetune de este modelo, hecho por un chino, la era actual es Illustrious & Noob van de la mano como uña y carne, yo hice un mini post reflexión al respecto aquí: >>14671 En fin es un gran modelo, muy bueno, fácilmente de lo mejor que he probado en mi puta vida, su fandom es mierda elitista, pero eh, son cosas que no se pueden controlar. >es que directamente sus nombres no salen Puede ser tanto un bug de la extensión y/o simplemente no estén incluidos, yo mismo comprobé que no todos los nombres salen tampoco. Lo que sí puedo confirmar es que la última actualización a la lista de tags fue hace nueve meses tanto de Danbooru y E621 que curiosamente es la fecha de salida de Noob Vpred 1.0 De todas formas el único valor real de la extensión de tags es facilitarnos la vida al momento de escribir prompts,no tiene nada que ver con el dataset del modelo, no porque no funcione y/o no aparezca equis nombre de equis artistas no afecta al modelo, pero obviamente con modelos entrenados en tags de Danbooru y E621 siempre será más cómodo tener esta extensión activada. >¿Cuando crees que sea la próxima actualización?
[Expand Post]Cuando salga un buen modelo que valga la pena mudarse con dataset más actualizado. AnimagineXL 4.0 sí tuvo un dataset más actualizado a inicios de este año, pero no quisieron liberar su lista a diferencia del 3.1 por alguna razón... Obviamente por más que un modelo sea bueno, ejemplo Noob e Illustrious, sus datasets ya les pesan, siendo Noob Vpred 1.0 con poco más de 9 meses ya es notorio, más un modelo con dataset hasta 2023 como lo fue Illustrious v0.1 también le pesa, espero que no dejen a Noob morir en SDXL pero eso ya es normal, como dejaron a Pony v6 sin más actualizaciones para SDXL y OnomaAI la empresa detrás de Illustrious se pasó al closed source... así que los tres modelos principales están parados. Yo opino que al menos deberá salir algo bueno para SDXL en 2026, pero ya muchos quieren mudarse de esta arquitectura, pese a que SDXL todavía es rey. Luego esta el tema de la purga de artistas en Danbooru porque estos no querían alimentar datasets de modelos pero eso ya es asunto de que tan rápido fueron los scrappers en respaldar contenido. >¿A qué hora del lunes o domingo se reinician las 30 horas del Kaggle? A las 00:00 del lunes, conozco gente que usa Kaggle a dos cuentas, pero ya eso me parece un abuso la verdad, pero creo que sería más cómodo entrenar LoRA ahí que en Colab siendo ligeramente más potente que gastar 43 minutos en entrenar un LoRA de un servicio tan inconsistente como Colab que por cualquier cosa te resta horas gratis. >en caso quieran emularlos, Hace tiempo compartí una fusión pero nadie me dijo nada, kek. Pero es una buena idea, la vuelvo a compartir, ten en mente que puedes cambiarle la fuerza a tú gusto a cada uno. riku \(melty drop\), eushufeal, seika okawari También recuerda usar "artist:"(sin comillas para prevenir el sangrado de estilo) >No me refiero a si lo probaste, solo si te enteraste Disculpa la confusión. >¿Y donde está, cómo lo obtengo? Tanto en Forge Classic y Reforge ya viene por defecto el Forge Couple. >Aunque tal vez sea mejor crear la mía y saber cómo hacerlo Bueno, en el caso del notebook de ReForge este facilita el config.json nada más tiene que editar un par de cosas en la configuración y una vez terminada la sesión se va directo a la celda "Copiar configuración de usuario a Drive" y una vez en Drive pone el enlace de la celda en público y lo descarga en la celda de Cargar Configuración personalizada (opcional) Yo lo hacía por el método difícil de Hugginface + Hub + Editar el código del propio notebook. Pero así podrá tener su interfaz más personalizada. >¿Y a cuanto suelen dejar el CFG? A 3,5 en modelos tanto EPS y Vpred y sí estoy usando los Euler CFG ++ entonces lo dejo a 1,2 ó 1,5 pero las primeras horas de prueba de un modelo, por lo general trato de usar los parámetros recomendados que dan de estos en CivitAI. >¿Y esos qué son? Oh por Dios negro lo que me tomaría un explicar cada uno, kek. Mejor toma el repositorio entero. <un montón de notebooks random que nadie usara https://github.com/Isi-dev/Google-Colab_Notebooks Siguiente pregunta. >Aunque estimo que no será tan difícil con El impaiting Mi último Inpaint de descensura a un amigo, me tardé una hora y 40 minutos. Lo cual no esta mal, considerando que ya sé que hacer y tengo experiencia, fue una cuca de Miku Hatsune. También a dicho amigo le descensure 12 cucas gratis (todas 2D por supuesto). >¿Qué parámetros tiene o de qué tipo es...? El creador del notebook no ha actualizado la lista de modelos, pero si esta usando NovaAnime por defecto del notebook entonces esta usando la V8 y ya van por el 12.5 el último modelo nuevo que probé fue One Obsession v16 basado en Noob (es decente y tiene dos datasets aunque el modelo en sí no es de muy mi gusto) NovaAnime XL supuestamente esta basado en Illustrious, sus parámetros recomendados son: >Sampler: Euler a >Steps: 20~30 >Clip Skip: 1-2 >Denoising Strength: 0.65 - 0.8 >CFG Scale: 4~6 >¿Y a cuál decías que debía cambiar para la actualización hasta 2024? NoobAI XL, quizá el One Obsession 16 Noob le agrade más que a mí, pero los modelos de chinos suelen ser muy, ellos saben cuidar la estética, los lora con Illustrious deberían ser compatibles. https://civitai.com/models/1318945?modelVersionId=2044887 >¿Cuál era el programa para videos? Wan 2.2 no es un programa, es un modelo chino de generación de vídeos, es lo único que me a robado el interés de SDXL, realmente quiero que entrenen un modelo anime basado en Wan, es lo único a lo que le tengo fe y mira que el panorama de la IA actual de imágenes me tiene muy decepcionado, lamentablemente me pegó un apagón la última vez que lo abrí, kek. <Notebook de Wan 2.2 >>14722 Un par de cosas a tener en cuenta, solo puede usar LoRA que específicamente digan I2V (img2video o Image to video) los LoRA de Wan 2.1 pueden servir, no use resoluciones de 720p de resolución y puede usar hasta tres loras los cuales debe instalar al inicio. Cada generación tarda entre cinco minutos a 480p y siete minutos a 640p de resolución (más LoRA incluido), los vídeos son a 16 FPS y duran 4 segundos pero puede interpolarlos a 30 FPS y... ya, no tiene censura, pero obviamente va a necesitar un LoRA NSFW si va a hacer algo NSFW como un blowjob necesitará un LoRA de Blowjob y/o equis LoRA para animar equis posición sexual así que piense bien en lo que va a usar. >¿Recuerdas la pic de 3komas de Fern? Cy me gusto mucho, tengo debilidad por las peli morado desde Athena en Saint Seiya original. >pues me salió de suerte Kek, a veces pasa, como mi pic de Makima, Canela y Miku y aún así requirió bastante Inpainting pero fue suerte que las tres no se fusionaran en un horror lovecraftiano al primer intento sin Forge Couple ni Regional Prompter ni LoRAs. >¿Cómo podría delimitar bien los comas, en plan, decirla, aquí el primer Koma, Y... no funciona así. solamente modelos como ChatGPT o quizás dentro del open source modelos como Flux o Qwen que es más nuevo, pudieran darle algo así como lo que busca a fuerza de puro prompt pero tenemos... Forge Couple. Imagino que pudiera dividir las regiones en un formato tipo 4 Koma y luego describir en una línea que sucede en cada región que equivaldría a cada panel. O también puede hacer un boceto usted mismo e Inpaintearlo todo en algo coherente, kek. >¿Qué se necesitaría para emular la imagen de la última pic? NoobIPA adapter en Kaggle y con un modelo que tenga lo más dentro posible Noob EPS 1.1 o si no el propio NoobEPS 1.1, tu acercamiento es correcto cortar las monas chinas sería una buena idea, pero seguiría siendo una imagen de muy baja calidad. Trata de conseguir uno de sus dibujos. >>14777 >Chequeados >¿Cómo puedo hacer que solo uno de los PJ reciba los prompts y el otro no? ¿O al contrario, que ambos lo reciban de forma uniforme? ¿O que compartan posición? Forge Couple y/o Regional Prompter sobre todo si estas usando LoRA.
>>14776 >¿Qué promtps, loras o modelos crees que use para tener ese acabado? Todas esas imagenes tienen un aire a IA kek, el negro de aca >>14778 te lo ha explicado mejor de lo que yo podria pero supongo que es tener una idea para una imagen, (la pose,composicion, estilo, etc) e ir de poco a poco generandola , puedes usar controlonet depth y lineart para la pose, e ir torciendo los detalles con impaint o img2img y luego hacer photobash, lleva trabajo y tiempo. Los prompters con estilos mas interesantes tienden a mezclar loras entre ellos y luego ir generando sus propios modelos privados(sin liberar) piensa como si estuvieras mezclando pocimas en un jodido jrpg o similiar,
>>14776 >OC Como no me pude resistir con el OC del otro negro, le hice un par de variantes a su OC pero como no había una pic de frente pensé en volverla character sheet, reference sheet y funcionó, lo único malo es que como esta de espaldas le es más difícil al modelo imaginarse lo que hay de frente que sí fuera al revés. Mínimo inpaint en los dedos, manos y brazos, la iba a pasar por Wan pero tuve un apagón. >>14779 >pocimas en un jodido jrpg o similiar Kek, así es como me siento en SD haciendo experimentos de estilos. A algunos hay que ajustarles la fuerza si o sí para que queden bien y a veces eso hasta depende del modelo, a veces pongo parámetros squizos de fuerza y ahí si ya tengo que admitir que puede ser placebo colocarlos así. Y hablando de Pocimas e ingeniería inversa, recuerdo un loquito tratando de descubrir qué tags de artistas usa el usuario AI potions, cuando puede simplemente entrenar un LoRA con sus imágenes. Pero luego recuerdo que los usuarios de NAI son normies de la IA también, solamente es un servicio un poco más potente que el resto de modelos anime open source y aún así da resultados mucho más genéricos que en modelos bien entrenados de SDXL como Noob Vpred e Illustrious, mi amigo con acceso a este servicio literalmente creía que no se podían fusionar estilos antes de NAI v4.5 y luego de explicarle que no era así. luego pensé que esa es la clase de púbico que buscan los servicios de IA privativa, totalmente desconocedores de las capacidades y versatilidad del open source, pero bueno, soy lolpobre y trato de no criticar lo que usan los demás. Pero como la pregunta fue en plan "que crees que usa" trate de apegarme a ella y por suerte hice un mínimo de descubrimiento pero igual usando NoobIP adapter puedes fácilmente imitar su estilo con una sola pic. <aldo Si alguno de los dos quiere el estilo viejo de AI potions aquí esta: {{{ratatatat74}}}, sciamano240, [[[cutesexyrobutts]]], [hershuar]] Recordatorio cambiar las llaves por paréntesis en SD, el primero tendría un equivalente de fuerza de (nombre:1.3) de resto cualquier cosa con tres corchetes su influencia en el prompt es casi opcional pero la verdad artistas con más de 1000 pics es difícil que no devoren todo el estilo fusionado así que en parte se entiende esa reducción de fuerza. Pero supongo que el equivalente a fuerza/reducción en SD es algo así: [nombre:0.512] o sino pueden obviar el el corchete y que tenga un valor positivo de (nombre:0.5) será más preciso así, aunque el de hershuar esta mal escrito, pero imagino que se le olvidó cerrar el segundo corchete.
(1.17 MB 1152x896 00004-1463970872.png)

(1.12 MB 1152x896 00005-2409389903.png)

(1.22 MB 1152x896 00006-46142820.png)

(1.06 MB 1152x896 00009-2701147080.png)

(1.07 MB 896x1152 00012-4027016638.png)

Algunas pruebas de Forge Couple, y ya descubrí porqué no se llama Forge Trio, kek. Voy tener que dedicarle algo de Inpaint a las de Rag esta coge muchos detalles de Honey. La menos afectada fue Tifa, trate de hacerle HiResfix a la última pero siempre se fusionaba el color de ojos, traté de usar la caja de prompts extra del HiResfix para evitar esto pero cuando lo intenté a la última la WebUI ya no quería generar más, a lo mejor bajando la fuerza del LoRa de Honey hubiera sido la solución, pero de nuevo no pude continuar más.
(231.33 KB 1094x1600 IMG-20251027-WA0001.jpg)

(147.75 KB 1094x1600 IMG-20251027-WA0003.jpg)

(139.85 KB 1094x1600 IMG-20251027-WA0005.jpg)

(107.87 KB 1094x1600 IMG-20251027-WA0004.jpg)

>>14778 OP, una consulta rápida, cuando trato de iniciar la UI de Kaggle, me dice "Torch is not able to use GPU, add skip torch cuda test to COMMANDLINE ARGS, variable to disable this check" ¿Qué hago ahí? Pensaba que era porque se me habían acabó las 30 horas de kaggle, pero estamos lunes, y me sigue apareciendo... No sé qué puede causar eso... >>14780 >No me pude resistir a tu OC Kekazo, me alegra que estemos en misma línea. Pero pudiste habérmelas pedido en lugar de hacer todo ese kilombo para sacarla más o menos, tengo varias más de ella. Y aunque dije OC, es básicamente Lighter de ZZZ, pero genderbend y con algunos cambios que no me acuerdo bien los promtps pero es cuestión de meterla al PNG recog... Así que digamos que fue creación mía luego de un par de horas...
(168.79 KB 1094x1600 IMG-20251027-WA0007.jpg)

(127.87 KB 1094x1600 IMG-20251027-WA0009.jpg)

(167.41 KB 1094x1600 IMG-20251027-WA0010.jpg)

(121.57 KB 1094x1600 IMG-20251027-WA0002.jpg)


>>14782 Me faltó esta, el objetivo era tenerla bailando Suave de El jefe el Alfa, así que me puse a hacer varias de esas a modo de "fotogramas" para ver si varias juntas cuentan como checkpoints para que fuese más fluido pero no he tenido tiempo de probar la IA de video kuek. ¿No habían unas donde tú ponías el video y una imagen para que te lo hiciera imitando los movimientos? ¿Es Open Source o está censurada? >aldo El contexto, si no recuerdo mal, es que ella era más bien del tipo tímida y patosa en el amor, así que le haces bailar eso aunque se muera de vergüenza... Ya luego iba a hacer la transición a ella prácticamente ya seduciéndote con mucha más confianza.. >aldo 2 Ya entendí la confusión, el OC que hice al 100% es el de la tercera pic, no el de la cuarta, se llama Nerea Foliana y es una profesora de una copia de pokemon que estoy planeando, básicamente está inspirada en Wonder Journey del Uma Musume y su paleta de colores representa lo "natural"
>>14782 Primero que nada me disculpo por no haber respondido más temprano. También perdí tres horas de Inpainting por un apagón de mierda. Pero trataré de responder sus dudas. >"Torch is not able to use GPU, add skip torch cuda test to COMMANDLINE ARGS, variable to disable this check" Primero que nada, asegúrese de que este usando la GPU, repasemos de nuevo textual y visualmente, GPU T4x2, pin to original enviroment y por si acaso que la Internet de Kaggle este encendida, de resto continua la instalación como siempre, estamos usando el mismo notebook y tanto ayer y hoy pude usar la GPU de Kaggle normal menos por los apagones >habérmelas pedido Igual tenía ganas de probar a hacer un character sheet y tenía curiosidad de que me salía, aunque claro no tenía forma de adivinar (ni el modelo tampoco) que tendría abdominales marcados, que por cierto ya que yo tengo los tags de E621 activados por defecto le recomiendo los tags de "obliques" y "serratus". Les concedo a los furros que son más organizados con su sistema de tags que Danbooru. Aldo, si bien me encantan los pechos enormes y gigantes, trato de que estos no entren en conflicto con los abdominales o que venzan el propósito de ver estos, por suerte con la suya no pasa tanto, pero por lo general si hay abdominales de por medio, trato de quedarme en el rango de "large breasts" y no huge. >>14784 >¿No habían unas donde tú ponías el video y una imagen para que te lo hiciera imitando los movimientos? Cy, es un modelo de control net, dejo un ejemplo curseado y robado de Shrek con Wan 2.2 pero, para hacer esto imagino que necesitará un workflow de ComfyUI, y el notebook que yo tengo esta simplificado de tal forma que solo tiene que preocupar por los prompts, las imágenes que suba y los LoRA que use que lamentablemente están limitados a sólo tres y ComfyUI queda relegado en el fondo donde no podemos verlo, pero no tendrá a nadie que lo censure. Ahora bien imagino que con Forge Neo no habría que pasar por esto de los workflows complicados de Comfy, pero entonces queda el problema de la GPU y de por sí adaptar a Wan 2.2 que fue hecho para funcionar en 80 GB de VRAM a una pobre GPU T4 de 16 ya es todo un logro. Ya de por sí me acostumbre que hay muchas cosas ya sean OpenSource o no que jamás podré probar así que me contento con lo poco que tengo acceso además de que solo uso SDXL y Wan me valen verga los otros modelos aunque le tengo cariño a SD 1.5 por lo que fue, aquí yo estaba probando un lora de rebote de pechos para Wan 2.2 dejo dos ejemplos. >el OC era otro Kek, doble confusión, bueno veré que puedo hacer entonces.
(862.69 KB 1080x1037 Original.png)

(750.15 KB 1080x1037 MaryAki_cleanup.png)

(1.22 MB 1094x1600 IMG-20251027-WA0005_cleanup.jpg)

(252.03 KB 1094x1600 IMG-20251027-WA0003_cleanup.jpg)

(1.38 MB 1094x1600 IMG-20251027-WA0007_cleanup.jpg)

>>14754 >>14759 >>14784 Ah por cierto, como he notado que las imágenes del nuevo tienen una firma un tanto persistente, y si bien me ofrecí a limpiar imágenes más arriba (lo cual no he descartado siempre y cuando no sean de la resolución de Pic 1), creo que el chiste es no depender tanto uno del otro sobre todo en lo que me tardo en responder, así que creo que es más justo sí les comparto una herramienta de limpieza que si bien no es tan masiva ni tan automática puede ayudarles para cosas simples como firmas no deseadas, ojo, esto no reemplaza al Inpaint y uso a Mary Aki de ejemplo de que en su caso el modelo no puede imaginarse el ahogue que tiene Mary en el pelo detrás del texto, así que debido a su falta de control solo sirve para cosas simples, dejo algunos ejemplos también limpiando la firma falsa de las imágenes del nuevo, lo único que tienen que hacer es sombrear y luego el modelo hará el resto de remover por ustedes. En fin son dos: <Lama Cleaner Llama (más para "remover" fondos) https://huggingface.co/spaces/Sanster/Lama-Cleaner-lama <IO-Paint Lama (más para edición pero aún sin mucho control) https://huggingface.co/spaces/Sanster/iopaint-lama
>>14776 >>14782 >>14784 Esto me recuerda cuando se hacían pedidos en estos hilos, kek. Me hace sentir nostalgico, sé que solo pediste de twerking pero de nuevo no me pude resistir. Le tuve que hacer un minimo de Inpainting a ciertas áreas, la de cuerpo completo tenía seis dedos en un pie, y la del top negro tenía seis dedos en cada mano y así, aparte de las marcas de agua, nada del otro mundo.


Forms
Delete
Report
Quick Reply