>>14745
¡Hola! también he estado ocupado y con problemas aunque casi se me había olvidado seguir publicando aquí, kek. Pero me alegra que pasara de vuelta.
Mi último post fue una prueba muy fallida de Forge Couple de un crossover de Tsunade (personaje ya reconocido dentro del dataset) más LoRA de Ingrid, pero pude obtener un mejor resultado recientemente con dos LoRA de dos personajes distintos, Ayame x Ariane con sus tamaños canon (tanto altura y pechos). A lo mejor no sé si te diste cuenta pero el tema del hilo iba de obtener múltiples personajes en una sola imagen, a lo máximo que llego es a tres personajes pero más personajes es igula a más inpainting. Aparte de las pruebas animación gracias al notebook de Wan 2.2.
Procederé a responder sus dudas y dar ejemplos de ser posible.
>Aunque aún no sé usar el Inpaiting o bien no me sirve de mucho con lo poco que lo he probado...
El inpainting es cuestión de practica, sirve tanto para expandir la imagen con Outpainting y arreglar aspectos de la imagen, por ejemplo me gustó la pic base del crossover de Ayame x Ariane, pensé "este es" pero, el resultado original dejaba mucho que desear (sobre todo del lado de Ariane) y sí le metía HiResFix directo sabía que iba a quedar mal, le agregué con Inpaint el moño rosado y arreglé detalles de los ojos y expresiones, mejoré los detalles de las sombras de las ataduras de las panties y los frills, etc. El inpaint me ayuda tanto para añadir eliminar resultados no deseados como dedos extras y/o agregar elementos que faltan, cambiarle el color a una prenda, agregar prendas, quitarlas arreglar auténticos horrores lovecraftianos que alucina la IA... a mi me gusta usar Inpaint para descensurar de vez en cuando y/o quitarle piercing en los pezones a ciertas imágenes.
Aunque claro, si lo usas desde tablet puede que sea más incómodo que usarlo en PC, también hay que saberlo configurar, tanto samplers, parámetros y modelo y prompts afectan la calidad del Inpainting.
>Momomo906 o Evie (baoxiao)
Me puse a buscar sus nombres y al menos ambos deberían estar en el dataset de NoobAI, pero tienes que tener en cuenta el dataset de los modelos, Illustrious v01 su dataset de Danbooru llega hasta 2023 y NoobAI (basado y mejorado de Illustrious v01) su dataset llega a hasta octubre de 2024 y nosotros ya estando cerca de cerrar 2025 el tiempo les ha sacado peso a ambos datasets así los modelos sean objetivamente buenos, hoy día veo que esos dos tienen 189 pics (momomo 906) y 107 pics evie (baoxiao) por lo tanto sí tenían muy pocas pics antes de esas fechas los modelos no podrán imitar bien sus estilos. Como alternativa de dataset más actualizado esta AnimagineXL 4.0 hasta el 5 de enero de este año, pero fue tan irrelevante que nadie se molestó en entrenar nada ahí, kek.
>¿Es porque no está actualizado a porque el artista nukeó las fuentes?
No pueden nukear los datasets de los modelos y me atrevería a decir que solo el 2 % de los artistas revisa CivitAI para revisar si les hicieron un LoRA, el único artista ardido que vi en CivitAI fue uno western colorista, kek.
(Y aún así tengo mis dudas que fuera realmente él)
También hay sitios a prueba de normies dónde subir LoRA's.
Lo que sí he notado es que la extensión de etiquetado automático a veces le cuesta leer el prompt y a veces termino copiando y pegando el tag con los underscores (_) pisos directamente de Danbooru o E621 pero muy pocas veces hago eso.
>Quería probar/emular el estilo jojos de esta manera sin copiar la anatomía
Puedes hacerlo con Noob IPadapter para transferir estilos de una imagen base a otra sin replicarla, PERO, (siempre hay un pero) es muy pesado para Colab y solo funciona en Kaggle que es más potente (y aún así tiene riesgo de crashear) y para más inri como el nombre indica esta entrenado en Noob y noté que la versión dónde tendrá mejor efecto es Noob Eps 1.1 los modelos basados en Illustrious noté que les cuesta transferir el estilo, sobre todo si es un estilo western (NoobAI pese a ser de un chino este decidió incluir más dataset western).
Y si no siempre puede entrenar un LoRA de estos, 50 pics (mínimo) a 70 (recomendable) pìcs consistentes son suficientes para entrenar un LoRa de algún artista y/o estilo.
>¿te enteraste del Sora2?
No me importan mucho las IA closed source la verdad, solo me enteré que Sora 2 duró dos días sin censura, kek.
Tardaré 10 a 13 minutos en obtener un vídeo de 4 segundos de una imagen con Wan 2.2 en Colab pero al menos no me van a censurar.
>Preconfigurado
No exactamente, más que preconfigurado yo siempre uso parámetros diferentes para Img2Img (aquí se puede experimentar mucho), aunque para agilizar el proceso puedes generar una imagen con los parámetros base que te gusta usar ya sea en Txt2Img y/o de Inpainting (no importa que tan mala sea la imagen) y luego para la próxima sesión te vas a PNG info y envías la imagen y cargaran los parámetros automáticamente, pero ojo, se transferirá el numero seed, le recomendé esto a un amigo que le cansaba poner los parámetros de Inpainting cada vez (esto si que casi no los cambio) pero igual diría que al menos con el Inpainting es crucial memorizarlos.
>Schedule type ¿Eso que hacía?
Para simplificarlo lo más posible, el schedule type juega un papel crucial en quitarle el ruido a las imágenes para poder tener una imagen limpia.
Los dos mejores que he probado son Beta + SMG Uniform.
>Siempre lo he mantenido en "automatic",
Si esta usando Euler A como sampler se cargara automaticamente Normal como schedule type, digamos que es balanceado pero no muy avanzado es mejor que "Simple" que yo antes solía usar en la era Animagine/Pony algunos te recomendarán "Karras" pero aparte de ser incompatible con Vpred, Karras es mejor para realismo.
>Regional Prompter y Forge Couple
Digamos que Regional Prompter... se quedó obsoleto, pero solía ser la única opción para obtener múltiples personajes en una imagen, hoy día Forge Couple es mejor, pero si puedes aprender ambas sería lo correcto, Forge Couple da aún más control de la composición de la imagen y deja usar mascaras, aunque ambos funcionan a base de regiones. La de Ayame x Ariane la conseguí gracias a Forge Couple más loras de cada personaje.
> ¿las {} sirven de de algo o es puro placebo si no se usa bien?
Las llaves son exclusivas de modelos de NovelAI, así que no, no sirven para absolutamente nada en nuestros modelos open source entrenados en anime. Use los paréntesis ya sea por ejemplo: (sweat:1.2) ó ((sweat)) también puede incluso reducirlo tipo (sweat:0.9) si quiere reducir algo por ejemplo una rellenita que no sea una gorda [plump:0.9] ó [plump] y escribir "artist:"(sin comillas) antes del tag de un artista que ya reconozca el modelo ayudara a evitar el sangrado de estilos.
También pocas veces recomiendo subir la fuerza del prompt a más de 1.5 ejemplo: (sweat:1.5) más allá de uno 1.2 puede que comienza romper cosas en la imagen.
Ah y se me olvidaba, nunca use los "Score_9", score_8_up" de pony fuera de modelos Pony, no solo de por sí ya eran confusos de usar en modelos Pony, literalmente no funcionaran en otros modelos que no tengan Pony mezclado en ellos, o incluso darán un resultado peor.
>¿Si control net no funciona funciona mal en ReForge?
50/50 usar los Control Net Lite en el ReForge de Colab es más ligero pero son varios en pequeños archivos, Control Net ProMax es más completo en un solo archivo, tanto Kaggle y Colab ofrecen la misma GPU pero Colab da muy poca RAM los Control Net lite resuelven esto, pero como le comentaba NoobIP Adapter aún con la versión reducida de 600 MB es demasiado para Colab mientras que en Kaggle puede correr incluso la versión de 1GB.
>¿Me pueden banear el culo si meto imágenes generadas ahí mismo pero en otra sesión?
Justamente eso le pasó a un amigo... pero el cometió el error de arrastrar y soltar la imagen encima de la interfaz... no voy a decir que mi método es 100 % a prueba de fallos pero probé usando imágenes NSFW de referencia para el NoobIP adapter varias veces y no me banearon, pero en vez de soltarlas y arrastrarlas encima de la interfaz las seleccione desde la opción de abrir carpeta.
También la imagen de Ayame x Ariane la comencé en Colab, la continué en Kaggle (no esta encriptada desde Colab) y después por un apagón la pase a Colab de nuevo, kek.
Y tampoco me banearon, igual no es por ser paranoico, así que de todas formas recomiendo ser precabido con Kaggle.
>¿Cómo se verificaba eso?
La seed se verifica cerca del símbolo de reciclaje, la seed siempre es importante es como el código de barras que siempre te permitirá volver a una imagen, Txt2Img, Img2Img, Inpainting, el número Seed es esencial en todo.
>Texto negro
les diré cuando lo terminé pero te diré una pista tiene dos mellizas
>¿De artistas distintos?
Si, pero le quedó errores como que el personaje le faltaba la cola kek.
Tienes que encontrar un balance entre estilos variados para que tú LoRA sea más versátil y fidelidad al diseño del personaje, a no ser que tu personaje sea de equis OVA olvidada de los 80s, ahí te vas a tener que valer a punta de capturar pantalla como loco.
Piensa en hacer un LoRA como un deck de Yugioh. solo pon lo esencial del personaje en 40 a 50 imágenes, ni loco pongas 100 imágenes tampoco es que Colab sean tan potente, kek.
>Lamento si son muchas preguntas
Tranquilo, siempre responderé dentro de lo posible.