>>14717
>las cosas menos ortodoxas son las que más me funcionan
Bueno mi negro, si algo aprendido de la IA es que a cada uno le funciona algo diferente, yo trato de dar consejos de lo que me funciona en base a mi experiencia, explicar un par de cosas y enseñar un par de cosas más, pero ya ahí en adelante no puedo controlar el proceso de los demás ni lo que hacen, así que cada prompter encuentra su propio camino de hacer las cosas, yo soy muy de seguir las reglas al dedillo y eso me funciona desde SD 1.5 pero no me voy a enojar con usted por no seguir mis métodos, ni que fuera profesor de Universidad, kek.
>¿Me lo recuerdas...?
En resumen el HiResFix desde la pestaña de Text to Img (Text2Img) es el más arcaico, PERO, si me di cuenta que lo mejoraron bastante en ReForge con las opciones que te mencioné, pero de nuevo, llevaba tanto tiempo usando el HiResFix desde Img2Img que se me había olvidado que hicieron esos cambios en ReForge en primer lugar, en fin, el HiResFix desde Img2Img es mejor y te da más control, yo lo tengo pre-configurado para que me lea el upscaler de Remacri desde Img2Img.
>4x Anime Sharp
También es bueno, yo lo solía usar bastante, en la celda debajo de "descarga VAE" esta la pestaña de descargar Upscaler, el mundo de los upscalers es bastante amplio, yo he usado: YandereNeo XL, Remacri original, 4x foolhardy Remacri, AnimeSharp,4x-NomosUni span multijpg, RealESRGAN_x4Plus Anime 6B, 4x Lollypop, etc, pero me acostumbre a Remacri por velocidad y conveniencia.
Pero el que más me impactó, fue DAT X2, me dijeron que es bueno (y lo es) pero tarda 3 minutos en un HiResFix a x1.5 de resolución, demasiado hasta para mí y eso que me considero paciente.
>¿Eso que era y donde se ve?
Los adetailer es un juego de palabras, significa tanto After Detailer (detalle posterior) y add detailer (añadir detalle) como su nombre indica añadirá detalles a la imagen después de ser generada de forma automática con un modelo pre entrenado en el área que quieras que añada esos detalles.
Es más cómodo usarlos desde Img2Img con mayor control.
>¿Por qué cuanto específicamente?
Depende de lo que quieras y ver cuando el adetailer es más efectivo, como siempre los adetailer que vienen por defecto no son los mejores, yo uso adetailer personalizados entrenados en anime (lo cual es gracioso porque mi upscaler favorito Remacri es para fotos IRL) cada uno viene con un área de detección y resolución entrenada, por no decir que es un Inpainting automático, aquí entra de nuevo la intuición, ¿me beneficia más usar el adetailer con la resolución base, ¿debería hacerlo antes o después del HiResFix?, ¿debería cambiar los samplers, steps y schdedule type durante el proceso de adetailer?, ¿debería cambiar los parámetros del adetailer o los dejo por defecto?, etc.
Le dejo un ejemplo de uso adetailer pechos con Ilulu a 1536x1536 de resolución.
>o porque el proceso de por sí es pesado?
Es así de pesado en las etapas finales del postprocesado que me gusta hacer, pero ya casi no tengo tiempo para eso.
>¿Cuál es la diferencia de euler y euler a y para qué sirven?
Ufff, negro esa pregunta da para una respuesta muy extensa, veré que puedo resumir que se entienda.
Los samplers o métodos de muestreo, son algoritmos que guían el proceso de denoising (eliminación de ruido) en los modelos de difusión de imágenes, o sea, ayudan a transformar el ruido aleatorio en una imagen coherente paso a paso (steps) siguiendo las instrucciones y el modelo latente.
>Euler
Probablemente el más simple y de lo más rápidos pero quizá no el más preciso, producirá imágenes más suaves pero menos detalladas.
>Euler ancestral (Euler a)
Similar pero en cada paso (step), añade y sustrae un poco de ruido aleatorio nuevo para alinearse con el agendador de ruido (schedule type) esto básicamente lo hace más "creativo" que Euler pero también menos determinista.
Los sampler Euler y Euler A son los predilectos para los modelos anime, en mi caso uso "Euler" para modelos NoobAI y Euler A para el resto de modelos anime, si necesita un buen shedule type Beta es el mejor, aunque SMG Uniform también es bueno si quieres líneas más definidas.
Para modelos realistas solía usar Sampler: DPM++ 2M + Karras (Schedule Type).
También te recomendé parámetros para usar Euler/Euler A CFG++ para no repetirme mucho digamos que es Euler pero con un extra, se vuelve bastante loco con los detalles.
>¿Viene por defecto
No, pero ya le explique como descargarlo, es mi upscaler favorito, pero de nuevo si se siente cómodo con 4x-Anime Sharp siga usándolo.
>¿Qué es artifact?
Son defectos visuales no deseados ya sea distorsiones o anomalías de una imagen generada con IA, pueden ser pixeles, lineas mal formadas, ruido, etc, en este caso Reisen tenía una malformación en el cuello que no concordaba con la imagen.
>El único cambio que noto
Necesita entrenar su ojo aún más, hay varios cambios pero son diminutos, básicamente DAT X2 es superior a Remacri como upscaler, PERO, 3 minutos de espera es mucho hasta al menos en las fases iniciales de postprocesado.
>Tampoco puedes pasar de 2 en scale, anotado
No, no, no entendió, como se lo explico, si puedes pasarte de upscale x2 yo lo hago todo el tiempo y llego hasta 2304x2304 (de ahí si que no te puedes pasar sin que crashee), una resolución x2 sería 2048x2048 (pocas veces la uso) pero en el viejo A1111 llegar a resoluciones x2 con XL es imposible, generalmente trato de que la gente aprenda A1111 primero y ReForge después, pero en su caso preferí que aprendiera ReForge directamente, es más completo, actualizado y optimizado.
>¿en kaggle se puede?
Kaggle es más poderoso que Colab en el sentido de que da 30 GB de RAM, aunque la GPU T4 es la misma, bueno, técnicamente te da una T4 X2 (si el doble) pero no sé como activarla.
>¿Ahora también va por regiones?
Si, Regional Prompter es una herramienta muy antigua, pero sigue siendo útil, aunque Forge Couple debería ser mejor, pero, en ese entonces usaba otro notebook de ReForge con extensiones que no funcionaban.
>y pues voy a intentar agregar un tercer lora a la próxima.
Le recuerdo que al igual que puede fusionar estilos de artistas con los tags que reconoce el dataset del modelo y cambiándoles la fuerza, puede hacer lo mismo con los LoRA de estilos, ojo, no siempre el resultado será bueno, o a veces el resultado no será bueno a la primera hasta que lo ajuste.
>un mejor método para que el modelo reconozca las poses
Si, es Control Net no puedo vivir sin esta extensión.
>from behind y looking at viewer
Creo que sería mejor escribir "from behind, looking back".
>¿Por qué pasa esto? ¿Hay alguna forma de eliminarlo en plan limpiando el caché?
Puede depender del modelo y fíjese si no dejó la seed activada de la imagen anterior eso era un error que yo solía cometer cuando era novato y se mezclaban cosas de la imagen anterior con la nueva, puede causar interferencia, de resto si el modelo se pone a alucinar de verdad entonces me voy a "Settings" y "Reload UI" si esto no funciona también puede detener la celda del launcher y relanzarla y le dará un nuevo share link, pero cuidado si se cuelga puede desconectar toda la sesión y no quiere eso.
<aldo
Puede compartir el share link con un amigo y generar juntos, pero le recomiendo hacerlo en Colab no arriesgue nunca Kaggle.
[Expand Post]
>cache
Creo que ReForge ya limpia la cache automáticamente después de cada imagen generada, pero Colab no nos da una terminal para hacerlo manualmente, así que creo que el problema debe ser otro.
>¿Cuál?
Es un secreto, me gusta mantenerme anónimo.
>¿Capturas de pantalla también valen?
Chi, pero (siempre hay un pero) personajes entrenado con capturas de pantalla de anime tienden a ser menos versátiles, por el ejemplo el amigo que le conté entrenó su LoRA apenas con 15 imágenes (eran 16 pero una se le quebró en el proceso), y cada imagen era de un artista distinto, ¿resultado? su LoRA es más versátil para poder generar estilos de artistas distintos, supongo que lo bueno de entrenar con capturas de pantalla de anime es que el personaje va a ser 100 % fiel al diseño original, supongo que el problema de entrenar con fan arts sería tener que coger los resultados más fieles, por ejemplo viendo fan arts de Urumi noté que muchos se olvidaban de ponerle una cola de vaca roja, por lo tanto si ves a Urumi sin cola roja puedes saber automáticamente que el dibujo esta mal y que no conocen al personaje. O viendo las imágenes de IB noté que algunos les añaden sidelocks a su peinado mientras que en el diseño original esta no los tiene (también su peinado es marrón oscuro y no negro), etc.
>LoRA de un personaje de Doujin
En términos generales, puedes entrenar usando solo imágenes en monocromo/escalas de grises y aun así generar imágenes a color; simplemente, suelen resultar un poco más planas o con tonos más apagados de lo que pudieras querer.
También pudieras colorearlas paginas con Control Net line art, pero claro, no sé si sería lo más correcto.
Eso sí, como le estaba explicando al otro, si va a entrenar algo lo más correcto es que sea Illustrious v01 para mayor compatibilidad de modelos posible. No entrene en WAI ni en los otros Illustrious. De resto de los modelos actuales las otras opciones de entrenamiento que quedan serían PonyV6 (así este en deshuso pero sería lo correcto antes que otros modelos Pony), NoobVpred 1.0 y Animagine XL 4.0 Zero (nació muerto esta cosa pese a su robusto dataset), que son los modelos de entrenamiento viable actualmente.
Creo que esas son todas las dudas, voy a tratar de curar mi dataset de imágenes, saqué 213 capturas de pantalla. Mínimo 20 ó 40 me tienen que servir para cada personaje.
Y dejo una versión arreglada de la boca de Ilulu que subí antes, la densidad de pixeles de mi celular pirata es mucho mejor que la pantalla de mi oficina, y pude notar más errores que no había notado antes, kek.