/ais/ - Artificial Intelligence Tools

"In the Future, Entertainment will be Randomly Generated" - some Christian Zucchini

Index Catalog Archive Bottom Refresh
+
-
Name
Options
Subject
Message

Max message length: 12000

files

Max file size: 32.00 MB

Total max file size: 50.00 MB

Max files: 5

Supported file types: GIF, JPG, PNG, WebM, OGG, and more

E-mail
Password

(used to delete files and posts)

Misc

Remember to follow the Rules

The backup domains are located at 8chan.se and 8chan.cc. TOR access can be found here, or you can access the TOR portal from the clearnet at Redchannit 3.0 (Temporarily Dead).

Ghost Screen
Celebrating its fifth anniversary all September


8chan.moe is a hobby project with no affiliation whatsoever to the administration of any other "8chan" site, past or present.

Use this board to discuss anything about the current and future state of AI and Neural Network based tools, and to creatively express yourself with them. For more technical questions, also consider visiting our sister board about Technology

(2.32 MB 1824x1248 00039-5733.png)

(2.18 MB 1728x1344 00005-4133.png)

(2.89 MB 1536x1536 Illlust_00034-0315.png)

(9.02 MB 1536x1536 Illust Final 00032-3449.png)

(6.04 MB 2016x2592 Noob_00065-1046.png)

Hentai Diffusion General #17 Dobles y Triples Anonymous 01/21/2025 (Tue) 22:45:01 No. 7104
Decimoséptimo A este punto no hay mucho que decir, el otro hilo estaba muy congestionado y solo somos tres apenas, que dure lo que tenga que durar. El tema será poner de dos a tres personajes en una sola imagen, sí pueden. Hilo anterior: >>980 Recursos >Etiquetado automático si no te ocurren prompts https://huggingface.co/spaces/SmilingWolf/wd-tagger >Instala Stable Difussion WebUI Local y cualquier otra UI con un Click! (ir a Releases y descargar el archivo .exe) https://github.com/LykosAI/StabilityMatrix https://lykos.ai/ <Alternativa EasyDiffusion https://easydiffusion.github.io >Herramientas de GPU en línea <Sagemaker (4 horas de GPU en línea gratuita) https://studiolab.sagemaker.aws/ <Kaggle (censurado 30 horas de GPU gratuito semanal) https://www.kaggle.com <LightningAI (22 horas gratuitas al mes) https://lightning.ai >huggingface Spaces https://huggingface.co/spaces >COLAB SD FOOOCUS (solo permite usar JuggernautXL por corto tiempo) https://colab.research.google.com/drive/1OG-t4snVisfZoMcmRCPmgJjjtwdJCIIj >Recursos: Modelos, Prompts, LoRas, Hypernetworks y Embeddigs/Textual Inversion https://civitai.com >Guía: Como crear Datasets especialmente cuando tienes pocas imágenes https://spainias.notion.site/Como-hacer-LORAs-con-muy-pocas-imagenes-Consejos-y-Tips-1d65bea1379047ccad243c35eb3980f0 <XL Lora Trainer by Hollowstrawberry https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Lora_Trainer_XL.ipynb <Dataset Maker (taguea las imagenes automáticamente) https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Dataset_Maker.ipynb <Tutorial LoRA para PonyDiffusion (Jewtubo) https://www.youtube.com/watch?v=fF5CDySZw3o[Embed][Embed] <AutoTrain DreamBooth https://colab.research.google.com/github/huggingface/autotrain-advanced/blob/main/colabs/AutoTrain_Dreambooth.ipynb <Kohya LoRA Trainer XL https://github.com/Linaqruf/kohya-trainer/blob/main/kohya-LoRA-trainer-XL.ipynb >Colab: Entrenamiento de LoRa https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Lora_Trainer.ipynb >Colab: Creación de Datasets https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Dataset_Maker.ipynb >Recurso: Modelos ControlNet 1.1 https://github.com/lllyasviel/ControlNet-v1-1-nightly >Prompt Generator https://huggingface.co/spaces/Gustavosta/MagicPrompt-Stable-Diffusion
[Expand Post]>Guía para cambiar estilos con Img2img https://medium.com/@alickwong/transfer-your-image-to-cartoon-style-in-stable-diffusion-d466565ae18a >Boooru AI para Furros https://e6ai.net/ >Booru AI para anime https://aibooru.online >Páginas Web judías dónde generar imágenes: <Ideogram (casi igual o mejor que Dall E 3 tiene ligera censura) https://ideogram.ai Krea.AI (genera imágenes en tiempo real) https://www.krea.ai/ <NovelAI (pago) https://novelai.net <PixAI https://pixai.art <TensorArt https://tensor.art/ <Yodayo https://yodayo.com/ <Nemusona https://waifus.nemusona.com/ <Holara.ai: https://holara.ai/ <Leonardo.AI https://app.leonardo.ai/ <seaart (censurado) https://www.seaart.ai/
(716.75 KB 1024x1024 885208568674969728.png)

>>13739 que raro no se subio la imagen adjunta
>>13740 Kek, he leído casos similares, parece que la censura es bastante dispareja de lo que es permitido y lo que no, parece que varía de usuario a usuario por lo que veo, hasta me llegó un correo de que los loras que había subido eran inseguros pese a ser personajes anime 2D, kek. Parece que es el destino de los servicios de IA en línea ser las perras de las compañías de tarjetas de créditos, kek.
Algunas pruebas más de NovelAI 4.5 Curated (solo la primera) y NoveAI 4.5 Full (el resto) me gustó que pudiera reconocer a Izutsumi a diferencia de Illustrious y Noob que no la reconocen, aunque en parte es culpa que son pocos la cantidad de fan arts que tiene donde ella esta sola, lo me recuerda que NAI ahora usa su propio dataset privado, quería hacer unas pics de ella en Illustrious con Falin y Marcille pero me daba flojera tener que lidiar con el bendito Regional Prompter + LoRA, que por cierto aquellas pics de Izutsumi playboy nunca las termine, kek. También noté que se le da ligeramente mejor el estilo de Tite Kubo que los modelos open source o al menos a NAI v4.5 no le dio una embolía en ningún momento, también noté que el tag de "kubo_tite_(style)" me dio mejores resultados que el propio tag de "kubo_tite" pero supongo que su estilo cambio mucho con los años e incluso a NAI le cuesta entender que emular en este caso.
(491.10 KB 768x1152 885276665381447546.png)

>>13741 creo que al paso que vamos tendremos que darle la razon a los cripto bros y usar Monero o alguna otra cripto con anonimato para hacer transacciones porque las compañias de tarjetas de creditos han venido jodiendo bastante con eso. Tambien recibi un correo, me quitaron dos loras, pero uno me lo han devuelto y el otro aun esta bloqueado pese a que ambos estan basados en arte 2d de monas chinas. En cuanto a restricciones de generacion, nada, siguien sin bloquearme prompts.
Encontré una forma para probar Flux Kontext en línea, lo malo es que esta bien censurado, me dijeron que lo pusiera a Safety Tolerance a 6 pero nada y eso que no use desnudos, así que preferí probarlo con portadas de manga. No es perfecto y le encontré varios contras aparte de la censura en línea, primero que nada reduce la imagen original a una resolución tipo SDXL en este caso tipo 832x1248 aunque al menos lo mantiene en PNG (si seleccionan la opción), segundo literalmente corta la imagen, tercero solo te dan 200 tokens por correo electronico. Si bien hago un poco de cherrypicking, les digo pic 1 salió bien a la primera pero la portada del tomo dos me tomó seis intentos ya que Flux trataba añadir o quitar los helicópteros del fondo y tuve que ser más especifico. Recomiendo quitar la opción de generar cuatro a la vez (aunque en mi caso sirvió al final). Creo que para los que quieran limpiar imagenes para crear un LoRA les vendría bien. La única alternativa sería tener una PC lo suficientemente potente para correr la versión DEV en local. <Flux Kontext Playground: https://playground.bfl.ai/image/generate
>>13745 si lo conocia pero habia gastado mis creditos antes de poder probarlo bien y por eso no lo comente por aca.
Y todo tiene algo malo, simplemente a veces no sabes qué es y NovelAI si bien dice que puede manejar hasta seis personajes, la verdad que manejando tres es horrible iba a ser más pruebas con otros personajes (y mayor cantidad) de personajes pero después de hoy me desanimó, aunque NovelAI 4.5 Full en Tx2Img, reconoimiento personaje,adeherencia al prompt, manejo de dos personajes, Inpaint y estilos esta bastante bien y diría que sigue siendo superior a lo que los modelos open source ofrecen, supongo que estas fueron las menos deformes aunque casi obtuve lo que quería en tres ocasiones de más 100 intentos, al menos esta experiencia me hizo valorar herramientas de SD como Control Net y Regional Prompter aunque están lejos de ser perfectos. >>13743 >darle la razón a los cryptobros. A lo mejor sueno un poco squizo, pero a este punto se siente que están empujando a la gente a las criptomonedas, soy neutral con estas viendo el desastre de Tensor (aunque entiendo el temor a los deepfake en la IA) que pasaron las 72 horas y no arreglaron un coño o lo que esta pasando con Steam me hace pensar solo quieren causar una frustración general en el consumidor restringiendo la venta de productos +18 y como siempre solo queda jodernos.
(57.37 KB 524x773 UK-CivitAI-BAN.png)

Y más censura en CivitAI. Ahora van a bloquear las IP del Reino Unido, si bien no nos afecta, siempre esta el dicho de "cuando veas a las barbas de tu vecino arder" y es que el Internet se ha esta volviendo una mierda restringida.
>>13763 Reino Unido viendo bloqueando contenido nswf de todo tipo desde hace rato, esto viene a ser mas culpa de los politicos de ese pais que la pagina en si.
>>13764 Es cierto, pero quizás debí haber aclarado que no es UK bloqueando acceso, sino que los de CivitAI tomaron la decisión banear esas IP para cuidarse las espaldas ya que no pueden enfrentar las represalias ya de por sí les cuesta mantenerse en pie, aunque visto de otro modo, pareciera que los países Europeos están alentando a la gente a usar VPN, kek.
(1.38 MB 1248x1920 00010-0641.png)

(3.46 MB 2016x2592 00031-5917.png)

(3.64 MB 1728x3024 Inpaint_00018-1328.png)

(3.73 MB 2016x2592 Inpaint_00034-5422 v2.png)

(3.04 MB 1872x2736 Inpaint_00001-1343 v2.png)

Otra actualización semanal de SD, preferí llevarlas todas a ReForge el cual por cierto su DEV parece que ya esta dando señales de vida, también debo decir que si bien el adetailer es más automático, a veces simplemente es mejor hacer Inpaint directo al área, que si bien es un modelo muy AI Slob todas las versiones "B" de NovaFurryXL me dan muy buenos resultados para el Inpainting aunque en Txt2Img deja que desear, ya si me acuerdo supongo que trataré de refinar las imágenes de NovelAI que tengo, aunque el texto será un problema considerando el VAE de SDXL.
(2.97 MB 1728x3024 Vpred 1.0_00005-4300.png)

(3.13 MB 1728x3024 Vpred1.0_00015-2330.png)

(3.95 MB 1728x3024 00007-5931.png)


(4.35 MB 2016x2592 Inpaint_00020-3102.png v3 F.png)

Por poco se me olvida actualizar semanalmente, pero he estado ocupado, estas son algunas de las que logré terminar, hace tiempo que no hacía tres personajes en SD después de mi decepción con el manejo de tres personajes en NovelAI, sigue requiriendo Inpaint y alguna que otra ayuda de edición externa pero al menos no me costó tanto obtener la base de este trío como quería.
(1010.46 KB 1024x768 00179-2912.png)

(939.71 KB 1024x768 00181-2913.png)

(1.14 MB 1024x768 00186-3225.png)

>>13774 Se agradece tu continua actividad pese a lo abandonado que esta este tablon lol En mi experiencia los resultados de generar mas de un personaje y que estos conserven sus caracteristicas individuales y no se mezclen dependera de cuan bien reconozca el modelo a esos personajes, aqui por ejemplo estas imagenes que genere ayer, Marisa y Reimu se distinguen bien la una de la otra, la tercera imagen por otro lado se suponia debian de ser dos personajes de Sailor Moon pero no ha quedado, de todos modos guarde el resultado porque me ha parecido interesante.
>>14594 ¡Y muchas gracias a usted por seguir aquí! Supongo que la pasión por aprender a usar la IA murió con Colab en aquel entonces y veo que todos en todos lados se acostumbraron a los servicios de IA por tokens (dónde uno no aprende mucho) y aprender SD por Colab mediante notebooks se volvió algo muy de nicho, trate de promocionar el tablón un par de veces, pero veo que no funcionó. >dependera de cuan bien reconozca el modelo a esos personajes, En parte tienes razón, porque el modelo tiene que ser lo suficientemente inteligente o tener suficiente conocimiento para reconocer distinguir y diferenciar diferentes personajes, pero un modelo no puede reconocerlo todo, muchos datasets de modelos open source están capados hasta Octubre de 2024 (excepto el nuevo Animagine que llega a enero de este año) y si bien no necesité Regional Prompter para esta pic de Makima x Miku x Canela (aunque algunos ejemplos de al inicio del hilo), esta extensión sigue siendo la mejor para obtener múltiples personajes sobre todo sí hay un LoRa (o más), que curiosamente Regional Prompter funciona mejor solo en interfaces basadas en A1111 que en ComfyUI, aunque claro más personajes, más detalles igual más necesidad de arreglos o inpaint lo cual lleva a más tiempo o proceso, lo cual sigue siendo necesario.
(433.05 KB 512x640 00109-5409.png)

>>14596 a ti tambien el collab te esta dando problemas de out of memory?, hoy a cada rato me esta marcando ese error y tengo que reiniciar el entorno. No se si tenga algo que ver con el cambio visual que le metieron, ahora aparece al pestana de extras al inicio en lugar de txt to img y francamente es molesto, a veces por costumbre le pico y pego texto donde no es kek medio que puedo generar imagenes con baja resolucion pero en cuanto le subo arriba de 1000 px se queda sin memoria y se desconecta.
>>14599 >Colab out of memory No en lo absoluto y lo sigo usando a diario, es raro lo que me cuenta, pero claro depende de qué notebook estemos hablando además de que uso la GPU de Kaggle. Yo hace poco estaba testeando un nuevo notebook (de hecho tiene más de un año pero me di cuenta hace poco kek) con ReForge y funciona todo, no conozco al creador pero esta firmado como WhiteZ y la interfaz luce como pic related 2 y 3. En mi caso hay que que ponerle los argumentos: "--theme dark" (sin comillas) para activar la interfaz oscura. Aunque note que si activas Control Net ProMax es un crash instantáneo es mejor evitarlo descargar los Controlnet Lite son varios pero para esta sesión solamente use uno. En cuanto a rendimiento es bueno, lo primero que hice fue llevar una imagen a 1728x3024 así que las resoluciones no son un problema. Eso sí se tarda un poquito más en generar a esta resolución tan alta que otro notebook con ReForge que tengo, pero imagino que tiene que ver con los argumentos del notebook. Estaba así de cerca de mudarme definitivamente a SwarmUI si no fuera por su falta de adetailer sería perfecto para mí, a veces admito que usar Colab se siente como pic related 1 pero me reconforta cuando logro hacer que algo funcione como hoy, eso sí no te recomiendo cambiar el resto de argumentos por el momento, salvo que quieras activar el tema oscuro, pero en fin disfrútalo: <Colab de WhiteZ_ReForge en español: https://colab.research.google.com/drive/1D6IugnTKaiPVHyr9-NerZWHJHojlqlUv?usp=sharing&authuser=1#scrollTo=nY422RKvb_xf
(854.62 KB 1152x768 00011-0622.png)

(1017.07 KB 1152x768 00001-0013.png)

(844.21 KB 1152x768 00021-1325.png)

(759.87 KB 1024x768 00202-3731.png)

>>14601 yo siempre uso este que creo que tu dejaste en el hilo anterior a este y no es hasta ahora que me dio esos problemas. https://colab.research.google.com/github/gutris1/segsmaker/blob/main/notebook/Segsmaker_COLAB.ipynb#scrollTo=1rU4mCbvPpzs Dejo un par de Lains que genere hoy y una Ougi con un Lora que entrene hace unos dias. Todas tienen algun desperfecto pero el estilo quedo bastante bien
>>14602 Se me olvidó preguntarte que UI especifica estábamos hablando, pero supongo que estamos hablando de ReForge, aunque cuando te respondí ayer se me olvidó decirte que el día anterior estaba enseñándole a un amigo a usar Colab con ese Notebook de Segsmaker, siempre les enseño primero a todos a usar A1111 debido a que es la interfaz padre de los Forks basados en esta UI y ahora mismo es como el Windows 7 de las interfaces de IA, esta obsoleto pero todavía corre algunas cosas, además la mayoría de extensiones funcionan en A1111 (ya volveré a tocar este tema) y bueno no había notado ningún cambio tampoco. Revisando el Github de Panchovix de ReForge parece que al fin hizo una actualización y ahora luce diferente, creo que debería ser reForge2 ahora. Chequeando los logs de actualización el notebook de Segsmaker ya debería estar arreglado, ReForge main-old debería ser el ReForge principal (al que estamos acostumbrados) y también cambiaron los argumentos de Forge Classic ahora no debería quebrarse al usar tres LoRA's al mismo tiempo (suelo usar Forge Classic para Inpaint). Aunque yo use el ReForge del notebook de WhiteZ ayer y no noté ningún cambio en la interfaz. Y a diferencia del notebook de Segsmaker (que te pase primero) todas las extensiones de la UI de ReForge funcionan, Mahiro, Kohya HiResFix, Regional Prompter, Forge Couple el ya mencionado Control Net, etc. Así que ya no me dan ganas de usar ese notebook de Segsmaker al menos no en Colab, excepto quizás por SwarmUI ya que como punto positivo, tiene la función de poder montarse en la memoria persistente de Google Drive así que al menos tiene esa ventaja además de las versiones del notebook de Sagemaker y la versión encriptada de Kaggle, así que sigue siendo útil.
(1.24 MB 768x1152 00125-3147.png)

(1.20 MB 1152x768 00095-0543.png)

(1.36 MB 1152x768 00014-4302.png)

>>14603 Pues el problema se resolvio solo fue algo de una sesion parece, ni idea del porque, hubiera sacado captura de la UI pero no se me ocurrio hacerlo ni modo >tiene la función de poder montarse en la memoria persistente de Google Drive tengo rato de no hacer eso, sobretodo porque tengo algo lleno mi drive ya jaja Dejo un par de una mona que si alguna vez viste animax tal vez se te haga familiar.
>>14610 Como le explico, básicamente el notebook esta conectado al repositorio de ReForge, en ese plazo de tiempo que lo uso hubo una actualización de parte del DEV de la UI que estaba usando (que ahora es la rama principal) ahora esta resuelto ya que ReForge esta separado en una rama diferente (ya van 4 Forge kek) y ahora el notebook esta configurado para instalar todo lo que proviene de esa rama separada, yo tengo acceso a los logs del notebook y eso fue lo que pasó, pero, le recomiendo mucho más el notebook de WhiteZ, si quiere una experiencia con ReForge plena, ya me cercioré que todo funciona, un día de estos de estos subo ejemplos, solo me arrepiento de no haber conocido ese notebook antes. Me alegra que ReForge haya vuelto pero no volvió como quería, kek. >Animax No, si bien viví cosas como el cambio de Fox Kids a Jetix pero no viví Animax. Pero gracias a Yandex descubrí que es de Vandread. Como hoy fue un día ocupado, dejo algunas de mis imágenes de NoveAI siempre digo que las voy a pasar por SD pero siempre se me olvida kek, y veo que las yeguas están de moda de nuevo.
(43.69 KB 554x554 images.jpeg)

Negros... ¿Podrían ayudar a un nuevín a iniciarse en todo esto de las IAs de monas chinas. Estoy en el cero absoluto, o bueno, digamos que en el 5 de 100 por saber mínimamente usar chatgpt. Esto también lo hago para en caso haya alguien más que sea nuevo poder citarles estos posts y que aprenda desde el principio. O bueno, no sé si ya hayan hecho alguno donde pueda ayudarme. En este momento no cuento con laptop pero sí con Tablet. ¿Qué necesito saber primero? ¿Con qué modelo empiezo? ¿Qué galerías puedo usar para entrenar modelos y esas cosas,? Les estaré agradecido y publicaré el proceso de transición de 0 a IAnon aquí.
(2.42 MB 2048x2048 Inpaint_00014-0423.png)

>>14626 Hola y bienvenido a lo que queda de los hilos de Hentai Diffusion, trataré de responder a sus preguntas y dudas, de ante mano le advierto que hay mucho texto. >¿Qué necesito saber primero? Tratamos de aprender y disfrutar de Stable Diffusion (SD) y sus variantes, compartimos nuestras imágenes, hallazgos y/o recursos, tips o trucos también, gracias al regreso de SD a Google Colab hoy día es más fácil que nunca usarlo en GPU en línea que ya básicamente se ha vuelto algo de nicho, pero al menos nos da la seguridad de que no vuelva a haber un segundo baneo a Colab, debe durar como 4 horas gratuitas y se recarga a diario, pero lo importante es que es lo real, no tiene censura y le permitirá familiarizarse con el entorno. De resto diría que se trata de tener intuición, paciencia y cierto nivel de entendimiento con el modelo/interfaz que estés usando. Pero recuerde, lo más importante es divertirse. >¿Con qué modelo empiezo? Estamos usando modelos (se les llama checkpoints) Open Source basados SD (aunque gracias a un amigo puedo usar NovelAI que es privativo) pero SD siempre permite más control, hoy día la comunidad anime de IA gira entorno a SDXL 1.0 con IllustriousXL y NoobAI-XL como sus ramificaciones más prominentes hubo un tiempo dónde Animagine y Pony reinaban en los modelos anime pero eso quedó en el pasado por no decir que SD 1.5 también esta súper obsoleto pero junto con SDXL permanecen como los únicas arquitecturas realmente open source de la IA generativa de imágenes actualmente, mis dos modelos favoritos son Noob Vpred 1.0 e Illustrious V2 aunque no los recomiendo para novatos, pero estoy seguro que puede encontrar un modelo basado en Noob/Illustrious más fácil de usar. Aunque a veces uso Animagine 4.0 Zero debido a su dataset más actualizado y uno que otro modelo fusión de vez en cuando. Tenga en mente que no todo es compatible entre sí, incluso dentro de la misma arquitectura, ya sea de SDXL a Pony, de Pony a Illustrious o incluso de Illustrious a Noob es una ruleta rusa a veces. Ya ni hablar de que SD 1.5 y SDXL son totalmente incompatibles entre sí, descargue los modelos con compatibilidad correcta y se evitará una mala pasada. >¿Qué galerías puedo usar para entrenar modelos y esas cosas,? Para los modelos a gran escala estos usan Danbooru y E621 (furry y western) como datasets para entrenar modelos pero aquí nadie tiene el nivel de computación para eso, kek, aparte de esos dos, el usuario promedio que entrena LoRA estos usan Gelbooru o Pixiv, por su facilidad de uso ya que Danbooru limita los tags que puedes buscar a dos (al menos E621 no hace esto), también podrías usar Kemono para encontrar pics que normalmente no encontrarías en otro lado de equis artista/creador de contenido, aunque imagino que algunos resuben material de ahí a Rule 34 aunque el sitio es mierda. También esta Sankaku pero he visto que muchos odian ese sitio. Siempre hay fuentes alternativas para encontrar imágenes de un personaje y/o estilo. Aunque por ejemplo si un personaje tiene suficientes apariciones en un anime o serie puedes tomar capturas de pantalla de este y entrenar un LoRA en base a este personaje, pero, he notado que modelos de LoRA entrenados solo con capturas de pantalla de anime tienden a ser más rígidos y menos versátiles que LoRa de personajes entrenados con más variedad de estilos en su dataset, así que estas sacrificando variedad por fidelidad al personaje. Hablando de capturas de animación también esta sakugabooru pero tiene un muy pobre sistema de etiquetado (tags) para encontrar algo especifico. También puede aportar a Danbooru artistas que le gusten y muy a larga quizá con esperanza estos terminen en un dataset de un modelo mayor, pero se beneficia mucho en aprender a etiquetar imágenes en Danbooru e investigando tags para usar en SD. De resto si ha llegado leyendo hasta aquí, le dejo los dos notebook que uso actualmente. Por lo general recomiendo más aprender primero a usar A1111 antes que las otras UI (interfaz de usuario) aunque en lo personal la que más recomiendo es ReForge del notebook de WhiteZ, ReForge no solo esta más actualizado que A1111 y le permitirá usar más modelos como las variantes Vpred de SDXL con las que A1111 no es compatible además de que el ReForge de este notebook sí funciona al 100 %. Nada más necesita conseguir un token de CivitAI que simplemente le ayudará a descargar modelos directo a Colab y es gratuito, guarde el código API en un archivo de texto. Cualquier duda o pregunta sigo activo. <NoteBook Múltiple cinco UI a instalar (En Inglés) https://colab.research.google.com/github/gutris1/segsmaker/blob/main/notebook/Segsmaker_COLAB.ipynb <Notebook de WhiteZ ReForgeUI uno solo (En Español) https://colab.research.google.com/drive/1D6IugnTKaiPVHyr9-NerZWHJHojlqlUv?usp=sharing&authuser=1#scrollTo=4pPmJGsR_wPL
(251.29 KB 800x1280 Screenshot_20250820-121929.jpg)

>>14627 Mis kekes, a ver, ya que dices que esto está muerto y necesita de actividad voy preguntando paso a paso para no perderme porque hay muchísimas cosas que no entiendo. Primero, ¿Reforge es mejor para Tablet o funciona en todas las tostadoras? Y apenas entro a la interfaz y ya estoy perdidísimo... ¿Qué cosas debo activar y cuáles no? Por ejemplo en las primeras 4 casillas que están en la screenshots... Solo puse lo de la interfaz más amigable en celular pero luego no he tocado nada.
(99.73 KB 1238x884 ReForgeUI.png)

(219.23 KB 387x771 CivitAI.png)

(78.65 KB 788x680 Codigo Api CivitAI.png)

(81.34 KB 1214x612 Argumentos.png)

(94.41 KB 899x590 3 enlaces.png)

>>14628 Si negrito, antes eramos muchos ahora apenas somos dos activos, aunque al menos ahora estamos un tablón más visible y fácil de conseguir que antes, aunque se me olvidó revisar ayer. >¿Reforge es mejor para Tablet o funciona en todas las tostadoras? No exactamente, verás el notebook de WhiteZ esta configurado con unas celdas opcional para celulares y usarlo más fácil en este, la interfaz de ReForge (pic related 1) imagino que debe re-escalarse bien en Tablet, el caso es que los modelos IA requieren una GPU NVIDIA con mayor VRAM posible para correrlos. PERO, para eso tenemos Google Colab si bien su uso diario esta limitado a cuatro horas, le permitirá correr todo en línea, gratis sin gastar recursos locales, sin censura y encima el servicio de GPU NVIDIA T4 esta especializado en IA y es perfecto para correr tanto checkpoints de SD 1.5 y SDXL, aunque también ReForge esta caracterizado por ser más ligero u optimizado que A1111. Además ya viene pre configurado con lo más básico, yo siempre gasto 10 minutos en configurar A1111 como me gusta. Para PC de muy bajos recursos solo se recomienda ComfyUI y no creo que quieras usarlo en tablet nunca. Todo en A1111 y ReForge es más intuitivo. Primero que nada ve a CivitAI hazte una cuenta, es gratis. Luego como muestro en pic 2 y 3 vas a la rueda dentada del perfil de usuario y al fondo podrás conseguir el código API guárdalo en un archivo de texto, solo necesitaras uno solo >¿Qué cosas debo activar y cuáles no? La primera celda que dice <"Colab Activo en el celular" Es totalmente opcional al menos en mi caso que uso PC. Después sigue la celda: >"Instalar Reforge y alguna extensiones" Obviamente es necesaria. Hay una celda que dice para tener una interfaz más cómoda en el celular es 100 % opcional. <Descarga VAE Opcional pero si puedes descarga el SDXL VAE fix <Descarga upscaler Opcional pero los tres que trae son buenos, usa Anime_Sharp para imágenes tipo anime. <Descargar Cotrolnet union ProMax NO descargar y no funciona realmente. <Controlnet Lite 100 % opcionales y funcionan >Descargar modelos El notebook trae 13 modelos a descargar por defecto puedes seleccionar uno de ellos. Te recomiendo usar un solo modelo por sesión. >Descargar modelos personalizados Celda opcional pero prefiero descargar los modelos que me gustan aquí el token de CivitAI va ahí debajo de la celda de la URL. <Descargar Loras Drive, Civitai o Hugginface Opcional pero una sesión de SD sin loras es como pizza sin queso, te recomiendo decidir que loras usar antes de iniciar para que no estés descargando a lo loco en plena sesión. >Inicia la webui El propio nombre te dice que hace, Pic 4 muestra los argumentos por defecto del notebook notarás que le hice una pequeña edición y agregué "--dark theme" (sin comillas) para activar el tema oscuro, después de que todo se haya instalado correctamente te deberán aparecer un par de enlaces para entrar a la interfaz WebUI de SD como pic 5 generalmente el mejor enlace es el de Gradio también hay una alternativa para iniciar con el tunel de Zrok pero es 100 % opcional. Ya después te pones a generar en SD y vas guardando las imágenes que generas ten en mente que este notebook tiene una celda para conectar las imágenes directamente a Google Drive y para descargarlas todas en un ZIP (opcional) pero una vez terminada la sesión tendrás que hacer la instalación de nuevo, pero no tarda mucho. Eso sí hay notebooks que te permiten montar todo SD en Google Drive como memoria persistente y así no tener que hacer toda la instalación desde cero pero yo ya estoy acostumbrado a hacerlo así. Sé que es mucha información pero es fácil e intuitivo y ya he enseñado a varios a usar Colab así. >Solo puse lo de la interfaz más amigable en celular pero luego no he tocado nada. Tenías que instalar la UI de ReForge primero luego la interfaz para celular.
(188.09 KB 832x1216 70453093.jpeg)

Bueno negros he regresado, hablo en plural porque veo que tenemos un nuevo anon por aqui en horabuena ya no somos dos nada mas kek Es de mi amarga desagrado informar que hace unos pocos dias, tuvo un problema muy grave con un malware que se instalo en mi computadora, robo todas mis credenciales y encima de eso corrompio mi windows dejando con una pantalla azul, he tenido que formatear y perdi muchas cosas incluyendo algunas imagenes que genere con este mismo lora >>14610 y otras de Vandread y algunos archivos safetensors sin respaldo aparte del todo el cagadero que ha sido ir cambiando contraseñas y monitoreando la actividad de mis cuentas cruzando dedos. Quien sabe, tal vez el hijo de puta este lurkeando por aqui. >>14626 Hola negro, muy sospechoso ver a alguien nuevo justo cuando alguien me hackeo eh?, no me hagas caso ando muy esquizo y paranoico de todo desde entonces. >>14627 extendiendo a lo que dijo este negro, recomiendo modelos basados en Illustrious en mi experiencia los que mejor calidad y estabilidad poseen, Pony XL puro o y variantes en cambio son un quebradero de cabeza por algo llamado scores que determinan la calidad de la imagen pero son complicados de usar si estas empezando incluso para mi que use ese modelo por meses . >>14628 kek valiente en usar collab en movil, yo tenia uno con poca ram y a cada rato me recargaba la pagina perdiendo lo que tenia escrito , aunque si tienes algo mejor no deberias tener problemas.
(3.29 MB 2304x2304 Inpaint_00008-478231244.png)

>>14633 Hola, lamento que haya tenido que pasar por eso, a mi me surgieron unos cuantos problemas muy personales que prefiero no mencionar acá. Así que he tenido menos tiempo y menos ganas para generar pero al menos puedo seguir dando un poco de consejo y/o orientación, yo a la mayoría les enseño a usar lo básico del notebook una o dos veces y después dejo que encuentren su propio camino. Si bien prefiero modelos base o "vainilla" (Animagine, Noob e Illustrious) ya que aparte que no tengo tiempo ni las ganas de probar muchos modelos ya que lo que conozco me dan los resultados que quiero, hoy día sé que lo más recomendable es darle un modelo más básico a un novato. HassakuXL no me pareció nada mal y su versión 3.0 salió hace relativamente poco el 21 de julio. Creo que un problema de los elitistas es que quieren tirarle un modelo como Noob Vpred con ComfyUI sin lora a un novato esto sería el equivalente a tirarle Arch Linux a alguien que quiere iniciarse en Linux kek. U obligarles a usar Hugginface en lugar de CivitAI (tengo que admitir CivitAI es bastante mierda pero es lo más fácil) . También probé Prefectious XL NSFW pero ya tiene 8 meses de haber salido, igual no me pareció tan malo, quizás debí haber recomendado uno de esos aunque no son lo que yo usaría a diario. Lurkeando conseguí un par de repositorios extra ya que CivitAI es muy pro censura, conseguí un sitio que resguarda todo lo borrado de CivitAI es como un baúl de los recuerdos: >CivitaiArchive / CivArchive (archivo de modelos borrados) https://civitaiarchive.com/ >CivitasBay Modelos IA por Torrent https://civitasbay.org/ >DataDrones (también por Torrent pero parece más orientado a LoRA) https://datadrones.com/ Y eso es todo por el momento.
(142.70 KB 1216x832 Origenes.jpeg)

(143.96 KB 1216x832 Al infierno se va.jpeg)

(243.12 KB 1216x832 Tercera, grata sorpresa.jpeg)

>>14629 >Controlnet Lite ¿Y esos que hacen o qué? Me puse el lineart anime Denoise solo porque sonaba bonito y decía anime, pero ni idea de para qué son... >Modelos ¿S-Sugerencias? ¿Qué hacen los trece? Me puse el Nova anime XL solo porque es el que más me llamó la atención... ¿Qué significa el XL por cierto, veo que muchos lo tienen en el nombre... >modelos personalizados Y eso como lo hago, veo que tengo que poner un URL pero no sé de dónde lo saco o dónde ponerlo ni como usarlo para empezar, ¿Qué es un token de Civitai? Dice quede ser uno azul o algo... >Potros y Conducir o Xenomorpho Lo mismo de arriba, ¿Cómo hago eso? >aldo Ya tengo cuenta en Civitai, como un anon perdido me puse a generar, tomé el primer modelo (Pony Diffusion XL) que me gustó, el primer Lora que me interesó (Penis Worship) y le di a generar... Como me esperaba, una verga en el primer intento kek... Desde ya "Cartoon, Western y Cómic" se van a la basura y jamàs saldràn del infierno de promts negativos, aún con todo salió mejor el segundo. El tercero me tomó por sorpresa, hizo algo que me gustó màs rápido de lo que esperaba... No he generado mucho màs con esa interfaz... >aldo 2 ¿Hay alguna manera correcta o general de escribir promts? Por lo general hago como los tags y pongo una o máximo tres palabras juntas, pero no sé si pueda escribir párrafos como con GPT. Sé que entre más te explayes y especifiques es mejor pero sé poco de tecnicismos artísticos como para hacerlo tan bien kuek >aldo 3 ,¿Qué es un pony y en qué se diferencian los nombres de los modelos? Los únicos ponys que conozco son la burras de colores. >>14633 Hola, soy el nuevo. >Malware Ya me entró miedo, ¿Cómo o quién te la metió tan doblada, negrín? >Paranoico No sé ni usar una simple IA y voy a estar sabiendo hackear, me tienes mucha estima, anon >Illustrious ¿Qué es eso? Recuerda, de 0 a héroe... >Valiente Es que es una tablet de esas que se defiende en ese apartado, solía generar con mi celular pero dudo que sea lo mismo, aparte que me quiero quitar las cadenas del SFW de una vez. También la conseguí por descuento en temu así que no sé qué tanto sea de potente. Aún no tengo mi laptop.
(87.17 KB 1036x818 CN Opciones.jpg)

(32.89 KB 1152x896 Depth Anything V2.jpg)

(837.26 KB 1152x896 00006-1058.png)

(859.76 KB 1152x896 Canny Invert.png)

(1.75 MB 1728x1344 00015-2110.png)

>>14636 Hola y bienvenido de nuevo, quise responder más temprano pero tuve tres apagones, me alegra que haya logrado instalar el notebook de Colab siguiendo mis indicaciones trataré de responder sus dudas lo mejor posible ya que veo que quiere aprender. >Controlnet Lite / ¿Y esos que hacen o qué? Vamos por partes, los Control Net o CN para abreviar son como su nombre indica, herramientas que le permiten tener más control al momento de generar sobre las poses y/o composición de su imagen. No se van a activar por si solos kek. Hay muchos para muestra un ejemplo viejo, pero sirve, en el fondo hay una opción que te permite abrir control net, ponlo en "enable" subes la imagen y si lo tienes configurado como Pic Related 1 entonces CN "leerá" y le ayudará al modelo a seguir la pose (o la composición dependiendo del CN) de esa imagen que subas, por ejemplo yo quería una imagen de Izutsumi lamentablemente me di cuenta tarde que el modelo no la reconocía sola y me dió pic related 2 (un error), pero, no quería perder la idea de esta imagen así que la pase de vuelta por CN con Depth Anything v2 entrenado en anime + LoRa de personaje y después de un poco de paciencia, más control net, refinamiento e inpainting logré obtener la imagen que quería de Izutsumi. Ahora bien te preguntaras porque uso CN ProMax en pic related y te recomiendo CN Lite, bueno simple, el notebook viejo que usaba estaba más optimizado para usar CN ProMax que son muchas herramientas de CN en un solo archivo (más cómodo) mientras que el notebook que te recomendé tiene varios CN en diferentes archivos, pero Colab da suficiente espacio para usarlos. Obviamente "lite" significa que son más ligeros u optimizados pero al costo de que vengan en varios archivos separados, el punto es que los probé y funcionan igual de bien. >S-Sugerencias? Esto lo estaba discutiendo con el otro negro, quizás debí haberle recomendado un modelo como Hassaku XL cuya versión 3.0 salió hace relativamente poco y esta bastante orientado al anime. >Hassaku XL (Illustrious) 3.0 https://civitai.com/models/140272?modelVersionId=2010753 >¿Qué hacen los trece? Cada modelo puede estar especializado en algo distinto ya sea que haya modelos especializados en 3DCGI, en Fotorealismo, en anime, en contenido western, cartoon, furry, etc. Cada modelo puede tener sus pros y sus contras, pueden tener mejor o peor conocimiento, pueden tener mejor o peor adeherencia al prompt, mejor o peor entrenamiento, es cuestión de probar y conseguir uno que se adecue a sus necesidades. Veo que la selección de modelos del notebook es semi decente y todo pueden usarse en ReForge. > ¿Qué significa el XL por cierto Como su nombre indica XL viene de EXTRA LARGE o sea extra grande. Y es que cuando salió XL este pesaba 13 GB pero afortunadamente lograron reducirlo a 6 GB además de ser mucho más grande en todos los sentidos que SD 1.5 (estos modelos apenas solían pesar 2GB) algo en lo que estaba 100 % correcto el antiguo OP de estos hilos es que todos nos mudariamos a SDXL y efectivamente XL es el meta actual de los modelos de IA generativa de anime. El cual si bien es una arquitectura que ya tiene sus años todavía se le puede sacar jugo a XL. >Y eso como lo hago, (?) Es sencillo va a CivitAI copia y pega el enlace ya sea de la URL del navegador o de la flechita azul al lado del pulgar de calificación del modelo y este descargará el modelo el modelo directo a su carpeta correcta de SD en Google Colab. >Qué es un token de Civitai? El código API o Token de CivitAI le permitirá descargar los modelos que tienen una restricción de edad o que necesitan cuenta de CivitAI para su uso, de nuevo nada más copia y pega el código API/Token de CivitAI en su respectiva celda y el notebook hará el resto. Si se fija en el código del notebook notará que tiene enlaces de Hugginface que no necesita token (a no ser que tenga un repositorio privado) ya que no tiene restricciones. Pero como le comentaba al otro negro, CivitAI aún con todos su problemas es más fácil de navegar y encontrar recursos que en Hugginface. >Nova Anime XL Si revisa el código del notebook notará que la versión que descarga es la v8 mientras que el desarrollo actual del modelo ya va por la v10, ojo, no siempre en la IA más nuevo ≠ a mejor pero igual es algo a tener en cuenta y no solamente este limitado a lo que trae el notebook por defecto y pueda experimentar más a gusto. >Potros y Conducir o Xenomorpo Vas a tener que reformular bien esa pregunta, no entendí nada, kek. >PonyXL Justamente lo que dije que ya no se usa, y sobre todo no se lo recomiendo si quiere evitar el contenido western, ojo, no soy detractor de Pony ni del contenido western, pero esta cayendo en deshuso y en el olvido. De nuevo, hoy día todo gira en torno a Illustrious y Noob. >¿Hay alguna manera correcta o general de escribir promts? Si, tags de Danbooru son algo más preciso y conciso que el lenguaje natural. Limítese a lenguaje natural en modelos anime dentro de lo mínimo posible y piense en tags de Danbooru cuando vea una imagen. Un ejemplo correcto de cómo componer tu prompt en un modelo anime sería así: "1girl, black hair, black jacket, black pantyhose, black skirt, blazer, blurry, blurry background, breasts, bright pupils, crossed legs, feet out of frame, halo, hand on own thigh, holding, holding pen, indoors, jacket, large breasts, long hair, looking at viewer, miniskirt, monitor, on chair, pantyhose, pen, red eyes, sitting, skirt, solo, straight hair, sweater, very long hair, white pupils, white sweater," Así describes lo que tiene el personaje, sus características, proporciones, su ambiente, su vestimenta, fondo, pose, que tanto se verá del personaje y qué no (los pies fuera del marco) etc, ya después tú decides que más va en los prompts positivos y negativos, si añadir más o menos, aparte de los típicos prompts de calidad ya sea masterpiece, best quality o worst quality, low quality. Yo lo que siempre hago es recomendarle a la gente que vaya a Danbooru e investigue tags estos incluso tienen una wiki pero nadie hace eso kek, así que lo que hago es recomendarles este etiquetado automático trae muchos modelos pero por lo general uso dos, el que viene por defecto y el eva02-large-tagger-v3 para cuando realmente quiero la mayor cantidad posible de tags de una imagen. Básicamente "leerá" la imagen por usted y le dará sus tags. >WaifuDiffusion Tagger (Etiquetador automatico <Creo que el notebook de ReForge lo trae en las pestañas de extensiones https://huggingface.co/spaces/SmilingWolf/wd-tagger Se me olvidaba existe un rango calificativo de si una imagen es lasciva o no, si escribes "general" en positivos estas técnicamente bloqueando todo el contenido NSFW de tu resultado final. Si escribes "sensitive" estas permitiendo un contenido ligeramente subido de tono a tu prompt. Si escribes "questionable" aumentará el contenido lascivo, "Explicit" ya es porno. Si escribes "nsfw" o "explicit" en negativos también bloquearas gran parte de contenido NSFW a tu resultado final, etc. Usa el rating de imágenes a consciencia dependiendo del resultado que quieras. >¿Qué es un pony y en qué se diferencian los nombres de los modelos? Volvemos a Pony y las ramificaciones de modelos, verás SDXL es un modelo grande y se le ha logrado entrenar en diferentes ramificaciones. En este caso PonyV6 fue entrenado por un western para contenido Furry, NSFW y lo adivnaste My Little Pony, kek. Fue el meta por un buen tiempo, si bien el modelo siempre estuvo orientado más al contenido western supongo que le puedo dar crédito de que ayudó a mucha gente a salirse de SD 1.5 el caso es que Pony debido a un error de entrenamiento esta tan frito que sus loRAs puede que no funcionen en otros modelos que no estén basados en el PonyV6 original. Afortunadamente llegó Illustrious y la comunidad lo prefirió como el nuevo meta, digamos que no voy a extrañar la era Pony, kek. >y en qué se diferencian los nombres de los modelos?
[Expand Post]Bueno, en CivitAI pony tiene el simbolo de un caballito, Illustrious esta marcado como "IL", NoobAI-XL esta marcado como "NAI" (esto puede causar confusión con "NovelAI", SD 1.5 esta marcado como "SD 1.5", SDXL como "SDXL" y así, es para guardar registro de qué se basa cada modelo y no te confundas al momento de usar loRA en estos, por ejemplo si bien NoobAI-XL esta basado en Illustrious si usas un LoRA de Illustrious en NoobAI Vpred tienen problemas notables y es que la brecha de entrenamiento entre ambos modelos es demasiado grande. >Illustrious /¿Qué es eso? Responderé esa pregunta por el otro negro, Illustrious es el meta actual de los modelos de generación de imágenes tipo anime y a diferencia de Pony es un modelo verdaderamente diseñado por y para el anime. Y que curioso los mejores modelos con estilo de anime open source siempre vienen de países asiáticos, en este caso Illustrious es de Sur Corea, Illustrious es un modelo SDXL avanzado, con mucho mejor entrenamiento, un dataset mucho mayor y mejor adherencia al prompt. Si bien la V01 se volvió absolutamente uno de mis modelos favoritos, NO lo recomiendo para novatos. Y bueno creo que eso es todo, si tiene alguna duda o algo más sigo aquí.
>>14637 ¿Qué tal, negrín? Solo quiero decirte que no me he muerto, solo he andado ocupado. Y pues no pude activar la WebUI no aparecía el Link que me llevaba a la otra página como tú decías. No sé si sea por hacerlo en tablet, por ni ponerle modelos o loras personalizados o porque simplemente soy tan autista que ni lo vi. El punto es que las imágenes que mostré las generé en civitai con su interfaz. Tenía bastantes créditos acumulados sin hacer nada... Pero ya me quedan muy pocos y es molesto así que volveré a intentar cuando esté libre... En fin, te dejo con lo mejor que saqué de esas andadas.
(2.20 MB 1152x2016 00008-1305.png)

(1.98 MB 1536x1536 00024-2147.png)

(2.38 MB 1536x1536 00026-5049_v2.png)

(2.26 MB 1536x1536 00018-4503.png)

(2.74 MB 1248x1824 00015-3165759517 v2.png)

>>14646 ¡Hola de nuevo! pues sí están mejores que los resultados que mando la primera vez, tanto anatomía y tienen menos ruido, pero siguen teniendo ese look indistinguible de Pony que de nuevo afortunadamente ya esta en deshuso, además de muchos artifacts. Si bien el NSFW representa apenas el 5 % de mi generaciones al menos los modelos de Illustrious (pic related es de la v01) me convencieron de dejar de usar Pony para NSFW que era el único fallo que sentí que tenía Animagine en su día y el NSFW sentí que era el único atractivo que le veía a Pony así que al menos Illustrious y Noob combinan ambos mundos para mí, le recomiendo experimentar con modelos más nuevos basados en Illustrious y/o Noob así tendrá un rango más amplio de estilos con que experimentar y pueda lograr resultados más expresivos y/o con ilusión de movimiento sí así lo prefiere. Dejo algunos resultados un tanto reciclados de cuando estábamos ocultos en otro tablón.
Esto no es lo que tenía planeado subir pero digamos que voy a tener menos tiempo para usar SD me han surgido unas dificultades, por suerte sigo teniendo acceso a NovelAI sé que no es lo más ideal ya que el tema es usar SD y los modelos IA Open Source pero todavía sigo pensando en pasarlas por SD WebUI aunque al menos pude usar el equivalente al HiResFix que tiene con el crossover de Urumi x Cathyl aunque NAI tiene unas cuantas opciones un tanto ocultas para sacar un mejor resultado y es en parte debido a que es un juguete con esteroides y tiene que ser lo más amigable posible con el usuario.
No he posteado nada por aca ultimamente dado que no me he encontrado de animos, pero dado que soy de los pocos anons en este hilo me siento en la obligacion de postear algo aunque no sea mucho. Hoy he intendado hacer una Medb de Fate GO con la expresion del panel de manga adjunto, logre resultados mas bien decentes luego de varios intentos con img2img y Controlnet.
(1.32 MB 832x1216 00012-186162269.png)

(1.26 MB 832x1216 00021-1286878856.png)

(1.22 MB 832x1216 00041-3834225888.png)

(1.35 MB 832x1216 00045-643470471.png)

(262.92 KB 832x1216 5WXHN49VRDS0WJDT8MCR08M5P0.jpeg)

>>14647 Hola, negrín, aquí el novato de nuevo. Hasta ahora he estado generando y copiando el estilo de artistas que me gustan con la webUI. Es un mundo totalmente provechoso del que me alegro haber entrado, y no solo para el porno pero es parte de lo que hace a la IA ser la IA. El caso es que ya he vuelto a la civilización desde mi rancho meado y por fin tengo mi laptop de vuelta. Nada del otro mundo pero no es un armatoste. Y pues algo que me molesta es el límite de tiempo que da la UI con Grados... Así que es probablemente que deba descargar los modelos y volver mi tostadora mi nuevo edén. ¿Qué cosas debo descargar exactamnete y no son virus rusos? Si te preguntas qué haré con el espacio porque cada modelo pesa mínimo 6GB, pues me pedí un disco duro portátil de TB, por lo que el espacio no es ningún problema. Eso quería saber, además de ir preguntando las cosas que hay en la interfaz, como la cantidad de pasos (steps) y por qué entre más haya, más deforme sale el resultado y así. Te dejo con los mejores resultados que obtuve. >>14654 Hola, negro, soy nuevo. ¿Cómo hiciste tus picas? Imagino que photoshop o algo para los diálogos pero me refiero al modelo.
(4.10 MB 1728x3024 00006-1808054666.png)

>>14659 Hola negro, no eres el único que se encuentra falto de animo, mi situación ha sido difícil y digamos que mi oficina ahora es un asadero, así que me es más difícil concentrarme para usar SD así que quizás termine reciclando más pics como las del pasado martes 26 que son de hace casi un año. Esta sí es más reciente a cambio pero no es la sesión semanal que quería subir. Generalmente hacer Img2Img después de Control Net es lo mejor que puedes hacer, ya que así no se nota tanto la imagen base y te libras de artifacts del control net, aunque también pudieras crear las poses tu mismo en equis programas de edición o hacer un sketch para que la IA lo siga con el control net, a veces hago eso, muchas de mis imágenes favoritas use Control Net para lograrlas, lo único malo es que Colab por su poca RAM tiende a crashear más con el control net, pero creo que a veces puedo usarlo 8 a 10 veces seguidas antes del crasheo. >>14661 Experimentar con estilos es uno de mis aspectos favoritos de la IA, gracias a los modelos Illustrious que son capaces de fusionar estilos y no son tan dependientes de LoRA's. También me gusta descensurar de vez en cuando con Inpaint. >Y pues algo que me molesta es el límite de tiempo que da la UI con Grados Bueno, tengo una alternativa, hay otro servicio de GPU en línea que le puedo enseñar a usar es igual de fácil que Colab pero es ligeramente riesgoso, se llama Kaggle ofrece 30 horas de GPU mensuales totalmente gratuitas... pero, esta censurado (algo malo tenía que tener) el chiste es que el notebook esta encriptado para que no lo baneen yo llevo mi cuenta 100 % intacta por más de un año usándolo, dicho esto no voy a negar que sí he conocido a varios con la mala suerte de ser baneados ya que la encriptación no es perfecta, pero el servicio vale la pena el riesgo, solo necesita su numero de celular para verificar la cuenta, así que recomiendo que Colab siga siendo el principal y Kaggle la alternativa, generalmente si espera un día o dos Google Colab le recarga las seis horas gratuitas. >¿Qué cosas debo descargar exactamnete y no son virus rusos? Es una pregunta ambigua, generalmente descarga modelos de CivitAI y Hugginface son sitios seguros dónde suben recursos de IA, hay muchas extensiones. Por ejemplo los modelos checkpoint, VAE y loRA suelen terminar en extensión ".safetensors", los adetailer que uso suelen terminar en ".pt" y los upscaler suelen terminar en ".pth" Aquí arriba mencioné más sitios: >>14634 pero admito que no los he probado. Generalmente estos sitios son seguros: <Modelos upscalers para HiResFix https://openmodeldb.info/models/4x-NomosUni-span-multijpg <Adetailers que uso ignore que dice "unsafe" si lo fueran me hubieran baneado hace tiempo https://huggingface.co/Anzhc/Anzhcs_YOLOs/tree/main <Control net lite (los mismos del notebook) https://huggingface.co/bdsqlsz/qinglong_controlnet-lllite Etc, pero esas son las herramientas que uso. >como la cantidad de pasos (steps) y por qué entre más haya, más deforme sale el resultado Esto se puede deber a que el modelo esta sobre leyendo demás la orden (el prompt) cuando voy a SD lo mínimo de steps que suelo usar son 28 y lo máximo a 40 steps, a veces uso 30 y a veces uso 32 steps. Generalmente estos días no salgo de esos números en Text2Img o Im2Img. Es gracioso porque en Inpaint es lo opuesto y más steps suele ser beneficioso uso como entre 50 a 80 steps en una sesión de Inpainting. Ojo si bien más steps no significa más calidad, yo he tenido buenos resultados a 60 steps en el pasado haciendo Txt2Img múltiples veces, pero puede depender tanto del modelo y/o configuración que use. >Hola, negro, soy nuevo. ¿Cómo hiciste tus picas Un muy buen amigo me tuvo lastima ya que soy pobre y me dio la oportunidad de usar NovelAI simplemente prestándome su cuenta con un par de reglas, odio decirlo ya que es un modelo privativo pero es que el servicio es simplemente así de bueno manejando texto y muchas cosas, el texto no esta al nivel de Chat ojete 4 pero es algo que no podemos alcanzar en SDXL debido a problemas de entrenamiento del modelo base lo único similar que tenemos en el open source de buen manejo de texto sería FLUX pero el entrenamiento de Flux nunca llegó a nada (y curiosamente los de NAI admitieron usar VAE de Flux para su modelo actual), tengo muchas imágenes de NAI V4.5 de sus dos versiones pero prefiero subir mis sesiones de SDXL ya que que esa la idea de estos hilos. Aprender a usar la IA open source que al final siempre será más versátil y sin censura y con menos restricciones. Así que para SD la única opción sería añadir el texto tu mismo con un programa secundario. Lamento no haber respondido antes a ambos, estaba ocupado.
(1.48 MB 832x1216 00001-2410379440.png)

>>14662 Estoy fuera así luego me explayo, pero me refería más bien al programa para correr la generación de imágenes, recuerdo haber leído alguna vez que recomendaban algunas para tener la interfaz en la PC pero el recuerdo es borroso cuanto menos... >Flux ¿Con lo de generar texto te refieres a generar historias o algo así? No te entendí muy bien. ¿Y cuanto cuesta la NovelAI para tenerlo como opción aunque soy pobre. >si esperas un día o dos Ese es el problema, cuando me llega la inspiración o algo que quiero probar el peor sentimiento es el de "no te quedan creditos", es como ir a una cabina y cuando vas de pro en GTA te digan que tu medio hora acabó. Aunque no es tampoco el fin del mundo. El caso es que sí apreciaría saber usar el Kaggle como opción a costa del número. Simplemente me consigo otro como el Dun. >gpu ¿De qué son esas siglas? >aldo Antes de que me olvidé otra vez, en la UI, dice que el controlNet Máx o algo así "ya funciona", ¿es verdad? O lo sigo dejando si activar...
(2.34 MB 1024x1024 4o Image Gen 1-Reisen.png)


(1.21 MB 832x1216 NAI v4.5 Full s-3709212716.png)

(1.27 MB 1024x1024 Flux Texto.png)

(1.97 MB 1536x1536 Texto SDXL.png)

>>14664 >pero me refería más bien al programa para correr la generación de imágenes, Bueno en ese caso hay varias interfaces para correr SD dependiendo de lo que tenga, el viejo A1111 esta obsoleto y lleva actualmente un año sin actualizare, afortunadamente ReForge volvió a las andadas y esta mucho más optimizado y actualizado, el DEV es Chileno. Creo que esto debería seguir funcionando, si tiene una maquina lo suficientemente poderosa podría correrlo. <nstala Stable Difussion WebUI Local y cualquier otra UI con un Click! (ir a Releases y descargar el archivo .exe) https://github.com/LykosAI/StabilityMatrix?tab=readme-ov-file >¿Con lo de generar texto te refieres a generar historias o algo así? No, no me refiero a los modelos de lenguaje, los modelos actuales de generación de imagenes pueden manejar dialogos de texto y algunos hasta infografía, el mejor que he visto es Chat GPT 4o, el segundo mejor es Google Gemini, le dejo varios ejemplos de imágenes recicladas excepto Gemini y NAI de cómo diferentes modelos manejan el texto, en este caso la peor manejando texto es SDXL pero claro ni Chat ojete y ni Gemini le van a dar una oppai loli haciendo una turca, kek. En este caso el texto que maneja es una sola palabra y el nombre del personaje "IB" en el fondo. >¿Y cuanto cuesta la NovelAI 25 dolares al mes, lo uso a diario y se ha vuelto una valiosa herramienta para terminar mis imágenes ya sea que este dentro o fuera del servicio de GPU. Aunque tiene algunas limitantes odiosas como los tokens de mierda, pero al menos como servicio de generación de imágenes tipo anime, no tiene censura. Lo privativo vs open source se resume a potencia vs versatilidad (este es el lado del Open Source) >te digan que tu medio hora acabó Comprendo el sentimiento, aunque si quiere, use esta aproximación que le funcionó a un amigo, use Colab un día si, el día siguiente descanse Colab y planee lo que que generar para el próximo y que LoRA, personajes u extensiones o estilos que vas a usar. Así tendrás seis horas seguras y repites lo mismo al día siguiente, mi amigo esta complacido con este proceso y no necesita otras GPU. Aunque le digo que muchas veces se me ocurren buenas ideas que por no poder abrir la GPU cuando yo quiero (ya sea por trabajo u otros) simplemente se me olvidan. > sí apreciaría saber usar el Kaggle Perfecto, este es: <Kaggle https://www.kaggle.com/ Haga una cuenta, verificarla con su numero y yo puedo guiarlo mediante la instalación del notebook (aunque es básicamente lo mismo) Para mí hoy día el combo de Colab + Kaggle es más que suficiente, aunque antes usaba otro servicio de GPU. >¿De qué son esas siglas? Graphics Processing Unit o Procesador de gráficos por unidad recuerdo que el antiguo OP nos dejó poco después de que se consiguió su RTX 4060 TI de 16 GB de VRAM aunque en esa época SD 1.5 todavía era relevante pero le debió haber salido bien la inversión. >controlNet Máx o algo así "ya funciona", ¿es verdad? Ehhh... 50/50 como le comentaba al otro negro Colab ofrece muy poca RAM (no confundir con VRAM) así que ProMax tiende a crashear más que el otro Control Net Lite (en este no necesite cambiar nada), puedes quitar los argumentos "cuda stream, cuda malloc y pin shared memory" y agregar el argumento: --lowram pero sino te sientes confiado o no sabes que hacen esos argumentos mejor solo agrega --theme dark al inicio para no quedar ciego, Control Net es una herramienta muy valiosa y que me encanta pero por el momento creo que es mejor que no te compliques mucho ya que apenas estas iniciando.


Forms
Delete
Report
Quick Reply