/sexy/ - NSFW

ARCHIVO

Index Catalog Archive Bottom Refresh
Name
Options
Subject
Message

Max message length: 12000

files

Max file size: 32.00 MB

Total max file size: 50.00 MB

Max files: 5

Supported file types: GIF, JPG, PNG, WebM, OGG, and more

E-mail
Password

(used to delete files and posts)

Misc

Remember to follow the Rules

The backup domains are located at 8chan.se and 8chan.cc. TOR access can be found here, or you can access the TOR portal from the clearnet at Redchannit 3.0.

US Election Thread

8chan.moe is a hobby project with no affiliation whatsoever to the administration of any other "8chan" site, past or present.

Hentai Diffusion General #6: Edición Indígenas Latino Americanas Wizard 02/25/2023 (Sat) 19:26:29 No. 1205
Este es el hilo para aprender, crear y compartir imágenes con la ayuda de una Inteligencia Artificial. >Colab de Instalación de Stable Diffusion preconfigurado + ControlNet Instalado (Opción Rápida) https://colab.research.google.com/drive/1wEa-tS10h4LlDykd87TF5zzpXIIQoCmq >Guía Instalación y consejos para empezar + Video Tutorial https://rentry.org/instalacion-sd >Guía: Entrena tu propio LoRa para hacer Personajes, Estilos, ropa y muchos más conceptos https://imgur.com/a/93AvCi9 >Colabs de Entrenamiento de LoRas: https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-LoRA-finetuner.ipynb <Recomendación Personal https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z >Guía: Aprende a usar mejor ControlNet https://rentry.org/dummycontrolnet >Servicio Web: Crea Imágenes online sin instalar nada. https://pixai.art >Recursos: Modelos, LoRas, Hypernetworks y Embeddigs/Textual Inversion https://civitai.com >Guía: Crea mejores pics de tus personajes. https://rentry.org/personajes-nai <Pedidos A diferencia de los Hilos anteriores, ya no estaré respondiendo a los pedidos que me hagan, pero siguen pudiendo hacerlos, aunque nadie esta obligado a responderlo. Si nadie responde tus pedidos, recuerda que ahora mismo es mucho más fácil que antes comenzar.
>>1205 Esa guía de entrenamiento me será muy útil
>>1205 Ay negrito, sí es posible para el séptimo hilo, incluyas de recomendación el booru de las IA. AI Booru me ha permitido conocer a muchos "inserte nombre para la gente que usa IA para generar imágenes y que no les arda el culo" y ampliar mis colecciones(todas estas imágenes las saqué de ahí) Hay algunos que dejan los prompts y modelos, eso sí, la moderación es un poco extraña, pero tengo esperanza de que la comunidad crezca. Les dejo el enlace: https://aibooru.online/
>>1207 Anotado para el proximo hilo. >la moderación es un poco extraña a que tipo de "extraña" te refieres? Una vez me ardió un poco el culo porque me rechazaron una pic a la que no le vi mucho sentido, era una pic de un set de 4, de las cuales el resto fueron aprobadas, diría que la calidad era bastante uniforme en todas...pero bueno.
(308.12 KB 512x512 00022-3345144611.png)

(230.84 KB 512x512 00024-3345144611.png)

(314.08 KB 512x512 00026-3345144611.png)

(265.77 KB 512x512 00035-3345144611.png)

(300.59 KB 512x512 00028-3345144611.png)

>>1205 Negros estoy practicando el entrenamiento de Loras e hice este de Leaf, aun así me gustaría preguntarles ¿Cuantas imágenes son recomendadas? ¿Y cuantos pasos? ?Que modelos y vae recomiendan para entrenar? La guía uso solo 15 mientras que yo use unas 150 aunque de estilos muy diferentes, supongo que por eso queda raro y desproporcionado y fueron como 2000 pasos por la cantidad de imágenes y 20 ephocs, use AbyssOrangeMix2 y anime.vae los estilos y la mayoría de poses fueron aleatorias.
>>1209 Kek en la cuarta imagen puse algo como dibujado por trazos o algo así y salio eso, y un par de veces Leaf se convertía en una polilla ¿Y como hacen para mejorar las manos?
>>1205 Si quisiera entrenar un estilo de dibujo con los colabs que posteaste. ¿Tengo que especificar en alguna parte que lo que quiero es un estilo? Recuerdo haber visto otros colabs que te daban esa opción.
>>1209 Joder, negro que culo más jugoso de la última Pic.
>>1213 ¿Y si intentas hacer una imagen con una resolución normal, pero concentrando todo al centro para luego recortarlo como lo wallpapers de WE?
>>1209 >>1210 >>1213 >>1215 >Leafs generadas con AI Me arrodillo ante usted, mi dios. Por favor siga haciendo y posteando mas, yo las estoy descargando todas.
>>1205 Negros, ¿Algunos de ustedes sabe dónde econtrar modelos para hacer fotorealismo y putas 3d?, Si se dan cuenta la IA podría ser una oportunidad de oro para hacer onlyfans falsos, ganar shekels y de paso hacer mierda only fans. Las putas no podría competir con la belleza de la inteligencia artificial. Deberíamos aprovechar antes de que esta mierda terminen por acaparar todo o terminen por poner regulaciones
>>1209 >¿Cuántas imágenes son recomendadas? para personajes mínimo 30 o 25. Recomendadas más de 100, mientras más mejor. >¿Y cuantos pasos? Dependerá de tu número de imágenes, con unas 150 o 200, yo iría por unos 4000 pasos, con menos de eso por los 1500, o 2000. >150 aunque de estilos muy diferentes Eso es bueno en personajes, y es una buena cantidad, pero en el caso de BS, usaste imágenes del juego? Esas pueden ser dañinas para tu dataset, los negativos de SD catalogan el arte de BS como "mala calidad". También no pusiste demasiadas repeticiones? y por ultimo, algunas de tus pics no se repetían, o eran casi iguales? todo este tipo de cosas son dañinas. No siempre más es mejor si el material de entrenamiento es malo o es demasiado igual (en personajes). >Que modelos y vae recomiendan para entrenar? Yo uso el modelo y Vae de NovelAI, es el mismo VAE que ya estas usando, y el modelo es animefull o algo así. >>1210 ¿Y como hacen para mejorar las manos? Con inpaint puedes hacer reroll a tus manos, también puedes usar Multi-ControlNet, con manos o pies cercenados y el stickman para la pose. como pic related 2. >>1211 >¿Tengo que especificar en alguna parte que lo que quiero es un estilo? En el que yo recomiendo no, ahora en el otro sí puedes elegir entre estilo o concepto. Pero en realidad lo que unico que cambia es el learning rate, puedes entrenar un personaje y solo usar pics del mismo artista, lo que en conciencia entrena su estilo. Por eso para personajes es importante variar. Puedes leer un poco más de eso aquí. https://rentry.org/2chAI_LoRA_Dreambooth_guide_english
>>1213 Puedes probar poner una resolución normal en vertical, y fijar la resolución que quieres en el hires.fix, en tu caso los 720x1520 y poner unos 10 o más hires steps. >>1217 En civitAI https://civitai.com Así es negro, debemos aprovechar ahora mismo, en mi caso yo ya estoy sacando beneficios de la IA, hago comisiones o hasta he podido generar ingresos enseñando como profesor para generar monas chinas kek, no es como para vivir de esto pero si te gusta no esta mal. >>1219 Muy buenas negro, hizo bien el aislar un poco los estilos en tu dataset, ahora incluso puedes seguir fortaleciendo aún más tu LoRa generando imágenes, y tus propias imágenes usarlas en tu dataset (claro solo con las mejores y que capten bien las características de Leaf)...y así con cada versión iras alcanzando la perfección.
(21.76 KB 720x337 7562228511.jpg)

>>1225 >ahora incluso puedes seguir fortaleciendo aún más tu LoRa generando imágenes, y tus propias imágenes usarlas en tu dataset (claro solo con las mejores y que capten bien las características de Leaf)...y así con cada versión iras alcanzando la perfección. No soy el anon de Leaf pero me pareció curioso lo que dijiste OP, Usar imágenes de la misma IA para retroalimentarla y mejorar sus resultados, justo me preguntaba si eso era viable... Ya veo que si y me alegra muchísimo... Uff... Me pondré manos a la obra a comenzar a mejorar un LoRa >Aldo Me tope con esto... Ja
(2.41 MB 1728x2317 296167093284867467.png)

>Control Net: Openpose Por si a alguien le sirve esto
>>1224 Gracias por la información, en unos días entrenare mas loras para variar personajes y así se mejor que hacer Y de hecho ese era el tercer lora de Leaf, en el primero use muchas imágenes de Koikatu y salían con ese efecto 3d pero aun mas deforme y en segundo tenia varias imágenes chibis y con estilos de dibujo con líneas rarasporeso salió así. E intente lo de las manos y al menos en las imágenes que me gustaron ya tenia buenasmanos así que no conseguí mejores resultados y no conseguí dibujar buenas manos para el controlnet, debo practicar eso. >>1225 Intente usar el hires fix y como no sabia configurarlo termine llenando la Memoria y dando error kek. >aldo aquí varias mas que hice en esto días Leaf entrenando para no perder ante ningún grande y Leaf descansando después del duro entrenamiento
>>1230 Aquí estuve probando con modelos y vaes diferentes, sobretodo con Camelliamix que me esta gustando y la ultima pic me encanta, es a la perfección la imagen que tenia en la mente, mirando de frente con las manos juntas con la cruz y la ventana a su espalda UUUFFFF Quiero entrenar un nuevo modelo,tal vez sea la gata basada o Lorina, aprovechando que ambas tienen bastante arte de ellas
Negros, vengo a preguntar Les molestaría que se usen algunas imágenes de los hilos para banners? Actualmente solo hay uno, que hice con el logo del 8 cyberpunk por que no se me ocurrió algo mejor kek
>>1228 Gracias negro, cuando actualice la guía (otra vez), voy a añadirla, resume bien open pose. >>1231 Quedaron muy bien negro. >>1232 >Les molestaría que se usen algunas imágenes de los hilos para banners? Por mi no hay ningún problema, por favor úsenlas como gusten , casi todas las de pedidos y post OP son mías, aunque supongo que ya pueden saber cuales son.
Hola negritos. Gracias al AiBooru de más arriba encontré un LoRA de Xiniyan. Para quién le guste el personaje. Y es que hay un usuario obsecionado con ella, y no lo culpo ya que todos tenemos nuestra waifu en específico que queremos llenar de nuestro semen. Sin más dilación les dejo el LoRa para quién le sirva: https://mega.nz/folder/swgRGDKa#2gU_0Qyt3GrsRoMupVBWtA
>>1234 CALIDAD, mas porno de esa negra.
(282.64 KB 1080x1080 20230301_114210.jpg)

Negros ya vieron toda la tormenta de mierda que se desató por pic related? Resumen, un canal dedicado a animación (con contactos en el medio) hizo un corto estilo "anime" usando sólo IA, combinando Drambooth con Stabble Difusión y dali (No entiendo como combinaron IAs) y la reacción de Twitter y demás no se hizo esperar. La única critica con la que estoy deacuerdo es que para nada tiene estilo anime, o al menos para mi, te puede recordar a jojo o a castlevania por momentos pero esto es tan anime como aquel "anime" del rubius. De ahí en fuera es lo típico, que esto es una ofensa para los animadores, que esto es para no pagarles, que esto no tiene ningún valor, etc. Ya hasta hay quien dice que esto es "Colonización digital" y que la IA esta "adueñandose de la cultura de animacion" por que en este corto anime no hubo ningún japonés involucrado, kek.
>>1236 link del corto animado?
(5.64 MB 1280x720 AA7zSjy58t3TCld8.mp4)

(476.05 KB 500x375 quitan-trabajos-south-park.gif)

Por si quieren darle un breve vistazo >>1236 >Negros ya vieron toda la tormenta de mierda que se desató por pic related? Si, no paran de hablar de ello en Twitter, pero eso era de esperarse, muchos aún se niegan a aceptar que la IA vino para quedarse, y lo peor (para ellos) es que esto avanza muy rápido, solo compara los dibujos de la IA del Inicio con el punto en el que estamos... Los dibujantes mediocres o con un estilo super genérico son los que más le temen, el dibujo tradicional no morirá (por dar un ejemplo la radio sigue ahí aún y con invención de la televisión), ahora que cualquiera (que se tome el tiempo para aprender a usar correctamente la IA) puede hacer sus ilustraciones las tienen un poco más difícil para generar dinero
>>1237 Aquí esta https://youtu.be/GVT3WUa-48Y Y el como lo hicieron https://youtu.be/_9LX9HSQkWo >>1238 Como había dicho antes, esto es parecido a lo que pasó con la industria de animación de Hollywood, cuando se pasó del 2d al 3d por computadora muchos tuvieron que adaptarse y los que no simplemente se fueron quedando atrás, Disney por ejemplo era la que menos quería el cambio, y entró en crisis teniendo que comprar a Pixar para salvarse y poder al fin dar el salto al 3d, muchos perdieron sus empleos, pero no fue el final. Se dieron cuenta que aún necesitaban 2d para los storyboards así que unos se quedaron, otros se adaptaron, otros se fueron a otras compañías y así. El avance tecnológico no puede ignorarse Algo de lo que me eh dado cuenta es que muchos de los que se quejan y van contra la IA son artistas SFW, que también hay NSFW pero al menos yo eh visto más artistas NSFW que no ven a la IA como enemiga sino como herramienta, muchos artistas asiáticos por ejemplo ya usan la IA para sus dibujos, y los que no saben que aun con todo el porno vende, no tienen de que preocuparse por que siempre habrá alguien que pida comisiones, como yo. Y lo mismo planeo hacer yo, que estoy aprendiendo dibujo tradicional y planeo usar la IA para ayudarme. Así que no creo que los dibujantes y demás estén en peligro, es solo otra transición, ya se adaptarán.
>>1205 Buenas negritos, estoy comenzando a experimentar un poco con stable diffusion. He estado siguiendo tutoriales y trasteando un poco con la herramienta, sin embargo hay cosas que se me escapan. Actualmente he seguido la siguiente guia: https://rentry.org/instalacion-sd >Esto es lo que tengo instalado. Stable diffusion con modelo AbyssOrangeMix2_NSFW + control net. Mis dudas son las siguientes, a ver si algun amable anon me puede resolver las dudas: >Para que sirven los modelos y que tanto cambian según el que utilizes? >Entiendo que son los LoRas, pero no se como crearlos, y lo mas importantes, no logro aclararme sobre como debo implementarlo/instalarlo en estable diffusion.
Aquí unas pruebas de Loras que hice ayer de Lingeriena y Mabel, no quedaron tan bien como el de Leaf porque no tengo tantas imágenes de ellas así que intentare lo entrenar otro con imágenes del mismo SD. El mayor problema con Lingeriena son sus alas, dudo que exista un tag que las describa y es complicado que las genere y que se me olvida colocar el tag de cabello corto >>1238 UUUUFFFFF Negro tan solo imagina las posibilidades, imagina un corto animado de tu manga o novela favorita que sabes que jamas tendrá una animación, imagina una mejor alternativa al CGI en los animes, una alternativa para animaciones de bajo presupuestó


(861.83 KB 872x872 105407968_p0.png)

>>1235 Hola negrito. Puedes encontrarlo bajo el nombre de Xinyandegen En el AiBooru que pusieron más arriba, dónde el mismo sube sus pics sin censura También tiene cuenta en Pixiv(con censura) al igual que muchos: https://www.pixiv.net/en/users/37705007/request
(61.04 KB 640x480 sddefault.jpg)

Negros. Salió un tutoririal en vídeo sobre cómo usar Control Net. Que cómo ya mencionaron en el hilo anterior. Es mejor que Image2Image. Esta en español: https://youtu.be/LdFxrIf0lZc
>>1246 Gracias negro de gustos sublimes, lo voy a gozar compadre con mas CALIDAD de esa negra.
(207.80 KB 1745x374 lora.PNG)

>>1240 Pues yo justo estoy creando un lora, finalmente voy a hacer a Mai. Hay una guia en el OP pero está en ingles, si quieres cuando acabe te explico como me fue. A veces me confundo por que antes de esto era otro sistema, y antes de eso eran los hypernetworks kek
(13.13 KB 938x257 Captura.PNG)

Ok negros funciono! Ya esta el LoRa Ahora como esta cuenta es nueva, ¿Qué collab deberia usar? El Automatic1111 o ese que viene con net control? Y que vae/modelo descargo?
>>1249 >si quieres cuando acabe te explico como me fue He tratado de seguir la guia, pero sigo explorando la herramienta. agradecería si me explicaras un poco como crear LoRas e implementarlos.
>>1239 No me jodas. En verdad hicieron eso con Stable Diffusion? Aldo kek, piedra papel y tijeras con el autismo shonen. Esto me hace pensar que más cosas se podrá hacer con la IA. Recuerdo haber visto en Pixiv un doujin usando IA, un chatbot y recientemente ahora puede generar niveles de Super Mario bros. >>1241 >>1242 En cuál anime/juego sale esa ángel?
>>1236 >>1238 >muchos aún se niegan a aceptar que la IA vino para quedarse Lo que vengo diciendo, no hay forma de detener esto, y los que más se tarden en darse cuenta van a ser los más afectados a la larga, con sus lloriqueos y su afán de ridiculizar y desprestigiar a la IA...En uno año o incluso meses pueden estar muy atrás en la competencia del mercado de la animación, y al final esto es algo que solo "nos hace más fácil la vida", es otra herramienta, no un roba trabajos. >aldo pequeño tweet que define esto, la Película TRON de 1982, se le desprestigio e humillo por los medios especializados por usar efectos especiales con computadora...a día de hoy esto hace mucha gracia. >>1240 >Para que sirven los modelos y que tanto cambian según el que utilizes? Cambia absolutamente TODO, puede cambiar el estilo artistico, los colores, las cosas que puedes hacer, hacer imagenes hyperealistas, 3D...Entre tanto más, AbyssOrangeMix2 te da la opción de hacer imagenes anime pseudo-realistas con gran detalle y NSFW. Pero si tu quieres algo menos realista o no te gusta el estilo descargas otros según tus preferencias en CivitAI, te dejo una comparación, segunda pic es Abyss y la tercera pic es otro modelo SFW con un estilo muy distinto >LoRa, no logro aclararme sobre como debo implementarlo/instalarlo en estable diffusion. Creo que ya lo solucionaste? No importa que Colab Uses, estos siempre van en /stable-diffusion-webui/models/Lora Para usarlas le das el icono de un cuadro rojo justo debajo de "generate" te saldrán todos los que tienes y solo con darle click se agregue al Prompt algo como "<lora:1>" el número es la fuerza del LoRa, puedes irlo cambiando desde 0.1 a 1 como recomendación. >Crear LoRas revisa la Guía en post OP
>>1241 >>1242 Recuerda siempre setiar un VAE negro, o tus imágenes salen muy descoloridas, tambien usa resoluciones más grandes que el 512 para que se los detalles sean mejores. >>1247 Gracias negro >>1249 Negro, como recomendación usa más pics, No necesitas recortar la cara, puede ser la imagen completa siempre y cuando no haya más conceptos interfiriendo, y tambien si no es tu objetivo aprender el estilo del anime, no uses solo capturas de este. estoy seguro que en GelBooru vas a poder encontrar más material, hay muchas pics demasiado similares o redundantes tambien. >>1250 El que viene con ControlNet si ya tienes experiencia. Si no ve por el seguro. >vae/modelo descargo? Es a tus gustos, hay infinidad de opciones. Revisa CivitAI para encontrar uno que te guste y pones el link de descarga en Colab. Los modelos los encuentras como "checkpoints"
Bueno, mi ultimo post de hoy, es para recomendarles un par de extensiones. Latent Couple (Two Shots) + Composable LoRA Hace poco aprendí a como usar estas 2 extensiones, y se las recomiendo mucho si quieren hacer cosas verdaderamente impresionantes con o sin Controlnet, con 2 o más personajes. Basicamente lo que hace es que nos permite crear divisiones en la imagen, como partirla en pedazos, y cada pedazo le podemos asignar un Prompt y con el Composable LoRA podemos hacer incluso que un LoRa solo se aplique a esa parte de la imagen, como pics related son 2 personajes LoRa. Es un poco dificil entender como funcionan las divisiones pero no es nada tan complicado realmente, las divisiones siempre se expresan en "Y,X" quinta pic es un poco referencial en esto. Para instalarlos nada más necesitan los links, si usan el Colab nuevo Two Shot/Latent Couple ya viene incluido. Para agregar a Composable LoRA puedes añadir el link a su custom URL para instalarlo. https://github.com/opparco/stable-diffusion-webui-composable-lora
>>1254 Gracias negro, en ese caso me ire por Automatic1111 ya que desconozco como usar esa herramienta. Aprovechando, como puedo instalar extensiones para la Ia negro?
(1006.15 KB 700x1024 1677783461037940.png)

(618.77 KB 640x480 162377853951.png)

>>1252 >En cuál anime/juego sale esa ángel? Es un personaje de Black Souls 2, lo kekiante del personaje es que en realidad no es un ángel sino un demonio de la violencia fingiendo ser uno, por eso su aureola es falsa y sus alas de ángel son en realidad alas de demonios las que le pego un montón de plumas. >>1254 Todavía no sabia configurar bien el colab que trae los extras instalados y por eso no cargaban los vaes que uso y ese vae que probaba me gustaba anoche pero creo que era solo el sueño porque ahora lo veo y deja todo borroso. >lado ¿Algun consejo con las alas de este personaje? No consigo que le genere bien esos picos que sobresalen. >>1255 Justamente también quería preguntar si había alguna manera de usar Loras diferentes en una imagen y darles tags por separado, se ve genial lo probare este fin de semana. >>1256 En la barra de pestañas, al final esta "Extensions" desde ahí las manejas.
>>1256 Aparte de como menciono este negro, >>1257, Si usas el nuevo Colab la tienes bastante fácil, Me refiero al de la "opción Rapida" con Controlnet, en este simplemente pon el Link de la extensión, por ejemplo algo así como en pic related, en tu Custom URL. Este Colab tiene buena documentación si no entiendes de que sirven algunas opciones. Aparte de que trae muchas extensiones ya por defecto. >>1257 >¿Algún consejo con las alas de este personaje? Estas usando "demon wings"? Si ya lo usas imageno que tambien estarás usando "wings" o parecido, yo diria que lo mejor sería hacer algo así: "Demon Wings, (feathered wings:0.8)" Es importante no redundar mucho en los tags, y el featered wings se refiere a alas emplumadas específicamente, "wings" es muy General. Y le bajas el énfasis, para que no se coma las alas de demonio...El resto es cosa de tu LoRa
(116.68 KB 1806x919 Captura.PNG)

Fuahg negros, probe ese collab nuevo que postearon con el controlnet y es un cambio tremendo, ni siquiera ocupa subir los malditos modelos .pt y .ckpt ya simplemente lo corre y te carga Lo que no me gusta es que a diferencia de 1111 este no es local asi que no guarda las imagenes directo en el drive tienes que darle al boton para guardarlas, y por no checar eso perdi las que genere pfff Pero ahora que se cual usar este será sin duda el principal junto al collab furry, lo malo es que no supe como ponerle el LoRa o como poner los modelos que tengo, segun entendi era en "other links" pero al poner los links de drive no los detecto, ¿una ayuda?
>>1259 Todos tus LoRas y Modelos tienes que agregarles su Link de descarga en "custom_urls". Puedes poner links "directos" al un archivo en drive, civitAI o huggingface para modelos. Ahora para los LoRas que imagino tendrás una carpeta con más de 1, pues tienes que poner la dirección. Por ejemplo si creo una carpeta en mi Drive justo al inicio. y le pongo el nombre "mi_loras" pues yo en mi custom_urls voy a poner: "mi_loras/." los nombres deben estar escritos exactamente igual importan mayúsculas y minúsculas y deben tener el /. al final. Y por ultimo cada link o dirección tiene que estar separada por Comas.
Desde este día me considero liberado de la tiranía de los fondos de pantalla mal recordados. >>1258 Gracias por el tag, por eso sentía que los Loras quedaban peor mientras mas tags colocaba. >>1259 Marca la casilla "output_drive" y "config in drive" y en la dirección de guardado colocas cualquiera en tu drive, se crea automáticamente si no existe. Para los archivos, debes cambiar su configuración para compartir de restringido a "todos los que tengan el enlace" y como no consigo hacer funcionar las direcciones a drive entonces tomo el enlace de la carpeta y lo pongo funciona igual, aunque te recomiendo tener todas las direcciones anotadas por fuera en un archivo de texto porque maneje armas en esa linea es un fastidio.
OP, una pregunta sobre Pixiv: ¿Realmente es necesario pixelear las vaginas en las imágenes IA? Porque muchas de las R18 con vaginas las censuran con eso
>>1262 Mierda negros ¿esas pics son en Ia? Parecen ya casi que arte personalizado con objetos, tantos de talles y esas cosas

(2.24 MB 1096x1643 Kurzray (1).png)

>>1264 Por supuesto que son de IA, negrito. Sólo tienes que fijarte en las manos y los colores apagados de la mayoría (supongo que tiene que ajustar mejor el VAE). Y no es por animo de ofender ni críticar a >>1262 (ya que me gusta lo mismo) pero es que han publicado imágenes IA mucho mejores en este y anteriores hilos. Aunque el que te confundas con esas imágenes(y no es por criticarte tampoco) así demuestra que la IA por buen camino para que la gente del público medio (o con el ojo no entrenado) en un futuro no noté la diferencia entre una imágen IA y otra no IA. Para los otros negros interesados dejos estas dos imágenes de muestra de dos pics IA, el primero es de un coreano que usa Mix-Pro-V3. Y el otro ni idea que usa. Pero me encantó la dragona. Pueden buscarlos en Pixiv o el AiBooru.
(1.23 MB 2048x3072 105269322_p0.jpg)

(753.65 KB 768x1024 104717085_p1.png)

(856.55 KB 768x1024 104717085_p3.png)

(1020.90 KB 2304x3456 104867709_p0.jpg)

(1.56 MB 1072x1072 105544297_p1 (2).png)

>>1263 Negro. Por supuesto que es necesario censurar las cucas y los huavos en un sitio japones cómo Pixiv (así no seas Japo) por suerte no es necesario censurar los anos. Dejó Imágenes de el loquito obsecionado con Xinyan de más arriba y picosas de Galawave cómo ejemplo.
>>1262 >¿No saben donde conseguir LoRas? Yo manejo 2 fuentes. <CivitAI (Tiene de todo) https://civitai.com <Gitgud (muchos LoRas Exclusivos del 4) https://gitgud.io/gayshit/makesomefuckingporn >caballos Revisa el Hilo anterior, ahí pase uno. >>1263 Creo que hay mucha desinformación respecto a esto. >¿Realmente es necesario pixelear las vaginas en las imágenes IA? Censuras SOLO genitales, u objetos que parezcan genitales, como dildos. Con genitales Cuenta la vagina, pero más concretamente el órgano, ya sabes sus labios rosados, clítoris etc...No es necesario la censura si no se llega a ver. En el caso de los penes, Se censura únicamente el Pene, no necesitas censurar los testículos o anos. Eso puedo dar fe porque no los censuro en mis comisiones y pasaron la revisión que una persona la dio. >>1266 Lo unico que por lo visto no aplica si eres de occidente, es que no puedes hacer Comisiones R18 por alguna estúpida razón, todavía estoy pensando en alguna alternativa a esto.
>>1267 Interesante. Bueno yo veo muchos que ponen enlaces a Patreon y Fanbox en las descripciones de Pixiv para que la gente los apoyen (aunque veo que mucha gente se esta mudando de Patreon a Subcribestar por sus políticas judías)
>>1266 Muy ricas esas Eulas, aunque en una hay un pene sin cuerpo kek
Ayer instalé el stable difussion pero al intentar abrirlo hoy no me deja hacer nada, ¿saben como se arregla esto?
>>1270 Si no estoy equivocado, es porque alcanzaste tu limite para crear imágenes, debes esperar un día, o usar otras cuentas de google.
>>1271 ¿o sea que debo hacer otra vez todos los pasos de cero para usar una nueva cuenta? ¿Que otro software recomiendan para usar sin que tenga estas tonterias de limites? Hasta ayer quise aprender del tema por curiosidad pero eso del limite si esta bien culero
>>1272 Bueno, no estoy seguro pero a veces varia entre 3 a 5 horas de uso. Creo que cualquier método usando los ¿recursos? de terceros tendrás limite de tiempo, a menos que tengas una muy buena pc y la uses de forma local pero ahí ya ni idea por que yo utilizo de la primera forma.
>>1270 >>1272 Es como dijo este negro >>1271, No es un limite de imágenes, si no que de GPU, En la guía menciono que mas o menos al día tienes 3 o 5 horas de GPU (Por cada cuenta). Una vez se terminan pues debes esperar 24 horas aproximadamente. >¿o sea que debo hacer otra vez todos los pasos de cero para usar una nueva cuenta? No es necesario, Solo tienes que esperar y ya funcionara con normalidad. >¿Que otro software recomiendan para usar sin que tenga estas tonterias de limites? La unica Opción es correr SD en Local pero Necesitas tener una buena Grafica. >eso del limite si esta bien culero Puedes simplemente usar otra cuenta...a menos que te la pases 10 horas generando pues no se te van a acabar tus horas diarias teniendo 2 cuentas.. Si usas este Colab https://colab.research.google.com/drive/1wEa-tS10h4LlDykd87TF5zzpXIIQoCmq Con este Colab es mucho más facil, solo pones tu links de descarga y se acabo, solo recuerda activar la opción de "output to drive" si quieres ir guardando tus imágenes.
>>1274 Parece que de hecho el output to drive viene de predeterminado pues sin pedir nada se generaron solas, lo cual es bueno. algo que deseo saber es, veo que algunos hacen uso de estilos muy interesantes que no me salen por mas que meto prompts, veo que se llaman Loras ando super desactualizado, por ejemplo esta kobeni que se ve riquisima en este estilo ¿como se implementan estos estilos o Loras? ¿Si implemento mas de uno tengo que hacer eleccion por algun modo entre que lora usar? Me gustaria saber mas, negritos
Negros ¿Como se suponía que supiera que para hacer funcionar openpose con un esqueleto no debo seleccionar nada? Carajos, dure días intentando y pensando que era había configurado algo mal, pero bueno aquí unas pruebas que hice. >aldo ¿Soy el único al que openpose editor le implosiona la pc? La tuve que reiniciar como 2 veces porque se pegaba completamente. >>1275 A lo que se refiere con output es para que las pics se guarden automáticamente aunque también debes marcar config in drive y cambiar la dirección de guardado en las opciones. Sobre los loras, los entrenas o descargas si ya están hechos, en civitai muchos y en los hilos del 4 también recompilan bastantes, para usarlos los guardas en tu carpeta de loras en sd/sdweb-ui/modelos/lora no se si es la dirección exacta pero mas o menos asi y los activas con el botón que parece una carta roja bajo "generate" se abre el menú.
>>1275 >¿como se implementan estos estilos o Loras? Pueden ser ya sea por LoRas o el Propio modelo, por ejemplo pic related 1 es el modelo AbyssOrangeMix2 Hard y segunda pic es un mix con un modelo que hace imagenes como si tuvieran un efecto "pvc" de las figuras, Tercera pic es un modelo que hace muy buenas sombras y ambientes oscuros. Date un buen vistazo por CivitAI y no salgas hasta que encuentras 2 o 3 modelos que te llamen la atención, y ya pones sus links directos de descarga en Colab para probarlos. >¿Si implemento mas de uno tengo que hacer eleccion por algun modo entre que lora usar? Puedes usar todos los modelos que quieras al mismo tiempo para generar una imagen. Solo que algunos pueden funcionar mejor o peor. Por eso puedes ajustar su fuerza o usar Extensiones como las que les menciono aquí >>1255 >>1276 >¿Como se suponía que supiera que para hacer funcionar openpose con un esqueleto no debo seleccionar nada? Agrega tu esqueleto, la imagen stickman, recuerda darle al "enable" y tambien selecionar el modelo, en ese caso del openpose, RECUERDA, Si agregas la imagen stickman significa que ya esta Procesada, si metes una imagen normal pues si tienes que elegir un preprocesador, Para que te cree una imagen con el stickman y luego de eso ya no es necesario tenerlo. >¿Soy el único al que openpose editor le implosiona la pc? Las primeras pics que hagas van a tardar un poco porque tiene que cargar los modelos y proprocesador si usas. Y si usas multinet pues es bastante pesado. Pero solo debería verse reflejado en un considerando aumento del tiempo en que se genera tu imagen
>>1278 >>1276 gracias anons, aunque ahora intenté abrir el Stable y directamente me salió esta mamada, ¿Sera que me toca reinstalar esta tonteria? Que fastidio sinceramente
>>1279 >¿Sera que me toca reinstalar esta tonteria? No, a mi se me hace que quizas no estas corriendo el resto de celdas antes de darle a la ultima...Igualmente hoy salio una traducción al español del Colab Nocrypt (El primero del post OP). Les recomiendo a todos pasarse a este, sea en ingles o español. https://colab.research.google.com/drive/11-LDA0nvFprS_-g7-ZmTzsDVNpGzRvfO?usp=sharing
OP una pregunta ¿Que se supone que debo taggear para entrenar LORAs? Dependiendo de la guía dice que debo colocar lo que no quiero que salga y algunas otras dicen que debo colocar sólo lo que describa al personaje, así que me tiene confundido eso. Que mal que el LORA de Mabel no funciona bien, primera pic con Mabel y segunda sin Mabel, unas pruebas con latent couples y controlnet aunque cuando alejas las pics así salen mal.
>>1281 >¿Qué se supone que debo taggear para entrenar LORAs? Hay varias formas, mucha gente ni siquiera sabe el porque se quitan unas o se dejan tags. Te lo voy a intentar explicar cada uno de los métodos con sus ventajas y desventajas. >Metodo 1 (LoRa prunded) En este tipo de LoRa de personaje, tu quitas todas las tags que puedan describir a tu personaje, hasta en casos más extremos incluso su ropa o características más externas. Por ejemplo para el personaje de pic related, quitarían el cabello rubio, el cabello largo, los ojos amarillos/dorados etc etc...Como incluso en el caso extremo también su ropa. <¿Cuál es la ventaja de hacer esto? Cuando la IA se este entrenando con tu dataset, cuando revise las imagenes y por ejemplo no vea el tag "cabello rubio", y yo agregue por ejemplo el token/tag "Mythra" que supongamos es uno desconocido para la IA, pues la IA lo que hace es que todo lo que en la imagen se ve, pero no esta en tags, significa que están relacionados con el tag "Mythra", en otras palabras, es como que almacenas todos los tags que quitaste en una sola palabra. la ventaja de hacer esto es que hace más fácil salar al personaje que quieres con solo una palabra y como mencione incluso en algunos casos ya con su ropa incluida...pero la gran desventaja es que a la hora que por ejemplo a "Mythra" la quieras por ejemplo hacer con el pelo corto o algo tan simple como ponerte un bikini, NO se va poder o va ser muy complicado. Por lo que tu LoRa de personaje no es Versátil, pero si fácil de usar. <Segunda Opción (No pruned/ medio Pruned) En esta opción tu no quitas "ninguna" o "casi ninguna" de las tags que te genere normalmente el analizador, lo único que haces es añadir tu token/tag especial para llamar al personaje, en este ejemplo "Mythra", la IA interpretara en este método que el "cabello rubio", "ojos amarillos", etc etc. son detalles "EXTRA" del personaje, por lo que a la hora de generar no deberías tener problemas en poder hacer a Mythra en cabello corto, de otro color o con distinta ropa, es un LoRa versátil, pero tiene la desventaja que no es tan fácil de usar y que para hacer los trajes originales pues puedes un poco más de complicaciones pero es posible. Yo personalmente prefiero este tipo de LoRas, y lo que hago es que algunas caracteristicas de mi personaje que SIEMPRE quiero pues las quito, y el resto las dejo versátiles, en el mismo ejemplo por ejemplo yo quiero que Mythra siempre tenga sus colores de pelo y ojos, el tamaño del pelo y pecho los quiero versatiles por lo que no los quito...espero esto te aclare un poco todo. >cuando alejas las pics así salen mal Si eso suele pasar, podríar intentar usar la extensión LLuL, que ya viene con el colab nocrypt instalada para aumentar la resolución/agregar detalles a una determinada área. Tambien a la hora de generar podrías agregar los Hires steps para que ayuden un poco.
>>1236 Cada que entro a grupos de dibujo es un odio tremendo contra las AI, pero esos negros se creen superman y Cristo solo por poder hacer monas chinas, ahora los artistas van a poner los pies en la tierra y van a dejar de vender fotos de perfil a precio de canasta básica.
(1.51 MB 1024x1440 unnamed.png)

(1.40 MB 1024x1440 unnamed.png)



Hice un lora de Mikan con 20 imagenes, maldición negros que calidad al principio, luego todo se fue a la mierda (pic 3) ¿que pasa? la previa se ve bien pero luego todo queda mal.
>>1284 Sube los hires step a unos 12 y se va arreglar, lo que pasa es que el high rest step reconstruye tu imagen para darle más calidad y si son muy pocos queda así
>>1285 Gracias /av/enger, lo voy a probar.
>>1275 >kobeni que se ve riquisima en este estilo omitiendo el error en los dedos de las manos, diría que se trata de un trabajo de Fegu o de algún otro artista queriendo imitar su estilo. >also tal vez sea un LoRA de Fegu.
>>1282 Gracias OP, entonces los LORAs que hacia eran prunded aun así me toca practicar bastante sobretodo con el tema de los Learning Rate para mejorarlos. Aquí mas pruebas con otros LORAs no mios, con el Latent Couple y composable lora, también lull que mejora mucho la calidad. Tengo que intentar con controlnet para conseguir que se tomen de las manos y le besen las mejillas al personaje central.
>>1302 De nada negro, me alegro ver que ya vas full adentro de este mundo. Nunca se deja de aprender en esto y vas aprendiendo bastante rápido si ya dominas el composable y el Latent y hasta entrenas tus propios LoRa. Sigue así. >Tengo que intentar con controlnet para conseguir que se tomen de las manos y le besen las mejillas al personaje central. Es complicado, nunca lo he hecho, pero seguro que se puede hacer. ya estas cerca. Estas extensiones te pueden servir para controlnet. https://github.com/fkunn1326/openpose-editor.git https://github.com/jexom/sd-webui-depth-lib.git
>>1300 >¿Algún consejo para mejorar? Hay mucho en realidad que aprender. Pero yo te diría que lo primero es conseguirte un Modelo que te guste usar. de igual forma con el VAE. Hoy digamos probé el blessed2_vae y me gusto bastante (ya viene entre las opciones del colab). Lo segundo que yo haría es ponerte algunos mini proyectos para retarte a ti mismo e ir conociendo tags nuevas y sus usos, Danbooru tiene una wiki para casi todas y su función. Luego de eso, sería que probaras usar diferentes samplers, diferentes escaladores (Hires fix), no usar Img2img. Ahora se usa Controlnet. Luego de todo eso te diría que aprender a hacer inpaint, para que puedas corregir detalles o incluso editarlos si sabes del tema. Ya con todo eso, pues tambien iras aprendiendo a usar LoRas y extensiones ya vitales como ControlNet
Negros quiero recomendarles esta extensión. Se llama "Cutoff - Cutting Off Prompt Effect", con el tiempo se añadirá al colab nocrypt, la ventaja que esto nos da es que podemos añadirlo a nuestro prompt, para que focusee ciertas tags, muy útil para conseguir colores específicos de la ropa de un personaje sin que las mezcle. https://github.com/hnmr293/sd-webui-cutoff
>>1304 ¿Alguno tiene una guia de instalacion local? Tengo un buen pc y tuve la guia pero ahora no logro encontrarla en ningun lado, kek, los colabs la verdad me tienen loco.
>>1306 ¿Tu PC tiene más de 6 de vram? En ese caso sí podrías instalarlo.
>>1307 >6gb VRam ¿Solo eso? Todo este tiempo he pensado que mínimo necesitábamos una rtx 3060, algo más de 3000 cudas y 10 gb de VRam para ir a una velocidad decente (decente = 8 o 10 min) y solo hacia falta 6gb de VRam????? Hay bastantes tarjetas que hoy se consideran gama baja o de entrada que tienen 6 o hasta más de VRam..
>>1308 Obviamente vas a necesitar cudas para la velocidad, pero sí o sí vas a necesitar más de 6 de vram para que puedas usar una buena parte de sus funciones.
>>1309 Pero cuánto, mi negro? Cuáles son los requisitos para ejecutarlo de manera nativa. Con esto supongo que ya no usaríamos la cuenta del drive ni nada de eso, porque como dijo el otro negro, de verdad es una locura cuando estás tratando de aprender sobretodo, pierdes bastante en encontrar el resultado que espera y cuando menos te das cuenta ya tu tiempo terminó.
Negros tengan cuidado, hay un autista que esta yendo a molestar a /arte/ con el tema de las IA echando mierda a los artistas tradicionales, no vaya a querer meternos en su memeguerra Sospecho que es algo que viene de un grupo de autistas en /arepa/
(1.09 MB 1845x947 Sin título.png)

>>1310 No soy el pero yo pude usar SD con una RTX 2060 de 6gb me debajo hacer imagines de 512x512, con step promedio 20 creo que con euler-a me tardaba a los mucho 5 segundos, si tiene algo mejor que eso te permitira generar imágenes mas grande quiza vaya poco mas rápido, tengo tiempo que no me pongo al día y no he actualizado nada usando un modelo viejo (creo que es el 1.2 de waifus)
>>1306 >¿Alguno tiene una guia de instalacion local? Las que tenía ya están muy desactualizadas, igual en jewtube hay infinidad de tutoriales, el local tiene más contenido que el colab, o en ingles ese es el caso. >>1308 >6gb VRam >¿Solo eso? Se puede decir que si, pero no es lo recomendable, no importa mucho si tu grafica es actual o no, solo que tenga buena cantidad de VRAM, y con 6 es bastante en el mínimo, conozco un amigo que tiene 8 de VRAM y lo más que puede hacer de resolución es 1260x1260 sin usar hires.fix, y con este activado es ir haciendo un poco malabares para que no explote mientras genera tu imagen. Con 6 se estaría incluso por debajo de esto. Y eso sin contar extensiones como Controlnet y su multinet que requieren procesamiento extra. >>1310 >Pero cuánto, mi negro? Para mi son 8 el minimo para hacer cosas decentes, 6 son imagenes muy pequeñas y tendrías las extensiones meta no disponibles. >Con esto supongo que ya no usaríamos la cuenta del drive ni nada de eso No usas drive, todo es en local. Es exactamente la misma estructura pero en tu PC. >>1311 Lo vi, y es seguro decir que no salió de este hilo, gracias por avisar.
Je, eh notado que ya no hay pedidos como al principio del todo... Supongo que ahora que es más accesible y fácil los mismos anons hacen sus propias imágenes. Bueno vengo a pedir un pedido (no tengo PC y Pixai no permite subir LoRas para usarlos a la hora de generar imágenes (espero y cambien eso)... <Pedido Yuzu Tanigawa (si, Yuzubro presente), con los pechos al descubierto/completamente desnuda, mirando fijamente al frente ya sea de pie o recostada en el piso, cama, etcétera, y ya, pueden usar este pedido para probar cosas... Ya sean modelos, gestos, etc El LoRa en cuestión por si algún anon se anima (hay que aprovechar el LoRa que en su tiempo hizo Op y alguien subió a civita je) https://civitai.com/models/11341/yuzu-tanigawa-devil-survivor <Aldo Veo que ya algunos le sacaron provecho al LoRa
>>1314 Que buenas pics. Negro. Ya la última ni parece IA. Ojalá algún Negrito azucarado con bolas de chocholate responda tú pedido (soy el que no es fan de Yuzu pero al menos nos entendemos)
>>1269 >hay un pene sin cuerpo kek De forma no irónica en montones de doujins o ilustraciones Hentai los dibujantes dibujan "penes fantasmas" (Ghost Dick) para ahorrarse el dibujar el cuerpo y no restarle importancia a la mona china recibiendo placer o dibujan cuerpos transparentes. La IA generando miembros fálicos sin cuerpo no es diferente a esto.
>>1316 Ya se que algunos artistas lo hacen, pero eso no quita que siempre me ha parecido gracioso.
>>1280 ¿Como haces para meter los Loras en el colab, negrito? Ni en el que dejaste ni el el primero de OP me crea una carpeta en drive o algo parecido para poder insertar los archivos del lora, o es que debo activar alguna opcion especial dentro del programa para ello?
>>1205 <Pedido Lolis simplemente lolis
>>1318 >¿Como haces para meter los Loras en el colab, negrito? El que deje en este post >>1280 como el primero que deje en post OP funcionan igual, puedes agregarlos de 2 formas, 1 es agregando un link directo de descarga, puede ser CivitAI, Hugginface o Drive, ojo con el "link directo", la otra opción es que subas tus LoRas a una carpeta en tu drive, no importa cual sea, y tu ya pondrás su dirección en el custom urls, por ejemplo (tercera pic), cree una carpeta llamada Lora en mi drive, justo al inicio, por lo que su ruta va ser " Lora/. " agrego el /. al final, y ya, así de sencillo, solo fíjate bien que los nombres de las carpetas sean los mismos, teniendo cuidado con mayúsculas y minúsculas. >me crea una carpeta en drive o algo parecido para poder insertar los archivos del lora Lo que pasa negro que estos Colab no trabajan con tus archivos locales en drive, instalan todo lo necesario en un espacio temporal (segunda pic) por lo que no te están ocupando nada de espacio en tu drive, lo único que guardara en tu drive son imágenes o configuraciones solo si tu lo quieres. Esto es una gran ventaja. Google te da 80 GB de espacio temporal cada vez que ejecutas un Colab, por lo que tienes bastante de sobra para muchas extensiones y modelos. El anterior colab (el de la guia) si trabajaba con tus archivos locales del drive, por lo que es más fácil cagarla. >Aldo En unas semanas tendré unas semanas libres, voy a actualizar por completo la guía para este nuevo Colab Nocrypt, creo que va siendo muy necesario para aclarar algunas cosas, en general este colab es mucho más sencillo y es muy difícil cargarla pero tiene algunos trucos no muy bien explicados.
Posteando Taihous
(173.89 KB 512x768 301832875765115532.png)

(191.77 KB 512x768 301831979956267049.png)

(130.34 KB 512x512 301832151339722860.png)

(553.54 KB 512x768 302550369257462775.png)

(199.56 KB 512x768 301846019122226926.png)

>>1321 >Lisa
>>1322 >Mamako Con esta si que más le saqué provecho. Eventualmente, me aburrire de ella lo veo imposible así que debería ponerme hacer LoRas de las otras monas de su anime empezando por la loli
>>1320 muchas gracias anon, creo que ahora mi unico inconveniente es que a diferencia del super desactualizado que dejaron al inicio, este al no crear archivos locales no me deja en drive mis dibujitos hechos, lo cual es algo incomodo el guardar cada imagen que saque manualmente, ¿Sabes si hay alguna manera de exportación automatica o soy bien down y no vi algo super claro antes de hacerlo?
>>1324 No soy OP pero tienes la opción "output to drive" marcada?
>>1311 Fui a ver y no vi nada, ¿lo abran baneado ya?
>>1324 Al hacer imágenes algo grandes tengo miedo de llenar el drive rápido, unos mejor Telegram
>>1327 Como dijo este negro, >>1325 habilita la opción "output to drive", te creara una carpeta llamada WebUI donde estarán todas tus imágenes que generes automáticamente. Igualmente esta la opción de "Config to drive" lo que guarda todos los cambios a la configuración que hayas hecho. >>1327 Aún haciendo imágenes grandes tardará en llenarse, aparte de los LoRa básicamente no necesitas nada más en tu drive, no desperdicies tu espacio guardando modelos ahí, por ejemplo, solo guarda en drive tus Loras (si son demasiados) y cualquier otra cosa que no tenga link de descarga directo.
>>1205 /PEDIDO/ negrines cuando exista la oportunidad me pudieran hacer el inmenso favor de hacer una versión nfsw de esta monita de wombo si hay chance que la coleta sea pareja estaré bastante, agradecidoy si hay oportunidad ponerle las manos y dedos correctos
>>1329 Crei que esa mona era Miku negra. No me suena de nada, ¿quien dices quien es?
>>1330 En sí es el resultado de generar bastantes variantes originalmente era el pront era rei ayanami haciendo un cosplay de harley quin con coletas de hatsune miku el resultado que me dio lo descargue y lo volví a pasar por wombo y le pedí que lo hiciera de piel color ebano y le puse este pront a_cute_anime_chibi_pfp Symmetric, straight and vectorised y en el menu de wombo pedi que usara el estilo VSX y me dio una monita china pero en3D
>>1205 Opecito y negros azuracados con bolas de chocholate. ¿Alguno ya uso la nueva plataforma que le hace competencia a Midjourney? Se llama Leonardo AI. Y después de estar en una lista de espera por semanas al fin me aceptaron. Es gratuito y usa un sistema de tokens parecido a PixAI. Tiene su propio modelo de difusión y acesso a varios. Incluso algunos modelos creados por la propia comunidad. Más otras opciones. Todas éstas pics las saqué de ahí. (Iba a poner otra pero necesitaba poner el logo) Le pido por favor a OP que la recomiende en un próximo hilo cómo alternativa de IA en línea. Dejo el enlace, es gratuito. Solamente les advierto que el tiempo de espera puede ser largo: https://app.leonardo.ai/
>>1311 Kek, no me sorprenderia que fuera el mismo de la memeguerra de rance e hispachan
(530.65 KB 2624x1888 Frif_xRXoAAHune.jfif)

>>1332 Muy bien negro, lo pondré en el próximo hilo! Si tienen más plataformas, extensiones, modelos o cualquier cosa que vean útil me avisan para irlas añadiendo.
(95.00 KB 960x540 9n9lerjqn65z.jpg)

Negros ¿Alguien sería tan amable de pasarme el VAE de NutMegMix? Soy bastante nuevo y no lo encuentro en la guía de OP. >pic ni remotamente relatada
>>1335 Aquí lo podes descargar https://mega.nz/folder/8HUikarD#epAOm3l2hltC_s_oiSC9dg Yo le cambie el nombre cuando hice las pics de ejemplo, pero su nombre original es "Berry's Mix.vae.pt" Igual te recomiendo probar el "blessed2_vae" es un mix que esta bastante bueno, no tiene el mismo nivel de color tan intensa y hasta aveces saturado del "nutmegmix" pero son bastante decentes. Como pics related que hice con este VAE y el AbyssOrangeMix3
>>1337 Suele olvidarse de la cola, y creo que debí haber especificado que tuviera pecho plano, en estos probe con el unet a 0.00007 y el text encoder a 0.000035 que era el minimo donde no quedaban deformes (teniendo en cuenta que por defecto kohya tiene 0.0001) aunque probablemente deba bajarlos a algo como 0.00005 o 0.000025 para probar >aldo Estos los hice con los tag invertidos, osea en vez de taggear lo que no quiero en el lora puse las características principales del personaje, funciono bastante bien con el ángel, sobretodo con la aureola falsa aunque para que funcione bien debo colocarlo en los prompts.
(864.16 KB 1024x952 304405991373435774.png)

Kek. Le generó lentes de la nada.
>>1337 Cuando pasa eso que se ve borroso o saturado, es porque el LoRa se sobre-entreno, o se fundió/quemo. cuantas imágenes eran ? con cuentas repeticiones y epochs? el LR 0.0001 normalmente va bien, Unet 0.00015 mismo con textencoder. también podrías probar si con otras versiones del LoRa anteriores no tiene ese efecto de saturación. También he visto por experiencia que si tu dataset repite mucho imágenes que son iguales o casi idénticas también provoca este efecto. >>1338 >Estos los hice con los tag invertidos En si no taggeas lo que no quieres, si no que todo lo que se taggea se queda como una "variable", al tagger las caracteristicas de tu personaje esas características se vuelven variables y por lo tanto es un LoRa Versátil, debes colocar los tags siempre en este tipo de LoRa porque como dijo ahora los tags son variables y no algo que viene intrínseco con un custom token o tag personalizado, por ejemplo las marcas de agua y otras cosas así son cosas que no se quieren en la imagen...hasta donde se es mejor dejarlas tageadas para que así a base de negativos quitarlas. porque si en tu dataset hay muchas marcas de agua tomara que son parte de tu token
Negritos, una pregunta, podría yo subir mis dibujos y que la IA los pinte? Obviamente yo le diría que color es cada cosa, como la piel, el pelo, los ojos, etc etc etc...
>>1342 Por supuesto que si, aunque tienes que buscar un modelo que te ayude a eso o por su defecto un LoRa como el de Lineart, suponiendo que lo que quieres no es un producto terminado...te dejo un ejemplo que hice en 1 o 2 minutos. >Primera Pic Pic original (tu dibujo o input) A este le utilizo el preprocesador Canny (cunny kek) de controlnet, para que procese la imagen o en tu caso tu dibujo. >segunda y tercera pic Le pedí a la IA que la imagen tuviera una chica, con ojos rojos y cabello purpura. deje el Weigh del Controlnet alto para que no modifique la imagen demasiado...pero si quisieras seguir con algún resultado que te dio, lo iteras, con esto me refiero a que en lugar de utilizar primera pic para preprocesar, vas a utilizar tu imagen resultado, segunda o tercera pic. Mi modelo no es uno para este tipo de dibujos por lo que da resultados muy "detallados" no se como llamarlo, o poco realistas.
(5.53 MB 1728x2304 292303.jfif)

>>1343 >aldo Para conseguir colores de forma más consistente revisa esta guía https://civitai.com/models/22189/tutorial-regional-prompter-more-consistent-colors
>>1343 >que buscar un modelo Entonces el modelo que está en el tuto no me serviría para ello? Me refiero al OrangeAbbyss. >quieres no es un producto terminado No no, en realidad si quiero algo que me esté entregando un producto casi final, me ahorraría mucho trabajo, suponiendo que no tome mi solicitud al 100% solo me quedaría corregir o editar por mi cuenta uno que otro detalle. El estilo que me interesa de coloreado es el mismo que ha estado usando el OP en todos sus hilos y entregas de pedidos, tengo entendido que usa "negative prompt" o algo así. Pero no sé si será suficiente solo con eso. Lo principal que me importa ahora mismo es poner yo el lineart y que la IA me devuelva el trabajo pero ya pintado sin perder la resolución original (generalmente es a 5000px x 6000px a 300dpi ¿Uso en mismo collab y SD que todos estan usando desde el inicio? U necesito otro? En las opciones una vez dentro de la interfaz, el que llegué a probar fue el txt to img pero para lo que yo quiero. Es decir, lineart pasarlo a color, ¿Necesito trabajar con otro supongo, verdad? >deje el Weigh del Controlnet alto para que no modifique la imagen demasiado.. Aah eso también me interesa porque lo que no quiero es que la IA modifique el estilo de ojos, que yo suelo hacer. Aunque voy a tener que leer que cosa es exactamente eso de weigh
>>1345 >Me refiero al OrangeAbbyss Te sirve, si quieres hacer imágenes como las mías sería el más indicado, te sirve tanto el Abyss2 o el 3, (habla OP), pense que tu idea era algo no tan terminado. >"negative prompt" Son prompts pero estos describen todo lo que NO quieres en tu imagen. viene por defecto en SD, normalmente siempre usaras genéricos a menos que haya algo en concreto que no quieras para nada en tu imagen. >5000px x 6000px Se puede mantener ese aspecto, pero en el caso de hacer imágenes muy grandes, SD creo que máximo llega a los 2000x2000 96 ppp, por lo que no puedes pasarte, por lo que si te pasas de eso lo que puedes hacer es reducir el tamaño a la mitad y hacer tus generaciones con la versión reducida (aparte serán más rápidas) y luego una vez tengas tu resultado deseado puedes meterlo a la parte de Extras o usar un reecalador web como Waifu2x para devolverlo a su resolución original. >¿Uso en mismo collab y SD que todos estan usando desde el inicio? U necesito otro? Usa el primero que deje en OP https://colab.research.google.com/drive/1wEa-tS10h4LlDykd87TF5zzpXIIQoCmq A la larga es más sencillo y mejor que el anterior, estas semanas las voy a tener libres y la guía la voy a volver a escribir para este nuevo Colab. >¿Necesito trabajar con otro supongo, verdad? Si usas ControlNet no es necesario, normalmente usarías Img2img en su defecto pero controlNet es lo mismo pero muchas veces mejor. >Aunque voy a tener que leer que cosa es exactamente eso de weigh Deje una guía en OP también sobre que es cada cosa en ControlNet, créeme que no es difícil de usar, lo que pasaba con Img2img y no pasa con Controlnet, es que Img2img si quieres que como mencionas no quieres que la IA modifique tu estilo, pues esto con Img2img es muy complicado, solo existen 2 casos, o la imagen es casi idéntica o la imagen era distinta, en controlnet pasa tanto esto y te deja variar lo suficiente. https://rentry.org/dummycontrolnet
(227.93 KB 1080x1172 19474739182.jpg)

Negroides ¿Que opinan de la lloradera de Amnosugoi? https://www.anmosugoi.com/de-interes/ia-imita-ilustraciones/
(2.00 MB 480x360 pb7dyfbx12x45de.mp4)

(28.27 KB 728x421 images (1).jpeg)

>>1347 Cómo chillan, la IA llegó para quedarse.
>>1346 >Abyss2 me sirve, negrito, de hecho me gusta mucho el acabado, pero como dije, este sin el Negative ese del que hablo (recuerdo que se copia en una de las carpetas donde está el modelo y todo) y se le llama, tampoco salen como lo que estoy buscando. Ahora en un rato empiezo a probar todo aquello a ver que tal me va. >o usar un reecalador web como Waifu2x para devolverlo a su resolución original. prmera vez que escucho (o bueno, "leo") acerca de Waifu2X, supongo que trabaja con una base de datos tambien para rellenar los espacios estirados y que no se logre ver el pixelado. Gracias negro. Definitivamente también debo probar ese. >A la larga es más sencillo y mejor que el anterior, estas semanas las voy a tener libres y la guía la voy a volver a escribir para este nuevo Colab. Entonces mejor me espero, kek, no tengo prisa después de todo y si hay mejoras y estás dispuesto a actualizarlo, yo esperaré. >ControlNet yo estuve en el hilo anterior a este y lo dejé por que andaba ocupado, pero si llegué a leer sobre el ControlNet, más me quedó pendiente el usarlo y seguir la guía. Gracias negro por el tiempo que te tomas en explicar estas cosas.
>>1347 Es ridículo que lo llamen plagio cuando para empezar el estilo de un artista no esta protegido por los derechos de autor.
(172.06 KB 925x884 image-6.png)

Negro que esta aprendiendo arte tradicional reportandose Ahora voy a hacer estos ejercicios con los cubos. Ya que tenga la práctica suficiente creo que ahora si será el siguiente paso e instalare la IA para hacer referencias de cuerpos para practicar >>1347 >Anmosugoi No me sorprende. Igual, sigo sin entender cuál es la lloradera con la IA. Eh visto a varios "artistas" tanto en Hispa como en arte diciendo cosas como "¿Para que aprendo si la IA ya lo hace todo?", "El arte tradicional ha muerto", "Ya no sirve de nada dibujar, ya no tengo motivacion" Y es en plan ¿Que? No entiendo por qué piensan que no pueden coexistir los artistas tradicionales con los ilustradores IA (Aún que parece más una cosa forzada de una memeguerra en arepa) los artistas ahí afuera siguen siendo relevantes y ganando buen dinero, yo leo eso y digo al contrario la IA debería motivarte más a aprender y mejorar usándola como herramienta (O al parecer solo yo entendí eso, bueno y los artistas orientales kek). Entrar en arte es como entrar en un velorio, no entiendo por qué el pesimismo, esto no es el final, al contrario es un nuevo comienzo, loomis estaría orgulloso de nosotros
>>1351 >siguiente paso e instalare la IA para hacer referencias de cuerpos para practicar Eso no tiene sentido, la IA tiene errores anatómicos que, de igual manera lo tienen otros 82747388283 artistas en el medio. Si quieres usar referencias, no sería mejor usar fotos reales en lugar de dibujos? >>1350 Yo creo que es normal el malestar negro y al mismo tiempo es algo hipócrita. Es normal que alguien vea con malos ojos como le hurtan el estilo, algo que te define y te diferencia de los demás, es como el sello que te ha costado horas y horas de trabajo, ahora cualquiera, simplemente hace un estudio de ti, tratando de descifrar tu técnica, tus patrones y empieza a replicate. Pero es hipócrita al mismo tiempo porque todos aquellos (al menos esos que se ganan la vida desnudando monas chinas) dibujan personajes que les pertenecen a alguien más, si si claro no lleva el mismo estilo que el original (ya eso sería el colmo) pero es propiedad de terceros, porque fueron quienes lo construyeron. El estilo es similar, es algo que te costó construir a ti. Pero la diferencia es que no está protegido por derechos de autor.
>>1349 >este sin el Negative ese del que hablo Creo que te refieres al VAE >Gracias negro por el tiempo que te tomas en explicar estas cosas No es nada, espero esta nueva guía no se desactualize tan rápido...
>>1353 >Creo que te refieres al VAE no negrito, el VAE creo que es el que da mas saturacion a los colores, pero solo eso. creo que al que yo me refiero es el EasyNegative o algo así, solo se copiaba en una de las carpetas donde tenemos los modelos y eso, y ya en la interfaz del SD solo teníamos que llamarlo para que se aplique, y da como ese efecto de más constrastes que se ve bastante bueno. >espero esta nueva guía no se desactualize tan rápido... kek, eso está bien dificil, cada vez me parece que avanza más y más rápido.
(464.92 KB 1219x1969 20230326_113229.jpg)

>>1205 Kek negros los chinos ya están usando IA para su publicidad de juegos
>>1355 Al menos deberían hacer que algún artista corrija los errores, aunque seguramente son los equipos de marketing quienes lo hacen.
>>1356 Lo más probable, en los juegos de teléfono suelen meter tremendos b8s como publicidad, pero resulta que los responsables de dichos b8s son el equipo de marketing o una empresa subcontratada.
(18.77 KB 704x495 FrjXxUOXwAQMOaQ.jpeg.jpg)

>>1357 Pues teniendo en cuenta que son chinos, lo más probable es que ni les importe realmente Que no se haga extraño si juegos como Genshin Impact empiezan a usar puro arte IA, al menos en publicidad
(82.29 KB 652x1024 1670019866921323m.jpg)

(79.70 KB 652x1024 1670021384492056m.jpg)


(61.82 KB 652x1024 1670024022902543m.jpg)


>>1355 ¿Se ha confirmado que eso sea cierto? En el 4 ya venían diciendo que en Pixiv posteaban fanart IA para generar interés pero no le presto mucha atención a ese gacha (la única mona que me llama la atención es la Soda) aldo Nikke es un gacha coreano >inb4 son la misma mierda
>>1355 pero los artistas siguen copeando que no seran reemplazados
Estuve usando el colab que dejo >>1280, pero de repente por alguna razón la zona de los Loras desapareció totalmente del Colab, sin mas, de hecho directamente ya no me sirve para generar ningun tipo de imagen, ¿Alguno sabrá que cambió?
Guía de Instalación actualizada https://rentry.org/instalacion-sd Negros, les habla OP, la guía de instalación a sido casi totalmente re-escrita, con mucho más contenido útil, si tienen dudas o sugerencias estaré leyéndolas. Cambios: > Guía casi totalmente reescrita para el nuevo Colab Nocrypt >Guía de creación de imágenes mejorada >Como usar y descargar LoRas >Guía para usar Negative Textual Inversion >Guía para re-escalar imágenes >Muchos más ejemplos que antes Ahora esta guía estoy totalmente seguro que le va servir tanto a quienes apenas empiezan y hasta los que ya tienen experiencia. >>1354 >EasyNegative Ya forma parte de esta nueva guía, dale un vistazo para que te quede más claro! https://rentry.org/instalacion-sd#negative-prompt-y-uso-de-textual-inversion >>1361 Estos días no estuvo funcionando, la ultima versión es inestable, por lo que hay que usar la "stable build" por ahora (cuarta pic)
>>1362 >Guía para re-escalar imágenes ¿Qué tan bueno son esos re-escaladores en comparación con Real-ESRGAN y Real-CUGAN?
>>1363 Dentro de este Colab viene un escalador que se llama 4x-UltraSharp que hasta donde he leido y probado por cuenta propia es mejor que Real-ESRGAN por lo menos, pero revisa la guía para que puedas verlo a mas detalle que hago. pic 1 original, pic 2 resultado final re-escalado con 4x-ultrasharp...esta no la agregue a la guía por ser NSFW
(5.95 MB 2048x3040 cugan.png)

(5.57 MB 2048x3040 cugan denoise.png)

(4.57 MB 2048x3040 esrgan.png)

>>1364 Bueno, hice un re-escalado para compararlo aquí mismo.
>>1365 No va ser una comparación muy justa, yo primero pre-proceso la imagen, se podría decir que se re-escala 2 veces. En la guía explico que método sigo, ahí si sería una comparación más justa.
Varias imágenes que he hecho estos días, aunque me vendo dando cuenta que se me olvido rehacer la ultima imagen pero con reescalado >>1341 Al final el problema no era los LR sino que no había cambiado el lr_scheduler_num_cycles de 0 a 1 kek, con eso arreglado el LR a 0.0001 funciono perfecto, también el VAE que usaba era bastante malo. >>1362 Gracias OP la leeré esta semana, sobretodo porque me interesa el Easynegative
>primera pic El controlnet es verdaderamente impresionante, si me pusiera quisquilloso podría decir que le faltan las piernas que en la imagen original tampoco se ven muy bien pero como representa los detalles es impresionante. Y no se que tiene Lingeriena que cada cosa que hace es sensual. >>1351 Están como cuando se hicieron populares los sintetizadores de voz tipo Hatsune Miku y todos decían que los cantantes ya no tendrían trabajo que todo seria por computadora y al final no paso nada
>>1368 >primera pic Bill decidió que dejaría de ser un lagarto maricón y se volvería un hombre Que mal que SD no logra hacer trincheras sin controlnet Una pequeña historia >ser yo >gustar del modelo Cameliamix >querer descargarlo de Civitai <error 404 este modelo fue nukeado >buscar mas del mismo autor intentando conseguirlo >encontrar una mezcla parecida >mejor es nada y funciona bien <un par de días después fue nukeado también >AAAHHHHHHH Al menos alguien en el cuatro tenia una colección de muchos modelos y justamente tenia varios de ese autor, desde ahora guardare copias de los modelos que me gustan >aldo Si algún BSbro quiere hacer un pedido puede hacerlo, de todas maneras me estoy quedando sin ideas, aunque no puedo hacer varios personajes en una pic o cosas extremadamente complicadas por si acaso.
(388.37 KB 850x566 Kuuga_thumbs_up.png)

>>1351 Negrito, primero que nada quiero felicitarte, no solamente por aprender tú solo, sino por tu mentalidad positiva. No quiero criticar a nadie ni crear polémica, pero creo que sí más gente pasara de "oh no, la IA puede hacer (((inserte equis cosa aquí))) ya mejor ni me molesto" y cambiara la polaridad a "Ey, sí la maquina puede hacer esto, ¡entonces yo también puedo!". Ese es el tipo de mentalidad que necesitamos en la era actual, la IA llegó para quedarse y hacer cambios permanentes en la sociedad , como cuando llegó la radio, llegó la televisión, llegaron los videojuegos, el Internet, los celulares inteligentes, etc. Y lo importante es adaptarnos a ese cambio, no luchar contra el cambio. Sigue así negrito, te quería felicitar antes, pero soy un puto flojo pero no un flojo puto
(682.97 KB 640x832 media_FfM4_F_aAAAe1qf.png)

(747.84 KB 640x832 media_FfM5uk0aEAEJm1d.png)

(742.64 KB 640x832 media_FfM5Pa3aUAM2WAW.png)

(744.50 KB 640x832 media_FfM5CBYaUAEvnA-.png)

(794.01 KB 640x832 media_FfM6HpcaMAA4xTg.png)

>>1205 Hola OPecito y negros, quizás sea un poco pronto para hacer esta pregunta ya que realmente no fue hace mucho; pero debido a lo rápido que avanzan los tiempos más esta tecnología mi pregunta es: >¿No se sienten nostálgicos cuando las primeras imágenes IA? Al principio me parecía alucinante porque parecían pinturas porno HD (KEK) sobre todo ese estilo victoriano. hoy día todo es más estilo anime e hyper realistas, que me gustan pero extraño un poco eso. <Aldo Estas fueron del Twister de ChromedSets, era mi favorito para las tetas victorianas, pero no publica nada nuevo desde diciembre de 2022. No son indígenas latinas pero americanas pero de cierta manera cuentan.
>>1372 >hoy día todo es más estilo anime e hyper realista En realidad es más por casualidad, negrito. La mayoría de nosotros por fin podemos crear momentos específicos para nuestras monas chinas y sabes muy bien que casi en su totalidad todas tienen el mismo estilo así que es normal que parezca que ya no se hace nada que no fuera ¿estilo anime?. Si te has pasado por Civitai te darás cuenta que hay varios modelos y loras para hacer diferentes estilos pero, vamos negro, estamos en un chan sabes muy bien que las monas chinas siempre serán la prioridad kek.
(103.00 KB 972x1191 20230327_004558.jpg)

Negros me esta empezando a preocupar esto de las Deepfakes, ya se están empezando a hacer virales imágenes como esta que esta hecha con IA y de otros famosos, si veo gobiernos haciendo leyes contra la IA por estas cosas Ahora las vtubers tienen una razón de existir, que cualquiera te convierta en su conejillo de indias para la IA si suena distopico kek y ni así se salvan del todo pues están las IA de voces
>>1374 Por esa razón es mejor que crees todas las imágenes que supongas que no podrás en un futuro (esperemos que muy lejano) donde pondrán restricciones como lo están haciendo con las IA chats.
>>1374 Por eso hacen faltas IAs locales puedas hacer correr en tu PC sin tener que depender de un servidor externo, seria la única forma de escaparle a un control externo.
>>1373 Creo que tienes razón, negro. Yo cuando comencé a ver esto de las IA en Twitter (mediante el front end de Nitter) y ese estilo victoriano de tetas grandes me tenía fascinado, pero supongo que ha quedado obsoleto. Supongo que soy el único nostálgico. >CivitAI Kek, no, apenas he entrado un par de veces, me la paso en Pixiv, AIbooru y acá, y creo que por eso pensé que la mayoría que veo son estilo anime, no fue sino hasta que logré hacerme cuenta en LeonardoAI que noté que sí tienen galerías más variadas. >>1374 Creo que ya habido presos por los deepfakes, y recuerdo un caso de una JEWtuber que lloró porque le hicieron un deepfake porno, hasta Ben Shapiro le hizo un vídeo a su caso, kek. Por eso es mejor guardarse los deepfakes para uno mismo, ya que ni que decir de la gente que usa la IA de voz para otros fraudes. >>1375 >>1376 Consigan una GPU NVIDIA de las buenas y entrenen sus modelos, pero creo que para los que queremos divertirnos con la IA (como yo) con monas chinas e imágenes bonitas, tenemos casi suficiente con los servicios en línea.
(443.71 KB 512x768 1666599345310999.png)

(422.69 KB 640x640 1666028941374915.png)

(1.12 MB 768x1152 1666058094597667.png)

(672.25 KB 768x768 00051-4132952952.png)

(594.17 KB 832x960 1665466311285681.png)

>>1373 Lo que más yo extraño son esos off model que caían en la categoría de horror cósmico.
>>1378 La tercera pic de dos cabezas, me da una erección extraña. Una te la chupa y la otra te lame las bolas. Gemelas de dos cabezas que comparten un solo cuerpo me dan morbo tremendo desde que un mini documental en Discovery. Joder, hasta me la jalaba con los dibujos de un sujeto que hacía de ese fetiche en Deviant Art. Gracias por los recuerdos, negrito.
Si intento hacer una mona china en un modelo realista, ¿Termino obteniendo algo parecido a un cosplay? Y si es así, ¿Es posible con los loras?
>>1205 ¿Negroides que modelos ustedes usan? Yo generalmente uso el anything-v4.5 y el Uber Realistic Porn Merge. Intenté hacer a komi-san con una lora de civitai y me sale tremendo horror cósmico.
>>1362 Ufff muchas gracias opcito, salgo de vacaciones esta semana y este guía será de muchísima utilidad para ponerme al día con la IA
>>1372 >¿No se sienten nostálgicos cuando las primeras imágenes IA? Uhm en cierta parte si, más que nada me hace pensar y preguntarme "esto me impresionaba hace apenas unos meses atrás?", y apenas me doy cuenta de lo rapido que ha crecido todo esto, solo me doy una pasada por los primeros hilos, nunca pensé que cuando abrí ese hilo llegaríamos a lo que es hoy ya cerca de un séptimo hilo. >>1380 ¿Termino obteniendo algo parecido a un cosplay? Hmm si, creo que si, he visto muchas imágenes así, pero nunca he hecho una. Yo prefiero las monas 2D. ¿Es posible con los loras? Esto si se puede, pero dependerá del LoRa, cada persona cocina sus LoRa de forma distinta o usa diferentes datasets, pero por norma, si el LoRa esta bien hecho se puede usar en cualquier modelo. >>1381 ¿Negroides que modelos ustedes usan? <AbyssOrangeMix 2 (NSFW y HARD) y el Abyss3 <FoxyaNSFW y también quiero empezar a usar <Defmix-v2.0 >Intenté hacer a komi-san con una lora de civitai y me sale tremendo horror cósmico. Probaste usar algun prompt de muestra? en la pagina de cada LoRa por lo general se dejan bastantes ejemplos...podría ser que este LoRa no sea muy bueno o no seguiste alguna recomendación de su pagina.
>>1381 >¿Negroides que modelos ustedes usan? También uso el Anything V4.5, si bien hay mejores modelos como los AbyssOrangeMix prefiero a Anything... No se, supongo que se debe a qué no soy muy fan de los modelos muy detallados (sobretodo los modelos "realistas", prefiero hacer monitas chinas 2D). Aunque debes en cuando uso el AbyssOrangeMixV2 y uno llamado Anigma solo a modo de probar propts o simple curiosidad
>>1384 A mi también me gusta mas hacer monitas chinas, pero desde que salió el modelo iCoMix también me gusta generar con estilo de comic.
(738.55 KB 512x768 305387086866444897.png)

(452.52 KB 512x488 307018740616773351.png)

(454.39 KB 512x488 307027330563946441.png)

(448.09 KB 512x488 307027329460842885.png)

(479.26 KB 512x488 307027352038781810 (1).png)

>>1381 >¿Negroides que modelos ustedes usan? Bueno, negro, yo me limito a las IA de uso en línea y es que el proceso de usar Google Colab me resulta muy engorroso para mí gusto, y solamente me quiero entretener. Pero uso básicamente PixAi y LeonardoAi, en estos: >AbyssOrangeMixV2 >PastelMixAIV2.1 >PixAI Real V3.0 >Pixai Asian Real Mix V2.0 >Anything V4.5 >LeonardoCreative >Deliberate1.1 >Dreamshaper >RPG 4.0 Lamentablemente Leonardo AI no me duro mucho. >>1384 >>1385 Yo en cambio no puedo parar de hacer modelos realistas, mis negros, kek. (Sobre todo pelirrojas y asiáticas pero PixAI no me duró mucho) >ModeloICoMix Sí puedes sube algunas negrito, una vez vi una Super Girl IA en Pixiv muy parecida a la caricatura de Superman, fue hace bastantes meses.
(8.45 MB 870x720 lv_0_20230330111222.mp4)

>>1381 >¿Negroides que modelos ustedes usan? El todo poderoso Anything V4.5, fue de los primeros modelos que probé y me gusto mucho, su estilo me encanta y hasta hoy no eh encontrado otro modelo que me guste igual... Aunque debes en cuando uso Counterfeit v2.5 y AbyssOrangeMixV2 >Modelos Realistas No me gustan, no por nada en especial, pero prefiero hacer imágenes 2D de mis monitas favoritas, aunque también tienen lo suyo, me cage de risa cuando vi a gente creyendo (de manera sería) que las imágenes del vídeo este es real, kek >Aldo ¿Algun anon de aquí a hecho/intentado hacer un minicómic/doujin Hentai con imágenes de IA? Solo curiosidad
>>1387 Habemus CHAD
>>1381 Abyssorangemix para cosas hardcore y fondos detallados. AnythingV4.5 para porque se acerca al estilo de anime convencional
>>1390 >mirame, respira y calmate, soy yo Mary no Leaf, esto no es el país de las maravillas, es el hospital >estas en un estado de psicosis por no tomar tus medicamentos, el doctor te dijo que son necesarios para tu recuperación. >¿Alicia? Te gusta mucho ese libro ¿Verdad? Vuelve a tu habitación e iré a leerte ese libro mas tarde. Un giro de este estilo no estaría mal como el final de darkness 2
Una duda, ¿Es posible crear un lora de un personaje con una sola pic? Me da curiosidad si alguien lo logró, o que tan complejo sería en caso de ser posible.
>>1390 Dios mio como amo a esa calenturienta. >>1391 CALIDAD de Leaf, se me paró.
>>1392 Se puede, no es para nada lo ideal, va estar mega limitado pero se puede, solo tendrías que dejar los pasos bastante bajos. Y aparte la imagen que se use tiene que ser buena y clara. >Aldo Negros ya se nos acaba el Hilo, hay que empezar a pensar en la temática/edición del siguiente hilo, voy a hacer quizás un par de imágenes para el post OP, pero si alguien quiere puede aportar y yo las agrego, también que más información debe ser añadida a los links de este post? Que recuerde solo me recomendaron agregar a AIbooru y Leonardo AI
¿Alguien sabe cuál es el software que usan para hacer vídeos y gifs con el mismo principio del stable? He visto gente haciendo monas chinas mamando pito con solo IA y miles de cosas similares.
>>1394 >Negros ya se nos acaba el Hilo, hay que empezar a pensar en la temática/edición del siguiente hilo Un par de sugerencias >Traje de oficina/Secretarias > Ropa deportiva (pants de yoga, bra deportivo, uniforme deportivo escolar, etc) >Ropa Militar/policías > Que más información debe ser añadida a los links de este post? Esto es más una sugerencia a futuro, pero estaría bueno que hicieses una guía para hacer LoRas (de personaje específicamente), aunque sea super simple o básica, tener una guía a la mano sería de mucha ayuda para el que quiera hacer un LoRa de su monita que ni dios conoce
>>1397 Tengo unas Powers con Running Shots, si es de ropa deportiva la puedo postear ahi
>>1394 Junto a Pixai añade estas: <Yodayo: https://yodayo.com/ Al hacer una cuenta te dan 400 beans (gemas) y te dan 35 beans gratis diarias. Para generar se gastan 5 beans y tiene más modelos y LoRas que en Pixai <Holara.ai: https://holara.ai/ De estos dos yo recomiendo más Yodayo ya al hacer una cuenta te dan 400 beans (gemas) y te dan 35 beans gratis diarias. Para generar se gastan 5 beans y tiene más modelos y LoRas. Holara genera imágenes de mejor calidad pero no tiene muchas opciones y no puede hacer imágenes explícitas >Aldo1 Pixai añadió una tienda para conseguir y subir LoRas de personajes aparte de los que el sitio tiene por defecto y aquí tengo una duda: los LoRas que yo suba a la tienda *tienen* que ser creados por mí o puedo subir modelos de otros usuarios? (Pidiendo permiso al creador original claro está) >Aldo2 Quise correr este colab >>1362 y apareció un error de que no está definido el "Waifu_diffusion_beta_2AES" >>1397 Voto por los pantalones de yoga
(19.07 MB 3680x5152 00002.png)

>>1387 >¿Algun anon de aquí a hecho/intentado hacer un minicómic/doujin Hentai con imágenes de IA? No he intentado...pero quizás lo intente, no se si estilo manga o solo con texto dentro de la imagen. >>1395 La verdad no se mucho al respecto, diría que todavía esta algo beta, pero te recomendaría buscar videos al respecto en ingles. que creo haber visto que Deforum que era lo que antes se usaba ya quedo obsoleto. >>1397 >Ropa deportiva (pants de yoga, bra deportivo, uniforme deportivo escolar, etc) Me gusta (y me ahorra hacer nuevas pics kek) >pero estaría bueno que hicieses una guía para hacer LoRas No puedo, aunque he hecho LoRa no me considero un experto, aparte ya hay una guía en los links donde se hace un LoRa de personaje, aunque igual hay otra guía que agregare aparte de esa. >>1398 >si es de ropa deportiva la puedo postear ahi Por favor negro! >>1399 No uso PixAI así que no puedo ayudar. >"Waifu_diffusion_beta_2AES" Mejor prueba otro modelo, quizás esta dando problemas su link al estar en beta o algo.
(110.52 KB 640x360 tejcdbstvewmjon.mp4)

>>1399 >Pixai añadió una tienda para conseguir y subir LoRas de personajes aparte de los que el sitio tiene por defecto UFF... MIS PLEGARIAS FUERON ESCUCHADAS... Finalmente podré hacer imágenes de Yuzu y las monitas más desconocidas de Shin Megami Tensei VAMOS!! >los LoRas que yo suba a la tienda *tienen* que ser creados por mí o puedo subir modelos de otros usuarios? (Pidiendo permiso al creador original claro está) Pueden subirlos (con el permiso del creador claro) lo dijeron en su discord >Aldo ¿OP, puedo subir tu modelo de Yuzu a PixAI?
>>1401 >¿OP, puedo subir tu modelo de Yuzu a PixAI? Si, Adelante
>>1400 Por favor negro has más monas así con traje de fitness haciendo yoga y levantando las patas como esa.
>>1403 Tengo otro par pero son de la misma mona, fue una comisión. Mañana Abro el nuevo hilo, o hoy si este negro >>1398 pasa algunas pics, o cualquier otro quiere aportar, a si no solo son pics mías.
(506.38 KB 512x768 00007-2303784834.png)

(756.18 KB 608x864 00007-2365774898.png)

(354.37 KB 512x512 00030-3037494616.png)

(381.63 KB 512x512 00033-2547406288.png)

(449.46 KB 608x608 00059-3609333466.png)

>>1386 >Sí puedes sube algunas negrito, una vez vi una Super Girl IA en Pixiv muy parecida a la caricatura de Superman, fue hace bastantes meses. Ahi estan negrito, son algunas que pude hacer. >>1387 >¿Algun anon de aquí a hecho/intentado hacer un minicómic/doujin Hentai con imágenes de IA? Como estoy usando el Lora de TerasuMC y Takeda Hiromitsu me hago tremendas pajas mentales con ugly bastards y corrompiendo algunas monas. >>1394 Negros ya se nos acaba el Hilo, hay que empezar a pensar en la temática/edición del siguiente hilo ¿Algo con leotardos? Descubrí que me encanta vestir a mis monas con solo eso.
>>1400 OP, que prompt o LoRa usaste para esa pose?, Quiero hacer a una imagen de mi monita así


Forms
Delete
Report
Quick Reply