/arepa/ - Magna Arepa

Contacto: magnarepa@cock.li

Página principal Catálogo Archivar Bajar Actualizar
Opciones
Título
Mensaje

Máximo de caracteres: 12000

archivos

Tamaño máximo de archivo: 32.00 MB

Tamaño máximo de archivo en total: 50.00 MB

Numero máximo de archivos: 5

Supported file types: GIF, JPG, PNG, WebM, OGG, and more

Correo
Clave

(usado para eliminar archivos y mensajes)

Misc

Recuerda leer las reglas

The backup domains are located at 8chan.se and 8chan.cc. TOR access can be found here, or you can access the TOR portal from the clearnet at Redchannit 3.0.

Ven a conversar y pasar el rato con un chatbot
Sábado en la noche


8chan.moe is a hobby project with no affiliation whatsoever to the administration of any other "8chan" site, past or present.


(7.53 KB 229x197 20240617_110826.jpg)

Negros mencionen como acceder a IAs no controladas por el SIBCI Arepana 22/06/2024 (Sab) 20:22:44 Id: d124ea 86081
Hace poco en un Hilo que ya fue borrado, salieron varios negros diciendo que sabían trabajar con IAs y como conseguir IAs "menos restrictivas" o directamente programarlas Quería INVOCAR a esos negros para ver si nos recomiendan alguna página donde chatear con una u obtener una IA a la que se le puedan preguntar las vainas más censurables del mundo, desde cosas obscenas hasta conspiraciones, algo que deje al Chat GPT modo DAN en panales Estoy cansado de preguntarle al Géminis / ChatGPT y me salga con una pendejada progre o advertencia ridícula que nada es comprobado Una Ladilla.
>>86081 Tendrás que bajarte de la mula. Puedes montar un servidor IA de texto por tu cuenta en tu pc o un servidor que tu contrataste. No es imposible pero requiere práctica. Pero ya sabes, no te saldrá gratis y tomarás unos días en aprender a usar esa vaina.
>>86082 Cuánta potencia requiere un bicho de esos? No sé podrían ocupar como procesadores teléfonos sin usar?
>>86085 Se van a quemar. O ni debería correr. Mejor ponerlo a correr en una PC básica que no tiene tarjeta gráfica (o una sencilla). La única consecuencia es que va a tardar unos buenos minutos en responder
Ahora estoy ocupado, te puedo dar una respuesta más elaborada en unas horas pero tl;dr https://github.com/KoboldAI/KoboldAI-Client Los modelos los sacas de su UI o los puedes importar manualmente de Hugging Face. Lo puedes desplegar en el colab de Google para que te hagas una idea de como funciona y luego armarlo sobre un GPU de Nvidia local. >Inb4 ¿Hay otra alternativa que no sea Nvidia? Realmente no. El kit Cuda no está disponibles en otros GPUs y no hay la misma cantidad de gente desarrollando en AMD o Intel. >Inb4 no tengo plata para una Nvidia Trabaja y consigue dinero.Todos los servicios """jailbreak""" que hay en internet son así para obtener audiencia, una vez que tienen masa para obtener ingresos sustanciales comienzan a censurarla además de subirle a las membresías. No existe nube, solo la computadora de alguien más, si no eres dueño del hardware no tienes control sobre el software. >>86085 >Cuánta potencia requiere un bicho de esos? Depende del modelo. La regla general es que vas a necesitar el doble del número de parámetros en ram/vram; si es un modelo de 2B parámetros vas a necesitar 4GB de RAM/VRAM libre. Por supuesto existen motores y técnicas para optimizar eso, pero en general es así. Personalmente creo que un Nvidia de 8GB es un buen punto para comenzar y de 12 si quieres asegurarte de tener espacio para hacer otras cosas. >No sé podrían ocupar como procesadores teléfonos sin usar? No tengo idea de como correrá Kobold en un dispositivo ARM; pero considerando las limitaciones del mobil dudo que vaya bien. Existe la posibilidad de correr los modelos en puro CPU mientras tengas suficiente RAM, el problema es que como el CPU es infinitamente más lento que el GPU para inferencia, los resultados van a ser super lentos. Recuerdo que corrí un modelo de 350m de parámetros en una i3 de 4 nucleos y corría, pero respondía cada dos minutos o algo así. En cualquier caso si quieres inferir desde un dispositivo ARM, Raspberry tiene el ecosistema más maduro con el Coral de Jewgle y los dispositivos de aceleración que ahora puedes insertar en el puerto pcie.
>>86081 necesitas una gpu y descarga lm studio y ya anon https://www.youtube.com/watch?v=39yuDBN5Kbs


Forms
Eliminar
Informar
Respuesta rápida