>>16651
>ChatGPT es terrible
Depende, en
>>>/hispachan/147485 se ve que por lo menos aun sirve para responder preguntas técnicas.
>ya comenzó con el atontamiento de la IA con tal de evitar "respuestas racistas" y demás estupideces.
En
>>>/hispachan/146127 habían dejado un método para saltarse los filtros y parches que le están metiendo (aunque imagino que habrá algún modo de ajustar eso para que las respuestas no parezcan de alguien salido de /pol/).
>conociendo a Frank de seguro me va a permabanear por alguna estupidez.
¿Y eso por que?
>hasta ahora MyMemory parece ser el que otorga mejores resultados
>también podríamos buscar un mejor traductor
Si buscas un traductor que puedas instalar localmente, puedes probar con:
https://github.com/argosopentech/argos-translate (el cual cuenta con
https://github.com/LibreTranslate/LibreTranslate por si necesitas una API)
https://github.com/apertium
>datasets en español
>entrenar nuestro propio modelo dedicado al español
Quizás esto habría que discutirlo en un hilo aparte, pero dejo algunas cosas que podrían resultar útiles si piensan llevar esto a cabo.
Para empezar, encontré este modelo en español:
https://huggingface.co/EZSNoVa/DialogGPT-medium-NoVa (aunque según la pagina dice que es español e ingles) pero no tengo idea de si se podría usar en Kobold.
Si el modelo anterior no es compatible o da muchos problemas, entonces tenemos este dataset con el cual se podría crear un modelo:
https://huggingface.co/datasets/sedthh/gutenberg_es
En caso de que se decida por hacer un dataset desde cero (ya sea para complementar lo de gutenberg_es y/o por tener algo completamente propio) entonces habría que recopilar textos que sean mayormente diálogos y conversaciones (según entiendo así es como están entrenados los modelos de Pygmalion). El tema seria, ¿de donde obtener dichos diálogos? Pues se podría comenzar revisando en los siguiente lugares:
* Recuerdo que en algunos hilos del viejo /ac/ se llegaron a escribir historias cortas que incluían personajes charlando (además de los hilos de Hildabot).
*
https://es.wikisource.org/wiki/Plantilla:Explorar (al menos lo que no este ya en gutenberg_es)
* Hilos de /r/ e
>>>/hisrol/ si le quieren meter algo de autismo.
* Relatos eróticos de
https://www.marqueze.net/ y
https://www.todorelatos.com/ si quieren que entregue el culo fácilmente.
* Fanfics como los que hay en
https://archiveofourown.org/works/search?commit=Search&work_search[language_id]=es (también quería agregar los de fanfiction.net pero el sitio esta caído y Wattpad creo que no tiene para filtrar por idiomas).
>>16661
>>Despliegan modelo bien hecho y bien pensado
>>Se vuelve popular
<<Empiezan a llenarlo de parches y filtros para que no diga cosas ofensivas
>>El modelo acaba bloteado, lento y tonto
>>La gente abandona en masa hacia una alternativa o hacia proyectos opensource
Me recuerda a lo que paso con LEGO Universe y la guerra de los pitos (
https://www.youtube.com/watch?v=DHmtJBLB170 ).
Pienso que se ahorrarían todos esos problemas si además de tener un sitio centralizado y abierto al publico, también dieran la posibilidad de que cualquier interesado se pueda instalar la IA y de esa forma las empresas no tendrían que hacerse responsables de lo que los usuarios hagan con estas.
>es un proyecto pequeño; tienen bastante menos recursos comparado con Character ai
Dales tiempo, eventualmente ira creciendo en cuanto a popularidad, lo que a la larga significa mas gente que pueda aportar al proyecto. Aunque algo que quizás ayudaría seria que contaran con un sitio funcional para los que no quieran o puedan instalarse eso localmente o depender de Google Colab.
>>16705
>>16707
Tremenda cachonda resulto ser Hildabot después de todo.