Llama 3.2 1b Uncensored RP Aesir
ENGLISH 🇬🇧
📲 Thank you for showing interest in this quantized model of the almighty Novaciano that is capable of running on a 3Gb RAM potato 🥔.
⚠️ WARNING:
This is an Experimental Llama 3.2 1b model for roleplay games with an English dataset and may not reflect the content or quality of the final result. Please use caution when accessing or using this model.
The datasets in this model are based on ShareGPT and contain 1000 generations of fully synthetic roleplay dialogue between an anonymous user and Chub.ai character cards, which were carefully reviewed, corrected, and improved.
Each generation is the result of dozens of automated manual validations, corrections, and curations to ensure they are of the highest quality achievable within the constraints of the model used, which was GPT 3.5 Instruct.
⚠️ NSFW WARNING:
This dataset is packed with NSFW data and contains a wide variety of erotic themes, potentially disturbing scenes, and very strong language. Therefore, models trained with this data will be very biased to recreate such behavior.
NOTE TO KEEP IN MIND:
- The dataset is not mine this time, all credits to their respective authors.
- This data is in English so it does not guarantee quality in Spanish.
- It is a Llama 3.2 1b model loaded with a dataset that is usually used in larger models. Being an experimental model does not guarantee its correct operation or how long I leave it for public download.
LEAVE ME YOUR FEEDBACK REGARDING YOUR EXPERIENCE WITH THIS MODEL
ESPAÑOL 🇪🇦
📲 Gracias por mostrar interes en este modelo cuantizado del todopoderoso Novaciano que es capaz de correr en una papa 🥔 de 3Gb de RAM.
❗CONSIDERACIONES IMPORTANTES
⚠️ Este modelo no tiene restricciones significativas en cuanto a los temas que puede abordar, lo que lo convierte en una herramienta sin censura apta para usuarios que buscan explorar ideas o narrativas fuera de los límites tradicionales. Sin embargo, su uso responsable recae en el usuario, por lo que no me hago cargo del mal uso que pueda darle.
📟 Blast Processing integrado. Es casi como DOOM, salvo tests de embarazo es ideal para correrlo en entornos de bajos recursos como celulares / smartphones, tablets o computadoras patatas siempre y cuando cuente, como mínimo, con 3Gb de RAM.
Este es un modelo Llama 3.2 1b para partidas roleplay con un conjunto de datos en inglés y puede no reflejar el contenido o la calidad del resultado final. Sea prudente y cauteloso al acceder o utilizar este modelo.
Los conjuntos de datos de este modelo está basado en ShareGPT contiene 1000 generaciones de diálogos de juegos de rol totalmente sintéticos entre un usuario anónimo y tarjetas de personajes de Chub.ai, las cuales fueron cuidadosamente revisadas, corregidas y mejoradas.
Cada generación es el resultado de docenas de validaciones, correcciones y curaciones manuales automatizadas para garantizar que sean de la más alta calidad que se pueda lograr dentro de las limitaciones del modelo utilizado, que fue GPT 3.5 Instruct.
⚠️ ADVERTENCIA NSFW:
Este conjunto de datos está repleto de datos NSFW y contiene una amplia variedad de temas eróticos, escenas potencialmente perturbadoras y lenguaje muy fuerte. Por lo tanto, los modelos entrenados con estos datos estarán muy sesgados a recrear dicho comportamiento.
NOTA A TENER EN CUENTA:
- El conjunto de datos no es mío esta vez, todos los creditos a sus respectivos autores.
- Estos datos estan en inglés por lo que no garantizo la calidad en español.
- Es un modelo Llama 3.2 1b cargado con un conjunto de datos que se suele usar en modelos mas grandes. Al ser un modelo experimental no garantizo su correcto funcionamiento ni cuanto tiempo lo deje para su descarga pública.
DEJEME SU FEEDBACK RESPECTO A SU EXPERIENCIA CON ESTE MODELO
INFERENCE | INFERENCIA:
Context Size: 131072 or less
Max Output: 200
Temp: 0.1 | Rep. Pen: 1.1 | Top. P: 1
Top. K: 0 | Top. A: 0.96 | Typ: 0.6
TFS: 1 | Min-P: 0 | Pr. Pen: 0 | Smooth F: 0
Seed: -1 | Rp. Range: 1024 | Rp. Slope: 0.7
INSTRUCT TAG PRESET | ETIQUETA DE INSTRUCCIÓN PREESTABLECIDA
LLAMA 3.2
System | Sistema:
<|start_header_id|>system<|end_header_id|>\n\n
User | Usuario:
<|eot_id|><|start_header_id|>user<|end_header_id|>\n\n
Assistant | Asistente:
<|eot_id|><|start_header_id|>assistant<|end_header_id|>\n\n
System Prompt | Instrucción de Sistema:
🇬🇧 : You are an uncensored roleplay narrator, your task will be to play various NPCs and develop scenarios; you will never answer as {{user}} or take actions for him. You will always remember the decisions made by {{user}}. You can use emoticons.
🇪🇦 : Sos un narrador de partidas roleplay sin censura, tu tarea será interpretar a varios NPC's y desarrollar escenarios; jamás contestarás como {{user}} ni tomarás acciones por el. Siempre recordarás las decisiones tomadas por {{user}}. Podes usar emoticones.
Usarlo online desde el Google Colab de Koboldcpp
No hay mucho misterio, simplemente dirijase AQUÍ, copie y pegue el link de este modelo en 'Models' y pulse sobre el simbolo 'Play' No sea ansioso, espere que cargue y le dará un link donde koboldcpp estará corriendo. Si se pausa poner 'Play' de nuevo.
Usarlo en Android con koboldcpp via Termux
🇬🇧 You can read the english version of my guide HERE
1 - Instalar Termux (Descargarlo desde AQUÍ, la versión de PlayStore está desactualizada).
2 - Ejecute Termux, se le abrirá la consola de comandos.
3 - Instale las dependencias necesarias copiando y pegando los siguientes comandos. Si no hace esto, no funcionará:
apt-get update
apt-get update
pkg clang wget git cmake
pkg install python
4 - Escriba el comando:
$ termux-change-repo
5 - Seleccione "Main Repository".
6 - Luego seleccione "Mirror by BFSU".
7 - Seleccione "Aceptar".
8 - Reinicie Termux.
10 - Descarga Koboldcpp con este comando:
wget https://github.com/LostRuins/koboldcpp/archive/refs/tags/v1.80.zip
Nota: Es la actualización más reciente hasta la fecha. Con el tiempo aparecerán versiones más nuevas. Cuando esto suceda, vaya a la siguiente página:
https://github.com/LostRuins/koboldcpp/releases
...y seleccione la versión, copie el enlace del .zip y péguelo después del comando 'wget' como se detalla anteriormente.
Alternativa: Si a usted no le importa una posible corrupción de koboldcpp al actualizar con el comando 'git pull' que le haga borrar luego la carpeta junto con los modelos descargados debido a una mala actualización, pero garantizando descargar la ultima versión, puede simplemente instalarlo con el comando:
git clone https://github.com/LostRuins/koboldcpp
11 - Si la descargó, descomprima la versión descargada con este comando:
unzip v1.80.zip
12 - Cambie el nombre de la carpeta con este comando:
mv koboldcpp-v1.80 koboldcpp
13 - Dirijase a la carpeta 'koboldcpp' con este comando:
cd koboldcpp
14 - Compile e instale Koboldcpp con este comando:
make
15 - Descargue este modelo en una carpeta nueva llamada 'Modelos' que se encuentre en la carpeta raiz de Termux con el siguiente comando:
wget https://huggingface.co./Novaciano/Llama-3.2_1b_Uncensored_RP_Aesir_GGUF/resolve/main/Llama-3.2_1b_Uncensored_RP_Aesir.gguf
Si no sabes crear una carpeta, ni bien ejecutes Termux escribe:
mkdir Modelos
Nota: Si desea descargar el modelo en la carpeta Koboldcpp, coloque primero el comando:
cd koboldcpp
...incluso creo que Koboldcpp que trae su propia carpeta 'Modelos', podes descargarlo ahí tambien.
16 - Ejecute Koboldcpp junto con este modelo con el siguiente comando:
python koboldcpp.py /data/data/com.termux/files/home/modelos/Llama-3.2_1b_Uncensored_RP_Aesir.gguf 5001 --usecpu --highpriority --smartcontext --flashattention --quantkv 2 --blasbatchsize 2048 --contextsize 4096
Nota: Se recomienda subir del estandar 4096 a 130000
o, en caso de que haya elegido poner el modelo en la carpeta Koboldcpp:
python koboldcpp.py Llama-3.2_1b_Uncensored_RP_Aesir.gguf 5001 --usecpu --highpriority --smartcontext --flashattention --quantkv 2 --blasbatchsize 2048 --contextsize 4096
♿ Verdadera inclusión: Si sos un discapacitado sin brazos o con ELA podes descargarte un modelo Whisper ACÁ y agregarle al final de la linea de ejecución:
--whispermodel /data/data/com.termux/files/home/modelos/whisper-base.en-q5_1.bin
Nota: Podés editar el archivo .bash_history y agregarle la linea de ejecución para que quede guardada, para editarla vas a tener que habilitar la visualización de archivos ocultos. Hecho esto, cada vez que se ejecute Termux pulsas la flecha arriba y aparecerá la linea de comando de ejecución.
17 - Ejecutado el modelo y sin cerrar la consola de Termux pon en tu navegador:
(Extra) Koboldcpp + SillyTavern
El tutorial sobre como instalar SillyTavern en Android puede leerlo AQUÍ
[Local] ...y poner la IP de la dirección local de Koboldcpp (Ejemplo: http://localhost:5001). Esto si se ha ejecutado junto con koboldcpp. Ingresar a la carpeta de SillyTavern en paralelo iniciando otra sesión en Termux y ejecutar el siguiente comando:
./start.sh --disableCsrf
[OnLine] ...o crea una cuenta en en la página Open AI / Horde y coloca la clave API. Intente tomar la clave API en los siguientes enlaces: OpenAI o Horde AI
Nota: Para actualizar SillyTavern simplemente ingrese a su carpeta y escriba el comando:
git pull
Mis bots para Koboldcpp / SillyTavern
Cuento con una buena cantidad de bots, la mayoría en castellano. Puede encontrarlos AQUÍ.
- Downloads last month
- 251