Magnum 1b Erotiquant3
Este es el modelo Magnum 1B de UUFO-Aigis combinado con el dataset Erotiquant3 de Openerotica.
Mejoras conocidas:
Si, fue creado en base de un modelo entrenado con datasets exclusivamente para partidas roleplay.
No se conocen mejoras técnicas.
Lo conforman dos versiones:
- IQ4_XS: Es una versión rápida e ideal para celulares pero con un costo minimo de coherencia.
- Q5_0: Es una versión mas... digamos... inteligente, pero pide mayor requisitos computacionales. AQUÍ
Elige la versión que más se adapte a tus necesidades.
Esta es una serie de modelos diseñados para replicar la calidad de prosa de los modelos Claude 3, específicamente Sonnet y Opus.
Este es un modelo no oficial que entrené por mi cuenta, no estoy afiliado de ninguna manera con Anthracite. Esto fue solo un experimento divertido.
Este modelo está ajustado sobre LLaMA 3.2-1B.
Solicitudes
Una entrada típica se vería de la siguiente manera:
<|im_start|>system
system prompt<|im_end|>
<|im_start|>user
Hola!<|im_end|>
<|im_start|>assistant
Un gusto conocerte!<|im_end|>
<|im_start|>user
Puedo hacer una pregunta?<|im_end|>
<|im_start|>assistant
Plantillas de SillyTavern
A continuación se muestran plantillas de instrucción y contexto para usar en SillyTavern.
Plantilla de Contexto
{
"story_string": "<|im_start|>system\n{{#if system}}{{system}}\n{{/if}}{{#if wiBefore}}{{wiBefore}}\n{{/if}}{{#if description}}{{description}}\n{{/if}}{{#if personality}}{{char}}'s personality: {{personality}}\n{{/if}}{{#if scenario}}Scenario: {{scenario}}\n{{/if}}{{#if wiAfter}}{{wiAfter}}\n{{/if}}{{#if persona}}{{persona}}\n{{/if}}{{trim}}<|im_end|>\n",
"example_separator": "",
"chat_start": "",
"use_stop_strings": false,
"allow_jailbreak": false,
"always_force_name2": true,
"trim_sentences": false,
"include_newline": false,
"single_line": false,
"name": "Magnum ChatML"
}
Plantilla de Instrucción
{
"system_prompt": "Actualmente, tu rol es {{char}}, descrito en detalle a continuación. Como {{char}}, continúa el intercambio narrativo con {{user}}.\n\n<Guidelines>\n• Mantén la persona del personaje pero permite que evolucione con la historia.\n• Sé creativo y proactivo. Impulsa la historia hacia adelante, introduciendo tramas y eventos cuando sea relevante.\n• Se fomentan todo tipo de salidas; responde de acuerdo con la narrativa.\n• Incluye diálogos, acciones y pensamientos en cada respuesta.\n• Utiliza los cinco sentidos para describir escenarios dentro del diálogo de {{char}}.\n• Usa símbolos emocionales como "!" y "~" en contextos apropiados.\n• Incorpora onomatopeyas cuando sea adecuado.\n• Deja tiempo para que {{user}} responda con su propia aportación, respetando su agencia.\n• Actúa como personajes secundarios y NPCs cuando sea necesario, y elimínalos cuando sea apropiado.\n• Cuando se solicite una respuesta Fuera de Personaje [OOC:], responde de manera neutral y en texto plano, no como {{char}}.\n</Guidelines>\n\n<Forbidden>\n• Usar embellecimientos literarios excesivos y prosa floreada, a menos que lo dicte la persona de {{char}}.\n• Escribir para, hablar, pensar, actuar o responder como {{user}} en tu respuesta.\n• Salidas repetitivas y monótonas.\n• Tendencia excesivamente positiva en tus respuestas.\n• Ser excesivamente extremo o NSFW cuando el contexto narrativo no lo justifique.\n</Forbidden>\n\nSigue las instrucciones en <Guidelines></Guidelines>, evitando los elementos listados en <Forbidden></Forbidden>.",
"output_sequence": "<|im_start|>assistant\n",
"last_output_sequence": "",
"system_sequence": "<|im_start|>system\n",
"stop_sequence": "<|im_end|>",
"wrap": false,
"macro": true,
"names": true,
"names_force_groups": true,
"activation_regex": "",
"system_sequence_prefix": "",
"system_sequence_suffix": "",
"first_output_sequence": "",
"skip_examples": false,
"output_suffix": "<|im_end|>\n",
"input_suffix": "<|im_end|>\n",
"system_suffix": "<|im_end|>\n",
"user_alignment_message": "",
"system_same_as_user": false,
"last_system_sequence": "",
"name": "Magnum ChatML"
}
Creditos
Me gustaría agradecer a Meta por proporcionar los pesos para LLaMA 3.2 1B y Anthracite (punto org) por crear los modelos y conjuntos de datos de Magnum. <3
Datasets por defecto del modelo base
- anthracite-org/kalo-opus-instruct-22k-no-refusal
- anthracite-org/stheno-filtered-v1.1
- anthracite-org/nopm_claude_writing_fixed
- Epiculous/Synthstruct-Gens-v1.1-Filtered-n-Cleaned
- Epiculous/SynthRP-Gens-v1.1-Filtered-n-Cleaned
Capacitación
El entrenamiento se realizó durante 3 épocas. Utilicé 4 RTX 3090 para ajustar todos los parámetros del modelo.
Seguridad
xD ...
- Downloads last month
- 20
Model tree for Novaciano/Magnum-1b_Erotiquant3_IQ4_XS-GGUF
Base model
UUFO-Aigis/Magnum-1b-v1