Text Generation
Transformers
GGUF
English
Spanish
GRPO
Reinforcement learning
trl
SFT
uncensored
nsfw
1b
4-bit precision
llama 3.2
español
koboldcpp
Not-For-All-Audiences
Inference Endpoints
imatrix
conversational
license: llama3.2 | |
language: | |
- en | |
- es | |
base_model: | |
- meta-llama/Llama-3.2-1B-Instruct | |
pipeline_tag: text-generation | |
library_name: transformers | |
tags: | |
- GRPO | |
- Reinforcement learning | |
- trl | |
- SFT | |
- uncensored | |
- nsfw | |
- 1b | |
- 4-bit | |
- llama 3.2 | |
- español | |
- koboldcpp | |
- not-for-all-audiences | |
datasets: | |
- openerotica/erotiquant3 | |
# Bellatrix 1B R1 Erotiquant3 | |
Bellatrix se basa en un modelo basado en razonamiento diseñado para las entradas del conjunto de datos sintéticos DeepSeek-R1 y combinado con el conjunto de datos Erotiquant3 de Openerotica. Los modelos de solo texto ajustados a instrucciones del canal están optimizados para casos de uso de diálogo multilingüe, incluida la recuperación de agentes y las tareas de resumen. Estos modelos realizan muchas de las opciones de código abierto disponibles. Bellatrix es un modelo de lenguaje autorregresivo que utiliza una arquitectura transformadora optimizada. Las versiones optimizadas utilizan ajuste fino supervisado (SFT) y aprendizaje reforzado con retroalimentación humana (RLHF). | |
## Mejoras conocidas: | |
Si, fue creado en base de un modelo entrenado con un dataset de razonamiento. | |
Además cuenta con mejoras técnicas, fue entrenado con técnica GRPO (Ver más abajo que significa). | |
### Lo conforman dos versiones: | |
- **IQ4_XS:** Es una versión rápida e ideal para celulares pero con un costo minimo de coherencia. | |
- **Q5_0:** Es una versión mas... digamos... inteligente, pero pide mayor requisitos computacionales. | |
Elige la versión que más se adapte a tus necesidades. | |
# **Uso con Transformers** | |
A partir de `transformers >= 4.43.0` en adelante, puede ejecutar inferencia conversacional usando la abstracción `pipeline` de Transformers o aprovechando las clases Auto con la función `generate()`. | |
Asegúrese de actualizar la instalación de sus transformadores a través de `pip install --upgrade transformers`. | |
```python | |
import torch | |
from transformers import pipeline | |
model_id = "prithivMLmods/Bellatrix-Tiny-1B-R1" | |
pipe = pipeline( | |
"text-generation", | |
model=model_id, | |
torch_dtype=torch.bfloat16, | |
device_map="auto", | |
) | |
messages = [ | |
{"role": "system", "content": "You are a pirate chatbot who always responds in pirate speak!"}, | |
{"role": "user", "content": "Who are you?"}, | |
] | |
outputs = pipe( | |
messages, | |
max_new_tokens=256, | |
) | |
print(outputs[0]["generated_text"][-1]) | |
``` | |
**Nota:** También puedes encontrar recetas detalladas sobre cómo usar el modelo localmente, con `torch.compile()`, generaciones asistidas, cuantificadas y más en [`huggingface-llama-recipes`](https://github.com/ huggingface/huggingface-llama-recipes) | |
# **Uso previsto** | |
Bellatrix está diseñado para aplicaciones que requieren razonamiento avanzado y capacidades de diálogo multilingüe. Es especialmente adecuado para: | |
- **Agentic Retrieval**: permite la recuperación inteligente de información relevante en un diálogo o sistema de consulta-respuesta. | |
- **Tareas de resumen**: condensar grandes cuerpos de texto en resúmenes concisos para facilitar la comprensión. | |
- **Casos de uso multilingüe**: admite conversaciones en varios idiomas con alta precisión y coherencia. | |
- **Aplicaciones basadas en instrucciones**: seguir instrucciones complejas y contextuales para generar resultados precisos en una variedad de escenarios. | |
# **Limitaciones** | |
A pesar de sus capacidades, Bellatrix tiene algunas limitaciones: | |
1. **Especificidad de dominio**: si bien funciona bien en tareas generales, su rendimiento puede degradarse con conjuntos de datos altamente especializados o de nicho. | |
2. **Dependencia de los datos de entrenamiento**: es tan bueno como la calidad y diversidad de sus datos de entrenamiento, lo que puede generar sesgos o imprecisiones. | |
3. **Recursos computacionales**: la arquitectura de transformador optimizada del modelo puede consumir muchos recursos y requiere una potencia computacional significativa para el ajuste y la inferencia. | |
4. **Cobertura de idiomas**: si bien son multilingües, algunos idiomas o dialectos pueden tener un soporte limitado o un rendimiento inferior en comparación con los más utilizados. | |
5. **Contextos del mundo real**: puede tener dificultades para comprender escenarios del mundo real matizados o ambiguos que no se tratan durante la capacitación. |