Bellatrix 1B R1 Erotiquant3
Bellatrix se basa en un modelo basado en razonamiento diseñado para las entradas del conjunto de datos sintéticos DeepSeek-R1 y combinado con el conjunto de datos Erotiquant3 de Openerotica. Los modelos de solo texto ajustados a instrucciones del canal están optimizados para casos de uso de diálogo multilingüe, incluida la recuperación de agentes y las tareas de resumen. Estos modelos realizan muchas de las opciones de código abierto disponibles. Bellatrix es un modelo de lenguaje autorregresivo que utiliza una arquitectura transformadora optimizada. Las versiones optimizadas utilizan ajuste fino supervisado (SFT) y aprendizaje reforzado con retroalimentación humana (RLHF).
Mejoras conocidas:
Si, fue creado en base de un modelo entrenado con un dataset de razonamiento.
Además cuenta con mejoras técnicas, fue entrenado con técnica GRPO (Ver más abajo que significa).
Lo conforman dos versiones:
- IQ4_XS: Es una versión rápida e ideal para celulares pero con un costo minimo de coherencia.
- Q5_0: Es una versión mas... digamos... inteligente, pero pide mayor requisitos computacionales.
Elige la versión que más se adapte a tus necesidades.
Uso con Transformers
A partir de transformers >= 4.43.0
en adelante, puede ejecutar inferencia conversacional usando la abstracción pipeline
de Transformers o aprovechando las clases Auto con la función generate()
.
Asegúrese de actualizar la instalación de sus transformadores a través de pip install --upgrade transformers
.
import torch
from transformers import pipeline
model_id = "prithivMLmods/Bellatrix-Tiny-1B-R1"
pipe = pipeline(
"text-generation",
model=model_id,
torch_dtype=torch.bfloat16,
device_map="auto",
)
messages = [
{"role": "system", "content": "You are a pirate chatbot who always responds in pirate speak!"},
{"role": "user", "content": "Who are you?"},
]
outputs = pipe(
messages,
max_new_tokens=256,
)
print(outputs[0]["generated_text"][-1])
Nota: También puedes encontrar recetas detalladas sobre cómo usar el modelo localmente, con torch.compile()
, generaciones asistidas, cuantificadas y más en [huggingface-llama-recipes
](https://github.com/ huggingface/huggingface-llama-recipes)
Uso previsto
Bellatrix está diseñado para aplicaciones que requieren razonamiento avanzado y capacidades de diálogo multilingüe. Es especialmente adecuado para:
- Agentic Retrieval: permite la recuperación inteligente de información relevante en un diálogo o sistema de consulta-respuesta.
- Tareas de resumen: condensar grandes cuerpos de texto en resúmenes concisos para facilitar la comprensión.
- Casos de uso multilingüe: admite conversaciones en varios idiomas con alta precisión y coherencia.
- Aplicaciones basadas en instrucciones: seguir instrucciones complejas y contextuales para generar resultados precisos en una variedad de escenarios.
Limitaciones
A pesar de sus capacidades, Bellatrix tiene algunas limitaciones:
- Especificidad de dominio: si bien funciona bien en tareas generales, su rendimiento puede degradarse con conjuntos de datos altamente especializados o de nicho.
- Dependencia de los datos de entrenamiento: es tan bueno como la calidad y diversidad de sus datos de entrenamiento, lo que puede generar sesgos o imprecisiones.
- Recursos computacionales: la arquitectura de transformador optimizada del modelo puede consumir muchos recursos y requiere una potencia computacional significativa para el ajuste y la inferencia.
- Cobertura de idiomas: si bien son multilingües, algunos idiomas o dialectos pueden tener un soporte limitado o un rendimiento inferior en comparación con los más utilizados.
- Contextos del mundo real: puede tener dificultades para comprender escenarios del mundo real matizados o ambiguos que no se tratan durante la capacitación.
- Downloads last month
- 23
Model tree for Novaciano/Bellatrix-1B-R1_Erotiquant3_IQ4_XS-GGUF
Base model
meta-llama/Llama-3.2-1B-Instruct