Persian LLM | Iranian Ai | Fibonacci
Collection
Persian LLM Collection | Iranian ai llm | Fibonacci ai
•
5 items
•
Updated
•
7
The Fibonacci-1-EN-8b-Chat.P1_5 is a large language model (LLM) based on the LLaMA architecture, designed with 8.03 billion parameters. This model is optimized for natural language processing (NLP) tasks and textual conversations.
To use this model, you can utilize various libraries such as Hugging Face's transformers
. Below is a sample code to load and use the model:
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
input_text = "Hello! How can I assist you today?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
**عربی:**
```markdown
# نموذج Fibonacci-1-EN-8b-Chat.P1_5

## المقدمة
نموذج **Fibonacci-1-EN-8b-Chat.P1_5** هو نموذج لغة كبير (LLM) يعتمد على بنية LLaMA، تم تصميمه بـ 8.03 مليار معلمة. هذا النموذج مُحسّن لمهام معالجة اللغة الطبيعية (NLP) والمحادثات النصية.
## الميزات
- **البنية:** LLaMA
- **عدد المعلمات:** 8.03 مليار
- **التنسيقات:** GGUF تدعم 4-بت (Q4_K_M)، 5-بت (Q5_K_M)، 8-بت (Q8_0)، و16-بت (F16)
- **الترخيص:** MIT
## التطبيقات
- **توليد النصوص:** إنشاء نصوص إبداعية ومتنوعة
- **الإجابة على الأسئلة:** تقديم إجابات دقيقة لاستفسارات المستخدمين
- **الترجمة الآلية:** ترجمة النصوص بين لغات مختلفة
- **تحليل المشاعر:** تحديد المشاعر الموجودة في النصوص
## كيفية الاستخدام
لاستخدام هذا النموذج، يمكنك الاستفادة من مكتبات مختلفة مثل `transformers` من Hugging Face. فيما يلي مثال لتحميل واستخدام النموذج:
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
input_text = "مرحبًا! كيف يمكنني مساعدتك اليوم؟"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
# مدل Fibonacci-1-EN-8b-Chat.P1_5

## معرفی
مدل **Fibonacci-1-EN-8b-Chat.P1_5** یک مدل زبانی بزرگ (LLM) مبتنی بر معماری LLaMA است که با ۸٫۰۳ میلیارد پارامتر طراحی شده است. این مدل برای انجام وظایف مرتبط با پردازش زبان طبیعی (NLP) و مکالمات متنی بهینهسازی شده است.
## ویژگیها
- **معماری:** LLaMA
- **تعداد پارامترها:** ۸٫۰۳ میلیارد
- **فرمتها:** GGUF با پشتیبانی از 4-bit (Q4_K_M)، 5-bit (Q5_K_M)، 8-bit (Q8_0)، و 16-bit (F16)
- **مجوز استفاده:** MIT
## کاربردها
- **تولید متن:** ایجاد متون خلاقانه و متنوع
- **پاسخ به سؤالات:** ارائه پاسخهای دقیق به پرسشهای کاربران
- **ترجمه ماشینی:** ترجمه متون بین زبانهای مختلف
- **تحلیل احساسات:** شناسایی احساسات موجود در متون
## نحوه استفاده
برای استفاده از این مدل، میتوانید از کتابخانههای مختلفی مانند `transformers` هاگینگ فیس استفاده کنید. در زیر یک نمونه کد برای بارگذاری و استفاده از مدل آورده شده است:
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
input_text = "سلام! چطور میتوانم به شما کمک کنم؟"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
Base model
deepseek-ai/Janus-Pro-7B