GGUF
Inference Endpoints
Edit model card

Ninja-V2-7B.gguf

このモデルは、ベクトルマージなどを用い作成された高性能ベースモデルです。 用途はチャットのみならず、文章創作など幅広いタスクに対応できます。

GGUFによる8,4ビット量子化を行いました。

Ninja-V2-7Bはこちら→https://huggingface.co./Local-Novel-LLM-project/Ninja-V2-7B

このモデルは、ローカルLLMに向き合う会企画のLocalAIハッカソンの高性能GPUサーバーの助けを借りて作成されました。

関係者の皆様に感謝申し上げます。

作成方法

複数のモデルのチャットベクター モデルの単純な線形マージ

プロンプトテンプレート

必須ではありませんが、Vicuna-1.1テンプレートを使用することができます。 単純な文章生成においては推奨のテンプレートはありません。

システムプロンプト

  • BAD: あなたは○○として振る舞います

  • GOOD: あなたは○○です

  • BAD: あなたは○○ができます

  • GOOD: あなたは○○をします

制限

Apache-2.0ライセンスに従い使用してください。

Downloads last month
87
GGUF
Model size
7.24B params
Architecture
llama

4-bit

8-bit

Inference API
Unable to determine this model's library. Check the docs .

Space using Local-Novel-LLM-project/Ninja-V2-7B-GGUF 1

Collection including Local-Novel-LLM-project/Ninja-V2-7B-GGUF