calm3-22b-RP

GGUF版はこちら/Click here for the GGUF version

また、こちらで本モデルのデモを公開しています。ぜひお試しください。

概要

This is a merge of pre-trained language models created using mergekit.

cyberagent/calm3-22b-chatと、これをベースとしてロールプレイ用にファインチューニングしたモデルであるAratako/calm3-22b-RP-v0.1をマージして作成したモデルです。

利用した学習データセットやパラメータ等の詳細は元モデルのモデルカードを参照してください。

プロンプトフォーマット

元モデルから変更なく、ChatMLのフォーマットでご利用ください。以下は2ターン目の会話を行う際の形式です。

<|im_start|>system
{ロールプレイの指示、世界観・あらすじの説明、キャラの設定など}<|im_end|>
<|im_start|>user
{userの1ターン目の入力}<|im_end|>
<|im_start|>assistant
{assistantの1ターン目の応答}<|im_end|>
<|im_start|>user
{userの2ターン目の入力}<|im_end|>
<|im_start|>assistant

また、tokenizer.apply_chat_template()を使って自動で成形することも可能です。

tokenizer = AutoTokenizer.from_pretrained("Aratako/calm3-22b-RP")
messages = [
    {"role": "system", "content": "{ロールプレイの指示、世界観・あらすじの説明、キャラの設定など}"},
    {"role": "user", "content": "{userの1ターン目の入力}"},
    {"role": "assistant", "content": "{assistantの1ターン目の入力}"},
    {"role": "user", "content": "{userの2ターン目の入力}"}
]
prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)

マージの詳細

マージに利用しているモデルは以下の通りです。

また、mergekitのconfigは以下の通りです。

models:
  - model: cyberagent/calm3-22b-chat
    # no parameters necessary for base model
  - model: Aratako/calm3-22b-RP-v0.1
    parameters:
      weight: 0.5
merge_method: breadcrumbs
base_model: cyberagent/calm3-22b-chat
dtype: bfloat16
tokenizer_source: base
parameters:
    density: 0.9
    gamma: 0.01

ライセンス

本モデルの学習データにはOpenAI社のGPT-4o-miniの出力やAnthropic社のClaude 3.5 Sonnetの出力が含まれるため、これらの競合となるサービスには本モデルは利用できません。 そのため、本モデルはCC-BY-NC-SA 4.0の元配布します。

Downloads last month
11
Safetensors
Model size
22.5B params
Tensor type
BF16
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for Aratako/calm3-22b-RP

Merge model
this model
Quantizations
1 model

Datasets used to train Aratako/calm3-22b-RP