What is this?
perplexity-aiによるDeepSeek-R1-Distill-Llama-70Bの検閲解除モデル、r1-1776-distill-llama-70bをGGUFフォーマットに変換したものです。
imatrix dataset
日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。
なお、計算リソースの関係上imatrixの算出においてはQ8_0量子化モデルを使用しました。
Environment
Windows版llama.cpp-b4514およびllama.cpp-b4524同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。
License
LLAMA 3.3 COMMUNITY LICENSE
Developer
Meta & DeepSeek (深度求索) & Perplexity
Credit
Built with Llama
- Downloads last month
- 388
Inference Providers
NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API:
The model has no library tag.