OcuteusのGGUF版です。

Kobold cpp上で使用することを推奨します。

また、トークン数の関係から、高解像度の画像は解像度を落として入力することをおすすめします。

使用例:

image/png

簡単な使用方法:

kobold.cpp 内のModelFiles ページの ModelOcuteus-v1-q8_0.gguf LLaVA mmprojOcuteus-v1-mmproj-f16.ggufをそれぞれ選択してください。

image/png

推奨されるContext Size16384 となっています。 image/png

Downloads last month
171
GGUF
Model size
312M params
Architecture
clip

8-bit

16-bit

Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and the model is not deployed on the HF Inference API.