dahara1 commited on
Commit
b5b076d
1 Parent(s): baaeae6

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +13 -3
README.md CHANGED
@@ -10,7 +10,7 @@ tags:
10
  ## llama-translate
11
 
12
  llama-translate は、多言語翻訳モデル[llama-translate-amd-npu](https://huggingface.co/dahara1/llama-translate-amd-npu)をggufフォーマットに変更してgpuがなくても動くようにしたモデルです。
13
- llama-translate is a model that converts the multilingual translation model llama-translate-amd-npu into gguf format so that it can run even without a GPU.
14
 
15
  現在、日本語、英語、フランス語、中国語(北京語)間の翻訳をサポートしています。
16
  Currently supports translation between Japanese, English, French, and Chinese(Mandarin).
@@ -18,8 +18,18 @@ Currently supports translation between Japanese, English, French, and Chinese(Ma
18
  しかし、残念ながら現時点ではRyzenAI-SWに含まれる2024年4月版のllama.cppでは正常に日本語や中国語、フランス語の入出力ができません
19
  Unfortunately, at present, the April 2024 version of llama.cpp included in RyzenAI-SW does not allow for proper input and output of Japanese, Chinese, or French.
20
 
21
- このモデルを正常に動かすためには少なくとも2024年8月以降のllama.cppをコンパイルする必要があります。
22
- To run this model correctly, you must compile llama.cpp from August 2024 or later.
 
 
 
 
 
 
 
 
 
 
23
 
24
  ## sample prompt
25
 
 
10
  ## llama-translate
11
 
12
  llama-translate は、多言語翻訳モデル[llama-translate-amd-npu](https://huggingface.co/dahara1/llama-translate-amd-npu)をggufフォーマットに変更してgpuがなくても動くようにしたモデルです。
13
+ llama-translate is a model that converts the multilingual translation model [llama-translate-amd-npu](https://huggingface.co/dahara1/llama-translate-amd-npu) into gguf format so that it can run even without a GPU.
14
 
15
  現在、日本語、英語、フランス語、中国語(北京語)間の翻訳をサポートしています。
16
  Currently supports translation between Japanese, English, French, and Chinese(Mandarin).
 
18
  しかし、残念ながら現時点ではRyzenAI-SWに含まれる2024年4月版のllama.cppでは正常に日本語や中国語、フランス語の入出力ができません
19
  Unfortunately, at present, the April 2024 version of llama.cpp included in RyzenAI-SW does not allow for proper input and output of Japanese, Chinese, or French.
20
 
21
+ このモデルを正常に動かすためには少なくとも2024年8月以降にリリースされたllama.cppを使う必要があります
22
+ To run this model correctly, you must use llama.cpp released after August 2024.
23
+
24
+ 以下のエラーが出たらllama.cppのVersionが古いと考えてください
25
+ If you get the following error, the version of llama.cpp is probably outdated.
26
+ ```
27
+ llama_model_load: error loading model: done_getting_tensors: wrong number of tensors; expected 292, got 291
28
+ ```
29
+
30
+ llama.cppのインストール/セットアップについては[公式サイト](https://github.com/ggerganov/llama.cpp/blob/master/docs/build.md)を参考にしてください
31
+ Please refer to the [official website](https://github.com/ggerganov/llama.cpp/blob/master/docs/build.md) for installation/setup of llama.cpp.
32
+
33
 
34
  ## sample prompt
35