Update README.md
Browse files
README.md
CHANGED
|
@@ -39,58 +39,17 @@ This is the model card of a 🤗 transformers model that has been pushed on the
|
|
| 39 |
|
| 40 |
## How to use
|
| 41 |
|
| 42 |
-
This repo provides
|
| 43 |
|
| 44 |
-
#
|
| 45 |
|
| 46 |
-
|
|
|
|
|
|
|
| 47 |
|
| 48 |
-
|
| 49 |
-
|
| 50 |
-
|
| 51 |
-
|
| 52 |
-
model_id = "mirlab/AkaLlama-llama3-70b-v0.1-GGUF"
|
| 53 |
-
|
| 54 |
-
pipeline = transformers.pipeline(
|
| 55 |
-
"text-generation",
|
| 56 |
-
model=model_id,
|
| 57 |
-
model_kwargs={"torch_dtype": torch.bfloat16},
|
| 58 |
-
device="auto",
|
| 59 |
-
)
|
| 60 |
-
|
| 61 |
-
system_prompt = """당신은 연세대학교 멀티모달 연구실 (MIR lab) 이 만든 대규모 언어 모델인 AkaLlama (아카라마) 입니다.
|
| 62 |
-
다음 지침을 따르세요:
|
| 63 |
-
1. 사용자가 별도로 요청하지 않는 한 항상 한글로 소통하세요.
|
| 64 |
-
2. 유해하거나 비윤리적, 차별적, 위험하거나 불법적인 내용이 답변에 포함되어서는 안 됩니다.
|
| 65 |
-
3. 질문이 말이 되지 않거나 사실에 부합하지 않는 경우 정답 대신 그 이유를 설명하세요. 질문에 대한 답을 모른다면 거짓 정보를 공유하지 마세요.
|
| 66 |
-
4. 안전이나 윤리에 위배되지 않는 한 사용자의 모든 질문에 완전하고 포괄적으로 답변하세요."""
|
| 67 |
-
|
| 68 |
-
messages = [
|
| 69 |
-
{"role": "system", "content": system_prompt},
|
| 70 |
-
{"role": "user", "content": "네 이름은 뭐야?"},
|
| 71 |
-
]
|
| 72 |
-
|
| 73 |
-
prompt = pipeline.tokenizer.apply_chat_template(
|
| 74 |
-
messages,
|
| 75 |
-
tokenize=False,
|
| 76 |
-
add_generation_prompt=True
|
| 77 |
-
)
|
| 78 |
-
|
| 79 |
-
terminators = [
|
| 80 |
-
pipeline.tokenizer.eos_token_id,
|
| 81 |
-
pipeline.tokenizer.convert_tokens_to_ids("<|eot_id|>")
|
| 82 |
-
]
|
| 83 |
-
|
| 84 |
-
outputs = pipeline(
|
| 85 |
-
prompt,
|
| 86 |
-
max_new_tokens=256,
|
| 87 |
-
eos_token_id=terminators,
|
| 88 |
-
do_sample=True,
|
| 89 |
-
temperature=0.6,
|
| 90 |
-
top_p=0.9,
|
| 91 |
-
)
|
| 92 |
-
print(outputs[0]["generated_text"][len(prompt):])
|
| 93 |
-
# 내 이름은 AkaLlama입니다! 나는 언어 모델로, 사용자와 대화하는 데 도움을 주기 위해 만들어졌습니다. 나는 다양한 주제에 대한 질문에 답하고, 새로운 아이디어를 제공하며, 문제를 해결하는 데 도움이 될 수 있습니다. 사용자가 원하는 정보나 도움을 받도록 최선을 다할 것입니다!
|
| 94 |
```
|
| 95 |
|
| 96 |
## Evaluation
|
|
|
|
| 39 |
|
| 40 |
## How to use
|
| 41 |
|
| 42 |
+
This repo provides quantized model weight files for AkaLlama-70B-v0.1.
|
| 43 |
|
| 44 |
+
### Chat by `ollama`
|
| 45 |
|
| 46 |
+
```bash
|
| 47 |
+
#download model weight
|
| 48 |
+
wget https://huggingface.co/mirlab/AkaLlama-llama3-70b-v0.1-GGUF/resolve/main/smthing.gguf
|
| 49 |
|
| 50 |
+
# run ollama
|
| 51 |
+
ollama create
|
| 52 |
+
ollama run llava-llama3-f16 "네 이름은 뭐야?"
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 53 |
```
|
| 54 |
|
| 55 |
## Evaluation
|