Kosmic-35B-A3B-GGUF
Prosoft의 산업용 AI 어시스턴트 Kosmic — GGUF Q4_K_M 양자화 모델 (Ollama/llama.cpp용).
파일 목록
| 파일 | 양자화 | 크기 |
|---|---|---|
| Kosmic-35B-A3B-Q4_K_M.gguf | Q4_K_M (4.88 BPW) | 20 GB |
사용 방법 (Ollama)
ollama run prosoft0405/kosmic-35b
사용 방법 (llama.cpp)
./llama-cli -m Kosmic-35B-A3B-Q4_K_M.gguf \
-p "당신은 Prosoft에서 개발한 산업용 AI 어시스턴트 Kosmic입니다." \
--temp 0.7 -n 256
모델 정보
| 항목 | 값 |
|---|---|
| 베이스 모델 | Qwen/Qwen3.5-35B-A3B |
| 파인튜닝 | LoRA (정체성: Kosmic by Prosoft) |
| 양자화 | bf16 merged → GGUF Q4_K_M |
| 라이선스 | Apache 2.0 |
- Downloads last month
- 111
Hardware compatibility
Log In to add your hardware
4-bit
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support