Kosmic-35B-A3B-GGUF

Prosoft의 산업용 AI 어시스턴트 Kosmic — GGUF Q4_K_M 양자화 모델 (Ollama/llama.cpp용).

파일 목록

파일 양자화 크기
Kosmic-35B-A3B-Q4_K_M.gguf Q4_K_M (4.88 BPW) 20 GB

사용 방법 (Ollama)

ollama run prosoft0405/kosmic-35b

사용 방법 (llama.cpp)

./llama-cli -m Kosmic-35B-A3B-Q4_K_M.gguf \
  -p "당신은 Prosoft에서 개발한 산업용 AI 어시스턴트 Kosmic입니다." \
  --temp 0.7 -n 256

모델 정보

항목
베이스 모델 Qwen/Qwen3.5-35B-A3B
파인튜닝 LoRA (정체성: Kosmic by Prosoft)
양자화 bf16 merged → GGUF Q4_K_M
라이선스 Apache 2.0
Downloads last month
111
GGUF
Model size
35B params
Architecture
qwen35moe
Hardware compatibility
Log In to add your hardware

4-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for prosoft0405/Kosmic-35B-A3B-GGUF

Quantized
(241)
this model