--- license: apache-2.0 tags: - gguf - quantized - text-generation base_model: Qwen-Qwen2.5-Coder-1.5B-Instruct --- # Qwen-Qwen2.5-Coder-1.5B-Instruct - GGUF Versiones cuantizadas del modelo **Qwen-Qwen2.5-Coder-1.5B-Instruct** para ejecución local eficiente. ## Archivos disponibles: * **Qwen-Qwen2.5-Coder-1.5B-Instruct-Q4_K_M.gguf**: Balance óptimo entre peso y lógica (4-bit). * **Instruct-f16.gguf**: Alta fidelidad (16-bit) para máxima precisión. --- *Nota: Estos modelos han sido procesados para su uso en hardware con recursos limitados (Linux/CPU/Mobile).*