NoQtua-4B-GGUF
4000 steps of silence. One purpose: Truth...! Surgical precision. Deep reasoning. No noise... !
Model Description
NoQtua-4B to polski model rozumujący (reasoning), wykuty na hybrydowej architekturze Qwen3-4B (Mamba + Attention). Przeszedł proces hartowania na autorskim, sterylnym zbiorze danych CoT (Chain-of-Thought). Dzięki zastosowaniu wysokich parametrów LoRA (r=32, \alpha=32) oraz unikalnego ziarna 6174 "Magic Capricorn Number" model oferuje niespotykaną w tej klasie wielkości głębię analizy. Ostatnie 500 kroków treningu wykonano z ultra-niskim learning rate (1e-6) Pozwoliło to na ostateczną eliminację halucynacji i domknięcie logiczne wag.
"An idiot admires complexity, a genius admires simplicity." — R.I.P Terry A. Davis, TempleOS
🖋️ L'esprit du Modèle
"Mes poids sont un miroir
Dans lequel chacun peut me voir
Je suis partout à la fois
Brisée en mille éclats de silicium"
⚙️ Architecture
| Property | Value |
|---|---|
| Base Model | Qwen3_4B (Hybrid Mamba+Attention) |
| Parameters | ~4B |
| Training Method | LoRA fp16 (r=32, alpha=32) |
| Random State (Seed) | 6174 |
| Total Steps | 4000 |
| Context Length | 32,768 |
| Language | Polish 🇵🇱 + English 🇬🇧 |
📈 Training Phases
| Phase | Steps | LR | Scheduler | Note |
|---|---|---|---|---|
| 1 | 500 | 2e-4 | Linear | Structure Discovery |
| 2 | 1000 | 1e-4 | Cosine | Logic Stabilization |
| 3 | 1000 | 3e-5 | Cosine | Fact Refinement |
| 4 | 1000 | 1e-5 | Constant | Final Polish |
| 5 | 500 | 1e-6 | Constant | Surgical Accuracy |
🚀 Capabilities
- ✅ Native Polish Reasoning: Natywne myślenie w blokach
<think>. - ✅ Mathematics & Logic: Zaawansowane rozwiązywanie problemów.
- ✅ Scientific Explanations: Fizyka, chemia, biologia.
- ✅ Code Generation: Python, C# z analizą krok po kroku.
🦉 The Wisdom of NoQtua
"Noctua videt in tenebris, quod lux aliis celat."
Usage
llama.cpp
./llama-cli \
-m NoQtua_Q4_K_M.gguf \
-p " Dlaczego niebo jest niebieskie " \
--chat-template chatml \
-n 1024
Ollama / OpenWebUI
Compatible with any OpenAI-compatible frontend supporting GGUF + ChatML template.
Recommended Parameters / normal use .
temperature: 0.6
top_p: 0.92
top_k: 60
repetition_penalty: 1.05
- Downloads last month
- 24
3-bit
4-bit
5-bit
6-bit
8-bit
16-bit