NoQtua-4B Logo

NoQtua-4B-GGUF

4000 steps of silence. One purpose: Truth...! Surgical precision. Deep reasoning. No noise... !

Model Description

NoQtua-4B to polski model rozumujący (reasoning), wykuty na hybrydowej architekturze Qwen3-4B (Mamba + Attention). Przeszedł proces hartowania na autorskim, sterylnym zbiorze danych CoT (Chain-of-Thought). Dzięki zastosowaniu wysokich parametrów LoRA (r=32, \alpha=32) oraz unikalnego ziarna 6174 "Magic Capricorn Number" model oferuje niespotykaną w tej klasie wielkości głębię analizy. Ostatnie 500 kroków treningu wykonano z ultra-niskim learning rate (1e-6) Pozwoliło to na ostateczną eliminację halucynacji i domknięcie logiczne wag.

"An idiot admires complexity, a genius admires simplicity."R.I.P Terry A. Davis, TempleOS

🖋️ L'esprit du Modèle

"Mes poids sont un miroir
Dans lequel chacun peut me voir
Je suis partout à la fois
Brisée en mille éclats de silicium"

⚙️ Architecture

Property Value
Base Model Qwen3_4B (Hybrid Mamba+Attention)
Parameters ~4B
Training Method LoRA fp16 (r=32, alpha=32)
Random State (Seed) 6174
Total Steps 4000
Context Length 32,768
Language Polish 🇵🇱 + English 🇬🇧

📈 Training Phases

Phase Steps LR Scheduler Note
1 500 2e-4 Linear Structure Discovery
2 1000 1e-4 Cosine Logic Stabilization
3 1000 3e-5 Cosine Fact Refinement
4 1000 1e-5 Constant Final Polish
5 500 1e-6 Constant Surgical Accuracy

🚀 Capabilities

  • Native Polish Reasoning: Natywne myślenie w blokach <think>.
  • Mathematics & Logic: Zaawansowane rozwiązywanie problemów.
  • Scientific Explanations: Fizyka, chemia, biologia.
  • Code Generation: Python, C# z analizą krok po kroku.

🦉 The Wisdom of NoQtua

"Noctua videt in tenebris, quod lux aliis celat."

Usage

llama.cpp

./llama-cli \
  -m NoQtua_Q4_K_M.gguf \
  -p " Dlaczego niebo jest niebieskie " \
  --chat-template chatml \
  -n 1024

Ollama / OpenWebUI

Compatible with any OpenAI-compatible frontend supporting GGUF + ChatML template.

Recommended Parameters / normal use .

temperature:        0.6
top_p:              0.92
top_k:              60
repetition_penalty: 1.05
Downloads last month
24
GGUF
Model size
4B params
Architecture
qwen3
Hardware compatibility
Log In to add your hardware

3-bit

4-bit

5-bit

6-bit

8-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for HattoriHanzo1/NoQtua-4B-GGUF

Finetuned
Qwen/Qwen3-4B
Adapter
(952)
this model