⚙️ LeyoAI Flow Model
智能流程自动化助手,基于 Qwen2.5-1.5B-Instruct + LoRA 微调。
📊 模型信息
| 项目 | 详情 |
|---|---|
| 基座模型 | Qwen2.5-1.5B-Instruct |
| 微调方式 | LoRA (r=16, α=32) |
| 训练数据 | 204 条流程自动化问答 |
| 训练轮次 | 3 epochs |
| 最终 Loss | 0.20 |
| 可训练参数 | 4.36M (0.28%) |
🎯 功能
- 业务流程分析与优化建议
- 自动化脚本生成(Python/Shell)
- 工作流设计与编排
- 任务调度与异常处理
- 跨系统集成方案
💡 使用方式
from transformers import AutoTokenizer, AutoModelForCausalLM
from peft import PeftModel
base = AutoModelForCausalLM.from_pretrained("Qwen/Qwen2.5-1.5B-Instruct")
model = PeftModel.from_pretrained(base, "FFZwai/qwen2.5-1.5b-flow")
tok = AutoTokenizer.from_pretrained("Qwen/Qwen2.5-1.5B-Instruct")
messages = [{"role": "user", "content": "如何设计ETL数据处理工作流?"}]
text = tok.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tok(text, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512)
print(tok.decode(outputs[0], skip_special_tokens=True))
⚠️ 免责声明
本模型仅供参考,请在生产环境部署前进行充分测试验证。
🔑 API Key 获取
通过 LeyoAI API 调用此模型,需要先获取 API Key:
API 调用示例
curl -X POST https://leyoai.vercel.app/api/v1/chat \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "flow",
"messages": [{"role": "user", "content": "你好"}]
}'
返回 OpenAI 兼容格式响应。
💡 免费套餐每月 100 次调用,无需信用卡即可开始使用。
- Downloads last month
- 94