⚙️ LeyoAI Flow Model

智能流程自动化助手,基于 Qwen2.5-1.5B-Instruct + LoRA 微调。

📊 模型信息

项目 详情
基座模型 Qwen2.5-1.5B-Instruct
微调方式 LoRA (r=16, α=32)
训练数据 204 条流程自动化问答
训练轮次 3 epochs
最终 Loss 0.20
可训练参数 4.36M (0.28%)

🎯 功能

  • 业务流程分析与优化建议
  • 自动化脚本生成(Python/Shell)
  • 工作流设计与编排
  • 任务调度与异常处理
  • 跨系统集成方案

💡 使用方式

from transformers import AutoTokenizer, AutoModelForCausalLM
from peft import PeftModel

base = AutoModelForCausalLM.from_pretrained("Qwen/Qwen2.5-1.5B-Instruct")
model = PeftModel.from_pretrained(base, "FFZwai/qwen2.5-1.5b-flow")
tok = AutoTokenizer.from_pretrained("Qwen/Qwen2.5-1.5B-Instruct")

messages = [{"role": "user", "content": "如何设计ETL数据处理工作流?"}]
text = tok.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tok(text, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512)
print(tok.decode(outputs[0], skip_special_tokens=True))

⚠️ 免责声明

本模型仅供参考,请在生产环境部署前进行充分测试验证。

🔑 API Key 获取

通过 LeyoAI API 调用此模型,需要先获取 API Key:

  1. 访问 LeyoAI 官网 注册账号
  2. 登录后进入 Dashboard
  3. 在 API Keys 页面创建新 Key

API 调用示例

curl -X POST https://leyoai.vercel.app/api/v1/chat \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "flow",
    "messages": [{"role": "user", "content": "你好"}]
  }'

返回 OpenAI 兼容格式响应。

💡 免费套餐每月 100 次调用,无需信用卡即可开始使用。

Downloads last month
94
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for FFZwai/qwen2.5-1.5b-flow

Adapter
(890)
this model

Space using FFZwai/qwen2.5-1.5b-flow 1