MoE Prompt Refiner¶
Pipeline v1.0.0
为 Mixture of Experts(MoE)汇总请求优化提示词,生成高质量的综合报告。
概览¶
MoE Prompt Refiner 是一个高级 Pipeline,会在将请求发送给多个专家模型前先优化提示词,然后综合各模型回复,输出结构化的高质量报告。
功能特性¶
- 多模型:同时利用多个 AI 模型
- 提示词优化:在发送前优化 prompt 获得更好结果
- 结果合成:整合专家回复
- 报告生成:输出结构化报告
安装¶
- 下载 Pipeline 文件:
moe_prompt_refiner.py - 上传到 OpenWebUI:Admin Panel → Settings → Functions
- 配置专家模型及相关参数
- 启用该 Pipeline
工作流程¶
graph TD
A[User Prompt] --> B[Prompt Refiner]
B --> C[Expert Model 1]
B --> D[Expert Model 2]
B --> E[Expert Model N]
C --> F[Response Synthesizer]
D --> F
E --> F
F --> G[Comprehensive Report] 配置项¶
| 选项 | 类型 | 默认值 | 说明 |
|---|---|---|---|
expert_models | list | [] | 需要咨询的模型列表 |
synthesis_model | string | "auto" | 用于综合回复的模型 |
report_format | string | "markdown" | 输出格式 |
适用场景¶
- 研究报告:从多个 AI 视角收集洞见
- 综合分析:多角度问题拆解
- 决策支持:获得多模型的平衡建议
- 内容创作:生成多视角的丰富内容
示例¶
输入 Prompt:
输出报告:
# Microservices Architecture Analysis
## Executive Summary
Based on analysis from multiple expert perspectives...
## Advantages
1. **Scalability** (Expert A)...
2. **Technology Flexibility** (Expert B)...
## Disadvantages
1. **Complexity** (Expert A)...
2. **Distributed System Challenges** (Expert C)...
## Recommendations
Synthesized recommendations based on expert consensus...
运行要求¶
前置条件
- OpenWebUI v0.3.0 及以上
- 可以访问多个 LLM 模型
- 有足够的 API 配额支撑多模型请求
资源消耗
此 Pipeline 每次请求会进行多次 API 调用,请关注用量与成本。