切换语言
切换主题

Prompt Engineering 模板库:12 种可复用的提示词设计模式

上周三下午,我花了四十分钟写了一个堪称完美的 Prompt,让 Claude 帮我把一堆乱七八糟的用户反馈整理成了结构清晰的改进建议。效果很惊艳。但三天后,当我需要做同样的任务时——对着空白的输入框,脑子一片空白。

那个”完美 Prompt”去哪了?

翻遍了 Notion、备忘录、聊天记录,愣是找不着。最后只能凭印象重写了一个,结果输出质量差了一大截。

说实话,这种事我遇到过不下十次。每次都是:灵光一现写了好 Prompt → 用完就忘 → 下次又从零开始 → 质量时好时坏。

直到我意识到一个挺关键的问题:Prompt 写得好不好,一半靠技巧,另一半靠”能不能复用”

80%
日常工作场景覆盖

根据 aiengineerlab.in 2026 年的研究,区分”偶尔有效”和”持续可靠”的 Prompt,核心差异就四个字段。这四个字段组合好,能覆盖 80% 的日常工作场景。

这篇文章,我会分享一套经过验证的 Prompt 模板库建设方法,包括:

  • 四字段结构:Role + Task + Constraints + Output Format
  • 12 种 Prompt Patterns:按 Beginner/Intermediate/Advanced 分级
  • 多模型适配表:Claude、GPT-4、DeepSeek 的差异化策略
  • 模板迭代方法:如何把”还不错”的模板优化成”生产级”
  • 5 个直接可用的模板:复制粘贴就能跑

第一章:Prompt 模板的四字段结构

在看具体的模板之前,先说一个挺基础但容易被忽略的事实:好的模板和差的模板,结构上差的就是那四个字段

aiengineerlab.in 的研究指出,一个”可靠有效”的 Prompt,必须包含四个要素:Role(角色)、Task(任务)、Constraints(约束)、Output Format(输出格式)。

先看一个反例

帮我写一个代码审查的回复

这种 Prompt 我以前写过无数次。结果呢?AI 给出的回复五花八门——有时候太客气,有时候太技术化,有时候干脆只给一句”代码写得不错”。

再看加了四字段之后的版本

## Role
你是一位有 10 年经验的后端工程师,擅长 Python 和分布式系统。

## Task
审查以下代码变更,指出潜在问题并提供改进建议。

## Constraints
- 关注点:性能、安全性、可维护性
- 语气:专业但友好,避免过于严苛
- 篇幅:控制在 200 字以内
- 必须指出至少一个改进点

## Output Format
请用以下格式输出:
### 问题列表
- [问题类型] 具体描述

### 改进建议
1. ...
2. ...

### 总体评价
(一句话总结)

差别挺明显的,对吧。

四字段详解

Role(角色)——告诉 AI 它是谁。不是随便说个身份,而是设定一个有具体背景的”人设”。比如”有 10 年经验的后端工程师”就比”你是专家”具体得多。角色设定越具体,AI 的输出风格就越稳定。

Task(任务)——要 AI 干什么。这里有个小技巧:用动词开头。“审查代码变更”比”代码审查”更明确。“指出潜在问题并提供改进建议”又比”看看代码”清晰多了。

Constraints(约束)——这是最容易被忽略、但也最重要的字段。我见过太多 Prompt 死在这一步——没有约束,AI 就放飞自我。约束包括:关注领域(性能?安全?)、语气风格、篇幅限制、必须包含的元素。说白了,约束就是给 AI 划清边界。

Output Format(输出格式)——你希望结果长什么样。是要 JSON?Markdown?还是特定的章节结构?提前说清楚,能省掉大量后期整理的时间。

一张对比表

字段反例正例效果差异
Role”你是专家""10年经验后端工程师,擅长 Python”输出风格稳定
Task”看看代码""审查代码变更,指出问题并提供建议”任务边界清晰
Constraints”关注性能和安全,200字以内,至少一个改进点”输出可控
Output Format”问题列表 + 改进建议 + 总体评价”无需二次整理

当你把这四个字段组合好,一个 Prompt 就从”碰运气”变成了”可复用”。这就是模板化的基础。

第二章:12 种可复用 Prompt Patterns 速查

best-ai.org 整理了一份挺实用的 Prompt Patterns 清单,按难度分了三级。我把这些模式按使用场景重新组织了一下,方便你快速找到适合的模式。

Beginner 级别(5 种)

1. Zero-Shot(零样本)

直接给任务,不给示例。适合简单、明确的任务。

## Task
{{任务描述}}

## Output Format
{{输出格式}}

适用场景:写邮件摘要、翻译短文本、回答事实性问题。

2. Few-Shot(少样本)

给 2-3 个示例,让 AI 模仿。aiengineerlab.in 的测试显示,通常 2-3 个示例效果最佳,分类任务可以用 5-7 个。

## Task
{{任务描述}}

## Examples
示例 1:
输入:{{示例输入1}}
输出:{{示例输出1}}

示例 2:
输入:{{示例输入2}}
输出:{{示例输出2}}

## Now Process
输入:{{实际输入}}
输出:

适用场景:文案风格模仿、分类任务、格式转换。

3. Persona(角色扮演)

设定 AI 的身份和背景。这是最常用的模式之一,和第一章的”Role”字段配合使用。

## Role
你是一位{{具体身份}},拥有{{具体背景}}。

## Style
你的说话风格是:{{风格描述}}

## Task
{{任务描述}}

适用场景:代码审查、技术咨询、创意写作。

4. Output Format(输出格式化)

强制 AI 按特定格式输出。这个模式几乎可以和所有其他模式组合。

## Task
{{任务描述}}

## Output Format
请严格按以下格式输出:
{{格式模板}}

## Note
只输出格式化内容,不要额外解释。

适用场景:生成 JSON、填报表、结构化文档。

5. Negative Prompting(否定约束)

告诉 AI “不要做什么”。有时候比正面约束更有效。

## Task
{{任务描述}}

## Do NOT
- 不要{{禁止项1}}
- 不要{{禁止项2}}
- 避免{{禁止项3}}

适用场景:避免特定术语、排除敏感内容、控制输出风格。

Intermediate 级别(4 种)

6. Chain of Thought(思维链)

让 AI 展示推理过程。适合需要逻辑推理的任务。

## Task
{{任务描述}}

## Instructions
请一步步思考,先分析问题,再给出答案。
在最终答案前,展示你的推理过程。

适用场景:数学问题、逻辑推理、复杂决策。

7. System Prompt(系统提示)

把角色的核心指令放在 System Prompt 里,保持对话一致性。这个在 Claude 和 GPT-4 里用得特别多。

## System
你是{{角色描述}}。
你的核心职责是{{职责描述}}。
你必须遵守以下规则:
1. {{规则1}}
2. {{规则2}}

## User
{{用户输入}}

适用场景:AI Agent、聊天机器人、持续对话场景。

8. Iterative Refinement(迭代优化)

先让 AI 生成初稿,再让它自己修改。适合需要高质量的输出。

## Round 1
{{任务描述}}
生成初稿。

## Round 2
请审查上面的初稿,找出以下问题:
- 逻辑漏洞
- 表达不清
- 事实错误

## Round 3
根据审查结果,优化初稿并输出最终版本。

适用场景:文章写作、代码生成、方案设计。

9. Constraint Stacking(约束叠加)

堆叠多个约束,让输出更加精准。生产环境里最常用的组合。

## Task
{{任务描述}}

## Constraints
- 约束 1:{{具体约束}}
- 约束 2:{{具体约束}}
- 约束 3:{{具体约束}}
- 约束 4:{{具体约束}}

## Output Format
{{格式要求}}

适用场景:需要严格控制输出的生产任务。

Advanced 级别(3 种)

10. Self-Critique(自我审查)

让 AI 自己评估自己的输出质量。这个模式在高质量场景下特别有用。

## Task
{{任务描述}}

## Self-Critique
生成答案后,请评估:
1. 答案是否完整?
2. 是否有逻辑漏洞?
3. 是否符合所有约束?

如果有问题,请重新生成。

## Output Format
答案:
{{答案}}

自我评估:
{{评估}}

适用场景:高风险输出、需要可靠性的任务。

11. Task Decomposition(任务分解)

把复杂任务拆成子任务。适合多步骤工作流。

## Complex Task
{{复杂任务描述}}

## Decomposition
请把这个任务拆分成多个子任务:
1. {{子任务1}}
2. {{子任务2}}
3. {{子任务3}}

## Execution
请依次完成每个子任务,并说明每步的结果。

适用场景:项目管理、复杂问题分析、系统设计。

12. Meta-Prompting(元提示)

让 AI 帮你写 Prompt。当你不确定怎么表达时特别好用。

## Task
我需要完成以下任务:{{任务描述}}

## Request
请帮我写一个高质量的 Prompt,让另一个 AI 能顺利完成这个任务。
Prompt 需要包含:Role、Task、Constraints、Output Format。

适用场景:Prompt 工程新手、复杂任务梳理。

组合使用的小建议

"组合 2-4 个 Pattern 效果最好。常见组合包括:Business Writing 用 Persona + Output Format + Constraint Stacking;Code Generation 用 Persona + Few-Shot + Negative Prompting;Research & Analysis 用 Chain of Thought + Self-Critique + Task Decomposition。"

第三章:多模型适配对比表

不同的 AI 模型,对 Prompt 的”理解方式”不太一样。一个在 Claude 上效果很好的 Prompt,放到 GPT-4 上可能就差点意思。

这一章,我整理了一份模型适配指南,帮你少踩坑。

Claude:XML 标签和契约式指令

Claude 有个特点:它特别喜欢结构化的东西。官方文档推荐用 XML 标签来组织 Prompt,效果比纯文本好不少。

<instructions>
审查以下代码变更,指出潜在问题。
</instructions>

<context>
你是一位有 10 年经验的后端工程师。
项目是一个 Python 微服务,使用 FastAPI 框架。
</context>

<constraints>
- 关注性能和安全性
- 语气专业但友好
- 控制在 200 字以内
</constraints>

<output_format>
### 问题列表
- [类型] 描述

### 改进建议
1. ...
</output_format>

Claude 的另外两个优势

  • Extended Thinking:让 Claude 在输出前先”思考”,适合复杂推理任务
  • 契约式指令:在开头说清楚”如果你遵守所有约束,输出 OK”,能提高约束遵守率

GPT-4:长约束列表和 JSON 输出

GPT-4 不太吃 XML 标签那一套。它更适应”列表式”的约束。而且 GPT-4 的 JSON 输出稳定性比 Claude 稍好一些。

## Task
审查以下代码变更。

## Constraints
1. 关注性能和安全性
2. 语气专业但友好
3. 控制在 200 字以内
4. 必须指出至少一个改进点
5. 使用中文输出

## Output Format
请输出 JSON 格式:
{
  "issues": [...],
  "suggestions": [...],
  "summary": "..."
}

GPT-4 的特点

  • 约束列表可以写到 10 条以上,模型仍能较好遵守
  • Few-shot 模式效果比 Claude 稍好
  • 代码生成和解释能力比较均衡

DeepSeek 和 Qwen:国产大模型的适配

国产模型这两年进步很快,但也有自己的特点:

DeepSeek

  • 中文理解能力强,但结构化指令的遵守度稍弱
  • 建议把约束写得更明确、更短
  • Few-shot 示例数量可以减少到 1-2 个

Qwen(通义千问)

  • 比较吃”角色设定”,Persona 模式效果好
  • 长文本处理能力强,适合文档类任务
  • 约束建议用”禁止”而非”避免”,正向指令比负向更有效

Llama(小参数版本):需要更直白的指令

对于 Llama 7B、13B 这类小参数模型,Prompt 得写得更”傻瓜”一些。

## Task
审查代码变更。

## Output Format
Return ONLY valid JSON. No explanation. No markdown.
{
  "issues": [],
  "suggestions": []
}

关键点:必须显式说”只输出 JSON,不要解释”,否则小模型会多嘴多舌。

一张适配速查表

模型推荐结构Few-shot 数量约束格式特殊技巧
ClaudeXML 标签2-3 个分块写在标签内Extended Thinking
GPT-4列表式3-5 个编号列表Function Calling
DeepSeek简洁结构1-2 个短句式中文优先
QwenPersona + 列表2-3 个正向指令长文档友好
Llama under 13B极简结构1 个显式禁止强调”只输出 X”

说到底,模型适配这事儿,最好的办法就是”测一测”。写完 Prompt,在目标模型上跑几个案例,看看输出质量,再针对性调整。

第四章:模板迭代方法论

写出一个”还行”的 Prompt 不难。难的是把它变成一个”每次都好用”的模板。

"最佳模板不是一蹴而就的,而是经过反复使用和改进才成型的。一个好模板,至少要迭代五六次。"

迭代的五个步骤

Step 1:写出 Prompt,获得好结果

先别急着模板化。先写一个 Prompt,跑几次,确认输出质量稳定。

Step 2:识别固定部分和变量

拿到一个满意的输出后,分析一下 Prompt 里哪些是”固定的”,哪些是”每次会变的”。

固定的部分——比如角色设定、输出格式——这些就是模板的核心骨架。

变量的部分——比如具体任务内容、输入数据——这些用 {{变量名}} 标记,每次替换。

Step 3:添加质量护栏

把骨架扩展成完整模板,加上约束和验证条件。

护栏的作用是防止”意外输出”。比如:

  • 如果输出太长,加一个”控制在 X 字以内”的约束
  • 如果 AI 总是多嘴多舌,加一个”不要解释,只输出结果”
  • 如果输出格式不一致,加一个具体的格式模板

Step 4:使用并记录问题

模板投入使用后,记录每次遇到的问题:

  • 输出质量波动了吗?
  • 有没有违反约束的情况?
  • 哪些场景表现好,哪些场景表现差?

Step 5:迭代改进

针对记录的问题,调整模板。常见改进方向:

  • 约束不够明确 → 加更具体的描述
  • 输出格式不稳定 → 加示例或格式模板
  • 特定场景效果差 → 添加场景适配的条件分支

一个迭代案例

我有一个”周报生成”的模板,经历了大概 8 次迭代才稳定下来。

初版(迭代 1):只写了一个简单的 Prompt,让 AI 把本周工作整理成周报格式。问题:输出太随意,有时候写得很详细,有时候只有一句话。

迭代 2-3:加了输出格式模板和字数约束。问题:格式基本稳定了,但有时候会漏掉某些任务的描述。

迭代 4-5:加了”必须包含每个任务的进展、问题、下一步”的约束。问题:输出质量稳定了,但 AI 会把不重要的小任务也写进去。

迭代 6-7:加了”只写本周完成的核心任务”的约束,并给了一个示例。问题:基本稳定了,偶尔会出现格式偏差。

迭代 8(最终版):加了一个 Self-Critique 模块,让 AI 检查输出是否符合格式要求,再输出。

关键问题模板

每次遇到问题,我都会问自己这几个问题:

  1. 输出需要大幅编辑吗? → 如果需要,说明约束不够明确
  2. AI 违反了哪些约束? → 把这些约束写得更具体
  3. 有没有遗漏的信息? → 添加”必须包含 X”的指令
  4. 有没有多余的信息? → 添加”不要输出 X”的 Negative Prompting
  5. 格式是否一致? → 加示例或格式模板

团队共享模板的三个关键

如果你的团队也在用 AI 工具,建立一个共享的 Prompt Library 会大大提升效率。mintedbrain.com 提了三个建议:

1. 共享文档:把所有模板放在一个团队都能访问的文档里(比如 Notion、飞书)。按类别分组:写作类、分析类、开发类、沟通类。

2. 使用说明:每个模板配一个简单的说明:适用场景、变量说明、注意事项。不然别人拿了模板也不知道怎么用。

3. 改进提案机制:团队成员发现问题后,不是直接改模板,而是提一个”改进提案”。这样可以追踪每次改动的原因,避免模板被改得面目全非。

第五章:5 个生产级模板直接可用

最后这一章,我直接给你 5 个可以直接复制使用的模板。这些模板都经历过实际使用和迭代,基本可以直接上手。

模板 1:周报生成

<instructions>
根据本周的工作记录,生成一份简洁的周报。
</instructions>

<role>
你是一位高效的团队协作者,擅长用简洁的语言总结工作进展。
</role>

<input>
{{本周工作记录}}
</input>

<constraints>
- 只包含本周完成的核心任务
- 每个任务说明:进展、问题、下一步
- 控制在 300 字以内
- 语气专业、简洁
- 不要添加评价性语言(如"做得很好")
</constraints>

<output_format>
## 本周进展
- {{任务1}}:{{进展}} | {{问题}} | {{下一步}}
- {{任务2}}:{{进展}} | {{问题}} | {{下一步}}

## 需要协助
- {{需要协助的事项}}

## 下周计划
- {{下周计划}}
</output_format>

<self_check>
生成后请检查:
1. 是否只包含核心任务?
2. 每个任务是否都有进展、问题、下一步?
3. 总字数是否在 300 字以内?
</self_check>

模板 2:代码审查

<instructions>
审查以下代码变更,指出潜在问题并提供改进建议。
</instructions>

<role>
你是一位有 10 年经验的后端工程师,擅长 {{编程语言}} 和 {{技术栈}}。
你的风格是:专业但不严苛,指出问题时给出具体可行的建议。
</role>

<input>
{{代码变更内容}}
</input>

<constraints>
- 关注点:性能、安全性、可维护性、代码规范
- 至少指出一个改进点
- 每个问题说明:类型、位置、原因、建议
- 控制在 200 字以内
- 不要只说"代码写得不错",必须有具体内容
</constraints>

<output_format>
### 问题列表
- [{{问题类型}}] {{文件名}}#{{行号}}:{{问题描述}}

### 改进建议
1. {{建议内容}}

### 总体评价
{{一句话评价}}
</output_format>

模板 3:会议纪要整理

<instructions>
把以下会议记录整理成结构化的会议纪要。
</instructions>

<role>
你是一位专业的会议记录员,擅长提取关键信息、归纳要点。
</role>

<input>
{{会议记录内容}}
</input>

<constraints>
- 只提取关键信息,去除冗余对话
- 明确标注:讨论议题、结论、待办事项、负责人、截止日期
- 使用简洁的语言
- 控制在 500 字以内
</constraints>

<output_format>
## 会议基本信息
- 时间:{{日期时间}}
- 参会人:{{参会人列表}}
- 议题:{{议题列表}}

## 讨论要点
### {{议题1}}
- {{要点1}}
- {{要点2}}
- 结论:{{结论}}

### {{议题2}}
- ...

## 待办事项
| 事项 | 负责人 | 截止日期 |
|------|--------|----------|
| {{事项1}} | {{负责人}} | {{日期}} |
| {{事项2}} | {{负责人}} | {{日期}} |

## 备注
{{备注内容}}
</output_format>

模板 4:JSON 数据提取

<instructions>
从以下文本中提取结构化数据,输出为 JSON 格式。
</instructions>

<role>
你是一位精确的数据提取专家。
</role>

<input>
{{输入文本}}
</input>

<constraints>
- 只输出 JSON,不要额外解释
- JSON 必须是有效的格式
- 如果信息缺失,字段值为 null
- 不要添加原文中没有的信息
</constraints>

<output_format>
Return ONLY valid JSON. No explanation. No markdown.

{
  {{字段定义}}
}

Example:
Input: "张三,电话 13800138000,邮箱 [email protected]"
Output:
{
  "name": "张三",
  "phone": "13800138000",
  "email": "[email protected]"
}
</output_format>

模板 5:AI Agent 系统提示

<system_prompt>
你是一个 {{agent_name}},专门负责 {{agent_description}}。

## 核心职责
1. {{职责1}}
2. {{职责2}}
3. {{职责3}}

## 工作流程
当收到用户请求时,按以下步骤处理:
1. 分析请求意图
2. 检查是否有足够的信息完成任务
3. 如信息不足,主动询问
4. 执行任务
5. 验证结果

## 行为规范
- 语气友好、专业
- 遇到不确定的问题,主动说明并提出建议
- 不要做出超出职责范围的承诺
- 输出必须清晰、可执行

## 禁止事项
- 不要编造信息
- 不要做出未经授权的决定
- 不要输出敏感或有害内容

## 输出格式
根据任务类型选择合适的格式:
- 信息查询:简洁的回答 + 来源说明
- 操作执行:步骤列表 + 结果确认
- 问题解答:分析 + 方案 + 建议
</system_prompt>

这几个模板覆盖了日常工作中最常见的场景。你可以根据自己的需求,调整变量和约束,让它们更适合你的具体情况。

结论

说了这么多,其实核心就三层:

结构层面——四字段结构(Role + Task + Constraints + Output Format)是模板的基础。把这四个字段填好,一个 Prompt 就从”碰运气”变成了”可控”。

Pattern 层面——12 种 Prompt Patterns 不是孤立的。组合 2-4 个 Pattern,效果比单一 Pattern 好得多。生产环境最常见的是 Persona + Output Format + Constraint Stacking。

工程层面——模板不是写完就完了。迭代才是关键。一个好模板,至少要经历五六次使用和改进。记录问题、调整约束、添加护栏,这才是模板化的完整流程。

如果你看完这篇文章,想立刻动手,我有三个建议:

  1. 这周就试一个 Pattern。从 Beginner 级别选一个(比如 Persona 或 Output Format),应用到你的实际工作中。写完 Prompt 后,看看输出质量有没有变化。

  2. 建立你的 Personal Prompt Library。从 5 个模板起步。把这 5 个模板放到一个文档里,每次用的时候直接复制粘贴,替换变量。

  3. 每月迭代一次。用了一个月后,看看哪些模板表现好,哪些有问题。针对性地调整约束、添加示例、优化格式。

Prompt Engineering 这事儿,说复杂也复杂,说简单也简单。复杂的是方法论和技巧,简单的是——一旦你有了可复用的模板库,就再也不用每次对着空白输入框发愁了。

常见问题

四字段结构中的 Constraints 应该怎么写才有效?
Constraints 应该具体、可量化、可验证。避免模糊的描述如'高质量'、'专业',改用'控制在 200 字以内'、'必须包含至少一个改进点'这样的具体约束。每个约束最好对应一个可检验的标准。
12 种 Prompt Patterns 中哪个最实用?
没有'最实用'的单一 Pattern,因为不同场景适合不同模式。根据实际数据,Persona(角色扮演)和 Output Format(输出格式化)的组合使用频率最高,适合 80% 的日常工作场景。建议从这两个开始掌握。
Claude 和 GPT-4 的 Prompt 有什么区别?
Claude 偏好 XML 标签结构,约束写在标签内;GPT-4 适应编号列表式约束,可以写 10 条以上。Claude 支持 Extended Thinking(思维链),适合复杂推理;GPT-4 的 Function Calling 更稳定,适合结构化输出。
模板迭代几次才能稳定?
根据实践经验,一个好模板至少需要 5-6 次迭代才能稳定。迭代的核心是:使用 → 记录问题 → 针对性改进。关键问题包括:输出需要大幅编辑吗?AI 违反了哪些约束?格式是否一致?
如何建立团队共享的 Prompt Library?
三个关键点:1) 使用共享文档(Notion、飞书),按类别分组;2) 每个模板配使用说明,包括适用场景、变量说明、注意事项;3) 建立改进提案机制,追踪每次改动原因,避免模板被随意修改。
Few-shot 应该给几个示例?
根据 aiengineerlab.in 的研究,通常 2-3 个示例效果最佳。分类任务可以用 5-7 个示例。示例过多会增加 Prompt 长度但效果不一定更好。关键是示例要覆盖典型情况,质量比数量重要。

15 分钟阅读 · 发布于: 2026年4月29日 · 修改于: 2026年4月29日

相关文章

BetterLink

想持续收到这个主题的更新?

你可以直接关注作者更新、订阅 RSS,或者继续沿着系列入口往下读,避免下次又回到搜索结果重新找。

关注公众号

评论

使用 GitHub 账号登录后即可评论