通过之前的文章,写prompt应该都有一定的技巧,
可以写出不错的文章,但是对结果不满意的时候,
你是不是也这样:
写一句 Prompt → 不满意 → 改一下 → 再试
一开始觉得很正常。
但用多了之后,会慢慢发现一个问题:
👉 很累,而且不稳定。
有时候你改一句,效果明显变好。
有时候你改完,反而更差。
甚至会出现一种情况:
👉 你已经不知道该怎么改了
后来我试了一个方法,思路直接变了。
不是我去调 Prompt,而是——
👉 让AI自己优化自己的结果
一、为什么你总是在“手动调Prompt”?
其实大多数人用AI,都在做一件事:
👉 人肉调参
流程大概是这样:
这本质上和你在调模型参数是一样的,只不过你是在用“语言”调。
问题在于:
👉 这个过程没有反馈机制
你只是“感觉不好”,然后改。
但你并没有明确:
所以结果就变成:
👉 越改越玄学
二、一个很简单的改变,让结果直接稳定下来
后来我做了一件很小的改动。
把“一次提问”,改成“三步”。
✅ 基础版模板(可以直接用)
请完成以下任务:
第一步:生成结果
第二步:从以下角度批评结果:
- 是否空洞
- 是否具体
- 是否有吸引力
第三步:根据批评,重写结果
就这么简单。
但效果差别非常明显。
三、一个实际对比(你可以自己试)
比如你写:
👉 第一版通常是这种:
但如果你换成三步:
1. 写一篇关于AI副业的文章
2. 批评文章:
- 是否空洞
- 是否具体
- 是否有案例
3. 重写文章
👉 第二版通常会出现这些变化:
不是因为模型变强了。
而是你让它多做了一件事:
👉 自我评估
四、为什么这种方法会有效?
很多人以为AI只是在“生成内容”。
但其实它还有一个能力:
👉 判断内容质量
当你只问一句时:
👉 模型只调用“生成能力”
当你加上这一步:
👉 批评 + 重写
本质上你做的是:
👉 强制模型进行二次推理
可以理解为:
第一次输出 → 粗稿
第二次输出 → 修改稿
而现实里:
👉 修改稿几乎一定比初稿好
五、关键不在“三步”,而在“怎么批评”
很多人照抄这个结构,效果一般。
问题通常出在这里:
👉 批评写得太模糊
❌ 这种基本没用
模型其实不知道你要什么。
✅ 更有效的写法
请从以下角度批评:
- 是否具体(有没有细节或例子)
- 是否有信息量(有没有干货)
- 是否有吸引力(是否想继续读)
👉 这里有一个关键点:
你在定义“好内容的标准”
AI不是不知道怎么写好。
是你没有告诉它:
👉 什么叫“好”
六、再进阶一步:让AI帮你优化Prompt本身
如果你再往前走一步,会更有意思。
你可以这样写:
当前Prompt:
写一篇AI副业文章
请分析这个Prompt的问题,并优化它,使输出更具体、更稳定
你会发现:
👉 它会主动帮你补:
这时候你已经不是在用Prompt了。
而是在做一件更高级的事:
👉 让AI参与Prompt设计
七、一个我自己常用的完整模板(直接抄)
如果你不想自己想,我给你一套我平时用的:
请完成以下任务:
1. 输出初版结果
2. 从以下角度批评:
- 是否具体
- 是否有逻辑
- 是否有信息密度
- 是否有吸引力
3. 给出优化建议
4. 根据建议重写
这一套下来,有几个明显好处:
👉 输出更稳定
👉 不太靠运气
👉 基本不会太水