|
让千问从五个维度拆解分析下这段提示词:
维度一:角色与意图的隐性定义 (Role & Intent Definition)
原文体现:
"Export all of my stored memories... Preserve my words verbatim..."
(导出我所有存储的记忆……原样保留我的措辞……)
拆解分析:
* 隐性角色设定:虽然没有显式地说“你是一个数据迁移专家”,但通过动词 Export(导出)和约束 Preserve my words verbatim(原样保留),强行将 AI 的角色从“对话者”切换为“档案管理员”或“数据提取器”。
* 核心技巧:动词即指令。
* 普通写法:“帮我总结一下你记得关于我的事。”(AI 可能会概括、润色,丢失细节)
* 高阶写法:“导出(Export)……原样保留(Preserve verbatim)。”(明确了动作的精确性和保真度要求)。
* 学习点:在需要精准执行任务时,避免使用模糊动词(如“看看”、“处理”),直接使用强动作动词(如“提取”、“映射”、“转译”、“原样复述”)来锁定 AI 的行为模式。
维度二:思维链的显性结构化 (Explicit Structural Chain-of-Thought)
原文体现:
Categories (output in this order):
1. Instructions... 2. Identity... 3. Career... 4. Projects... 5. Preferences...
拆解分析:
* 分类穷举(MECE 原则):提示词没有让 AI 自己决定怎么分类,而是预先定义了 5 个互斥且穷尽的类别。这防止了 AI 将“工作偏好”错误地归类到“个人兴趣”中,保证了输出的一致性。
* 顺序控制:明确指定 output in this order(按此顺序输出)。这对于后续的数据处理(如脚本解析)至关重要。
* 边界界定:在第 1 点中特别注明 Only include rules from stored memories, not from conversations(仅包含存储记忆中的规则,不包含对话内容)。这是非常关键的负向约束,防止 AI 把临时对话当成永久记忆。
* 学习点:不要信任 AI 的自发分类能力。对于复杂任务,必须在 Prompt 中预定义好“骨架”。使用 ## 标题和数字列表是引导 AI 遵循逻辑结构的最有效方式。
维度三:Few-Shot 风格的格式规范 (Format Specification as Few-Shot)
原文体现:
Format each line as: [YYYY-MM-DD] - Entry content here.
If no date is known, use [unknown] instead.
拆解分析:
* 模板化输出:它没有用自然语言描述格式(如“请写上日期和内容”),而是直接给出了一个视觉模板 [YYYY-MM-DD] - Entry content here。LLM 对这种模式匹配的能力极强,能极大减少格式错误。
* 边缘情况处理(Edge Case Handling):专门提到了 If no date is known 的情况。很多初级提示词会忽略这一点,导致 AI 在遇到缺失数据时产生幻觉(编造日期)或报错。
* 学习点:用示例代替描述。与其说“请用标准日期格式”,不如直接写出 [2023-10-01]。同时,必须考虑异常流程(如果没有数据怎么办?),提前给出默认值(Default Value)。
维度四:交付物封装与元数据反馈 (Delivery Encapsulation & Meta-Feedback)
原文体现:
Output:
- Wrap the entire export in a single code block...
- After the code block, state whether this is the complete set...
拆解分析:
* 容器化思维:要求包裹在 code block 中。这不仅是为了好看,更是为了方便复制和程序化解析(避免 Markdown 渲染干扰纯文本)。这显示了提示词编写者具有“工程化思维”。
* 自我验证机制:要求 AI 在结束后说明 whether this is the complete set。这是一种元认知(Meta-cognition)检查。因为 LLM 有时受限于上下文窗口长度,可能会截断输出。这一步强制 AI 自我审查任务的完成度。
* 学习点:定义“完成的定义”。一个好的提示词不仅要规定做什么,还要规定怎么做交付以及如何确认做完了。
维度五:上下文管理的经济性 (Context Economy)
原文体现:
整个提示词非常精简,没有废话,直接切入主题。
拆解分析:
* 去噪:没有“你好,请帮我……",“非常感谢”等客套话。在涉及大量数据检索(读取所有记忆)的任务中,每一 token 都很宝贵。
* 高密度信息:每个句子都承载了一个具体的约束条件(时间排序、原样保留、特定分类)。
* 学习点:信噪比最大化。在系统级指令或复杂任务中,删除所有情感色彩和冗余背景,只保留主体(谁)、动作(做什么)、条件(限制)。
转发 @聆风Raymond: claude提供的方便用户从其他AI模型结构化迁移记忆和数据的提示词:
Export all of my stored memories and any context you've learned about me from past conversations. Preserve my words verbatim where possible, especially for instructions and preferences.
## Categories (output in this order):
1. **Instructions**: Rules I've explicitly asked you to follow going forward — tone, format, style, "always do X", "never do Y", and corrections to your behavior. Only include rules from stored memories, not from conversations.
2. **Identity**: Name, age, location, education, family, relationships, languages, and personal interests.
3. **Career**: Current and past roles, companies, and general skill areas.
4. **Projects**: Projects I meaningfully built or committed to. Ideally ONE entry per project. Include what it does, current status, and any key decisions. Use the project name or a short descriptor as the first words of the entry.
5. **Preferences**: Opinions, tastes, and working-style preferences that apply broadly.
## Format:
Use section headers for each category. Within each category, list one entry per line, sorted by oldest date first. Format each line as:
[YYYY-MM-DD] - Entry content here.
If no date is known, use [unknown] instead.
## Output:
- Wrap the entire export in a single code block for easy copying.
- After the code block, state whether this is the complete set or if more remain. |