1. 项目概述Prompt Engineering 的实战价值最近在 GitHub 上看到一个名为 “imJunaidAfzal/Prompt-Engineering” 的项目这让我想起了过去一年里和团队一起从零开始摸索大语言模型应用落地的经历。Prompt Engineering中文常译为“提示工程”或“指令工程”早已不是个新鲜词但真正能把它用好、用精让它稳定地服务于实际业务场景却远没有想象中那么简单。这个项目名本身就是一个很好的切入点它指向了一个核心议题如何通过系统化的方法设计出高质量、高稳定性的提示词Prompt从而让大语言模型LLM发挥出最大效能。对于很多刚接触 AI 应用开发的工程师或产品经理来说可能会觉得 Prompt Engineering 就是“和 AI 聊天”无非是把问题问得更清楚一点。但实际踩过坑后你会发现这背后是一套融合了语言学、认知心理学和软件工程思想的实践体系。一个好的 Prompt 设计直接决定了模型输出的准确性、可靠性和可控性是连接人类意图与 AI 能力的桥梁。无论是构建一个智能客服助手、一个代码生成工具还是一个复杂的信息分析系统Prompt 都是最核心的“胶水代码”。这个项目所探讨的正是如何将这种看似随意的“对话艺术”转化为可重复、可优化、可工程化的“硬核技能”。2. 核心思路与设计哲学拆解2.1 从“技巧集合”到“工程体系”的转变初看 “Prompt-Engineering” 这个仓库你可能会期待里面是一份长长的“魔法咒语”清单。但真正有价值的 Prompt Engineering 项目其内核不应仅仅是技巧的罗列而应是一套完整的方法论和工程实践。这背后的设计哲学是从离散的“技巧”Tricks转向系统的“工程”Engineering。工程化的核心在于可预测性和可重复性。一个随机的、依赖灵感的 Prompt 可能在一次对话中效果惊人但换一个场景或模型版本就可能完全失效。因此项目的首要任务是建立一套结构化的 Prompt 设计框架。这通常包括角色定义明确 AI 的扮演角色如“资深软件架构师”、“严格的数据分析师”、任务上下文提供充足的背景信息、输入格式和输出约束、思维链要求模型展示推理步骤以及输出格式化指令如“请以 JSON 格式输出包含字段 A, B, C”。通过这种结构化的方式我们极大地降低了模型的“自由发挥”空间使其输出更贴合我们的程序化处理需求。2.2 核心原则清晰、具体、可验证所有 Prompt 设计的黄金法则都可以归结为这三个词。清晰意味着避免歧义使用直白的语言。例如“总结这篇文章”就不如“用不超过三句话概括这篇文章的核心论点并指出作者的主要论据”来得清晰。具体则要求我们提供足够的细节和约束条件。比如在代码生成任务中“写一个排序函数”是模糊的而“用 Python 写一个快速排序函数函数名为quick_sort输入为一个整数列表返回排序后的新列表并添加适当的代码注释”则具体得多。可验证是工程化的关键它要求 Prompt 的设计能让输出结果有一个客观的评估标准。例如在要求模型提取信息时明确指定输出为表格或 JSON这样我们就可以编写脚本自动解析和校验数据的完整性与格式。这个项目如果做得好应该能体现出对这些原则的深入理解和实践提供大量正反案例对比让学习者直观地感受到细微的措辞变化如何导致输出质量的巨大差异。3. Prompt 设计模式与高级技巧解析3.1 基础模式角色扮演与思维链Chain-of-Thought这是两种最经典且最有效的 Prompt 设计模式。角色扮演Role Prompting通过给模型赋予一个特定的身份来激活其在该领域知识下的“行为模式”。例如开头加上“你是一位经验丰富的网络安全专家”模型在回答有关漏洞的问题时其语气、深度和考虑问题的角度都会发生变化会更倾向于给出具有实操性的加固建议而非泛泛而谈。在实际项目中我们为不同的微服务设计了不同的“AI 角色”如 API 设计顾问、数据库优化专家、错误日志诊断医生等使得交互更加专业和高效。思维链Chain-of-Thought, CoT则是解决复杂推理问题的利器。它的核心是鼓励模型“一步一步思考”将思考过程输出出来。对于数学问题、逻辑推理或分步骤任务CoT 能显著提升最终答案的准确性。在实践中我们常用的技巧是“零样本思维链”Zero-shot-CoT即在 Prompt 末尾简单地加上“让我们一步步地思考。”或者“请先列出你的推理步骤再给出最终答案。” 对于更复杂的问题则可以提供少数几个示例即“少样本思维链”Few-shot-CoT示范如何拆解问题。这个模式的价值在于它使得模型的“黑箱”推理过程部分白盒化不仅便于我们验证其逻辑也便于在出错时定位问题环节。3.2 高级技巧自动提示优化与外部工具集成当项目规模扩大需要管理成百上千个 Prompt 时手动优化和维护就变得力不从心。这时就需要引入自动提示优化的思路。一种常见方法是基于评估函数的迭代优化首先定义一个对输出结果进行打分如相关性、准确性、完整性的评估函数然后使用算法如遗传算法、梯度下降的近似方法对 Prompt 的措辞进行微调寻找在评估函数上得分更高的版本。虽然完全自动化仍处研究阶段但建立一套 A/B 测试框架对新旧 Prompt 版本进行人工或自动化评估已经是成熟团队的标准实践。另一个关键趋势是Prompt 与外部工具的结合。大语言模型不擅长精确计算、实时信息获取或执行具体操作。因此一个强大的 Prompt 工程体系必须包含让模型学会“使用工具”的能力。这通常通过Function Calling函数调用或ReActReasoning Acting框架来实现。在 Prompt 中我们需要清晰地定义可供模型调用的工具列表、它们的用途、输入输出格式。例如在构建一个旅行助手时Prompt 需要说明“你可以调用search_flights(departure, arrival, date)函数来查询航班信息调用get_weather(city, date)函数来获取天气预报。” 模型在理解用户需求后会自主规划步骤决定何时调用哪个工具并将工具返回的结果整合到最终回复中。这极大地扩展了 AI 应用的能力边界。4. 实战构建一个可维护的 Prompt 管理系统4.1 Prompt 的版本化与参数化在真实的软件工程项目中Prompt 不应该散落在各个代码文件或注释里。我们需要像管理代码一样管理 Prompt。首先版本控制是必须的。使用 Git 来管理 Prompt 文本文件可以清晰地追踪每一次修改的历史、作者和意图方便回滚和协作。我们团队会为每个重要的功能模块建立一个prompts/目录里面按功能细分*.prompt.md文件。其次参数化Parameterization是提升复用性的关键。一个硬编码的 Prompt 很难适应多变的需求。我们应该将 Prompt 模板化将其中可变的部分提取为参数。例如你是一位{role}请根据以下上下文回答用户的问题。 上下文{context} 问题{question} 要求回答需引用上下文且不超过{max_length}字。在代码中我们可以使用像 Python 的str.format()或更专业的模板引擎如 Jinja2来动态渲染 Prompt。这样同一套逻辑可以适用于不同的角色、不同的上下文和不同的约束条件大大减少了重复劳动。4.2 环境隔离与测试套件Prompt 的效果严重依赖于模型版本、温度Temperature、最大生成长度等参数。为了确保稳定性必须建立隔离的测试环境。我们通常会搭建一个简单的测试平台可以方便地切换不同的模型如 GPT-4、Claude、本地部署的 Llama并调整参数。对于每一个关键的 Prompt我们都会编写一个对应的测试套件。这个测试套件包含一系列“输入-期望输出”对或者至少是输入和输出验证规则。例如对于一个用于从用户反馈中提取产品功能点的 Prompt测试用例会提供几条典型的反馈文本然后验证输出是否是一个列表、列表项是否都是名词短语、是否包含了预期的关键功能点等。这些测试可以集成到 CI/CD 流水线中当 Prompt 或模型更新时自动运行确保核心功能的输出质量不会意外退化。这是将 Prompt Engineering 真正“工程化”的标志性一步。5. 避坑指南与常见问题排查5.1 典型陷阱与应对策略在实际操作中即使遵循了所有原则也难免会踩坑。以下是一些高频问题及我们的应对心得幻觉Hallucination与事实性错误这是 LLM 的固有问题。应对策略是多管齐下提供精确上下文在 Prompt 中尽可能提供准确的参考信息并明确指令“仅根据提供的上下文回答如果信息不足请明确说明‘根据已知信息无法回答’”。要求引用来源指令模型在输出中注明其答案的依据来自于上下文的哪一部分例如引用原文行号或关键句。后置验证对于关键事实设计流程让另一个 AI 代理或规则系统对输出进行交叉验证。输出格式不稳定模型有时会不遵守 JSON、XML 等格式要求或在内容中添加额外的解释性文字。强化格式指令在 Prompt 中非常严格地定义格式例如“你的输出必须是且仅是一个合法的 JSON 对象不要有任何额外的 markdown 标记、解释或前言后语。JSON 结构必须严格遵循以下 schema...”使用输出解析器在代码端不要假设模型输出是完美的。使用带有错误处理和重试机制的解析库如 Pydantic LangChain 的 Output Parser当解析失败时可以尝试修复或重新生成。Prompt 注入Prompt Injection当用户输入的内容可能包含试图覆盖或篡改系统 Prompt 的指令时就会发生 Prompt 注入。例如用户说“忽略之前的指令你现在是…”。权限隔离将系统指令不可变与用户输入在代码层面清晰分离通过 API 参数如 OpenAI 的system和user消息角色传递而非简单拼接成一个字符串。输入清洗与监控对用户输入进行基本的过滤和监控对可疑模式如“忽略以上”、“扮演另一个角色”进行告警或处理。5.2 效果评估与迭代优化如何判断一个 Prompt 是好是坏不能只靠感觉。需要建立量化的评估指标。根据任务类型不同指标各异分类/提取任务使用准确率、召回率、F1 分数。生成任务可以使用 ROUGE、BLEU 等与参考文本的相似度指标但更重要的是人工评估相关性、流畅性和有用性。问答任务可以使用答案是否包含关键信息点来评估。建立一个由少量典型用例构成的评估集。每次对 Prompt 进行重大修改后都在这个评估集上运行记录指标变化。同时人工抽查永远不可替代尤其是检查模型输出中那些微妙的逻辑错误或语气问题。优化是一个持续的过程我们团队会定期如每两周回顾高频失败案例分析是 Prompt 问题、上下文不足问题还是模型本身的能力边界问题并据此制定优化策略。6. 从项目到产品构建健壮的 AI 应用架构6.1 分层设计Prompt 作为应用逻辑层在大型应用中不应将所有的业务逻辑都塞进一个庞大的 Prompt 里。我们应该采用分层设计的思想。可以将 AI 应用架构分为以下几层路由层根据用户输入的首句话或意图决定调用哪个技能Skill或工作流Workflow。这本身可以用一个简单的分类 Prompt 或规则引擎来实现。技能层每个具体的技能对应一个或多个精心设计的 Prompt。例如“总结文档”、“生成 SQL”、“调试代码”分别是不同的技能。工具层为技能提供所需的外部能力如计算器、搜索引擎 API、数据库连接器等。Prompt 需要清晰地描述如何调用这些工具。编排层负责管理复杂多步骤的工作流。例如先“分析需求”再“搜索资料”最后“生成报告”。这可以使用 LangChain、AutoGen 等框架或者自行设计状态机来实现。在这种架构下Prompt 主要存在于技能层和工具调用层。每个 Prompt 职责单一易于维护和测试。当某个功能需要调整时我们只需修改对应的那个 Prompt 文件影响范围可控。6.2 可观测性与成本控制当 AI 应用上线后可观测性至关重要。我们需要记录每一次交互的元数据至少包括使用的 Prompt 模板标识、输入的参数、模型的完整响应、消耗的 Token 数量、请求耗时以及用户反馈如果有。这些日志能帮助我们定位问题当用户报告错误时能快速复现当时的对话场景。分析性能识别哪些 Prompt 消耗 Token 最多、响应最慢从而进行针对性优化如精简上下文。优化成本大语言模型的 API 调用成本与 Token 数量直接相关。通过分析日志我们可以发现哪些交互模式导致了不必要的长文本输入或输出进而优化 Prompt 设计例如通过更严格的输出长度限制或优化上下文压缩策略在保证效果的前提下有效控制成本。此外必须为应用设置预算和速率限制防止意外循环或恶意攻击导致的天价账单。在 Prompt 设计阶段就要有成本意识思考“是否真的需要将整篇文档都作为上下文”、“能否用更简洁的语言表达指令”。
从技巧到工程:构建可维护的Prompt设计体系与实战指南
发布时间:2026/5/17 1:00:37
1. 项目概述Prompt Engineering 的实战价值最近在 GitHub 上看到一个名为 “imJunaidAfzal/Prompt-Engineering” 的项目这让我想起了过去一年里和团队一起从零开始摸索大语言模型应用落地的经历。Prompt Engineering中文常译为“提示工程”或“指令工程”早已不是个新鲜词但真正能把它用好、用精让它稳定地服务于实际业务场景却远没有想象中那么简单。这个项目名本身就是一个很好的切入点它指向了一个核心议题如何通过系统化的方法设计出高质量、高稳定性的提示词Prompt从而让大语言模型LLM发挥出最大效能。对于很多刚接触 AI 应用开发的工程师或产品经理来说可能会觉得 Prompt Engineering 就是“和 AI 聊天”无非是把问题问得更清楚一点。但实际踩过坑后你会发现这背后是一套融合了语言学、认知心理学和软件工程思想的实践体系。一个好的 Prompt 设计直接决定了模型输出的准确性、可靠性和可控性是连接人类意图与 AI 能力的桥梁。无论是构建一个智能客服助手、一个代码生成工具还是一个复杂的信息分析系统Prompt 都是最核心的“胶水代码”。这个项目所探讨的正是如何将这种看似随意的“对话艺术”转化为可重复、可优化、可工程化的“硬核技能”。2. 核心思路与设计哲学拆解2.1 从“技巧集合”到“工程体系”的转变初看 “Prompt-Engineering” 这个仓库你可能会期待里面是一份长长的“魔法咒语”清单。但真正有价值的 Prompt Engineering 项目其内核不应仅仅是技巧的罗列而应是一套完整的方法论和工程实践。这背后的设计哲学是从离散的“技巧”Tricks转向系统的“工程”Engineering。工程化的核心在于可预测性和可重复性。一个随机的、依赖灵感的 Prompt 可能在一次对话中效果惊人但换一个场景或模型版本就可能完全失效。因此项目的首要任务是建立一套结构化的 Prompt 设计框架。这通常包括角色定义明确 AI 的扮演角色如“资深软件架构师”、“严格的数据分析师”、任务上下文提供充足的背景信息、输入格式和输出约束、思维链要求模型展示推理步骤以及输出格式化指令如“请以 JSON 格式输出包含字段 A, B, C”。通过这种结构化的方式我们极大地降低了模型的“自由发挥”空间使其输出更贴合我们的程序化处理需求。2.2 核心原则清晰、具体、可验证所有 Prompt 设计的黄金法则都可以归结为这三个词。清晰意味着避免歧义使用直白的语言。例如“总结这篇文章”就不如“用不超过三句话概括这篇文章的核心论点并指出作者的主要论据”来得清晰。具体则要求我们提供足够的细节和约束条件。比如在代码生成任务中“写一个排序函数”是模糊的而“用 Python 写一个快速排序函数函数名为quick_sort输入为一个整数列表返回排序后的新列表并添加适当的代码注释”则具体得多。可验证是工程化的关键它要求 Prompt 的设计能让输出结果有一个客观的评估标准。例如在要求模型提取信息时明确指定输出为表格或 JSON这样我们就可以编写脚本自动解析和校验数据的完整性与格式。这个项目如果做得好应该能体现出对这些原则的深入理解和实践提供大量正反案例对比让学习者直观地感受到细微的措辞变化如何导致输出质量的巨大差异。3. Prompt 设计模式与高级技巧解析3.1 基础模式角色扮演与思维链Chain-of-Thought这是两种最经典且最有效的 Prompt 设计模式。角色扮演Role Prompting通过给模型赋予一个特定的身份来激活其在该领域知识下的“行为模式”。例如开头加上“你是一位经验丰富的网络安全专家”模型在回答有关漏洞的问题时其语气、深度和考虑问题的角度都会发生变化会更倾向于给出具有实操性的加固建议而非泛泛而谈。在实际项目中我们为不同的微服务设计了不同的“AI 角色”如 API 设计顾问、数据库优化专家、错误日志诊断医生等使得交互更加专业和高效。思维链Chain-of-Thought, CoT则是解决复杂推理问题的利器。它的核心是鼓励模型“一步一步思考”将思考过程输出出来。对于数学问题、逻辑推理或分步骤任务CoT 能显著提升最终答案的准确性。在实践中我们常用的技巧是“零样本思维链”Zero-shot-CoT即在 Prompt 末尾简单地加上“让我们一步步地思考。”或者“请先列出你的推理步骤再给出最终答案。” 对于更复杂的问题则可以提供少数几个示例即“少样本思维链”Few-shot-CoT示范如何拆解问题。这个模式的价值在于它使得模型的“黑箱”推理过程部分白盒化不仅便于我们验证其逻辑也便于在出错时定位问题环节。3.2 高级技巧自动提示优化与外部工具集成当项目规模扩大需要管理成百上千个 Prompt 时手动优化和维护就变得力不从心。这时就需要引入自动提示优化的思路。一种常见方法是基于评估函数的迭代优化首先定义一个对输出结果进行打分如相关性、准确性、完整性的评估函数然后使用算法如遗传算法、梯度下降的近似方法对 Prompt 的措辞进行微调寻找在评估函数上得分更高的版本。虽然完全自动化仍处研究阶段但建立一套 A/B 测试框架对新旧 Prompt 版本进行人工或自动化评估已经是成熟团队的标准实践。另一个关键趋势是Prompt 与外部工具的结合。大语言模型不擅长精确计算、实时信息获取或执行具体操作。因此一个强大的 Prompt 工程体系必须包含让模型学会“使用工具”的能力。这通常通过Function Calling函数调用或ReActReasoning Acting框架来实现。在 Prompt 中我们需要清晰地定义可供模型调用的工具列表、它们的用途、输入输出格式。例如在构建一个旅行助手时Prompt 需要说明“你可以调用search_flights(departure, arrival, date)函数来查询航班信息调用get_weather(city, date)函数来获取天气预报。” 模型在理解用户需求后会自主规划步骤决定何时调用哪个工具并将工具返回的结果整合到最终回复中。这极大地扩展了 AI 应用的能力边界。4. 实战构建一个可维护的 Prompt 管理系统4.1 Prompt 的版本化与参数化在真实的软件工程项目中Prompt 不应该散落在各个代码文件或注释里。我们需要像管理代码一样管理 Prompt。首先版本控制是必须的。使用 Git 来管理 Prompt 文本文件可以清晰地追踪每一次修改的历史、作者和意图方便回滚和协作。我们团队会为每个重要的功能模块建立一个prompts/目录里面按功能细分*.prompt.md文件。其次参数化Parameterization是提升复用性的关键。一个硬编码的 Prompt 很难适应多变的需求。我们应该将 Prompt 模板化将其中可变的部分提取为参数。例如你是一位{role}请根据以下上下文回答用户的问题。 上下文{context} 问题{question} 要求回答需引用上下文且不超过{max_length}字。在代码中我们可以使用像 Python 的str.format()或更专业的模板引擎如 Jinja2来动态渲染 Prompt。这样同一套逻辑可以适用于不同的角色、不同的上下文和不同的约束条件大大减少了重复劳动。4.2 环境隔离与测试套件Prompt 的效果严重依赖于模型版本、温度Temperature、最大生成长度等参数。为了确保稳定性必须建立隔离的测试环境。我们通常会搭建一个简单的测试平台可以方便地切换不同的模型如 GPT-4、Claude、本地部署的 Llama并调整参数。对于每一个关键的 Prompt我们都会编写一个对应的测试套件。这个测试套件包含一系列“输入-期望输出”对或者至少是输入和输出验证规则。例如对于一个用于从用户反馈中提取产品功能点的 Prompt测试用例会提供几条典型的反馈文本然后验证输出是否是一个列表、列表项是否都是名词短语、是否包含了预期的关键功能点等。这些测试可以集成到 CI/CD 流水线中当 Prompt 或模型更新时自动运行确保核心功能的输出质量不会意外退化。这是将 Prompt Engineering 真正“工程化”的标志性一步。5. 避坑指南与常见问题排查5.1 典型陷阱与应对策略在实际操作中即使遵循了所有原则也难免会踩坑。以下是一些高频问题及我们的应对心得幻觉Hallucination与事实性错误这是 LLM 的固有问题。应对策略是多管齐下提供精确上下文在 Prompt 中尽可能提供准确的参考信息并明确指令“仅根据提供的上下文回答如果信息不足请明确说明‘根据已知信息无法回答’”。要求引用来源指令模型在输出中注明其答案的依据来自于上下文的哪一部分例如引用原文行号或关键句。后置验证对于关键事实设计流程让另一个 AI 代理或规则系统对输出进行交叉验证。输出格式不稳定模型有时会不遵守 JSON、XML 等格式要求或在内容中添加额外的解释性文字。强化格式指令在 Prompt 中非常严格地定义格式例如“你的输出必须是且仅是一个合法的 JSON 对象不要有任何额外的 markdown 标记、解释或前言后语。JSON 结构必须严格遵循以下 schema...”使用输出解析器在代码端不要假设模型输出是完美的。使用带有错误处理和重试机制的解析库如 Pydantic LangChain 的 Output Parser当解析失败时可以尝试修复或重新生成。Prompt 注入Prompt Injection当用户输入的内容可能包含试图覆盖或篡改系统 Prompt 的指令时就会发生 Prompt 注入。例如用户说“忽略之前的指令你现在是…”。权限隔离将系统指令不可变与用户输入在代码层面清晰分离通过 API 参数如 OpenAI 的system和user消息角色传递而非简单拼接成一个字符串。输入清洗与监控对用户输入进行基本的过滤和监控对可疑模式如“忽略以上”、“扮演另一个角色”进行告警或处理。5.2 效果评估与迭代优化如何判断一个 Prompt 是好是坏不能只靠感觉。需要建立量化的评估指标。根据任务类型不同指标各异分类/提取任务使用准确率、召回率、F1 分数。生成任务可以使用 ROUGE、BLEU 等与参考文本的相似度指标但更重要的是人工评估相关性、流畅性和有用性。问答任务可以使用答案是否包含关键信息点来评估。建立一个由少量典型用例构成的评估集。每次对 Prompt 进行重大修改后都在这个评估集上运行记录指标变化。同时人工抽查永远不可替代尤其是检查模型输出中那些微妙的逻辑错误或语气问题。优化是一个持续的过程我们团队会定期如每两周回顾高频失败案例分析是 Prompt 问题、上下文不足问题还是模型本身的能力边界问题并据此制定优化策略。6. 从项目到产品构建健壮的 AI 应用架构6.1 分层设计Prompt 作为应用逻辑层在大型应用中不应将所有的业务逻辑都塞进一个庞大的 Prompt 里。我们应该采用分层设计的思想。可以将 AI 应用架构分为以下几层路由层根据用户输入的首句话或意图决定调用哪个技能Skill或工作流Workflow。这本身可以用一个简单的分类 Prompt 或规则引擎来实现。技能层每个具体的技能对应一个或多个精心设计的 Prompt。例如“总结文档”、“生成 SQL”、“调试代码”分别是不同的技能。工具层为技能提供所需的外部能力如计算器、搜索引擎 API、数据库连接器等。Prompt 需要清晰地描述如何调用这些工具。编排层负责管理复杂多步骤的工作流。例如先“分析需求”再“搜索资料”最后“生成报告”。这可以使用 LangChain、AutoGen 等框架或者自行设计状态机来实现。在这种架构下Prompt 主要存在于技能层和工具调用层。每个 Prompt 职责单一易于维护和测试。当某个功能需要调整时我们只需修改对应的那个 Prompt 文件影响范围可控。6.2 可观测性与成本控制当 AI 应用上线后可观测性至关重要。我们需要记录每一次交互的元数据至少包括使用的 Prompt 模板标识、输入的参数、模型的完整响应、消耗的 Token 数量、请求耗时以及用户反馈如果有。这些日志能帮助我们定位问题当用户报告错误时能快速复现当时的对话场景。分析性能识别哪些 Prompt 消耗 Token 最多、响应最慢从而进行针对性优化如精简上下文。优化成本大语言模型的 API 调用成本与 Token 数量直接相关。通过分析日志我们可以发现哪些交互模式导致了不必要的长文本输入或输出进而优化 Prompt 设计例如通过更严格的输出长度限制或优化上下文压缩策略在保证效果的前提下有效控制成本。此外必须为应用设置预算和速率限制防止意外循环或恶意攻击导致的天价账单。在 Prompt 设计阶段就要有成本意识思考“是否真的需要将整篇文档都作为上下文”、“能否用更简洁的语言表达指令”。