大模型提示词工程

Google Prompt Engineering 精读

一、书籍核心信息总览

书名:Prompt Engineering

作者:Lee Boonstra(谷歌官方团队)

核心定位:谷歌官方面向Vertex AI/Gemini模型的提示工程实操指南,面向非数据科学家、普通开发者的LLM提示工程入门与进阶手册

出版时间:2025年2月

核心主题:讲解LLM提示工程原理、输出参数配置、全场景提示技术、代码提示方法及落地最佳实践

核心价值:解决提示词无效、输出模糊、推理错误等问题,提供可直接落地的提示工程方法论与案例

二、全书详细关键信息总结

1. 提示工程基础

LLM本质是下一个token预测引擎,提示工程是设计高质量输入引导模型输出精准结果的迭代过程。

影响提示效果的核心因素:模型选型、训练数据、输出配置、措辞、结构、上下文。

适用任务:文本摘要、信息提取、问答、分类、代码生成/翻译/调试、多模态交互。

2. LLM输出配置

  • 输出长度:控制生成token数,影响算力、成本、响应速度,ReAct等技术需严格限制长度避免无效token
  • Temperature:控制随机性,0=确定性输出,高值=创意输出,极值易引发重复循环bug
  • Top-K:选取概率前K的token,低值= factual输出,高值=创意输出
  • Top-P:核采样,选取累积概率≤P的token,平衡随机性与准确性
  • 参数组合:Temperature=0时Top-K/Top-P失效;推荐初始值:常规0.2/0.95/30,创意0.9/0.99/40, factual0.1/0.9/20
  • 避坑:参数设置不当会引发重复循环bug,需平衡确定性与随机性

3. 核心提示技术

  • 零样本提示:无示例,仅描述任务,适合简单任务(如情感分类)
  • 单样本/少样本提示:提供1个/多个示例,复杂任务需3-5个示例,样本需多样、覆盖边界案例
  • 系统提示:定义模型核心任务、输出格式(如JSON)、安全规则,降低幻觉
  • 角色提示:赋予模型身份(导游、教师、开发者),统一输出风格与语气
  • 上下文提示:提供任务背景信息,提升输出精准度
  • 回溯提示:先问通用问题激活背景知识,再解决具体问题,提升推理准确性
  • 思维链(CoT):引导模型分步推理,解决数学、逻辑问题,零样本+「step by step」即可生效
  • 自一致性:生成多条推理路径,投票选最优答案,提升复杂任务准确率
  • 思维树(ToT):多分支推理,适合需要探索的复杂任务
  • ReAct:推理+调用外部工具(搜索、API),实现Agent能力,需LangChain+SerpAPI实现
  • 自动提示工程(APE):用LLM生成提示词,评估筛选最优版本,自动化优化提示

4. 代码提示全场景

  • 代码生成:指定语言、功能,生成可运行代码(如Bash批量重命名脚本)
  • 代码解释:拆解代码逻辑,适合团队协作读代码
  • 代码翻译:跨语言转换(Bash转Python)
  • 代码调试:定位错误、修复bug、提供优化建议

5. 多模态提示

融合文本、图像、音频等多模态输入,突破纯文本限制,适配多模态模型能力。

6. 落地最佳实践

  • 必加示例,少样本优先
  • 提示简洁,用动词明确指令(Act/Generate/Classify)
  • 明确输出要求(长度、格式、风格)
  • 正向指令替代约束,避免「不要做什么」
  • 控制token长度,使用变量实现提示复用
  • 分类任务打乱样本顺序,避免过拟合
  • 适配模型更新,迭代提示词
  • 结构化输出优先用JSON,减少幻觉
  • 用JSON Schema规范输入输出,用json-repair修复截断JSON
  • 文档化记录所有提示迭代(目标、模型、参数、提示、输出)
  • CoT任务Temperature设为0,保证推理确定性

7. 核心结论

提示工程是迭代试错过程,组合参数、技术、最佳实践,可大幅提升LLM输出质量。

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注