Google Prompt Engineering 精读
一、书籍核心信息总览
书名:Prompt Engineering
作者:Lee Boonstra(谷歌官方团队)
核心定位:谷歌官方面向Vertex AI/Gemini模型的提示工程实操指南,面向非数据科学家、普通开发者的LLM提示工程入门与进阶手册
出版时间:2025年2月
核心主题:讲解LLM提示工程原理、输出参数配置、全场景提示技术、代码提示方法及落地最佳实践
核心价值:解决提示词无效、输出模糊、推理错误等问题,提供可直接落地的提示工程方法论与案例
二、全书详细关键信息总结
1. 提示工程基础
LLM本质是下一个token预测引擎,提示工程是设计高质量输入引导模型输出精准结果的迭代过程。
影响提示效果的核心因素:模型选型、训练数据、输出配置、措辞、结构、上下文。
适用任务:文本摘要、信息提取、问答、分类、代码生成/翻译/调试、多模态交互。
2. LLM输出配置
- 输出长度:控制生成token数,影响算力、成本、响应速度,ReAct等技术需严格限制长度避免无效token
- Temperature:控制随机性,0=确定性输出,高值=创意输出,极值易引发重复循环bug
- Top-K:选取概率前K的token,低值= factual输出,高值=创意输出
- Top-P:核采样,选取累积概率≤P的token,平衡随机性与准确性
- 参数组合:Temperature=0时Top-K/Top-P失效;推荐初始值:常规0.2/0.95/30,创意0.9/0.99/40, factual0.1/0.9/20
- 避坑:参数设置不当会引发重复循环bug,需平衡确定性与随机性
3. 核心提示技术
- 零样本提示:无示例,仅描述任务,适合简单任务(如情感分类)
- 单样本/少样本提示:提供1个/多个示例,复杂任务需3-5个示例,样本需多样、覆盖边界案例
- 系统提示:定义模型核心任务、输出格式(如JSON)、安全规则,降低幻觉
- 角色提示:赋予模型身份(导游、教师、开发者),统一输出风格与语气
- 上下文提示:提供任务背景信息,提升输出精准度
- 回溯提示:先问通用问题激活背景知识,再解决具体问题,提升推理准确性
- 思维链(CoT):引导模型分步推理,解决数学、逻辑问题,零样本+「step by step」即可生效
- 自一致性:生成多条推理路径,投票选最优答案,提升复杂任务准确率
- 思维树(ToT):多分支推理,适合需要探索的复杂任务
- ReAct:推理+调用外部工具(搜索、API),实现Agent能力,需LangChain+SerpAPI实现
- 自动提示工程(APE):用LLM生成提示词,评估筛选最优版本,自动化优化提示
4. 代码提示全场景
- 代码生成:指定语言、功能,生成可运行代码(如Bash批量重命名脚本)
- 代码解释:拆解代码逻辑,适合团队协作读代码
- 代码翻译:跨语言转换(Bash转Python)
- 代码调试:定位错误、修复bug、提供优化建议
5. 多模态提示
融合文本、图像、音频等多模态输入,突破纯文本限制,适配多模态模型能力。
6. 落地最佳实践
- 必加示例,少样本优先
- 提示简洁,用动词明确指令(Act/Generate/Classify)
- 明确输出要求(长度、格式、风格)
- 用正向指令替代约束,避免「不要做什么」
- 控制token长度,使用变量实现提示复用
- 分类任务打乱样本顺序,避免过拟合
- 适配模型更新,迭代提示词
- 结构化输出优先用JSON,减少幻觉
- 用JSON Schema规范输入输出,用json-repair修复截断JSON
- 文档化记录所有提示迭代(目标、模型、参数、提示、输出)
- CoT任务Temperature设为0,保证推理确定性
7. 核心结论
提示工程是迭代试错过程,组合参数、技术、最佳实践,可大幅提升LLM输出质量。