前两天和朋友聊天,他说自己用 GPT 写东西总是不满意,问我是不是模型不够好。

我看了他的提示词,一句话:帮我写一篇关于职场沟通的文章。

这让我想起自己刚开始用 AI 的时候,也觉得这玩意儿应该很聪明,我说什么它就懂什么,结果每次输出的内容都像是从教科书里复制粘贴出来的。

后来我才明白,和 AI 对话这件事,远比我们想象的要难得多。

你以为在聊天,它以为在解题

我们从小到大都在和人说话,习惯了那种模糊的、跳跃的、充满暗示的交流方式。

比如你跟朋友说“今天好累”,对方就知道你可能想吐槽工作,或者想约个饭放松一下。

这种默契是建立在共同的文化背景、生活经验和情感共鸣上的。

AI 没有这些。

它看到“今天好累”,可能会给你列出十条缓解疲劳的方法,或者问你是身体累还是心理累。

它不是不聪明,而是它根本不知道你真正想要什么。

这就是第一个悖论:模型越强大,我们越需要把话说清楚。

你不能指望它猜,你得告诉它具体要什么格式、什么风格、什么长度、面向什么人群。

别告诉它不要做什么

我以前写提示词,特别喜欢加一堆“不要”。

不要太长、不要用专业术语、不要写得像机器人。

感觉这样说很保险,把坑都堵上了。

后来发现完全相反。

你越是强调“不要”,它越容易往那个方向跑。

就像你现在脑子里是不是已经出现了一头粉色大象?

人类的语言习惯被 AI 继承了,它在训练数据里学到的就是这样的思维模式。

更有效的做法是直接说你要什么。

要简洁、要通俗、要有人情味。

把注意力引导到目标上,而不是禁区上。

示例不是越多越好

很多人以为给 AI 多举几个例子,它就能学得更好。

我之前也这么干过,恨不得把五六个案例全塞进去。

结果输出的内容反而变差了。

后来看到一个研究,说 3 到 5 个高质量示例的效果,往往比十几个平庸示例要好得多。

因为每个示例都会占用上下文空间,而且如果示例质量参差不齐,模型反而会被误导。

它可能只学到了表面的格式,而没有理解你真正想要的逻辑。

有时候甚至不需要示例,直接把任务说清楚就够了。

这个发现让我意识到,克制也是一种能力。

结构比你想象的重要

我有个习惯,写提示词的时候喜欢用三个反引号把不同部分分开。

比如把背景信息、具体指令、参考资料分别框起来。

一开始只是觉得这样看起来整洁,后来发现这对 AI 的理解帮助特别大。

因为自然语言本身就是模糊的。

你写一大段话,AI 可能分不清哪句是指令,哪句是背景,哪句是例子。

用分隔符把它们隔开,就像给代码加注释一样,减少了歧义。

这不是在迁就 AI,而是在强迫自己把思路理清楚。

你自己都没想明白要什么,怎么指望 AI 给你想要的东西?

让它展示思考过程

这个技巧我是无意中发现的。

有一次我让 AI 解决一个复杂问题,随口加了一句“一步一步来”。

结果输出质量明显提升了。

后来才知道这叫思维链提示,是个很成熟的技术。

原理也不复杂:AI 生成内容是逐字逐句进行的,当你让它把推理过程写出来,实际上改变了它的计算路径。

就像我们做数学题,把解题步骤写下来,往往比直接心算更不容易出错。

这个方法甚至不需要给示例,只要加一句“让我们一步一步思考”就行。

说起来有点玄学,但确实管用。

上下文比模型本身更关键

大家讨论 AI 的时候,总是在争论哪个模型更强。

GPT-4 还是 Claude,Gemini 行不行。

我以前也纠结这个问题。

后来看到一个观点:模型输出的质量,更多取决于你给它什么样的上下文,而不是模型本身有多先进。

这个说法一开始我不太信。

后来自己试了试,发现确实是这样。

一个中等水平的模型,如果你给它足够丰富的背景信息、清晰的指令、相关的参考资料,输出质量可以吊打一个上下文贫乏的顶级模型。

这就像一个普通厨师拿着好食材,能做出比顶级厨师用劣质食材更好的菜。

重点不在于厨师有多牛,在于你给他什么原料。

迭代才是真功夫

我见过很多人用 AI,都想一次性写出完美提示词。

写完发现不对,就换个模型再试。

这种思路是错的。

提示工程不是一次性的创作,而是反复试验的过程。

你得把它当成一个实验:提出假设、测试、观察哪里不对、调整、再测试。

最开始我也没有这个意识。

后来养成了一个习惯,每次用 AI 都会记录下提示词和输出结果,标注哪些地方满意、哪些地方需要改进。

时间长了就会发现规律。

什么样的表述方式更有效,什么样的结构更清晰,什么样的示例更有代表性。

甚至可以让 AI 帮你优化提示词。

这听起来有点绕,但确实是个加速学习的方法。

如果你要做的不只是聊天

聊天机器人可以随意发挥。

你问它问题,它用自然语言回答,就算有点偏差也无所谓。

如果你要做的是一个真正的应用——比如自动化工作流、数据处理、系统集成——自然语言就不够用了。

你需要结构化输出。

JSON、XML、或者其他可以被程序解析的格式。

因为下游系统不会理解“大概”、“可能”、“差不多”这种模糊表述。

它需要确定的、可验证的、类型明确的数据。

这时候你就得在提示词里明确要求输出格式,甚至用 Pydantic 这种工具来校验。

把概率性的文本生成,转化成确定性的数据结构。

这是让 AI 从玩具变成工具的关键一步。

我们正在学习一种新的沟通方式

回到最开始的问题。

为什么和 AI 对话比我们想象的难?

不是因为技术不成熟,而是因为我们在学习和一种全新的智能打交道。

它不是人,不会读懂你的弦外之音。

它需要你更精确、更结构化、更有意图。

这种训练,说实话,对我们自己也有好处。

它逼着你把模糊的想法变成清晰的指令。

把感性的需求变成理性的步骤。

把“我想要一个好的结果”变成“我要什么格式、什么风格、什么标准的结果”。

这个过程本身就是在提升思维质量。

所以提示工程不只是一门技术。

它是一种新的思考方式。

当你学会了如何和 AI 清晰沟通,你也学会了如何和自己清晰对话。

本站提供的所有下载资源均来自互联网,仅提供学习交流使用,版权归原作者所有。如需商业使用,请联系原作者获得授权。 如您发现有涉嫌侵权的内容,请联系我们 邮箱:alixiixcom@163.com