用好AI的第一步:停止使用ChatGPT

2026年,AI的渗透率已经很高了。很多公司All in AI,Meta甚至专门安排了一整周的脱产AI培训。但我有一个观察是:大多数人,甚至很多重度用户使用AI的方式,和两年前是一样的:大家还是打开聊天窗口,输入问题,等一个回答。区别只是从GPT-4o换成了GPT-5.2或者豆包,从免费版换成了Pro。

这当然比完全不用AI更好,但也远远不是最优的方法。我很相信(下面也有例子解释)一件事:能用AI和用好AI之间,生产力差的不是30%,而是10倍的量级。不是说我用,甚至重度使用ChatGPT,就天然进入了AI阵营,可以高枕无忧了。事实上,大多数人用AI的方法,就像汽车发明之后还在把它当马车用:同样的路线,同样的速度,只是换了个引擎。而这个差距的根源,在于你的工作方式是否匹配了AI的能力结构。

举一个我最近的真实例子。我要改进一个算法,从开会讨论方向、分析失败case、到实现改进方案并验证结果,AI(Cursor)自主执行了大约45分钟,自己走完了设计、实现、测试、发现问题、定位原因、修复、再验证的完整循环,最终所有失败case全部修复。整个过程中我的角色就是定方向和审结果。如果用ChatGPT做同一件事,保守估计时间会多五到十倍。这个10倍差距到底是怎么来的?下面我先解释原因,再用这个例子的完整过程来演示具体做法。

为什么聊天窗口是天花板

从2024年底开始,AI领域出现了一类新工具,以Cursor、Claude Code、Codex为代表。它们表面上是编程工具,但代表的是一种跟ChatGPT完全不同的AI用法。很多人以为这只是面向程序员的ChatGPT,但我的实际体验是,它们对几乎所有知识工作都有用。具体地说,它有三层好处:

第一层:反馈闭环。 你让ChatGPT写一段python,它写了,你复制到IDE里一跑,报错了。你把报错信息贴回去,它改了一版,你再跑,又不对,你又贴回去。这个过程里,我们就是反馈闭环中的人型工具人:AI产出,我们验证,我们搬运,AI再改。我们从一个应该指挥AI的人,变成了一个来回跑腿的工具人。

Cursor这类工具的核心区别在于它接入了我们的执行环境。它写完代码可以直接跑,看到报错自己改,改完再跑,再改。这个循环是AI自己驱动的。因此,AI从一个只会出主意的顾问,变成了能独立干活的员工。顾问说完就走,对不对它既不知道,也不负责;员工则会自己验收,发现问题就返工。

这也是为什么很多人觉得AI不靠谱:他们一直在用一个开环的AI,犯了错浑然不觉。给它一个闭环,可靠性会有质的提升。

第二层:上下文供给。 AI输出质量的瓶颈,很多时候在于它能看到多少相关上下文,而非模型本身有多聪明。同一个模型,给足上下文就能给出对的结果;让它盲猜,就容易脑补出不一样的目标。

最近有读者评论:各家的Deep Research和在本地工具里接搜索API相比,哪个更好?我的回答是,我已经好几个月没开过Deep Research了。搜索质量本身没问题,但它能解决的问题太有限。举个例子,我想在工作中比较两种算法的优劣。这个"我的场景"其实需要仔细描述,因为它直接决定了比较的维度:我的数据长什么样、我看重延迟还是准确率、部署环境有什么约束。用Deep Research,我要花很长时间把这些背景交代清楚。但在Cursor里,我直接 @ 几个内部文档和会议记录,AI立刻就有了所有上下文。哪怕搜索能力弱一点,给出的结果也更贴合,速度还更快。

所以ChatGPT的瓶颈很多时候在于上下文的供给:你很难把足够的信息喂给它。Cursor这类工具解决的就是这个问题。

第三层:资产积累。 ChatGPT的使用模式是消耗型的。你投入时间,得到一个答案,答案用完就没了。每次对话都是从零开始。Cursor是投资型的。你用到了某个内部文档?存到项目文件夹里。AI反复犯某个错?花两分钟写一条规则。团队有一套约定俗成的惯例?写下来让AI也知道。这些都是一次性投入,但收益是持久的。

时间一长就会形成飞轮效应:你用得越多、积累越多,AI就越懂你的项目、你的偏好、你的工作方式。ChatGPT永远是一个需要完整briefing的陌生人,Cursor可以变成一个越来越默契的搭档。一个每次归零,一个持续复利。

反馈闭环、上下文、资产积累,这三层加在一起,就是前面那个45分钟的例子能成立的原因。但光知道原因还不够,关键是怎么在日常工作中把这些落地。下面我就用那个例子的完整过程来演示。

上中下三策:一个完整的例子

在展开之前,先介绍一个我在实践中总结的框架,叫做上中下三策。工作中的每一步都会产生信息,这些信息怎么处理,决定了AI能帮你多少。下策是让信息消失(人看不到,AI也看不到);中策是记录成人能看的形式(人友好,AI不友好);上策是先让AI能消费,再加工给人看(AI-first)。下面每一步我都会用这个框架来分析。

第一步,开会。 组里的周会,讨论了某个算法在一些数据上失败的情况,大家提出了各种假设和改进思路。

下策是开完就忘,什么都没留下。中策是写一份Google Doc的会议纪要,这已经是一个很好的做法了:它增加了你的visibility,同事知道你做了什么,未来也方便引用。但AI很难直接拿到这些内容,因为Google Doc需要登录,格式也混杂,每次想让AI参考都要手动复制粘贴。中策对人友好,对AI不友好。

上策是用Zoom AI Companion或类似工具自动转录会议内容,存成.md文件,放到工作文件夹的meeting_notes目录下。时间成本几乎为零,但AI从此可以直接引用这次会议里的每一个细节。

第二步,分析数据。 我需要看那个算法在不同数据上的表现,记录失败的具体场景和原因。同样的三策逻辑:下策是在便签上记几个URL,给人看的时候切过去点一下完事;中策是写进Confluence;上策是在工作文件夹里建一个analysis_notes.md,把每个失败case的链接、失败原因、观察都记进去。

值得说明的是,在这两步里上策实际花的时间和中策差不多,有时候甚至更短,因为.md文件的排版比Confluence简单得多,而且你完全可以让AI帮你整理。

第三步,写代码改进算法。 这是上策真正发挥威力的地方。因为前两步的所有信息都在同一个文件夹里,我在Cursor里 @ 一下会议记录,再 @ 一下分析笔记,告诉AI:根据这些信息,设计一个改进方案并实现,然后验证这些失败的case有没有被修复。

注意AI这时候拿到的上下文有多完整:它知道这个算法为什么要改,有什么改进思路(会议记录里有讨论),知道具体有哪些失败模式和原因(分析笔记里有记录),知道成功的标准是什么(哪几个case要被修复)。这里面最关键的是最后一点:success criteria。很多人用AI的时候,只告诉它做什么,却省略了什么样算做好了。这就像一场缺少终点线的赛跑,AI凭感觉跑,你凭感觉判断。但如果你给了AI一个明确的终点线(这几个失败的case要全部修复),AI就可以自己跑完从设计到实现到验证的完整循环:写代码、跑测试、发现问题、定位原因、修复、再验证。这就是前面说的那45分钟里发生的事情。 (事实上这背后比听起来更复杂:AI在后台自动拆分了子任务,调度了多个agent并行工作,主agent做设计和验收,子agent负责编码和测试,整个过程高度自动化。但这是更进阶的话题了。)

如果用ChatGPT做同一件事呢?你要手动把每段上下文贴过来。你可能会贴会议纪要作为背景,再开贴代码让它帮你改,但这样一方面要贴大量的文件,一方面要在python环境和ChatGPT里面两边拷来拷去,非常低效。其次,这种ChatGPT的用法缺少自我修正能力,你得自己看中间结果、自己判断哪里出了问题、自己把反馈喂回去。麻烦都是其次,主要是弯路会多很多。AI可以一目十行,看1000行log就知道问题在哪,人类得需要特殊的工具做可视化才能看出来。这就是10倍差距的来源:一边是信息打通、自动闭环的AI,另一边是信息割裂、人肉驱动的AI。

第四步,写文档和准备presentation。 因为所有的分析、代码、结果都在同一个文件夹里,我直接让AI根据这些内容生成一份技术文档,再贴到Confluence上。

注意这里的顺序:先在Cursor里让AI生成,再复制到Confluence。先AI,后人。这个顺序的倒转其实是整个工作流里最深的一个思维转变。传统做法是human-first:我自己写文档,写完可能让AI帮我润色一下。上策是AI-first:信息先以AI能消费的格式存在(.md文件),AI完成主要工作(生成文档),最后才转成人类可读的版本(Confluence页面)。结果是你花的时间更少,产出的质量更高,而且AI消费的那份原材料还留在你的文件夹里,未来随时可以再用。

从开会到出文档,半天时间搞定了全部工作。

当你把每一步都用上策来处理,所有信息最终都汇聚在同一个文件夹下,形成了我在之前文章里提到的Mono Repo模式。AI天然可以跨主题访问所有上下文。这时候AI的能力会有一个显著的跃升,因为它第一次拥有了你的完整信息版图。你可以回想一下你上周的工作:多少环节在用下策?多少在用中策?如果大部分答案是下策和中策,那就是你和10倍效率之间的差距所在。

回过头看这个流程,有一个根本性的转变:传统工作流里,人是主要执行者,AI是辅助。这个工作流里反过来了,AI是主要执行者,人的角色是定方向、定标准、做判断。换一种说法:我们对AI的定位,应该从让AI帮我写代码升级到让AI帮我解决问题。写代码只是解决问题的其中一环。如果你给了AI足够的上下文和明确的成功标准,它可以独立走完整个循环,你的角色就变成了出题人。你的价值在于你知道这个算法应该往哪个方向改,你知道什么样的结果才算成功。这种判断力是你作为专业人士最核心的能力,也恰恰是AI最依赖你提供的东西。

这个思路适用于所有职业。你可以是工程师、数据分析师、产品经理、研究员。只要你的工作涉及信息的整理、分析、决策和产出,上中下三策就适用,feedback loop的价值就存在。区别只在于AI帮你执行的那个环节是写代码、做分析、写文档还是别的任务。

开始行动

工具会变,今天的载体是Cursor和Claude Code,明天可能是别的。但三样东西是持久的:反馈闭环让AI能自我修正,上下文供给让AI能理解你的世界,资产积累让你和AI的协作越来越高效。这是底层的范式,跟具体工具无关。

如果你今天只做一件事,我的建议是这样:找一个你正在进行的项目,建一个文件夹,花半小时把相关的文档、笔记、会议记录全部复制粘贴放进去。然后即使是对你觉得应该用ChatGPT的工作,抑制住这种冲动,强令自己打开Cursor,从这里开始你跟AI的下一次对话。你会立刻感受到差异。改变从这一刻开始。

Comments