管理AI:你职业生涯中最重要的一次晋升

随着AI越来越流行,也有越来越多的人在深度尝试AI以后发现实际工作中表现很差。我觉得这些观察很有道理,但也觉得很多时候是因为他们仍然是把 AI 当成一个工具在用。这篇文章就想从几个典型的场景出发,来介绍为什么我们不应该把 AI 当成一个工具,而应该当成一个人来管理,以及这种简单的方法论如何在各种场景中有效地破除对 AI 的误解,提升它的成功率。

从某种程度来说,这种视角的升级可以看作是一种晋升。把AI当成手下刚入职的实习生。你会发现,那些让你头疼的技术缺陷,都会迎刃而解。

1. AI 工作不可靠,经常犯错

这是我们最经常听见的抱怨,也体现了大家对 AI 最大的误解。我非常理解大家对此很失望甚至痛苦。因为从工具的角度来看,如果一个计算器对 5×7 这样简单的问题一会儿输出 34,一会儿输出 35,我们肯定会觉得这个东西不可用。

但是这种把 AI 当工具的视角恰恰是一种错误的惯性思维。对于加减乘除这种有确定答案、没有任何歧义和变化的任务,一个工具在 100% 的情况下都输出正确的答案是理所应当的。但是,想想我们指派给 AI 的任务:编程、调研、问答,它往往是高度复杂和不确定的。里面牵扯着种种要求和期望,而且用的是自然语言这种非常不精确的方式来表达,而且很多上下文需要AI自主去挖掘。因此,AI 在答案中表现出来的不确定性和不可靠性,其实未必是它自己的缺陷,而是因为它处理的问题本身就是高度复杂和不确定的。它只是把这个复杂程度传递和体现在了答案上而已。

举个例子。大家都觉得汽车是一个非常可靠、确定的工具。踩油门就走,踩刹车就停。但这种确定性本质上是一种错觉。汽车的任务是把我们从 A 点带到 B 点,这个问题本身是非常开放和复杂的。只是因为我们作为司机帮汽车屏蔽了很多问题的复杂性,比如处理红绿灯、看到逆行的电动车紧急刹车,汽车才可以(have the luxury of)只要处理那些最确定性的任务就好:比如我踩刹车踏板它就停下来。正是我们在背后对不确定性的各种处理,才能让汽车能够显得很可靠和确定。

这也是为什么进入智驾时代之后,汽车这个工具突然就显得不可靠了。有时候前面明明横着个大卡车,它跟没看见一样直直往前冲;有时候前面明明没什么东西,它却突然急刹。这不是因为汽车变得更弱了,而是因为它面对的问题变得更难了——现在没有司机为他屏蔽路面上的不确定性,它要自己处理这些新的难题了。

因此,在面对 AI 的时候,我们不能再用以前那种确定性的工具的视角去看待它,而要用对人的方法,比如把它当做一个同事、一个下属、一个实习生去管理它。我尤其喜欢把 AI 当做实习生的这个比喻,下面也会在多个场景反复应用它。当我们把 AI 当做一个实习生来看待之后,自然而然就会理解它的很多行为,也可以由此得到正确的使用方法。比如处理不确定性,这正是一个管理者的首要职责。当你开始使用AI,你就从司机变成了AI这个实习生的管理者/manager/经理。你的价值,不再是踩油门刹车,而是成为AI的领航员:你负责规划路线,预判风险,吸收那些它处理不了的复杂性,让这台强大的引擎安全地带你抵达目的地。

2. AI经常有幻觉,会用确定的语气去瞎编乱造一些错的东西

这也是一个很常见也很核心的AI的缺陷。但它之所以是缺陷,是因为我们有一个基本假设:AI是一个工具,我们期待一个工具的输出就应该是正确的,不需要经过复核的。假如你面对的是一个人类的话,你会期待他就没有幻觉吗?一个典型的例子是,看看知乎上有多少人信誓旦旦地说着狗屁不通的言论,一本正经地胡说八道吧。或者举一个极端点的例子,在朝鲜每个人都觉得金家太阳是救世主,让朝鲜人民过上了全世界最好的生活。这一方面是一种幻觉,另一方面这些人也百分之百相信这些,不觉得这是一种幻觉。

因此从幻觉的角度来说,不论是发生的频率,还是对幻觉的自我意识,我都不觉得人类相比于AI有明显优势。但为什么我们确实在使用中觉得AI有幻觉这件事很讨厌呢?这主要是因为当我们面对一个人的时候,下意识就会进入一种防御态势,知道他给的言论和答案可能是不靠谱的。这种防御性的策略让我们对人类的幻觉有着很高的抗性。但是类似老人家把对纸媒的信任无条件转移到互联网上,看到养生公众号上说什么都信一样,我们如果把对传统工具的信任无条件转移到AI上的话,放下心防,觉得它说的就一定是对的。这种不恰当的期望也会让我们对幻觉的抗性很低,特别痛苦。

那这个问题如何解决呢?当我们代入实习生的比喻之后,一切又变得自然起来。你并不会期待你的实习生汇报的每一个数据都是正确的。相反,你们会经历一个建立信任的过程。刚开始,你可能会对他的大多数数据都进行复核,哪怕不从头验算过程,也会用几个相关的数据做一下交叉验证。随着你们的磨合,你会逐渐发现有些领域是他擅长的,你就不需要复核,而可以直接委托给他。而有些领域他犯错的可能性更大一些,对于这些领域,你就要多抓紧一点。

这个过程就是知人善任。它是管理人类的一个非常重要的方面。你的诸多下属可能会有不同的个性和擅长的领域。你需要观察哪些人在什么领域更可靠,哪些人则比较毛躁,或者在某些领域经常犯错。根据他们能力的边界去用不同的方式去管理他们。比如有些可以直接委派任务,有些则要手把手地教。或者说,信任和不信任不是非黑即白的,而是一个渐变的光谱(spectrum),根据具体情境判断信任级别落在哪个区间,并且因地制宜选择管理方法(全权委托还是手把手教)就是情境领导力(situational leadership)。

这种对人类的管理方式可以完全无缝地平移到 AI 上来。对于幻觉特别重的模型比如 DeepSeek,我们就要用更防御的态势去检查它给的观点和数据。对于一些以严谨著称的模型则可以放松一点。对于简单的或者就算有错也无伤大雅的任务,我们可以直接委派给 AI,不加核实。但对于一些很重要的任务,就算是对靠谱的人类或者 AI 员工,我们也需要再三核实。毕竟把下属的报告不加核实和更改直接交给老板,要是出问题了,这个锅是我们作为经理要背的,而不是下属的责任。

因此,你可以看到为什么把 AI 当做实习生的这个比喻特别重要。当我们用这个视角来看待 AI 以后,自然就会理解它可能会有幻觉,以及我们怎么样用现成的人类的管理方法去实现效率和准确性两方面的权衡。

这也是下面我们要介绍的一个核心观点:很多在使用 AI 的过程中遇到的问题,其实都不是 AI 特有的新问题,它们往往都可以在我们针对人类的应对和管理中得到非常完备的解决方案。

3. AI很弱,干事慢,还不如我自己做

这是一个确实成立的观察。虽然有的场景里,AI可以用非人类(super-human)的速度迅速地完成复杂的任务,比如做出深度调研,但也有很多场景,AI需要花时间来熟悉环境,做一些小实验,最终效率可能还没有我们亲自上手干得高。

但就像前面介绍的几个观察一样,在这里我也想反问:这是一个全新的 AI 特有的问题,还是人类社会中早已存在的问题?我的答案是,这是一个老问题,而且是一个非常常见的陷阱。这个陷阱藏在一个表现优异的不带人的 IC(Individual Contributor)转成一个新手经理的过程中。因为转成经理的 IC 一般是业务做得好、效率很高的工程师,当他开始带人以后,大概率会发现手下带的人没有自己强。这时候面对上面的产品压力,很多新手经理自然而然就会进入把自己当 IC 用的状态,事事亲力亲为,或者手把手去教手下怎么干活。

表面上看,这好像增加了团队的产出,但它会把经理放在一个很被动的位置:经理这种情况下是一个普通组员,他对产出是在做加法。很快,经理就会成为整个团队效率的单点瓶颈,他的时间会决定团队生产力的上限。而一个老练的经理会更看重团队长期的扩展性(Scalability),而不是短期的产出。他会想办法把自己的时间花在对整个团队都有高价值的、杠杆性质的工作上去,比如制定技术路线、做高质量的技术决策。一个好的决策和设计会让团队里的每个人都受益,这样他对团队做的就是乘法而不是加法,进而让团队成为他个人能力的放大器,实现远远更高的能力上限。

但是在人类社会中,我们也观察到,不是每个新手经理都能过这一关的。这个观念的转变以及各种管理技巧的学习,是一个非常困难的坎。因此,这个人类社会常见的陷阱往往也会让很多 AI 的用户吃个小亏。考虑到现阶段用 AI 编程的很多人是 IC,尤其是能力很强的 IC。和新手经理一样,他们在第一次当上 AI 的经理以后,也会自然而然地觉得下属太弱,希望用亲力亲为、Micromanage 的方式来增加产出。但不论是面临的这个问题本身,还是他们的做法,都可以在人类企业已有的管理框架里找到现成的参考和解决方案。

换言之,当我们用人类实习生或者下属的角度来把 AI 类比进去,用管理人的思想去看待以后,一下就可以理解我们面对的 AI 太弱的问题,如何抽象和解决了。

4. AI写代码太快了,根本看不过来,质量无法保证

这是123点加起来造成的另一个后果——正因为 AI 不可靠、不确定、有幻觉,同时偏偏动作又很快,就造成一个问题:我们没有办法像以前那样细粒度地控制它的质量,经常在被它坑了以后才发现。用通俗的话来说,管理一个人类团队,他们堆屎的能力毕竟是有限的。但是两三个 AI 就可以用惊人的速度迅速地堆起一座屎山,让整个工程变得难以维护。因此这是 AI 特有的问题,是人类企业中不需要解决的挑战。

我的观点仍然是相反的,这也是一个老问题。

因为一个 AI 写代码的速度往往可以顶三五个工程师,当我们学会用多线程管理几个 AI 同时写代码,就会自然陷入上面的困境。但如果仔细想一想,问题的根源其实不是每个 AI 的生产力太高,而是因为我们管理的对象从产出的角度来说变成了相当于十几个人类工程师。从管理人类的角度来说,这也是一个大到不切实际的团队,我们作为经理已经没有精力去知道每个人工作的细节,没办法亲力亲为验证每个人交付的质量。而这恰恰就是我们在管理 AI 的过程中面临的问题。它是组织成长、规模扩大以后所面临的必经之路。

在人类企业中,当一个组规模扩大到经理没办法管理的时候,我们会怎么做?我们会引入层级结构,让以前的经理变成 M2 高级经理,而新招几个一线经理(M1),让他们各自管理更小的组,从而让 M2 经理再次被解放出来,继续对整个组做乘法,实现更好的 scalability。

更具体地说,M2 管理的已经不再是某个组员的产出本身了,他关注的东西是工作流、制度等等更高层的东西。比如,他的工作不再是去抓每一个工程师产出的质量,而是去建立一个自动化测试体系,推动 CI/CD 流水线,通过这样的方式把质量检测这件事本身给自动化、扩展化。这些管理技法在软件工程中都是非常成熟的,我们在每一个中型企业里都能看见这种双层的管理架构。M2 高级经理虽然不再有针对每一个开发人员细粒度的可见性,但是整个组织仍然能够照常运转、有效生产。

因此,我觉得这不仅不是一个问题,恰恰是一个难得的机遇。在人类企业的职业发展中,要想升到M2手下管十几二十个人是很难的。不仅要技术强,管理好,还得要玩政治,靠运气(headcount)。但现在只要你用AI,就可以有一个等价于十几个人类的团队,时刻准备24x7工作,记忆还可以直接移植无缝配合。只要管理水平跟上,这是个在传统时代很稀缺的资源。

当然在目前 AI 时代的早期,最佳实践还有待进一步的探索。比如当我们成为 M2 以后,M1 到底应当是在自动化系统的辅助下由我们来兼任,还是说彻底外包给 AI 来做?这些都是有待探索和迭代的。但是从更抽象的层面来看,这个问题的症状和解决方法都在人类社会中已经研究得很透彻。

小结

所以很多大家觉得 AI 落地很难克服的障碍 ,都不是 AI 特有的、石头缝里蹦出来的新问题。相反,如果我们用管理实习生的类比来看待,会发现太阳下没有新鲜事,这些问题其实在人类社会中早就有所体现,我们也已经有了成熟的解决办法。只是大家由于思维惯性,往往用工具的视角来对待 AI,没有引入管理的视角和技能,因此会觉得 AI 的行为很难理解,有很多无法控制的不确定性。但当我们用正统的、专业的管理视角来看待以后,这些问题都可以迎刃而解了。

总之,AI不是万灵药,也不是全知全能的万能牛马。它需要我们针对它的特点去做主动的管理。而我们的目标不是让它成为一个十全十美的工具,而是让它成为我们能力的放大器,把我们的精力从琐碎的底层工作中解放出来,而让自己真正变成一个高杠杆的、能给自己做乘法的超级组员。用好AI最重要的技能不是知道LLM怎么训练,怎么微调,而是懂得怎么去管理它。

Comments