首页 > 资讯 > 快讯 > 正文

环球观焦点:如果低级员工的工作都被AI替代,那高级员工从哪里来呢?

2023-04-20 13:19:20来源:凤凰网  

未来的员工将分成两类


(资料图片)

1/5

一段关于AI的讨论

上周跟几个前同事聚会,他们现在大多自己开公司,而且主要是管理咨询、广告设计、游戏外包等专业类服务,自然要聊起近日大火的ChatGPT、Midjourney等人工智能产品,聊到会不会“利用AI工具减少人力成本”的问题上。

虽然每一个人都有这样的愿望,但大家也都承认,近几年不太可能做到,AI出品的图,几乎每张都需要后期修图,ChatGPT的文字太水了,几乎要压缩掉80%的内容,主要用来配合客户提案的演示。

当然,大家也一致认为,这可能只是暂时的现象,毕竟这几个月来,AI输出的东西已经从“几乎不可用”进步到“修改后可商用”,谁知道它会发展到哪一步呢?

但一个人对AI的信任度的问题,却并非技术进步可以解决,它的生产内容的可控性一般,有时候不管用什么办法都得不到自己想要的。

为什么说这个弱点并非技术进步可以解决呢?

我几年前曾经写过一篇文章,分析优秀员工的价值体系,共三个层次:“可预测、可展望、可控制”,AI的这个弱点让它在可见的当下很难达到“可预测”的要求、可见的未来更无法达到“可展望”的要求可控制是人际关系和公司文化的要求,对于AI并不适用

换言之,不想自己的工作被AI取代,就要多多考虑如何在这两点上发挥人类的优势。

先分析一下,什么是“可预测”?

2/5

可预测

先问个问题:你到一家常去的餐馆吃饭,最贵的主菜,你是点你以前吃过觉得不错的菜呢?还是点没有吃过的新菜?

答案肯定是要看情况,如果是重要的场合,比如请客,当然要点以前吃过觉得不错的菜;如果是家人朋友日常小聚,点一些新出的菜品,说不定会有惊喜。

在考虑员工晋升时也是一样,稳定发挥型的员工,获得晋升机会的可能性更大,因为这是重要的决策,稳健更重要。

这在决策中,被称为“可预测性”或者“确定性”,越是重要的决定,越是如此。

很多人可能不赞同这个观点。确实,实际生活中,答案与公司文化和公司业务类型有关,在核电站工作的人,“创新”是贬义词,在互联网创业企业,“稳重”是对你最大的否定。

但这种差异并不会影响上司最终的选择,“可预测性”是公司持续经营的前提,也事关上司自己的晋升。

AI到底最后会成为员工的工具,还是取代员工,这一点可能正是取决于未来AI生成内容的稳定性,这也是我的前同事们认为,不会马上用AI取代员工的原因。

那么,AI有没有可能通过技术来解决这个稳定性的问题呢?

3/5

人工智能的幻觉

在微软的一篇论文《Sparks of Artificial General Intelligence: Early experiments with GPT-4》中,列出了GPT-4 的几个局限性,其中有一条关键问题——透明度、可解释性和一致性

报告中说:“模型不仅会产生幻觉、编造事实和产生不一致的内容,而且似乎没有办法验证它产生的内容是否与训练数据一致,或者是否是自洽的。”

对于人类而言,这可能是一个好消息,它可能是AI与生俱来的缺陷,源于它的深度学习机制。

很多人以为ChatGPT是一个智能的搜索引擎,能搜索与问题相关的文本资料,再用一定的方式串成一段文本结果,但如果真是如此,ChatGPT就不应产生“事实性错误”,而且不是每次都错,如果你换个方法问,它可能又会纠正这个错误。

模型有些会编造一些训练材料中根本没有的事实,比如有一位澳大利亚市长,发现 ChatGPT 声称他被判定犯有贿赂罪并被判处监禁,这件事不但是捏造的,甚至训练数据中也没有任何可能误导 ChatGPT的资料,那么,它到底是如何产生这个幻觉的呢?

虽然这一现象在GPT-4中大大降低,但微软的这份报告也承认,没有任何理由认为未来系统升级后,这个缺陷就会改变。因为GPT是一个“黑箱”,我们只知道它的原理,但没有人知道它具体是如何创作出各种结果的。

很多人会想,这个问题可不可能通过写更好的问题,进行多轮沟通来解决呢?

答案是有用,但不能保证一定有用。

原因还是在于“黑箱机制”,当你换了一个问题得到更好的答案时,你并不能保证二者之间的“因果关系”,不能保证它下次还会做对,这跟你平时与下属沟通不同。

人类新同事做错了,你告诉他原因,亲自演示了一遍,并让他重复了几次,他下次做对了,这两者之间的因果关系很强,本质上还是因为你理解人类的学习机制,可以通过重复来获得新技能。

这也涉及人的行为的可解释性,一个人所犯的错误跟任务要求、个性和个人诉求高度相关:如果时间太紧,可能在后半部分完成得非常敷衍;有些错误,不专业的人必犯;有些人不擅长做需要调研的工作,更擅长数据处理,可能对某一个方向比较有兴趣,等等。虽然有些解释比较牵强,但毕竟是一个可以让你安心的解释。

相反,有一些员工做出来的事,永远出乎你的意料,向上和向下偏离都有,这类员工,再优秀你也很难用。

可解释性非常重要,不但与可预测性有关,更关乎你对某一个员工未来的期望——在员工的价值体系中,我称之为“可展望”。

4/5

可展望

ChatGPT的横空出世,让无数人惊呼,低级白领要被取低了,但有人问了一个尖锐的问题:

“如果低级员工都用AI来替代,那未来的高级专业员工从哪里来呢?”

这就涉及人工智能时代的公司人才培养机制问题。

上学的时候,老师总是喜欢两类学生,第一类是成绩很好而且长期稳定在前几名的,第二类,成绩并不突出,但一直在不断进步,名次不断小幅上升的学生。

其实很多年后,老师更容易记得后一类学生,就是那个高一刚刚进班排名90%以后,到了高三已经进入前10%的那类学生。

这在预期管理中,被称为“超预期”。

但“超预期”有一个自相矛盾的地方,如果你总是“超预期”,那么“超预期”本身反而成了一种“预期”。更何况,你怎么可能每次都超预期呢?

这就取决于上司认为你还有没有“上升空间”。

对于一个人而言,“上升空间”是一个主观的判断,往往是预测者先有一个“预测模型”,而这个模型来源于经验或成见。

比如很多人认为,聪明但不努力的学生,比努力但不聪明的学生,成绩上更有上升空间,这就是一个常见的预测模型。对不对姑且不论,关键是很多人都是这么想的。

那么,影响上司对一个下属的发展空间的预测模型是什么呢?

我们通常所说的工作能力,其实分为两部分:

一部分是利用自己的专业知识解决问题的能力,就是我们通常说的“业务能力”;另一部分是人的职业素质,比如学习创新能力、表达沟通能力、逻辑思考能力、统筹规划能力,这一类能力往往是各领域通用的,我称之为“通用能力”。

很明显,执行层员工,业务能力强就够了,但要往上走,就要能驾驭各职能协同工作,显然“通用能力”更重要。业务能力让你的工作符合预期,通用能力又能展现你的“上升空间”,这就形成了一个常见的“预测模型”。

总结一下:“可预测性”是对当下成绩的判断,“可展望性”,是对未来空间的评估;“可预测性”是对稳定性的判断,“可展望性”,是对成长性的评估。

很明确,AI并不具备“可展望”的属性,它的进步空间无法判断。

所以,无论AI的能力有多强,未来的公司都要培养一部分业务能力强,通胀能力更强的“有空间”的低阶员工。

这一类员工现在就有——管培生。

5/5

工作在AI时代的建议

未来如果AI真的深度融入工作场景,那么,人类员工可能分为两类,一类是工具类员工,另一类是管培生。

如果你是工具型的员工,你需要比GPT更可预测,这样,人工智能会成为你的工具,而不是替代你的工作,包括:

第一、清晰的建立能力边界——哪些擅长,哪些不擅长

最重要的是不熟不做,避免犯错,职场是“一错抵三功”,经常犯错就代表你的“可预测性”差。

第二、建立上司的合理预期

如果你十次有八次把事情做到80分,两次做到60分,上司对你的预期就是80分;如果你十次有六次把事情做到100分,四次不及格,那上司对你没有预期。

后者是现在GPT的现状,而在职场上大部分事情做到80分,是“成本收益比”最高的阶段。

第三、可预测的性格与情绪,让同事和下属知道怎么配合你

人总有情绪,这是你相对AI而言最大的弱点。我曾推荐了一种“以不变应万变”的职场人际关系策略,核心就是保持你性格的稳定性,内向你就一直内向下去,保守你就始终保守,敏感你就别怕别人说你敏感。

这么做是增加自己的透明度,增强行动的可预测性,放弃某些眼前利益,让对方放心与你建立长期可持续的合作关系。

如果能够做到这一点,相信大部分人还是更愿意跟真人合作。

不过做到这三点,仍然是工具型员工,仍然在与AI竞争性价比,它对你的替代,不但取决于你的能力,还高度取决于它的使用成本。

想要摆脱工具人的命运,以后就只有“管培生”这一条路,展示你的发展空间,这就是另一个更大的话题了,有兴趣,咱们下回慢慢聊。

关键词:

责任编辑:hnmd003

相关阅读

相关阅读

推荐阅读