人大重阳网 王衍行评《CEO采用AI必须理解一件事,否则将会付出代价》
当前位置: 首页  /   教师主页  /   王衍行  /  

王衍行评《CEO采用AI必须理解一件事,否则将会付出代价》

发布时间:2025-02-09 作者: 王衍行 

这篇文章的核心观点可以归结为:AI与人脑有相似性,我们尚未完全理解AI的工作机制,但这并不是问题,而是其智能性的一部分。AI不会完全取代人类,而是补充人类能力,企业CEO需要认识到AI的局限性,不可盲目信任或怀疑。

作者王衍行系中国人民大学重阳金融研究院高级研究员,本文载于2月7日财富中文网

这篇文章的核心观点可以归结为:AI与人脑有相似性,我们尚未完全理解AI的工作机制,但这并不是问题,而是其智能性的一部分。AI不会完全取代人类,而是补充人类能力,企业CEO需要认识到AI的局限性,不可盲目信任或怀疑。

这听起来理性平衡,但实际上,这种论调是典型的老生常谈、避重就轻、缺乏真正的商业洞察。以下是几个尖锐的批驳:

1. “AI像人脑一样神秘”是偷换概念

文章反复强调我们不了解人脑,也不了解AI的内部机制,试图用“神秘感”掩盖AI系统的问题。然而,这种类比是彻头彻尾的误导。

• 人脑的不透明性是因为它的复杂性、个体差异、进化历史等自然因素。而AI的不透明性(如大语言模型的“黑箱”问题)则是人为制造的,完全可以通过更好的架构设计、可解释性算法、透明的数据训练来优化。

• AI并不具备真正的“思考”,它只是基于统计相关性生成答案。把“我们不理解AI的工作机制”当成一种“人类智能的特性”,是在刻意掩盖AI的缺陷。

AI的黑箱问题不是“高端智能的象征”,而是不成熟技术的表现。

2. “AI只是补充人类能力”是低估其颠覆性

文章用“AI不会取代人,而是补充人类能力”来安慰企业CEO,实质上是在低估AI的杀伤力。

• 历史经验告诉我们,技术进步从来不是“补充”,而是淘汰。

过去工业革命中的机器不是“补充”工人,而是直接导致大批劳动力下岗。电子计算机不是“补充”人工计算员,而是让整个职业消失。

AI的进步将带来的不是“协同工作”,而是许多职业的直接消亡。试图让CEO们相信AI不会威胁岗位,是在给他们一种错误的安全感。

• 生成式AI已经在客服、文案、编程、设计、法律文书等领域展现出惊人的能力,而且效率远超人类。企业高管如果抱着“AI只是辅助工具”的幻想,未来只会被更具前瞻性的竞争对手甩在后面。

AI不会只“补充”人类,它会重塑整个商业生态,CEO们需要面对这一点,而不是被温和的“协同论”麻痹。

3. “AI无法达到人类智能”是刻意回避关键

文章强调AI无法复制人类智能,尤其是团队合作、社会互动等方面的能力。但这个论点是个障眼法:

• AI不需要达到“人类完整智能”才能摧毁某些行业的就业结构。ChatGPT不会“真正理解”法律,但它已经能完成法律文书起草,减少律师助理的需求。Midjourney不会“体验艺术”,但它已经能让不少设计师失业。

• 人工智能在企业运营中,已经显示出超越人类的能力,比如数据分析、风险评估、运营优化等。这些领域的商业决策,根本不需要“人类情感”或“团队协作”,AI就能做得比人类好。

• AI正在用“去人性化”的方式赢得竞争。自动化系统不需要休假、加班费,也不会罢工、情绪化。企业不是慈善组织,终究会选择更高效的工具,而不是“不可预测的人类”。

4. “我们需要学会与AI共存”是模糊责任

文章最后呼吁企业CEO应理性看待AI,既不盲目信任,也不过度怀疑。这看似平衡,实则是一种推卸责任的托词:

• 企业高管的任务是确保公司在AI浪潮中获胜,而不是保持“哲学上的平衡”。如果你的竞争对手利用AI降低成本、提高效率、裁员优化,而你还在“冷静观察”,那你就已经输了。

• 文章强调AI系统有不可预测性,这无疑是事实。但问题不在于“如何适应AI的不确定性”,而是如何制定规则来控制、监管、最大化利用AI。如果CEO们只被灌输“要接受AI的不完美”,那他们只会被动挨打,而不是主动掌控。

对AI的误判,会让CEO付出真正的代价

这篇文章虽然表面上强调CEO们需要谨慎对待AI,但实际上,它的观点是消极、回避核心问题的:

• 它淡化了AI的威胁性,让CEO误以为AI只是“补充”,而不是行业颠覆者。

• 它逃避了AI黑箱问题的本质,用“AI像人脑一样神秘”来合理化当前AI系统的不透明性。

• 它误导CEO们保持“哲学上的平衡”,而不是采取果断的技术和商业战略。

真正的AI战略,不是温和地接受现实,而是制定主动的竞争计划。那些对AI持温和态度的CEO们,未来会发现他们面对的不是“技术协同”,而是“生存危机”。

(欢迎关注人大重阳新浪微博:@人大重阳 ;微信公众号:rdcy2013)