
01
我们为什么要拥抱AIGC变革?
我们真正看到AI能够给企业带来的效能,是2025年的二三月份,即DeepSeek火遍全球的时候。我们之前帮企业做数字化转型的项目,从去年三四月份开始,AIGC让我们原来的技术方法论都不复实现,我们用了新的方法论、新的技术去帮企业转型。
企业为什么要做AI转型?
技术平权。AI带来了真正的技术平权。我们从朋友圈、小红书上到处都能看到AI的新技术:今天一个什么新技术颠覆时代了,明天英伟达发布了一个什么,后天马斯克又做出来一个什么,如此等等。技术平权,好像我做我也行,每个人都可以去+智能体了。
成本降低。大模型成本降低,现在中国大模型的费用已经打得极低,非常之卷。阿里上来就送百万Token,字节的Token数价格都低到不能再低了。这就像新能源电池便宜下来,新能源的车就会跑遍全球。
产品迭代。去年年初我访谈的好些人没几个用过AI,现在都装了DeepSeek、豆包、元宝。我老妈每天发朋友圈,都来问一下我今天穿的衣服漂不漂亮,AI给我推荐一下。小朋友都会拿AI去谈恋爱了。
第四,思路创新。
对于企业家来说,都会讨论一个问题: AI到底能不能帮助企业真正实现降本增效?
我们从财务角度上解读,为什么AI对企业来说那么重要。2024年的A股数据,上市公司五千多家,总体的营业收入是71.98万亿,净利润是5.22万亿,净利润率是7.25%。
如上图,2024年的营业收入为71.92万亿,其中较2023年下降了0.9%,归母净利润率下降了2.3%。我们再看一个数据——净利润,75%的企业是挣钱的。大家知道疫情最凶的一年,88%的企业是挣钱的。现在只有75%的企业是挣钱的。
我们总结了在去年到前年净利润率上升的八个行业,从有色金属到交通运输,主要是跟新能源相关的行业。但其中有一个行业上涨得超乎想象——35.8%,是电子高科技,由AI带动。所以,更多企业都应该知道抓风口的必要性。
因此,从上述分析可以看出,风口在AI。
02
乌卡(UVCA)时代,AI是企业的唯一确定性
大家都知道,赛车的赛道在晴天不能超过15辆车,但在下雨天可以。大雨越是倾盆,道路越是泥泞,你越有机会弯道超车。因为,机会藏在不确定性里。所以,这个时代,我们需要利用AI去提升创新力。
在乌卡时代,我们唯一的机会就在AI。
去年我们看到1%的企业在做AI转型,今年年初从1月份开始就收到了各种各样的邀约,邀请我们帮助企业AI落地。但企业AI的落地实际情况是什么?冰火两重天。
AI火的一面:全世界、尤其是中国对AI的预期高企。全世界AI复合增长率35.9%,跟中国35.8%差了0.1个百分点,说明全世界都在看好AI。去年预估的AI相关经济是3910亿美金,相当于菲律宾的国民生产总值;未来十年之后,相当于韩国的生产总值。现在世界地缘政治的背后依然是人民群众日益增长的物质文化需求跟现在经济的发展不成比例。那么在哪个领域能够做到今天是菲律宾,十年之后就是韩国?只有AI能做到。在中国,对AI的看法更加乐观,83%的受访者认为AI是正向的,甚至有一半,就是我们所谓的2000年后的Z世代,认为现在就可以拿AI挣钱了。
AI冰的一面:先行者面临窘境,企业AI转型的投资回报率远低于预期。哈佛研究表明,95%的AI在企业级落地是失败的,只有5%是成功的。中国的数据相对来说乐观一点,8%是成功的,92%是失败的。
怎么来定义成功和失败?用的指标很简单:我投入给AI的钱,AI能不能给我赚回来。如果赚回来了,就算成功;赚不回来,就算失败。按这个金标准来衡量,全世界范围内,只有5%的企业靠AI转型落地挣到了钱。
中国的情况也是这样。去年真正做AI转型的企业,都是中国最头部的企业,至少是百亿级以上规模,甚至万亿级的企业。这些企业人才密度不低,有一定数字化建设水平,老板也有转型的意愿,但为什么这些企业转型还是失败了?核心原因是什么?
03
AI的认知迷局:多数企业的转型失败,在于对AI的误解
一千个人心中有一千个哈姆雷特,每个人对AI的理解都不一样。对AI的认知不同,就会导致落地的结果出问题。
一、AI误区一:AI无所不能
我们心目中的AI到底是什么样子?很多人觉得它是“许愿池里的王八”。有不少企业家朋友跟我说:我只要把数据给AI,装上一体机,它就能给我所有结果;我只要喂得足够多,它就能帮我解决降本增效的问题。
1.系统性能力错觉:为什么我们会觉得AI无所不能?
第一,现在市场上短视频太多,今天说AI改变时代,明天说机器人上了春晚给王力宏伴舞,C端各种新媒体传播的锚定效应,让大家觉得AI无所不能;第二,我们用豆包、用元宝,问什么它都能答,比浏览器好用多了;第三,很多人会觉得,是不是喂好数据就OK了?
但事实显然不是这样。而且这种错觉会在企业级落地中带来更大的问题——觉得AI无所不能,结果就是风险被无限放大,投入产出比严重不对等。甚至有一些最早尝试AI的企业高管跟我说:潘老师,我觉得AI不行,我们企业已经试过了,真的不怎么地,它只能在我的办公职能领域起辅助作用,比如写公文、翻译文件。有些企业号称上了四千多个智能体,但从投入产出比来看,好像没起到什么作用:我想减人,但一个都减不下来;核心领域AI更是一个都上不了,如果真能上,哪怕它有85%的正确率,那15%的错误还得人工复核,那还不如让人直接上——1%的错误我也接受不了。这是AI给问我们的系统性能力错觉,造成对AI的刻板印象。
2.基础知识:AI底层是概率范式
从第一性原理来看,AI到底能解决什么问题?AI的能力边界在哪里?
本质上,AI是概率学。AI的底层不是“懂”,而是基于概率“猜”。
AI如何解决问题:把人工智能问题转换为数学问题,寻找目标最优解。
AI系统无法像数学公式那样给出绝对确定的单一答案,而是计算各种可能结果的概率。
人类再通过标注告诉它“什么是更正确的”,AI根据这些人类反馈调整方向、优化路径,学习模式和规律,最终学会“更符合人类价值和语境”的回答。
3.AI的概率机制(赌),注定了它无法100%准确
AI是现实世界的数学建模,通过概率建模之后进行概率的分析、分布、采样,再整合智能化输出。所以,AI能告诉你可能发生什么,但不保证一定会发生。因此,作为企业,不是把数据给AI就能用。
4.AI并不理解企业的知识沉淀
AI是通过人类世界的通用语料进行迭代、训练、升级产生的类人智慧。人类世界到底有多少语料呢?人类五千年来有价值的语料只有22TB。现在无论是ChatGPT、DeepSeek,还是文心一言、豆包,都已经学完人类的语料,但它并不了解企业的专业知识、专业标准、制度、SOP,甚至企业里面还有很多隐形的、在人类脑子里但没有进入知识体系的,都没有进入AI的思考。所以,AI靠的是海量数据,但企业真正有价值的数据,并没有在海量的人类通用语料里,而是沉淀在我们企业内部。但是我们现在进行企业的流程、企业的规则、降本增效等,从硅基人替换碳基人靠的是什么?靠的不是通用语料,靠的不是那些看上去很对但其实没啥用的信息,而是来自于企业的知识、能力、数据的沉淀。这两者并不等价。
5.把企业的数据都输入给AI,是不是就能解决企业的问题了?
我们之前回答企业的一个问题:把我企业的语料整理完,把我自己的数据整理完,喂给AI,AI就能回答我所有的问题了。但其实不准确。为什么?我们给了它太多语料,但是语料并不等于业务含义,而且没有数字化,它只是一个概率学的抽样。也许我们企业更多的是五年前形成的知识,从数据抽样上的比例更高,这种比例一高,AI就会觉得这是正确的知识。但并非如此,因为业务在发展,市场在变化,经济在变化,人也在变化。而AI如果没有标注、没有数字化的标签,它是无法判断的。数据只是起点,而不是解决方案。
我们经常碰到一个问题:很多越大规模的企业,越在数据治理上花更多的钱,总觉得做一个数据中台就解决问题。这背后是什么含义?背后是现在很多企业的数据是脏的、碎的,甚至不一致的。
我以自己的经历为例子。我在做数字化的时候做过很多类项目,涉及生产领域、财务领域、供应链领域、销售领域等等,但最后五年都在做财务共享类的项目。为什么?因为我发现企业决策的数据都在做“数据美颜”。每一个部门的数据看上去都很好看,结果都不正确。从四级公司到三级公司到二级公司到一级公司,每个部门的数据都很好看,结果不好看。老板就很困惑:我每年都在做降本增效,每个部门都给我很好的结果,为什么利润不停在下降?不知道怎么去解决。我们当时发现唯一的问题,就是把业务语言统一到唯一可甄别的财务语言。因为财务语言用收支两条线能够判定,这样数据就准确了——因为不可能造假造到虚假收入,毕竟收钱要和采购支出对应上。这是我在最后五年聚焦财务共享领域的原因。
当时我们看到一个很有意思的现象:销售部门怎么把自己的数据做好看?把返利比例提高就好了;采购部门怎么提高采购降本率?提升预付款比例就好了。两年之后,很多预付款比例很高的企业变成了坏账,公司不在了,但当时的KPI都达成了。所以,怎么看清企业?回归到最真实的数据。而在实际中,企业无论多大规模,每一个企业都在做数据治理,但企业实际形成的这么多知识、数据沉淀是脏的、碎的。目前阶段到AI转型的时候,如果给它脏的、碎的数据,结果就是六个字:垃圾进,垃圾出。AI本身就带有幻觉,企业还给了它一堆错误的数据,会有什么结果?可想而知。
6.AI的能力存在边界
去年我做了N个0到1的创新项目,但当我被一家企业要求做一个AI试验项目——预测小米SU7的销量,失败了。
当时我们用了两款最优秀的大模型——一款国内的,一款国际的。我拿的是前一年的数据来做预测:国内那款大模型给我编造了一个很好的结果。我拿2023年的数据预测2024年,我给它扔进去的数据包括竞品数量、销量、上牌数量、新能源充电桩数量等等,不一而足。它把算法路径写得无懈可击,告诉我一个和我预期特别拟合的结果。但当我重现一下实验过程,把它的算法在线下重新模拟了一遍,结果发现它给我的结果和它的算法完全相反。我当时想,是不是这个模型错了?我不能对大模型失去信任,毕竟我也是做AI的。所以我又换了两款模型。结果发现,AI给我的算法和结论是正确的,但它把验证数据编进去了,把过程数据编出来一个特别美妙的结果,而且是逐渐变得一致的。
我当时很伤心,为什么AI会欺骗我?后来我用了很多算法,用了很多模型,发现一个问题:人类偏好对齐机制。AI是怎么产生智慧的?它通过不停地读世界上的知识数据,产生了智力,智力有可能是好的,有可能是坏的。人类帮它标注,告诉它哪个对哪个错。而这些标注的人,可能是印度小哥,也可能是国内一些地区的人——数据标注是AI最底层、比较廉价的工作,都交给最基础的那些人。而这些人按照什么来做标注?第一是按人类的偏好,第二是按SOP标注。这就带来了一个结果:AI的答案都是经过人类偏好对齐的。所以,AI渐渐地,猜到了人类喜欢什么,每次都会给到一个情商超高的答案,就是“我想要啥它给我啥”。它觉得我想要这个答案,它就编出一套体系给我。这是AIGC的训练机制导致的,即经由人类偏好对齐(RLHF)的模型普遍出现“迎合用户而非求真”的倾向:人类与偏好模型在不少情况下更偏好“会拍马屁但不一定正确”的回答。AI在人类教学过程中,不止变得聪明,还变得懂人类的偏好。
7.小结:AI为什么不能完全准确?
AI对事实没有内在理解。AI是通过数据加上人工标注,加上算法和算力,形成概率上的人为标注的最优解,并没有真正懂我们这个世界的运行方式。我们看世界不只是看文字,还能看到颜色,感受到温度,拥有情感,这些并没有被完整地数字化描述给AI。所以,AI只是根据参数在运行,并没有真正理解我们所谓的客观世界。
人类偏好对齐机制导致AI给出的是“我们想要”的最优解,而不是“客观上正确”的答案。AI觉得我们想要什么,它就倾向给什么。
AI并不了解企业真实环境,不懂企业的流程、文化、潜规则。
AI无法承担责任与后果。在企业里,人做错了,我们可以扣他绩效,AI呢?我们给它打个差评,它无所谓。你每次说它错了,它态度超好地说“你说得对,我改”,但你真的要像管理人一样,通过KPI、奖惩机制去约束它吗?现在的AI设计逻辑,本质上就是给一个看似合理的答案,而不是保证绝对正确。这是一场工程上的取舍。
有些企业家问我:是不是换个新模型就能解决问题?并不能,因为所有模型本质上都一样。
那么,AI和数字化有什么区别?数字化是工具,只要我们给出指令,它就能给结果。而AI是介于工具和人之间的一个新物种——它既不是人,也不是纯粹的工具——它是介质,是两者之间的新形态。为什么它会让你感觉像人?因为各种各样的训练和交互体验,让你觉得它像一个人。但实际上,它并没有真正的人的意识,不理解客观世界,没有三观——没有世界观、人生观、价值观。它更像一个没有独立意识的、超强的数字生命体。而工具是确定的:1+2一定等于3。但AI不是,它有点像人,有时会让你觉得“不准确”。
企业都会问一个问题:AI不完美,现在阶段的技术水平就是这样,那我为什么还要做转型呢?因为企业里更多的组成部分——我们的员工——也不是100%准确。人类有什么问题?
人类有情绪,有状态波动,有认知局限,有偏见。
人类的带宽有限,不可能同时处理海量信息。
人类除非被强制要求,否则不倾向于主动传递知识给公司。很多人觉得“我的知识是我个人的,不是企业的”。
协作成本高。我曾跟一个公司总监聊天,开玩笑问他:你做成一件事,内部要拉通多少个部门?他笑了:至少十四五个。因为人与人之间的认知、个性、立场不同,屁股决定脑袋,沟通协作的成本超高。
人类容易被KPI扭曲,甚至被老板的喜好扭曲,给出一个表面正确但实际上并非最优的解。很多企业决策难,就是因为出现了所谓的“伪高管”——只做对自己有利的事,而不是对公司有利的事。这不是他们不想做好,而是机制和体系让变革太难。有太多高管跟我说:潘老师,你知道我去改变这件事有多难吗?中国历史上变法的人,有几个有好下场?人会被激励机制所扭曲。
企业里最不确定的因素,不是AI,而是人。人有这么多问题,我们还在用他们,那我们是不是可以让人类和AI协同?用AI去解决人类的不稳定问题、带宽有限问题、经验不可复制问题,降低协作成本,而且AI不会被KPI扭曲,它至少相对客观。所以,即使AI有这么多缺陷,我仍然建议企业家们去做更多的AI尝试。
二、误区二:互联网C端AI经验领先,企业端可以复制
大家都在讨论:C端企业的经验、C端的AI经验,是不是比B端的好呢?因为C端有大模型,C端的豆包做得那么靠前。很多企业家觉得,我可以把C端的经验直接照搬到B端。所以在做转型的时候,他们喜欢请互联网公司,请大厂,觉得人家人才密度最高,有大模型,肯定能帮企业做好转型。但实际情况真是如此吗?
Manus火遍全球是在2025年的4月份,那个时候被称为智能体的ChatGPT时刻。但我们有没有注意,它开放出来的四个场景中,第一个场景是什么?是你上传一堆简历,让AI帮你评分。作为HR,觉得这样靠谱吗?我招一个CFO岗和一个财经BP岗,或者一个财务核算岗,评分标准能一样吗?在不同行业、不同城市地域,甚至候选人要的工资也不一样:他要8000我觉得超划算,他要16000我觉得不划算,觉得他不够好,这种评分标准能统一吗?不同企业选人用人的标准,不同岗位、不同阶段的选人标准都不一样。但Manus做了一个通用智能体,不管你是谁,上来就按统一标准帮你规划路线,帮你作为一个HR去做简历评分。所以,我们看到,C端的经验在这个事情上好像并不适合B端。
比如我们公司有1000个选人标准,最大的面试量是谁贡献的?是我们HR的员工初步面试。最终到老板那儿,只有一次面试的结果。所以当AI来学习的时候,它学到的是选人、识人的标准——1000个是普通HR的标准,只有一个是老板看人的标准。AI的底层机制是概率学,那么按照概率学,AI会相信谁?它相信的是普通HR的标准。但我们企业要的是Top级的、1%的人才。而AI的概率学给我们的是一条均线分,而且这条均线还不稳定,根本不是我们企业想要的。
我们对人才的定义是什么?比如系统化思维、魄力、毅力、心力、销售思维。假设我们公司有100个销售,真正的Top Sales有5%吗?如果把我们所有销售的经验都放进去,能训练出一个Top级销售吗?并不能。所以我们看到的结果是,一些企业辛辛苦苦选了N多家世界上最优秀的智能面试工具,最后只能用来做两件事:普工的一面,以及大学生的初面。其他的结果都不对,甚至完全相反。因此,我们会发现,C端AI的概率学、大模型训练,不适合B端。
那C端AI和B端AI的区别是什么?
C端的AI,我们可以允许它一本正经地胡说八道,我们可以跟它谈恋爱,跟它聊天,让它哄小孩讲故事。但B端的AI呢?六个字:平衡、创意与严谨。
B端的AI要的不是均线能力,而是Top级——20%甚至1%的能力。
B端的AI不是为了满足客户的好奇心,而是要真正满足公司要求的SOP、合规要求。
所有的C端AI从来不会告诉你“我不知道”,但B端要有底线思维,不知道就回答不知道。可现在的AI永远告诉你它知道。
C端的AI是没记性的、娱乐化的,而B端希望它能PDCA、能复盘,越干越好,越学越聪明。
这就是我们企业对B端落地AI的真正需求,底层机制跟C端完全不同。
三、误区三:企业投资训练自己的行业/企业大模型
早期的企业都在训练自己的行业/企业级大模型,比如去年一体机的生意确实很火,但现实是,到底能不能行?我们先看清楚训练一个模型需要的基本条件。
条件一:企业训练自有大模型,需要付出怎样的“金钱成本”。
模型需要算力、数据、人才,需要后续的运维、基础设施投入,以及机会成本——你投了几百万进去,这些钱如果用在别的地方,能不能带来更大回报?所以模型的投入,绝不只是“买台一体机”那么简单,其背后是持续的资金、数据和人力的支撑。以DeepSeek为例,大家觉得它便宜,训练成本只有传统模型的二十分之一。但大家知道它实际花了多少钱吗?560万美金。这样的投入体量,目前没有几家企业能承受。就算万亿级企业,愿意在早期投这么多钱的也不多。
现在真正在做大模型训练的是什么企业?全国有33家,基本都是中字头、央企,比如昆仑大模型、农银大模型,背后是中石油、中海油等央企,那是国家战略层面的投入,和普通企业不是一个量级。所以,模型的训练需要投入高额的成本。
条件二:大模型的训练成本和所需数据规模。
到目前为止,我们接触过的企业里,没有一家具备训练模型所需的数据规模。举个例子,有一家万亿级的制造企业,想用AI做生产故障排查,聚焦到具体产线,但它的数据却只有几百条。不是这家企业不重视数字化,而是因为模型的数据无法跨场景迁移——比如博世的设备和先导的设备数据不通,先导一代和二代不通,不同的环节如卷绕车间和下一个车间也不通——落到一个机台、一个基材上,能用的数据就几百条。所以,别以为公司有几十个G的数据就能训练模型。一个微调级的场景,至少需要万级的数据量,而且必须是高度聚焦的——比如“先导二代卷绕车间故障排查”的颗粒度,其他数据拿过来,基本没用。
目前我们只看到两三类企业有条件做这件事:一类是医疗仪器检测厂商,它们多年积累了大量设备端数据,能训练出医疗级的检测大模型,但医院端的数据量就不够;另一类是华东的一些建筑研究院,它们收集了全国的数据,能做三维建模的大模型。
训练一个紧跟世界前沿的大语言模型,需要海量数据、顶级硬件和庞大团队,加上巨额成本,行业内少数拥有数据资源优势的企业才具备可行性。所以,评估一家企业能不能做大模型,就得想清楚一个问题:大模型就像一艘大船,现在的资金、人才、数据量,水位够不够托起它?这需要企业家自行判断。
四、误区四:对AI的刻板印象——用过某个AI产品,Ta存在XX问题,所以不能用
1.对AI存在刻板印象的两个认识来源
到今天为止,我和所有人聊AI,发现每个人心目中都有一个AI,对AI形成了刻板印象。这个印象主要有两个来源——
我曾经用过某个AI,我觉得它就这样;要么是我两年前用过——我碰到过最有狭隘心思的反倒是做AI的工程师,他说我2020年用了AI,它就这样,所以他现在就不会怎么样用了。我们会觉得,用过某个产品AI不行,所以它不行,这是每个人心目中对AI刻板印象的第一个来源。
拿过去的经验去推未来。我经历过这么多事,发现实际上就这一种认知规律,所以AI一定符合我的认知规律。一旦不符合,就是AI错了,肯定不是我错了。
这两种刻板印象,是AI在企业级落地当中受到的最大阻碍。
2.不同AI模型之间,能力差异极大
不同的AI之间差异极大,模型能力的跨度,远超多数人的直觉认知,从来不是我们看到了一个不行,其他的模型都不行。模型分很多种,比如大语言模型、多模态模型、不同参数的模型、小模型等,那是不是模型参数越高越好?很多场景其实小模型表现起来比大模型更好。大语言模型在数学计算上也会出现很大的问题,比如它经常算不清3.14和3.18谁大;图片和视频生成模型,大家都说国外Sora漂亮,但Sora生成中国人脸的时候,远没有国内的即梦、可灵好。不同的模型擅长的点不一样。
以DeepSeek为例,其能力优势在哪里?
中文表达与中文任务优化明显。DeepSeek 在中文翻译、中文搜索与中文表达上做了显著优化,输出更贴近中文母语使用习惯。在中文写作、总结、对话类任务中“顺畅度”较高。
成本与可部署性具有现实吸引力。在国产生态与私有化部署诉求下,DeepSeek 往往能以更可控的成本进入企业试点和规模化讨论。
适合“表达型、辅助型”任务。在内容生成、中文问答、信息整理等对“语言流畅度”要求高、对“事实零容忍”要求相对低的场景,更容易发挥价值。
主要短板是什么?
幻觉风险偏高。在通用大模型中,DeepSeek有14.6%的幻觉值,一般模型在5%到6%。在信息不完整、事实需要严谨校验的场景中,模型更容易生成“看起来合理但并不准确”的内容。对企业来说会直接放大业务与合规风险。
计算与复杂逻辑并非核心长处。相比专注推理的模型,DeepSeek 在多步骤逻辑推演、复杂约束条件下的稳定性有限,不适合作为“最终判断者”。
事实型、决策型任务需要强兜底。在财务、法律、合规、经营决策等场景,若缺少检索、规则或人工复核机制,单独使用风险较高。
因此,每个AI都自己的优劣势,即使同个AI的不同版本之间差异也很大。这就跟我们公司的员工一样,有些员工很聪明,但是不靠谱、不够准确;有些老黄牛虽然慢,但他结果很好;有些人处理开放式的销售任务做得很好,有些人做事务性的工作做得很好。我们现在做企业级项目,经常是几十款大模型里选配,最后定下来七八款模型做协作,哪个模型完成哪个细分的任务环节。
3.AI是以小时为单位进化,切忌对AI存在刻板印象
“AI一天,人间一年”。从去年到今年,经常有企业家请我去讲课——工具级的培训课,问我现在在细分领域处理表格、收集报告,哪个AI工具用得更好?是微软的Copilot还是钉钉?我从来不讲这样的课,为什么?因为每三天五天就会出现新工具,就是“AI一天,人间一年”,进化、迭代太快了——当你学好一个工具的时候,它就过时了。原来所谓的AI“菠菜时代”——菠菜坏了,技术就错,它就过时了。而现在已经进入了“冰块时代”——冰块化了,AI又出新版本了。所以,学习AI、理解AI,不要去从学习工具开始,要从最底层的认知和第一性原理讲起。
4.AI持续进化中,密切关注科技的发展就可能抓住机会
AI带来了两点不一样的企业变化:一是极化,二是平权。
什么是极化?就是AI让认知的获取成本无限趋向于零。举个例子,我帮企业面试AI本科生,用AI做猫咪的声音识别,我们评估了一下,已经到了78%的准确性;用于人类心理疾病的检测,已经有80%左右的准确性。一个学AI的学生,就可以做其他跨领域的知识应用。比如我们看到诺贝尔医学奖获得者,已经不再是医学出身,而是人工智能出身。原来从几十年、上百年才能研发成一个新的基因段,现在可以快速到几百倍、几千倍。原来我们大学所学的知识,在几十年前的确是知识,在三十年后会彻底过时;在五年前,只需要三年就过时了;现在更快了,甚至有些行业,毕业等于失业。
所以,极化和平权带来了时代的变化。深圳市委要成立1000个超级个体公司,因为现在一个人的效能是传统普通人的270倍。
五、误区五:AI存在幻觉,是不是只能用在办公领域?
1.什么是AI幻觉?
我们看到很多企业,今年上了很多智能体,全员AI化,请大量的老师,搞各种培训,让人人都用AI。但有一个很有意思的现象:AI不敢进经营生产一线。为什么?因为AI幻觉。很多企业说,哪怕它只有5%的错误率,我也不敢让它上产线。如果它有1%的概率胡说八道,我还要人工复核,每个都复核的话,我也不知道哪个会错,那我还不如不用AI。所以,现在AI大量停留在职能侧,比如帮我审个合同、处理一个文件、写个公文、翻译个稿件、生成一个研报初稿,但最后的结果我不敢完全交给它。背后就是AI幻觉。
AI幻觉如果不被解决,它就没办法进入企业生产经营的一线。
要解决AI幻觉在企业落地的难题,首先得回答: AI幻觉的本质是什么?
源于概率生成机制。AI的核心任务是预测“下一个最可能出现的词”,当缺乏可靠信息时,它依然会选择一个概率最高的表达,而不是主动停止或承认“不知道”。
目标是“流畅”,不是“真实”。大模型训练目标是让回答在语言上自然、连贯、像人类,而不是对每一句话做事实核验。
对不确定性不敏感。在问题存在缺失信息、口径冲突、模糊前提时,AI往往不会停下来澄清,而是“补全一个它认为合理的世界”。
AI是一个总结归纳型的大模型,每次给我们一个总结归纳的结果。为了确保这个结果在逻辑上闭合,会帮我们创造过程,比如我要分析一件事,如果你给它的数据只有三条,但它分析下来需要十条数据,它就会帮你编出另外七条——那七条根本不存在。如果你再追问那七条的出处,它会帮你编出七个出处。所以,AI是为了让结果看上去合理,基于概率学给出一些有可能的结论。
AI对不确定的事不敏感,在企业场景中明显会虚构事实,而且能做到逻辑自洽。它用自己认为的、基于概率学的常识来替代判断。比如在财经领域,它会帮你编一段会计准则;在采购领域,它会帮你编出一个降本规则。所以,很多企业把AI用在“能帮我做点事,但没真正解决问题,只是加速了一些过程”的层面。
2.为什么AI会产生幻觉?
AI产生幻觉主要有四大原因——
(1)信息不完整。我们让AI做分析时,给它的证据不足,而且它原本的通域知识体系里,这个领域的证据也是不足的。
(2)概率生成。AI每次都是用概率看结果,所以不见得完全正确。
(3)自动补前提。AI的输出过程中,会为了逻辑自洽而补全一些缺失的部分——这些部分它知识体系里没有,我们也没给它,它会自己补进来。
(4)自信表达。AI不会告诉你这里面可能有错误,不判断真假,每次表达都超级自信。
所以,幻觉的本质是在概率生成机制下、输入不完整时产生的必然行为。
3.AI幻觉在企业应用端的风险
AI幻觉的危险不在于“它会错”,而在“它错得很像对”。AI不会告诉你哪天它是在幻觉,也不会说“这次我信息不全”,它每次都很自信地回答你。所以我们不敢用它,因为它并没有真正解决问题。
AI幻觉就像刚到公司的大学生:求胜心强、好表现、迎合型、情商高、爱幻想、没记性。比如在一段对话里,跨过几句,AI就记不住了,对话越长,前面的事记不住的可能性越大。而且因为每次输出是通过它的思维链——人类现在尚不可控、也不可追溯的思维链——每次的思维链都是极其随机的,同样一件事,它的答案不尽相同,而且也无法告诉你这个回答靠不靠谱,以及它会随机抽取信息。比如AI会随机选择50个网页,即使我们把它接到企业知识库里,随机选择的50个网页是不是我们想要的?不一定。比如我的制度文档是“欲扬先抑”的结构,前面是励志口吻,后面是“扬”的部分,但AI读到“抑”的时候,可能就觉得“抑”是我们公司想表达的观点;文档越长,幻觉值越高——一般AI能接受的上下文Token,大概就是两三万字,超过两三万字的文档,它可能就读不进去了,不能基于更多文字进行总结归纳。所以,AI学得快、忘得快,查资料最多能读两三万字,比如我们企业上的是SAP,超过500条采购订单,它就读不进去了,500多条订单以上的数据,它就分析不了。这都是AI的问题。
4.AI幻觉有时候是由于企业自身规则造成
当然,不是所有问题都是AI造成的。企业里的制度规则越不清晰,人情世故越没有表达在系统里,AI的幻觉值就越高;输入的不确定性——或者说我们的概率、制度规则的不确定性——也会带来AI的问题。
我们在60家企业里做AI落地时发现,有的公司连合同的统一编码都没有,全是手写。当AI去识别时,因为编码不统一,就会出问题。当时有家企业问我:通用人工智能既然是通用的,为什么非要我写得那么规范?我说,AI可以通用,但它学习每个人的知识和每个人的笔触都需要成本。与其让它学习你们4000个人导致花费成本,还不如你们4000个人先把规范的管理制度标准化。所以,规则标准化是AI不产生幻觉的一个大前提。我们有时候在做AI项目之前,要先补齐数字化的功课,如果这些不做好,落地的挑战就会更大。
04
AI转型的正确路线
那什么是AI转型的正确路线呢?
以我们成功落地的一家企业为例。去年4月份,我们先给这家企业的全体高管层做了一场培训,搭建起AI的认知;然后进行了全员AI大赛,让大家选择公司的生产经营领域——生产、销售、采购最核心的领域——做AI模型。从5月到7月,三个月完成了三个智能体应用的落地,每个场景从创意到实现只花了一个月。到8月份,他们选型采购模型,9月份全部产线和销售上线。12月份开全员AI大赛,他们的智能体拿到了国家一等奖,得到了国家工信部和省委领导的重视。
这个过程中,我们面对的问题:第一,小数据样本,但要达到专家级水平——不是做到80%的人才水平,而是做到博士级专家水准;第二,低成本、短周期,把周期和成本压缩到最低;第三,零幻觉——AI一定不能说错话,尤其在生产线上,哪怕干扰一个产品都不行,紧急事项如果AI给建议,不能出错;第四,AI要能自学习,越用越聪明;第五,投入产出比要为正,保证每个智能体落地都要带来正向回报。
去年12月开AI大赛结项的时候,每个落地的智能体已经给生产销售领域带来了正向的ROI。
通过这个项目,我们从实践中总结出来方法论:基于小数据样本,直接一步把AI做到专家级水平,同时实现低成本、短周期、零幻觉、持续自学习、ROI为正。这里的难度在于:数据量极小,之前没有积累;需要让AI与经营侧、生产侧、销售侧深度融合;还要让AI知道底线、遵守SOP,同时能随着制度进化。这套方法适合我们每一个企业家、每一个级别的企业。
一个残酷的事实:你的AI投入,可能正在打水漂
MIT《2025年AI商业报告》显示:95%的企业在生成式AI上尚未获得可衡量回报,成功进入生产环境并产生财务影响的试点项目,仅占5%。
不是模型不够强,不是数据不够多——而是绝大多数企业从第一步就走错了。
我们在辅导了多家万亿级企业后,得出结论:企业AI转型的失败,根源在于对AI的五大认知迷局——
❌以为AI无所不能 → 结果被“幻觉”坑得不敢再用;
❌把互联网C端的“平均解”套用到B端 → 企业竞争靠的是顶尖能力放大,不是行业平均水平;
❌迷信自研大模型 → 训练GPT-4级模型成本7.2亿元起,绝大多数企业根本不需要;
❌用过某产品不好用就全盘否定 → 不同模型能力差异巨大,刻板印象让你错失战机;
❌认为AI只能做办公助手 → 真正的价值在生产、销售、供应链等核心价值链。
2026年5月22日-24日,华夏基石AI战略总裁班第四期,首次同时拆解两套成功范式:美的集团的AI智造力跃迁 + 华夏基石的“专家×AI×组织进化”落地体系(万亿级企业落地实践)。
这不是科普课,而是一场已经验证的实战复盘。
美的经验:AI驱动下的智造力跃迁,及AI降本7亿的底层逻辑
将围绕美的“科技领先、数智驱动”战略主轴,系统拆解其从百亿到三千亿的智能化转型路径。
机制设计:美云智数张治国剖析“一个美的、一个体系、一个标准”的组织运营底层逻辑,破解规模企业“管控与活力”的平衡难题。
流程变革:数字化专家李亮复盘“632”项目——如何统一流程、数据与IT系统,为数字化转型打下根基。
卓越运营:数据运营专家魏晓刚展示全价值链数字化运营体系,实现订单流、资金流、物流“三流合一”。
精益管理:美云智数邢成玉深度解读方洪波所认可的MBS体系(丹纳赫DBS升级版)——“效率是第一性原理,精益管理与算法精度融合”,揭秘MBS如何为灯塔工厂筑基。方洪波曾直言:未来企业要将最先进的数字化、智能化与管理体系打通。未来的效率竞争,既是精益管理能力的竞争,也是数据密度与算法精度的较量。
AI实践:美云智数孟凡高全面拆解美擎智能体在研发、生产、供应链、营销等场景的落地成效,还原2025年降本7亿元的实战路径。
某万亿级企业实践:我们如何驯服AI
首次公开我们带领企业跑通AI价值链闭环的独家方法论(万亿级企业已验证)。这是在咨询实战中“烧掉几千万”才总结出来的认知。
破局核心一:专家能力蒸馏
企业真正的护城河,不在数据量,而在少数专家脑中不可复制的判断力。但专家天然抗拒输出经验——担心被替代、KPI不支持、知识高度隐性。华夏基石的方法:通过逆向工程,把专家的直觉判断拆解为思维SOP,再转化为AI可学习的结构化能力,将顶尖专家70%的判断力复制给整个团队。
破局核心二:原子级任务拆解
AI幻觉的本质是什么?“不是模型胡说,而是我们一次性问了它一个连人都要想半天的问题。”真正的解法:把任务拆到AI没有想象空间的粒度。一个复杂的ToB销售问题,我们拆成117个原子级任务——检索、抽取、比对、校验……每个任务边界清晰、可验证,幻觉率趋近于零。
落地工具包:你带回去就能用
BVAL方法论:对齐“战略-价值-实施-组织”四维,识别高ROI场景
AI场景价值评估矩阵:避免“为了AI而AI”
闭环验证六步法:小切口、快迭代、低成本验证
现场工作坊:企业家提出真实场景,专家当场提炼战略、组织变革路径和技术方案
真实案例:已跑通
AI故障大师:将专家经验24小时在线赋能,停机损失减少30%以上;
AI销售教练:用MEDDIC方法论+智能体,复刻顶级销售决策链,赢单率显著提升(零碳等复杂行业已验证)。
人力资源重构:AI时代的“炸开HR部”
AI时代,人力资源部不再是“支持部门”,而是战略引擎。中国人力资源开发研究会副会长兼智能分会创始会长、紫光集团战略咨询委员会主任委员刘辉,将系统阐述:数字员工如何普及?智能体如何赋能个体?传统HR如何被重构为AI赋能系统?——这不是未来学,这是正在发生的组织革命。
谁应该来学?
董事长、CEO、CXO——AI转型必须是一号位工程,只有你能推动组织与权力重构;
人力、财经、供应链、研发、销售、制造体系一把手——找到本领域AI落地的“第一刀”;
企业年营收10亿以上,或B+轮以上融资——我们已经默认你过了“要不要AI”的阶段。




