华为大咖说丨AI技术有什么陷阱?企业如何规避?
本文分享自华为时习知,全文约4272字,阅读约需9分钟
2025年初异常魔幻,意料之外的事层出不穷,其中就包括异军突起的DeepSeek。个人认为DeepSeek的火爆有两层意义:
其一,DeepSeek使得中国大模型达到了与美国齐平的水平,大有“小米加步枪跟飞机大炮平局”的意义;
其二,DeepSeek在国内掀起了一股全民AI的热潮,家庭主妇甚至是乡野村夫都知道DeepSeek,并且知道DeepSeek的带脑子(深度思考按钮)思考问题很有用。
个人认为这两层意义均非比寻常,其中后者可能意义更大,因为这是高科技第一次迅速普及到社会的各个角落,速度之快甚至整个社会、各个企业都没有做好准备。
在欣喜于AI快速发展和普及的时候,我们一方面要保持紧随时代的潮流,不能落伍;另一方面,我们也要对AI保持警惕,警惕其中存在的陷阱为社会、企业造成的危机和伤害。本文就AI技术陷阱展开思考,目的是引发大家共同探讨这个话题,使得企业和个人能够规避其中的陷阱。
技术陷阱一:盲目崇拜
机器学习的发展使得AI工具获得了长足的进步,AI工具已经展现出强大的能力,甚至在某些地方已经超越人类。同时,大模型的发展使得AI工具的使用门槛降低到前所未有的程度,以至于只要会输入文字就能借助AI轻松完成之前需要专业人士才能完成的任务,如绘画、写诗、开发贪吃蛇之类的小游戏。业界也出现各种初创公司纷纷推出各种概念,如AI程序员,号称可以替代大部分程序员。
AI为人们带来了前所未有的“技术平权”,也会让人产生前所未有的“错觉”。这就是“AI平权带来的认知陷阱”,人们会逐渐适应、并信任AI,同时认为AI无所不能。
然而,AI并非完全可信,比如“恐龙养殖”等AI生成的新闻。AI有时甚至做不好基本的算术题。
在企业组织中,若盲目崇拜AI可能会带来难以预料的问题,甚至造成重大业务损失,尤其在非专业人事带领专业人事的组织和团队中。
技术陷阱二:弯道超车
当某一领域发展到一定阶段后,各方面已积累的大量的经验和教训,这使得后来者可以避免前人经验教训、复用前人优秀实践,从而使得后来者可以以更快的速度、更好的品质体验超越前人,这就是常说的弯道超车。
这一现象在AI发展领域体现得尤为明显,比如开发者可以通过十几行代码完成模型训练、通过几行代码完成模型推理服务构建。在此之前,开发者面临者各种算法、编译器、运行时等各种问题与挑战。
然而,即便是不考虑各种工具、业务连续性的前提下,当下AI也不存在所谓的弯道超车,具体表现为模型性能始终难以达到业界领先水准。
从大模型基本原理看(如下图),若想获得想要的下一个Token,那么必须增加下一个Token的概率。这个概率在实际业务数据中表现为人、工具/系统按照相同的行为或契约实现各种协作与互操作,即数字化。
企业数字化并非简单的线上集中化作业,而是需要企业所有成员在沟通时遵循相同的契约、人机交互时遵循相同的规范、机机交互时遵循相同的标准。比如在会议时统一讲普通话,而不是有的人讲东北话,有的人讲闽南语;在设计系统时,对手机号的标注明明统一为Phone,而不是有的用Shoujihao,有的用Phone Number。只有在遵循相同约定的情况下,作业产生的数据才能有更好的概率统计表现,进而体现为模型性能。
因此可以说,企业数字化是企业发展大模型必备的前提,在企业真正完成数字化之前,无法实现企业大模型的弯道超车。
据说,对比中印程序员时有一个有趣的发现,同一个问题十个印度程序员写出的代码一模一样,十个中国程序员写出十种代码。此事真假不论,就模型训练来说,对同一个问题,十份一模一样的代码训练出的模型表现出的性能一定要比十份不同代码训练出的模型性能要好,因为概率更高。
技术陷阱三:价值变现
企业是盈利性组织,因此企业采用某种技术时都期望该技术能够尽快为企业创造价值。这在传统技术工具采用时通常比较适合,但在AI时代就不在适合了。
AI应用的价值变现并不取决于应用提供了多少个功能,而是取决于数据资产的积累、质量与转化速度。
企业采用AI应用后通常无法投入实际应用,即无非立刻产生业务价值。在真正产生价值之前,企业首先需要完成企业数字化,通过数字化完成数据资产的积累。然后通过数据工程、知识工程将数字资产转化为模型可消费的语料或知识,最后才能实现AI应用的价值变现。这一过程与数字化程度有关,通常数字化程度越低,周期越长;其次需要企业引入数据科学家和知识工程师,构建适合AI应用的数据工程和知识工程。
技术陷阱四:工作转移
AI技术的长足进步使得人们看到AI技术的巨大潜力,期望在不远的将来AI能够代替人完成各种各样的工作。这种愿景对企业更具有吸引力,因为技术成熟后其为企业创造的价值、长期的成本远优于人类工程师,能够为企业创造更大的利润空间。人类三次工业革命也充分支持了此类观点。
当下在信息技术领域,人们普遍认为AI能够取代初、中级工程师,高级工程师岗位仍将继续存在,本人也支持此类观点。然而,在这个趋势之下人们将面临一个潜在的陷阱——无根之木的高级工程师和退化的AI。
各种评测和实际应用表明,AI具备业界工程师平均能力水平,这也符合大模型的概率原理。这意味着企业采用AI时能够立刻获取业界平均水平的工程师能力,而无需从零开始培养新员工,这意味着巨大的成本的节约和更快的业务变现能力。同时,由于AI的不确定性(可能出错)导致需要人来对AI的输出进行纠错,能够对AI纠错的人的能力一定比AI强,即高级工程师。然而高级工程师只能在企业内部从新员工逐渐成长起来,并且也存在一个概率,即新员工不一定能成为高级工程师,需要一定的基数才能成长一个。
同时,谷歌DeepMind提出AI可通过结构化的“语言游戏”在封闭系统中递归进化及其他研究表明,AI能力能够自主进化。但当AI依赖的内部评分机制与人类价值观偏离时,可能导致“目标漂移”,即若无人类经验参与,AI将会失控。
于是未来就面临着一个问题,企业用AI替代初中级工程师 -> 企业新员工减少甚至没有 -> 企业无法获取新的高级工程师 -> 企业缺少AI纠错能力 -> AI能力逐渐失控 -> AI能力不可用 -> 企业业务受损甚至无法开展。这就是企业采用AI时潜藏的一个陷阱。
技术陷阱五:消减简单重复性工作
企业采纳AI通常期望AI能够帮人解决一些简单的、重复性的工作,比如代码审查、编码重复性代码和测试用例脚本、编写文档等。然而这些工作并非很容易就会被取代。
一方面,基于概率模型的AI天然存在一些随机性,预测的Token越长,这种随机性越明显。这就需要人去花大量实践核实、校对生成的结果。以代码生成代码为例,一个简单的web button可能涉及到html标签、js代码、css样式等等,这些内容可能有几十行甚至上百行,AI很难保证生成的结果完全可用。同时,工程师输出一段代码的时间由三部分组成,分别是思考时间、编码时间、检视时间。这三组时间中,编码时间在所有总时间中占比最少。采纳AI后,思考时间可能会变多,因为开发者需要将思路转化为提示词,但这并非易事。AI当下只能消减编码时间,而无法消减思考时间和检视时间。因此,AI编码带来的效率提升远没有想象中那么高。
一方面,简单的事情不简单。人可以不经过学习就轻松拿握水杯并完成喝水的动作,然而人类登月50年后,还没有AI能够轻松自然的做到这一点。这说明对人而言很简单的事,对AI而言可能是难以逾越的挑战。AI落地时同样存在类似的问题,即AI很难做好一些简单的事。
另一方面,复杂的事情不复杂。奥数对这个世界上大部分人而言都是一件很复杂的事,然而现在诸多研究和测试表明,AI在处理复杂问题时表现出远超人类平均水准的能力和结果。即,对人类而言很复杂的事,对AI而言可能非常简单。之所以如此,是因为人类大脑同时处理的信息有限,无法处理复杂问题的海量信息(所以人在解决问题时需要借助外部工具);而AI只要计算资源充足,完全没有限制。
因此,企业在采纳AI时需要仔细思考AI的使用场景,而不是简单的认为AI能够处理对人类而言很简单的工作。
技术陷阱六:AI软件是“软件”
传统软件以“所见即所得”的方式为用户提供各种功能,最常见的表现形式即各种功能菜单和功能选项。这种方式虽然符合人最直观的思维方式,却存在一些弊端,如功能爆炸后很难快速找到所需的功能。但无论如何,当传统软件的用户有新诉求时,通常需要软件提供商进行更新,即软件供应商负责软件能力的持续构建,用户是软件能力的消费者和反馈者,并不实际参与软件能力构建。
自LLM出现后,人与软件的交付方式便由“功能菜单”转向“自然语言”。纵观业界,AI软件均表现出极简的功能界面,人们也不在按照传统方式去寻找所需的功能;同时,这些软件的竞争力也不通过UI呈现(从UI看功能基本相同),而是结果。然而据观察,当前部分企业或开发者仍按照传统软件研发方式对AI软件进行功能堆叠,具体表现在与传统软件一样大量的功能选项或持续更新的插件清单。
在构建AI软件时,会向用户提供许多功能,例如代码生成、代码续写、测试用例生成、知识问答、辅助诊断等等。透过这些外在表现会发现这些能力本质上是模型能力,软件功能界面只是交互入口。实际上,在AI时代,软件的核心竞争力已从可见的工程转移到不可见的模型,模型能力决定软件的竞争力,而模型能力则取决于数据质量。因此企业在构建AI软件时,应该将重心转移到模型能力构建上,而不是软件功能堆叠上。
但这里有两个问题需要展开讨论:
1.为什么按照传统软件堆叠功能不可取?
事实上,用户需要的是能力,而不是功能菜单,AI的出现使我们有机会让用户从功能菜单的海洋中解脱出来,使用户直达能力。在这种情况下依旧按照传统软件堆叠功能就显得一方面浪费了AI能力,另一方面又制造的很多债务。如此并没有给用户带来价值。
2.模型能力演进如何进行规划?
事实上,本人无法回答这个问题。模型是一个神经网络,由参数和权重组成,不具备任何能力属性。模型训练也是基于海量数据,这些数据包含几乎存在的任何信息。而每一个软件在规划时都有明确的职责定义,即软件要解决什么问题。这两者之间的区别决定了在面向传统软件时,我们可以制定一个计划,决定什么时间做什么事达成什么目标;但在构建模型能力时,这种方式似乎不在适用,我们只能有倾向性的选择某些数据、算法进行训练,能否达成目标却难以保障,这是由模型本身决定,并不是由人来决定。
总结
AI技术当下正在飞速发展,且有加速趋势,同时与以往技术不同的是,AI已快速普及到普罗大众,为所有人真正带来了“技术平权”。然而,所有技术都是一把双刃剑,技术平权不仅仅带来了社会和企业进步,同时也打开了潘多拉魔盒,使得AI应用时面临诸多陷阱。
本文是本人对AI演进和工程化落地观察思考的结果,其观点仅代表个人理解,不一定正确。同时也希望大家能够各抒己见,共同推进AI应用落地,并为之保驾护航。
- 点赞
- 收藏
- 关注作者
评论(0)