人工智能与大模型发展洞察及应用指南
以下是撰写这份关于人工智能和大模型发展洞察及实践指南的思路,整体分为五个主要部分,分别涵盖人工智能发展、大模型发展、两者关联性、构建多模型运行平台以及成熟落地场景与技术人才配置。
一、人工智能发展概述
起源与发展历程
人工智能的概念最早可追溯到20世纪50年代,当时科学家们开始探索让机器模拟人类智能的可能性,如简单的数学定理证明和逻辑推理程序。随后,经历了专家系统、机器学习、深度学习等多个发展阶段,计算能力的提升、算法的改进以及大数据的涌现推动其不断前进,如今已在众多领域展现出强大的能力,从语音识别、图像识别到自然语言处理等。
以下是人工智能各发展阶段的成果及技术迭代升级的详细阐述:
阶段划分:依据人工智能发展历程中的关键时间节点和技术特征,清晰地划分出各个发展阶段,包括萌芽、起源、黄金期、低谷期、复兴以及深度学习爆发等阶段,使整个发展脉络一目了然。
成果列举典型:在每个阶段,选取具有代表性和标志性的成果进行阐述,例如图灵测试、AlphaGo等,这些成果要么在理论上具有开创性,要么在实际应用中产生了重大影响,能够很好地体现当时人工智能的发展水平和方向。
技术迭代分析深入:针对各阶段成果,详细分析其背后技术的演变过程,从最初的理论构思到算法改进、硬件支持,再到数据驱动的转变,深入展示了技术是如何逐步发展和突破的,突出了不同阶段技术的传承与创新关系,以及外部因素如计算资源、数据量对技术迭代的促进作用,从而清晰地呈现出人工智能技术从简单到复杂、从低级到高级的发展路径。
萌芽阶段
• 成果:19世纪,英国数学家布尔和德・摩尔根提出 “思维定律”,被视为人工智能的开端;19世纪20年代,巴贝奇设计第一架 “计算机器”,成为人工智能硬件前身;1950年,图灵提出 “图灵测试”,为判断机器是否具有智能提供了理论基础.
• 技术迭代:此阶段主要是理论基础的构建,科学家们开始思考如何用机器模拟人类思维,为后续人工智能的发展奠定了思想基础。
起源与初步发展阶段(20世纪50年代 - 60年代)
• 成果:1956年,达特茅斯会议正式确立 “人工智能” 这一学科概念,同年,逻辑理论家程序被开发,能够证明数学定理;1962年,IBM公司的阿瑟・萨缪尔研制的西洋跳棋AI程序击败全美最强棋手之一,其核心技术是α-β剪枝搜索和自我对弈来学习评价函数。
• 技术迭代:计算机技术开始应用于模拟人类智能,通过编写特定程序让计算机具备解决简单问题和进行逻辑推理的能力,标志着人工智能从理论设想走向实际探索。
第一个黄金时期(20世纪60年代 - 70年代)
• 成果:专家系统成为研究热点,如DENDRAL系统可帮助化学家判断待定物质的分子结构,MYCIN系统能辅助医生诊断血液感染疾病并推荐抗菌素类药物;自然语言处理技术也有一定发展,机器能够理解和处理简单的自然语言语句.
• 技术迭代:从单纯的逻辑推理程序发展到引入专业领域知识的专家系统,通过将人类专家的知识和经验转化为计算机可处理的规则,使计算机能够在特定领域内解决复杂问题,提升了人工智能的实用性。
第一次低谷期(20世纪70年代 - 80年代)
• 成果:由于技术瓶颈、计算资源有限以及对人工智能过度乐观的预期未能实现,研究陷入困境,许多项目被迫中止,资金支持锐减.
• 技术迭代:此阶段人们开始反思人工智能发展中存在的问题,意识到仅靠简单规则和有限的计算能力难以实现更高级的智能,从而促使研究人员寻求新的技术突破和发展方向。
复兴与发展阶段(20世纪80年代 - 90年代)
• 成果:随着计算机硬件性能提升和算法的改进,机器学习算法如决策树、神经网络等得到进一步研究和应用,人工智能在图像识别、语音识别等领域取得了一些初步成果;专家系统也不断完善,并在商业领域得到了更广泛的应用.
• 技术迭代:人工智能开始从基于规则的专家系统向基于数据驱动的机器学习转变,通过让计算机从大量数据中自动学习特征和模式,提高了其对复杂问题的处理能力,为后续深度学习的发展奠定了基础。
第二次低谷期(20世纪90年代中期 - 21世纪初)
• 成果:尽管机器学习等技术有所发展,但仍未取得重大突破,人工智能在商业应用中的效果也未达到预期,导致投资和研究热情再次下降.
• 技术迭代:这一时期,研究人员继续探索更有效的机器学习算法和模型结构,同时计算机硬件技术也在不断进步,为即将到来的深度学习革命积累了条件。
深度学习爆发阶段(21世纪初至今)
• 成果:2016年,AlphaGo战胜围棋世界冠军李世石,引发全球关注;此后,自然语言处理领域的GPT系列、图像识别领域的ResNet等深度学习模型不断涌现,在多个领域取得了超越人类水平的性能表现,推动了人工智能在各个行业的大规模应用.
• 技术迭代:深度学习技术的突破是这一阶段的关键,以神经网络为基础,通过增加网络层数和神经元数量,以及采用反向传播算法等优化技术,使模型能够自动学习到更复杂的特征和模式,从而实现了人工智能性能的大幅提升。同时,大数据的爆发式增长为深度学习模型提供了丰富的数据资源,云计算技术则为模型训练提供了强大的计算支持,共同推动了人工智能的快速发展。
各领域发挥作用
• 自然语言处理领域
• Transformer:作为核心架构,凭借其注意力机制在处理序列数据时能自动聚焦不同位置信息,有效捕捉文本长序列依赖关系,为诸多应用奠定基础。在机器翻译领域,像谷歌翻译借助它实现更精准、自然的跨语言转换;于文本生成场景,各类智能写作助手依托其生成高质量文章、文案,满足多样化写作需求。
• BERT(基于Transformer的双向编码器表征):基于Transformer架构构建,通过预训练掌握文本双向语义信息。在文本分类任务上,无论是新闻分类、情感分析,都能精准判别文本类别;于命名实体识别环节,可敏锐捕捉人名、地名、组织机构名等,广泛服务于信息提取等工作,极大提升自然语言处理效率。
• Word2vec:能将文本里的词语映射为低维向量,借此挖掘词间语义关联,在搜索引擎、文本分类、信息检索等应用中发挥关键作用,帮助系统更好理解用户输入关键词,提升搜索准确性,优化文本处理流程。
• Seq2Seq模型:利用编码器 - 解码器框架应对不等长序列对,擅长机器翻译、文本摘要等任务,助力不同语言无缝转换、快速提炼文本要点,推动语言交互智能化发展。
• ELMo(来自语言模型的嵌入):可依据上下文动态生成词向量,为自然语言处理各环节注入丰富语义,在命名实体识别、情感分析等任务中表现优异,让文本理解与处理更精准深入。
• 图像识别领域
• YOLO(You Only Look Once)系列:把目标检测任务视作回归问题,能在单幅图像里直接预判多个目标类别与位置,检测速度超群。于智能安防系统,实时监测监控画面人物、物体,敏锐察觉异常行为并及时预警;在自动驾驶场景,助力车辆瞬间锁定道路行人、车辆、交通标志等障碍物,保障行车安全。
• Mask R-CNN:在 Faster R-CCN 基础上拓展,新增分支预测目标掩码,达成图像目标实例分割,既精准定位目标,又精细勾勒目标轮廓。在医学图像分析领域,助力医生精确划分肿瘤、器官等病变区域,辅助诊断病情;用于图像编辑软件,实现特定物体精准抠图、灵活编辑,激发创意无限。
• AlexNet:图像识别领域重大突破之作,大幅推动深度学习在此领域前行,为海量图像分类索引赋能,像在图像搜索引擎里,快速精准归类图像,提升搜索效率与精准度。
• DenseNet(密集连接网络):采用密集连接模式强化特征跨层传递复用,在医学图像、场景识别等范畴大显身手,精准洞察图像细微特征与复杂结构,为精准识别筑牢根基。
• YOLOv5:作为 YOLO 系列进阶版,实时目标检测性能更卓越,融入智能交通系统,实时追踪道路多元目标,为自动驾驶全方位护航。
• 语音处理领域
• DeepSpeech系列:百度研发的深度学习语音识别模型,融合深度神经网络(DNN)与隐马尔可夫模型(HMM),将语音快速精准转文字,在智能语音助手、语音转写软件中表现亮眼,革新文字录入方式,开启语音交互新篇。
• Tacotron系列:端到端语音合成模型,依循深度学习序列到序列(Seq2Seq)架构,经编码器、解码器协同运作生成语音梅尔频谱,再借声码器转换波形音频,在有声读物制作中加速流程、提升品质,于语音导航系统赋予清晰自然语音提示,便利出行。
• GRU(门控循环单元):作为RNN改良变体,凭借门控机制管控信息流动,在语音识别、合成任务里精准捕捉语音时序信息,提升处理精度,让语音交互更流畅自然。
• WaveNet:专注生成高品质语音波形,为语音合成注入鲜活生命力,用于语音助手、有声读物,让合成语音媲美真人发声,带来极致听觉享受。
• Deep Voice:端到端构建,从文本直达语音生成,兼具高效与优质特性,适配智能客服、语音导航等多元场景,全方位满足语音需求。
• 强化学习领域
• 深度Q网络(DQN)及其扩展:深度学习与强化学习结晶,借深度神经网络逼近Q函数,指引智能体在复杂环境中试错寻优。在机器人路径规划中,帮助机器人依据环境线索规划最优路线;于简单策略游戏领域,助力智能体研习策略、提升游戏表现。
• 策略梯度算法(如A2C、A3C、PPO等):直接优化策略网络,依策略梯度更新参数,驱动智能体习得优策。在无人机控制方面,使其顺应环境与任务灵活调控飞行策略动作;于工业自动化控制进程,优化生产流程与设备操作,大幅提升生产效率与质量,赋能智能制造。
• DDPG(深度确定性策略梯度算法):专注连续动作空间强化学习,在机器人控制、自动驾驶等关键领域施展拳脚,赋能机器人、车辆最优控制策略,保障稳定高效动作执行,推动智能交通与机器人技术飞跃。
• A3C(异步优势演员 - 评论家算法):引入异步训练理念,显著提升学习效率与收敛速度,在游戏、机器人路径规划中表现卓绝,助力智能体闪电掌握最优策略,从容应对复杂任务挑战。
这一阶段,大数据爆发式增长为各类深度学习模型提供海量素材,云计算技术则给予模型训练强大算力支撑,协同深度学习技术突破,以神经网络为基石,借增加网络层数、神经元数量,配合反向传播等优化术,推动人工智能在各行各业蓬勃发展,持续革新人类生产生活方式。
应用场景
• 医疗保健:辅助疾病诊断、医疗影像分析、药物研发等,提高诊断准确性和研发效率,降低医疗成本,拯救更多生命。
• 金融服务:风险评估、欺诈检测、智能投顾等,优化金融机构的决策流程,提升客户服务质量,保障金融市场稳定。
• 制造业:预测性维护、质量控制、供应链优化,提高生产效率,减少设备故障停机时间,增强企业竞争力。
• 交通出行:自动驾驶技术改变交通模式,提高道路安全性和交通效率,减少人为驾驶失误导致的事故。
• 智能辅导与教学:通过对学生学习数据的分析,提供个性化学习路径、自动批改作业、智能答疑,提升学习效果,促进教育公平,降低教育资源不均衡的影响。
• 精准种植管理:依据土壤、气候、作物生长数据,实现精准灌溉、施肥、病虫害防治,提高农作物产量与质量,保障粮食安全,增加农民收入。
• 客户行为分析与营销:洞察消费者偏好、购买行为和市场趋势,制定精准营销策略,提高营销活动的转化率和投资回报率,促进企业销售增长。
• 内容创作与推荐:协助创作个性化音乐、影视、游戏等内容,根据用户兴趣精准推荐,提升用户娱乐体验,推动文化创意产业发展。
价值链
数据收集与整理是基础,为模型训练提供素材;
算法研发与优化是核心,决定人工智能的智能水平;
模型训练与部署将算法应用于实际场景;
应用开发与集成实现商业价值;
后续的监测与维护保障系统稳定运行和性能提升。
配套资源
• 数据资源:海量、高质量、多样化的数据,涵盖各行业领域,用于模型训练,需建立完善的数据采集、存储和标注体系。
• 计算资源:强大的GPU、TPU等计算芯片组成的集群,满足复杂模型训练的高算力需求,同时要有高效的云计算平台支持弹性计算。
• 人才资源:包括算法专家、数据科学家、工程师等,具备深厚的数学、统计学、计算机科学知识,以及行业领域知识,能够进行模型开发、优化和应用落地。
二、大模型发展洞察
发展历程与成熟度
大模型的发展在近年来呈爆发式增长,从早期的基础语言模型不断扩展参数规模和提升性能,如 GPT 系列模型不断迭代,国内的百度文心一言、阿里通义千问等也在快速跟进发展。目前,大模型在语言生成、对话交互、知识问答等方面已达到较高的成熟度,能够生成连贯、准确、富有逻辑性的文本,理解和回答复杂问题,但在一些复杂场景的适应性、可解释性等方面仍有待进一步突破。
大模型的发展历程从时间线最早期可分为以下几个阶段:
萌芽期(20世纪50年代 - 2005年)
• 成果:1950年阿兰・图灵提出图灵测试,探讨机器能否表现出与人类同等的智能;1956年约翰・麦卡锡提出 “人工智能” 概念,AI发展从基于小规模专家知识逐步走向机器学习;1980年卷积神经网络雏形CNN诞生,1998年现代卷积神经网络基本结构LeNet-5出现,推动机器学习从浅层模型向深度学习转变.
• 技术实现:此阶段主要基于传统神经网络模型,通过人工编写规则和语法,或利用简单的统计方法,从有限的数据中学习语言规律,如隐马尔可夫模型等,但受限于当时的计算机性能和数据量,模型规模小、功能有限.
卷积神经网络CNN
输入层
输入层(最左边的一层)表示输入到CNN的图像。因为我们使用RGB图像作为输入,所以输入层有三个通道,分别对应红、绿、蓝通道。
卷积层
卷积层的作用:就是提取图片每个小部分里具有的特征
假定我们有一个尺寸为6*6 的图像,每一个像素点里都存储着图像的信息。我们再定义一个卷积核(相当于权重),用来从图像中提取一定的特征。卷积核与数字矩阵对应位相乘再相加,得到卷积层输出结果。
池化层
池化层的输入就是卷积层输出的原数据与相应的卷积核相乘后的输出矩阵 池化层的目的:
• 为了减少训练参数的数量,降低卷积层输出的特征向量的维度
• 减小过拟合现象,只保留最有用的图片信息,减少噪声的传递
最常见的两种池化层的形式:
• 最大池化:max-pooling——选取指定区域内最大的一个数来代表整片区域
• 均值池化:mean-pooling——选取指定区域内数值的平均值来代表整片区域
全连接层
该层将网络中的三维层转换为一维向量,以拟合全连接层的输入进行分类。例如,一个5x5x2张量将被转换成一个大小为50的向量。网络的前一个卷积层从输入图像中提取特征,现在对特征进行分类,使用softmax函数对这些特征进行分类,这需要一维输入。这就是为什么平坦层是必要的。可以通过单击任何输出类来查看该层。
反向传播:形成闭环
分类结果(各种可能性的概率)出来之后,再 使用反向传播(backpropagation)算法计算所有概率的误差梯度, 并使用梯度下降算法更新所有滤波器值/权重和参数值,以最小化输出误差。
然后就又可以从头开始了,有了这种反馈,下一次的迭代会更加准确。
CNN 完整架构和工作流
卷积层 + 降采样层充当输入图像的特征提取器(Feature Extractors), 而全连接层充当分类器(classifier)。
(1)输入图像是小浣熊,因此小浣熊类的目标概率为 1,其他三个类的目标概率为 0,即
1. Input Image =小浣熊
2. Target Vector = [0, 0, 1, 0]
(2)卷积网络的训练过程大致如下:
1. 用随机值初始化所有 filter 和参数/权重。
2. 将训练图像作为输入,经过 forward propagation 步骤(卷积、 ReLU 和降采样以及全连接层中的前向传播),计算出每个类别的输出概率。(1)假设上面的小浣熊图像的输出概率是 [0.2, 0.4, 0.1, 0.3]。(2)由于第一个训练示例的权重是随机分配的,因此输出概率也是随机的。
3. 计算输出层的总误差(所有 4 个类的总和)
Total Error = ∑ ½ (target probability – output probability) ²
4. 使用反向传播计算网络中所有权重的误差梯度,并使用梯度下降算法 更新所有滤波器值/权重和参数值,以最小化输出误差。
o 权重根据它们对总误差的贡献按比例调整。
o 当再次输入相同的图像时,输出概率可能就是 [0.1, 0.1, 0.7, 0.1],更接近目标向量 [0, 0, 1, 0], 这意味着网络已经学会通过调整其权重/过滤器来正确分类该特定图像,从而减少输出误差。
o 过滤器数量、过滤器大小、网络架构等参数在步骤 1 之前都已固定,并且在训练过程中不会更改——只有过滤器矩阵和连接权重的值会更新。
5. 对训练集中的所有图像重复步骤 2-4。
以上就是训练 CNN 的步骤,结束之后 CNN 的所有权重和参数都已经过优化,能够正确地对训练集中的图像进行分类。
当一个新的(没见过的)图像被输入到 CNN 中时,网络将通过 forward propagation 计算输出每个类别的概率。 如果训练集足够大,网络将大概率将新图像分类到正确的类别中。
• 以上步骤已经过简化。
沉淀期(2006年 - 2019年)
• 成果:2013 年自然语言处理模型 Word2Vec 诞生,提出词向量模型,便于计算机理解和处理文本数据;2014年GAN对抗式生成网络诞生,推动深度学习进入生成模型研究新阶段;2017年谷歌提出Transformer架构,为大模型预训练算法架构奠定基础;2018年OpenAI和 Google分别发布GPT-1与BERT大模型,预训练大模型成为自然语言处理领域主流.
• 技术实现:以Transformer为代表的全新神经网络架构,利用自注意力机制实现高效信息捕捉和长距离依赖建模,可处理更复杂的语言任务,模型性能显著提升 ,为后续大规模预训练模型发展提供了技术支撑.
爆发期(2020年 - 2023年)
• 成果:2020 年OpenAI推出GPT-3,模型参数规模达1750亿,零样本学习任务性能大幅提升;2022年11月搭载 GPT-3.5 的ChatGPT问世,自然语言交互与多场景内容生成能力强大,引发广泛关注;2023年3月GPT-4发布,具备多模态理解与多类型内容生成能力.
• 技术实现:大数据、大算力和大算法完美结合,预训练数据更加丰富多样,同时引入强化学习技术,如基于人类反馈的强化学习等,对模型进行微调优化,进一步提升了大模型的预训练和生成能力以及多模态多场景应用能力.
多模态融合期(2024年及以后)
• 成果:2024年多模态大模型不断发展,如京东云言犀等在电商领域应用探索取得进展,推动了人工智能在具体场景下的行业应用 ;CLIP等模型将视觉和语言结合,ImageBind尝试实现文本、图像、音频等模态的跨域处理,提升了生成与理解能力.
• 技术实现:设计特定网络结构和学习机制,如交叉注意力机制,实现不同模态数据的有效融合;研发多模态预训练方法,让模型同时从多模态数据中学习知识,以提升对不同模态数据的理解和生成能力.
GPT 系列
• GPT-1:是生成式预训练Transformer系列的首个迭代,使用无监督学习,能从大量文本语料库中学习和适应,生成连贯且上下文相关的文本,但数据集较小,处理复杂语言结构的能力有限.
• GPT-2:在更大数据集上训练,可生成更细致多样的文本,语境理解能力更强,能生成类似人类风格的故事、诗歌等,但因可能被滥用于生成虚假内容,最初发布受限.
• GPT-3:在大数据集和更复杂算法基础上,展现出卓越的理解上下文、生成类人文本及执行编码任务等能力,应用广泛,引发了关于人工智能未来的讨论.
• GPT-4:建立在前身基础上,算法更复杂,对上下文和细微差别理解更深入,多语言处理能力提升,在避免偏见等方面也有进步,应用扩展到更复杂任务.
百度文心一言
文心一言的发展历程
在上述技术基础之上,文心一言有着清晰的发展脉络。2023年2月,百度官宣文心一言项目,仅一个月后,便正式发布并对外展示了其在文学创作、商业文案创作、数理推算等多个方面的能力,迅速引起了广泛关注。此后,文心一言持续迭代升级,2023年6月,文心大模型升级至3.5版本,实现了能力的全面升级,并且新增了插件机制,进一步拓展了应用场景和功能扩展性。
到了2023年10月,文心大模型4.0重磅发布,其理解、生成、逻辑和记忆等能力均有显著提升,展现出更强大的智能表现。而在2024年6月,文心大模型4.0 Turbo的发布,再次为文心一言注入新的活力,不断优化其性能,以更好地服务广大用户。
通过这样的整合,能够更有条理地呈现出文心一言的技术依托以及其在不同阶段的发展情况,便于读者清晰地了解这一产品的全貌。
文心一言的技术基础
文心一言是基于百度的文心知识增强大模型开发而成,背后依托了多个重要的模型及技术。
ERNIE系列模型:2019年3月,百度发布的NLP模型ERNIE,在中文任务中展现出超越BERT 的优势。后续在2019年7月发布的ERNIE 2.0预训练模型,进一步在英文任务方面取得了突破。ERNIE 3.0作为系列的升级版本,通过持续学习百余种不同形式的任务数据,实现任务知识增强,显著提升了零样本/小样本学习能力,其中鹏城-百度・文心(ERNIE 3.0 Titan)参数规模更是高达2600亿,为文心一言强大的语言处理能力奠定了坚实基础。
PLATO-XL模型:2021年9月,百度推出的全球首个百亿参数中英文对话预训练生成模型 PLATO-XL,为文心一言的开发积累了宝贵的经验,提供了重要的技术支撑。
知识增强技术:通过整合互联网文本、书籍、论文等多种数据源,构建起庞大且丰富的知识图谱,巧妙地将数据与知识相融合,使得文心一言具备更高的智能水平,在理解和生成自然语言方面表现更为出色,进而能够精准地回答各类用户提出的问题。
强化学习技术:借助与用户的交互以及所获取的反馈信息,持续对模型性能进行优化。这一技术让文心一言在对话过程中更加智能、更具个性化,使其能够依据不同的应用场景以及用户的多样化需求,灵活地进行微调和适配,从而在特定领域展现出更高的智能水准
性能表现
• 语言理解与生成能力:文心一言能够精准理解复杂语言结构和含义,生成流畅自然的文本,如准确总结《三体》核心内容并给出续写建议.
• 多模态能力:可理解和生成与图片相关内容,如根据素材图片生成广告海报、文案及营销视频.
• 多语言支持:支持中文、英文、日文等多种语言交流,打破语言障碍.
• 知识储备与更新:从数万亿数据和数千亿知识中融合学习,知识储备丰富,并定期更新知识库,确保信息准确及时.
• 性能优化:文心大模型3.5版本的训练速度比3.0版本提升2倍,推理速度提升17倍;文心大模型4.0的训练算法效率提升3.6倍,推理性能提升50倍.
技术实现
• 预训练与微调:基于海量文本数据预训练,学习通用语言知识,再根据具体任务微调,提高性能.
• 知识增强:结合知识图谱等外部知识,提升模型准确性和泛化能力,如回答事实性问题更准确.
• 检索增强:借助搜索引擎数据和算法,增强对各种主题的理解能力,为用户提供更准确可靠的答案.
• 多模态融合:融合图像、音频等多模态信息,提高模型理解能力,实现更丰富的应用场景.
• 人类反馈强化学习:通过人类反馈不断优化模型,使其更符合人类的语言习惯和认知方式.
功能应用
• 文学创作:能创作故事、诗歌、散文等多种文学形式,还可对文学作品进行分析、续写等.
• 商业文案创作:可撰写产品介绍、推广文案、营销文案、公司起名、slogan等各类商业文案.
• 数理逻辑推算:具备一定思维能力,能进行数学推演及逻辑推理,解答如 “鸡兔同笼” 等经典逻辑题.
• 智能办公辅助:提供邮件撰写、报告生成、会议纪要整理等功能,提高工作效率.
• 个性化推荐:根据用户历史行为和偏好,推荐相关文章、新闻等内容,增强用户体验.
开发平台
文心一言主要依托百度的多个平台进行开发、训练与应用拓展,以下是相关平台的具体描述:
飞桨深度学习平台
它主要的作用在于为人工智能相关的开发提供强大的技术基础。
作为百度自主研发的深度学习平台,在文心一言的整个生命周期中都发挥着关键作用。它能够高效地应对海量数据以及复杂的计算任务,无论是模型训练阶段对大量文本等数据的处理,还是后续的优化和部署工作,都提供了强有力的技术保障,有力地推动了模型的迭代以及性能的不断提升。
模型训练方面:能让开发者利用其框架、算法等,轻松开展深度学习模型训练,哪怕是超大规模、有着海量参数和复杂特征的模型,也可以顺利进行训练,突破训练难题。
技术支持方面:提供统一且易用的编程界面,方便开发者上手,同时具备高性能的推理引擎,使得训练好的模型可以顺利地部署到云端、边缘端、设备端等不同地方去应用,适配多种硬件,整体降低开发成本。
资源提供方面:有着丰富的开源模型库和算法资源,开发者可以从中选取合适的模型或者参考已有算法,快速搭建起满足不同行业、不同场景需求的人工智能应用。
文心智能体平台
文心一言的开发平台是文心智能体平台,其前身为灵境矩阵。它的核心作用聚焦在帮助开发者打造智能体,并助力其更好地应用与盈利。
开发便利方面:通过零代码、低代码的方式降低开发门槛,哪怕不懂复杂编程的人也能较容易地创建智能体。还能整合各种能力,像知识库、插件等,提升智能体性能,让智能体可以做更多事、更智能。
应用分发方面:构建起多渠道的分发体系,借助百度自己的众多产品以及和外部平台打通的路径,让开发出来的智能体有更多机会被展示、被使用,扩大其应用范围和影响力。
商业变现方面:提供清晰的赚钱途径,例如通过挂载链接、转化商品等具体方式,让开发者可以通过开发的智能体获取经济收益,激发开发者参与的积极性。
总的来说,飞桨深度学习平台侧重于提供技术手段助力模型开发与部署,文心智能体平台重点在利用这些技术打造智能体并推动其在市场中实现价值。
阿里通义千问
通义千问是基于阿里云自主研发的一系列模型开发出来的,主要包括以下几种:
Qwen系列模型:如2024年6月发布的通义千问Qwen2大模型,涵盖 Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B、Qwen2-72B 等不同尺寸的预训练和指令微调模型,其上下文长度支持进一步扩展,最高达128K tokens.
Qwen2.5系列模型:2024年云栖大会上发布的新一代开源模型Qwen2.5,全系列包含多个尺寸的大语言模型、多模态模型、数学模型和代码模型等,总计上架100多个模型。其中,Qwen2.5-Coder全系列模型于2024年11月13日正式开源,包括0.5B、1.5B、3B、7B、14B以及32B六个不同参数规模,且每种尺寸的模型均分为Base和Instruct两个版本.
多模态推理模型qvq-72b-preview:2024年12月发布的业界首个开源多模态推理模型,能够同时处理视觉和语言信息,在视觉推理能力上表现出色,甚至超越了OpenAI的o1 等现有技术.
Qwen-VL及其视觉AI助手Qwen-VL-Chat:2023年8月25日推出并开源的大规模视觉语言模型,能够识别不同分辨率和长宽比的图片,理解20分钟以上长视频,具备自主操作手机和机器人的视觉智能体能力.
Qwen-Math:2024年8月9日开源的新一代数学模型,包含1.5B、7B、72B三个参数的基础模型和指令微调模型,其旗舰模型Qwen2-Math-72B-Instruct在权威测评集MATH 上的得分超越GPT-4o等众多模型.
性能表现
语音理解与生成
2024年5月9日,阿里云正式发布通义千问2.5版本,其在理解能力、逻辑推理、指令遵循和代码能力等方面较 2.1 版本分别有 9%、16%、19%、10% 的提升,在opencompass基准测试中得分追平GPT-4 Turbo,中文处理能力行业领先,其1100亿参数开源模型 qwen1.5-110b性能超越meta公司的llama-3-70b模型.
2024年,通义千问视觉理解模型Qwen-VL-Max在多个多模态标准测试中超越Gemini Ultra 和GPT-4V,并在多家企业落地应用;通义千问代码大模型CodeQwen1.5-7B是HuggingFace代码模型榜单Big Code的头名选手,也是国内用户规模第一的智能编码助手通义灵码的底座.
多模态能力:Qwen2-VL-72B能识别不同分辨率和长宽比的图片,理解20分钟以上长视频,具备自主操作手机和机器人的视觉智能体能力.
知识储备与更新:Qwen2.5全系列模型都在18T tokens数据上进行预训练,相比Qwen2 整体性能提升 18% 以上,拥有更多知识、更强编程和数学能力.
语言支持:Qwen2.5支持中文、英文、法文、西班牙文等29种以上语言.
技术实现
通义千问基于大量的训练数据和复杂的模型结构构建,运用机器学习和深度学习技术,能够模仿人类的认知能力,进行自主思考和学习.
预训练与微调:基于海量数据预训练,学习通用语言知识,再根据具体任务微调优化性能,如Qwen2.5系列在不同尺寸模型上针对不同下游场景需求进行微调.
多模态融合:将文本、图像、音频等多模态信息融合,如Qwen2-VL模型实现视觉与语言的结合,提升对多模态内容的理解和生成能力.
模型架构优化:不断改进模型架构,提升性能和效率,如通义- M6从3亿参数基础模型发展到10万亿参数的全球最大预训练模型,并演进为通用统一大模型M6-OFA.
知识增强:结合知识图谱等外部知识,增强模型对特定领域知识的理解和应用,为用户提供更准确、更有深度的回答和解决方案.
功能应用
信息查询与知识问答:为用户解答各种问题,如历史、科学、技术等方面的知识.
内容创作:辅助创作故事、诗歌、文案等各类文本内容,还可进行代码编写、代码优化等工作.
办公辅助:支持文档处理,可解析多种文件格式,提取关键信息;还能进行音视频理解,如提取音视频的摘要、关键词等.
学习助手:解答学习中的问题,如中英互译、数学题、文言文翻译等.
趣味生活:提供高情商回复、健身计划制定等服务,还包括全民唱跳、涂鸦作画、照相馆等趣味玩法.
其他功能:具备深度搜索、PPT创作、指令中心、文档总结、音视频分析、格式转换、智能体创建、笔记库等功能.
开发平台
魔搭社区
为开发者提供开源模型的下载、使用和交流,推动模型的应用和创新,通义千问的多个开源模型都在魔搭社区发布,方便开发者获取和使用.
简要介绍:
魔塔社区是阿里巴巴达摩院旗下的AI研究社区平台,汇聚了顶尖AI人才,提供丰富的数据集、算法库和计算资源,帮助研究者快速开展AI项目研发。社区定期举办线上线下技术分享会等活动,促进成员交流学习。
同时,它还与阿里巴巴各业务部门紧密合作,推动AI技术的落地应用和商业化进程,面向AI领域的学者、工程师等各类人员,为不同层次的AI爱好者提供学习资源和合作机会.
百炼2.0
实现模型到应用全链条打通,提供丰富模型和易用工具箱,5到10行代码即可搭建企业级 RAG应用,助力企业快速开发和定制大模型应用.
简要介绍:
百炼2.0是阿里云推出的一站式大模型及智能体服务平台,为政企客户构建,可基于公共云 VPC和专有云部署,支持多模态、非结构数据的解析。它预置了通义7B到72B多尺寸大语言基础模型及多模态大模型,兼容主流模型框架,支持三方大模型自定义接入。
其底层算力兼容多种环境,并支持多芯异构的算力调度及多租户模式下的算力、模型、数据隔离与共享,还具备高性能分布式训练、基于软硬协同的推理加速等能力,可帮助政企客户安全快速地开发大模型.
PAI平台
提供包括语音、图像、自然语言处理等多个领域的AI能力和算法,以及软硬件加速服务,大幅提升AI开发和AI资源管理的效率.
阿里通义千问的开发涉及多个平台,阿里云的PAI平台以及DashScope平台是重要组成部分。具体介绍如下:
阿里云PAI平台概述
PAI是AI Native的大模型与AIGC工程平台,具备强大且全面的功能,旨在助力开发者实现大模型工程化,打造高性能、高稳定的企业级应用。
功能模块介绍
它为通义千问的开发提供了多个关键的功能模块,涵盖数据集管理、算力管理以及模型工具链等。其中,内置的100多种大模型最佳实践,能够覆盖从数据准备、模型开发、训练,再到部署的完整流程,极大地便利了开发者进行大模型相关的开发工作。
对通义千问训练的支持
通义千问大模型正是依托阿里云的PAI平台进行开发训练的。PAI平台为其训练过程提供了坚实的技术后盾,其底层采用hpn7.0新一代AI集群网络架构,有着卓越的性能表现。
该架构可支持高达10万卡量级的集群可扩展规模,在超大规模分布式训练时,加速比能够高达96%,这意味着在大模型训练任务中,它可以帮助节省超过50%的算力资源,这样的性能在全球范围内处于领先地位,有力地保障了通义千问大模型训练的高效与优质。
阿里云DashScope平台
开发者注册阿里云账号并完成实名认证后,可在DashScope控制台创建API Key,再安装对应开发语言的SDK,通过调用通义千问API来开发应用.
该平台通过灵活、易用的模型API接口,为AI开发者提供丰富可集成的模型能力,让AI应用开发更简单。开发者可通过其API直接集成通义千问等大模型的强大能力,也可对模型进行训练微调,实现模型定制化,此外还可进行模型部署管理等.
阿里云DashScope平台与PAI平台存在紧密关系,具体如下:
功能互补
PAI平台:提供包含数据集管理、算力管理、模型工具链等在内的功能模块,覆盖数据准备、模型开发、训练、部署的全流程服务,侧重于大模型开发训练的工程化能力.
DashScope平台:基于“模型即服务” 理念,提供模型推理、定制、部署管理等功能,主要聚焦于为开发者提供灵活、易用的模型API接口及相关服务,以满足不同业务场景下对模型的直接应用和简单定制需求.
协同工作
在通义千问的开发中,PAI平台为其训练提供强大的工程能力和技术支持,如采用hpn7.0 新一代AI集群网络架构,可缩短训练时间、节省算力资源 。训练好的通义千问模型可通过 DashScope平台以API的形式对外开放,供开发者直接调用或进行微调定制等,从而实现模型能力的快速应用和落地.
生态关联
PAI平台:牵头发起了国内最大的AI模型社区ModelScope魔搭,集聚众多AI开发者和优质AI模型,为PAI平台的使用者提供了丰富的模型资源和交流合作机会,推动了AI技术的共享和发展.
DashScope平台:依托业界各领域的优质模型和阿里云强大的基础设施,为开发者提供广泛的模型选择,其与PAI平台及ModelScope等共同构成了阿里云丰富的AI生态体系,促进了 AI 技术在不同领域的应用和创新.
豆包
豆包是基于字节跳动自研的云雀模型开发出来的,2024年5月15日,字节跳动在春季火山引擎FORCE原动力大会上正式将其更名为豆包大模型,并发布了豆包大模型家族。该模型家族包含以下部分 :
通用模型:有豆包通用模型pro和豆包通用模型lite两个版本。豆包通用模型pro是专业版,支持128k长文本,全系列可精调,具备更强的理解、生成、逻辑等综合能力,适配问答、总结、创作、分类等丰富场景;豆包通用模型lite是轻量版,对比专业版能提供更低token成本、更低延迟,为企业提供了灵活经济的模型选择。
细分领域模型:包括豆包・角色扮演模型、豆包・语音识别模型、豆包・语音合成模型、豆包・声音复刻模型、豆包・文生图模型、豆包・Function Call模型、豆包・向量化模型,这些模型针对不同的具体应用场景,为用户提供了更加精准和专业的功能。
性能表现
2024年5月15日首次亮相,7个月后其通用模型doubao-pro-1215综合能力较5月提升 32%,已全面对齐gpt-4o,在数学、专业知识等部分复杂场景任务中表现甚至更好,且能一次轻松阅读 “上百篇” 学术报告,每百万tokens处理延迟仅15秒.
语言理解与生成:豆包通用模型Pro支持128k长文本,理解、生成及逻辑能力强,全系列可精调,适配多种场景。2024年12月,最新版豆包通用模型Doubao-pro-1215 综合能力较5月提升32%,已全面对齐GPT-4o,在数学、专业知识等复杂场景任务中表现更优.
多模态能力:2024年12月发布的豆包视觉理解模型Doubao-vision,可融合视觉与语言多感官深度思考和创作,在十多个主流数据集上比肩Gemini 2.0与GPT-4o;豆包文生图模型不断迭代,支持通用图像编辑能力.
语音处理:豆包语音模型可听懂20种以上方言夹杂的对话,能边听边思考,并在会话中表达情感,保留吞音、口音等人的习惯,交互中可随时被打断.
知识储备与更新:豆包大模型日均处理1200亿tokens文本,生成3000万张图片,日均tokens使用量增长迅速,至2024年12月已超4万亿,其调用在多个场景都有显著增长,推动模型不断优化.
性价比:豆包大模型推理定价大幅低于行业价格,如通用模型Pro-32k版价格仅为同规格模型的1%,tpm限额高达同规格模型的2.7倍到8倍.
技术实现
依托先进的机器学习和深度学习算法,如生成对抗网络(GAN)和自然语言处理(NLP)技术,还通过提升模型稀疏度、引入强化学习等优化模型架构,提升了理解精度和生成质量.
预训练与微调:基于海量数据预训练,学习通用语言知识,再根据具体任务微调,如豆包通用模型针对不同下游场景需求进行微调优化.
模型架构优化:通过提升模型稀疏度、引入强化学习等,提升理解精度和生成质量,并实现性能与效率的平衡.
多模态融合:将文本、图像、语音等多模态信息融合,如豆包视觉理解模型、文生图模型等实现了视觉与语言、文字与图像的结合.
知识增强:结合STRING等上下文关联数据算法和模型加速优化,提升模型利用海量外部知识的能力.
功能应用
具备自然语言处理、语音对话、视觉理解、文生图、3D生成等多种功能,可应用于教育、广告、电子商务、金融、汽车、消费等多个行业.
内容创作:可进行大纲生成、营销文案生成等文字创作,还可进行图像生成、音乐创作等,为创意设计、电商商品展示等提供支持.
知识问答:集成知识库,高效解决生活、工作等各类场景中的问题.
人设对话:角色扮演能力符合设定且具备多轮记忆,可应用在社交陪伴、虚拟主播等人设对话场景.
代码生成:具备专业的代码生成能力和知识储备,可高效辅助代码生产场景.
行业应用:通过与不同行业合作,为零售、汽车、教育等多个领域提供定制化解决方案,如打造零售智能购物助手、提升汽车智能座舱体验等.
开发平台
豆包的开发平台主要是火山引擎,其为开发者提供了一系列工具和资源助其开发应用,而火山方舟和HiAgent是火山引擎旗下两个重要的子平台。
火山方舟
为企业提供一站式AIBot开发平台,具备任务创建、配置、监控和管理等功能,并支持多种AI模型的调用,可帮助企业快速构建AI系统,降低开发门槛.
火山方舟是火山引擎旗下的大模型服务平台,于2023年6月28日发布,2024年6月开始面向个人开发者提供服务。它集成了多家AI科技公司及科研院所的大模型,为企业和个人开发者提供模型精调、评测、推理等全方位的平台服务,即MaaS.
其具有以下特点 :
丰富的模型资源:用户可在模型广场查看并体验各模型的实际表现效果,探索其先进能力。
专业的开发功能:通过专业的训练、推理、评测与精调功能,用户可快速构建并使用专属大模型服务,还可利用丰富插件与完整工具链,让AI应用更易落地。
强大的算力保障:具备充沛的公有云GPU资源池,创建精调模型接入点后瞬时可用,可分钟级完成千卡扩缩容,保障超大流量下的业务稳定。
安全可信架构:全周期安全可信架构易理解,访问可控、可审,提供内容风险识别、多重数据加密及安全隔离等,基于互信计算安全架构,实现模型和数据全生命周期安全增强保护。
HiAgent
作为AI中台开发工具,支持企业基于自身业务场景,灵活自主打造适配的AI应用,全系列语言模型均可精调,满足企业个性化业务需求.
HiAgent是火山引擎于2024年12月18日发布的企业专属AI应用创新平台1.5版本,致力于助力企业业务人员全员创新,沉淀资产打造AI能力中心。
具有以下优势:
应用模板丰富:提供超100个行业应用模板,帮助企业迅速锁定价值场景,快速匹配并探索适合自身业务的AI应用方向。
技术支持强大:支持多种模型部署模式,通过GraphRAG构建精准问答体系,还可通过插件与工作流赋予智能体多样技能,打造业务流。
安全保障可靠:采用数据不出域和安全平台的双重保障,确保企业数据资产安全,有效应对隐私风险。
价值点
• 通用智能能力:具备处理多种自然语言任务的能力,如文本摘要、翻译、创意写作等,减少对特定任务模型的开发需求,提高开发效率。
• 知识融合与推理:整合大量知识,能够在不同知识领域间进行推理和关联,为用户提供全面深入的知识解答,推动知识创新和应用。
• 对话交互升级:实现更自然、流畅、智能的人机对话,提升智能客服、智能助手等产品的用户体验,促进人机协作的发展。
配套资源
• 超大规模数据:除了数量巨大,还需要对数据进行精细的预处理和筛选,保证数据的高质量和领域覆盖广泛性,以支撑模型的广泛适用性。
• 超强算力设施:专门为大模型训练优化的计算架构,能够高效处理海量参数的训练任务,且具备快速的分布式计算能力和存储能力,如英伟达的 DGX 系列超算平台。
• 专业的算法团队:熟悉大规模模型训练算法,包括模型架构设计、优化算法、微调技术等,能够不断改进模型性能,解决训练过程中的技术难题,如梯度消失或爆炸、过拟合等问题。
国内外项目
• 国外:
1、OpenAI的GPT系列在全球具有广泛影响力,引领了大模型的发展潮流,被广泛应用于各类自然语言处理任务和对话系统中;
2、谷歌的BERT及其后续模型在语言理解任务上表现出色,推动了自然语言处理技术的进步。
• 国内:
1、百度的文心一言涵盖多种语言模型和应用,为企业和开发者提供丰富的自然语言处理能力;
2、华为的盘古大模型在自然语言处理、图像生成等多个领域发力,服务于多个行业场景;
3、字节跳动的云雀模型也在不断发展,为其内容创作和智能推荐等业务提供支持。
大模型运行开发平台
• 华为云ModelArts:一站式AI开发平台,可创建和部署模型,管理全周期AI工作流。提供端到端模型生产线,DataOps+MLOps+DevOps无缝协同,开发效率高。支持万亿参数模型训练,有高性价比AI算力、稳定可靠的架构,还对接AI Gallery,可便捷使用开源大模型等预置资产.
• 百度飞桨PaddlePaddle:百度自主研发的深度学习平台,为文心一言等模型的训练和开发提供了技术支持,其功能丰富,涵盖模型训练、评估、预测等全流程,支持多种深度学习算法和架构,具备高效的分布式训练能力和灵活的硬件适配性,可帮助开发者快速搭建和优化大模型应用.
• 阿里云机器学习平台PAI:提供了从数据处理、模型训练到模型部署的一站式服务,支持大规模数据的分布式训练,拥有丰富的算法库和预训练模型,具备高效的模型推理能力和灵活的资源调度,可满足不同企业和开发者的需求,助力大模型在各领域的应用和创新 。
三、人工智能与大模型关联性
大模型是人工智能发展的重要成果和技术突破,它拓展了人工智能的能力边界,基于深度学习架构,通过大规模数据训练,提升了语言理解、生成等通用智能任务的表现。
人工智能则为大模型提供了广阔的应用场景和发展方向,大模型的能力通过人工智能的应用框架得以落地,两者相互促进、相辅相成,共同推动智能技术向更高水平发展,如在智能客服中,大模型提升了对话理解和回答能力,而人工智能的工程化实现将其整合到实际客服系统中,服务于企业客户服务流程。
起源基础
人工智能的发展源远流长,早期是从简单的程序和算法开始,比如一些基础的数学运算自动化、简单的逻辑判断程序等,这些为后续更复杂的智能技术发展积累了经验和技术基础。随着时间推移,数据量逐渐增多,计算机的运算能力不断增强,算法也持续改进,这一切就像是为一座大厦打下了坚实的根基,使得构建大规模模型成为可能,从而孕育出了大模型。
能力提升
大模型出现后,给人工智能带来了质的飞跃。以语言处理能力为例,以前的人工智能在理解和生成语言时较为生硬和局限,而大模型凭借其海量的参数和大规模的数据训练,可以精准地理解语义、分析语境,生成自然流畅且富有逻辑的文本,无论是回答专业问题、撰写创意文案,还是进行日常对话交流,都更加得心应手。这就好比给人工智能装上了一个超级大脑,极大地拓展了它的智能边界。
应用落地
人工智能则像是一座桥梁,将大模型的强大能力与现实世界的各种场景连接起来。
例如在电商领域,通过人工智能搭建的推荐系统,利用大模型对商品信息和用户行为数据的深度理解,为用户精准推荐他们可能感兴趣的商品,提高购物转化率,为商家创造更多销售机会;
在医疗领域,借助人工智能的工程化能力,把大模型的疾病诊断辅助能力整合到医疗系统中,医生可以利用大模型对医疗影像、病历等数据的分析结果,更准确地判断病情,制定治疗方案,拯救更多生命。
相互促进
一方面,大模型的发展需求促使人工智能领域的技术不断革新。为了训练出更强大、高效的大模型,研究人员不得不研发更先进的计算技术,如分布式计算架构来加速训练过程,优化神经网络算法以提高模型性能,这些新技术又会被应用到其他人工智能场景中,推动整个领域向前发展。
另一方面,人工智能在各个行业的广泛应用产生了海量的数据,这些数据成为大模型进一步学习和优化的宝贵资源,使得大模型能够不断提升自己的能力,从而可以处理更复杂多样的任务,两者就这样相互推动,形成一个良性循环,逐渐渗透到人们生活的各个角落,让生活变得更加智能和便捷。
四、构建多模型运行平台的能力要求
模型管理与调度
能够高效管理多种不同架构和用途的大模型,实现模型的快速加载、切换和并行运行,根据任务需求灵活分配计算资源,优化模型运行效率,确保不同模型之间的隔离性和稳定性,避免资源冲突和性能干扰。
数据整合与预处理
整合来自不同数据源的数据,对其进行清洗、标注、格式转换等预处理操作,使其适配不同大模型的数据输入要求,建立统一的数据接口和管理系统,保障数据的一致性和准确性,为模型训练和推理提供高质量的数据支持。
接口与集成能力
提供通用、易用的接口,方便与企业内部的其他业务系统(如 ERP、CRM 等)进行集成,实现大模型能力在各个业务环节的嵌入,如在营销系统中嵌入推荐模型、在客服系统中嵌入对话模型,确保系统之间的无缝对接和数据交互流畅性。
安全与隐私保护
具备强大的数据加密、访问控制、模型安全审计等功能,保护企业数据和模型资产的安全,遵守相关法规政策,防止数据泄露和模型被恶意攻击或滥用,特别是在处理敏感数据(如医疗、金融数据)时,要确保隐私保护的合规性。
五、成熟落地场景与技术推荐
智能客服
结合大模型的语言理解和生成能力,实现智能问答、对话引导、问题解决等功能,提高客户服务效率和满意度。技术要点包括对话管理、意图识别、情感分析等,利用预训练的大模型进行微调,快速搭建智能客服系统,同时结合知识图谱技术,增强客服系统的知识储备和问题解决能力。
内容创作与营销
辅助撰写广告文案、新闻稿、社交媒体内容等,根据用户画像和营销目标生成个性化、有吸引力的内容。采用自然语言生成技术,结合大模型的创意生成能力,利用大数据分析进行内容创意启发和效果评估,优化内容创作策略,提高营销效果和品牌影响力。
智能制造中的预测性维护
通过对生产设备的传感器数据进行分析,利用大模型预测设备故障,提前安排维护计划,减少停机时间。技术上运用时间序列分析、异常检测算法,结合大模型对复杂数据模式的学习能力,建立精准的设备故障预测模型,同时与企业的生产管理系统集成,实现维护计划的自动化安排和执行。
技术人才配置
• 机器学习工程师:负责模型的训练、优化和微调,深入研究算法原理,不断改进模型性能,解决模型训练过程中的技术难题。
• 数据工程师:专注于数据的采集、存储、处理和标注,构建高效的数据管道,确保数据质量和可用性,为模型训练提供坚实的数据基础。
• 软件工程师:承担平台的架构设计、开发和集成工作,将大模型能力转化为实际可用的软件系统,实现与其他业务系统的无缝对接,保障系统的稳定性和可扩展性。
• 领域专家:如医疗、金融、制造业等领域的专业人士,提供行业知识和业务逻辑,指导模型的应用方向和场景适配,确保技术与业务的深度融合,提升解决方案的实用性和价值。
- 点赞
- 收藏
- 关注作者
评论(0)