×

2025人工智能算力及应用

hqy hqy 发表于2025-03-01 13:25:13 浏览20 评论0百度已收录

抢沙发发表评论

芯片和服务器:向高性能与高效能方向演进,重视开放多元体

系建设

存储和网络:分布式存储与全闪存提升性能,先进网络架构优化数据访问速度

可持续数据中心:液冷技术成为关注重点,聚焦智能算力散热革命

边缘计算:大模型的部署向边缘迁移,智慧边缘加速模型推理

算法和模型:算法创新与模型迭代解锁更高算力利用率,实现卓越性能与效率

人工智能算力服务:构建全栈服务体系,加速大模型应用落地

应用:积极探索人工智能应用场景,加速智能对于业务发展的价值转化

芯片和服务器:向高性能与高效能方向演进,重视开放多元体系建设

大模型兴起和生成式人工智能应用显著提升了对高性能计算资源的需求,人工智能服务器作为支撑这些复杂人工智能应用的核心基础设施,市场规模也持续扩大。根据IDC报告,2024年中国人工智能算力市场规模达到190亿美元,2025年将达到259亿美元,同比增长36.2%,2028年将达到552亿美元。随着模型的成熟以及生成式人工智能应用的不断拓展,推理场景的需求日益增加,推理服务器的占比将显著提高。IDC数据显示,预计到2028年,推理工作负载占比将达到73%。

随着大模型训练和推理任务的复杂性和规模不断增加,人工智能服务器朝着更高性能和更高效能方向演进。人工智能服务器在算力提升、功耗优化和硬件加速等领域实现突破,为大规模数据处理和执行深度学习等复杂计算任务提供了强有力的支撑。人工智能服务器不断集成更多的智能管理和优化功能。例如,通过引入智能调度和资源管理系统,可以动态分配计算资源,优化任务执行效率,减少资源浪费。这些功能的提升,使得人工智能服务器能够更好地支持大规模并行计算和实时数据处理,满足大模型训练和推理的高性能需求。

人工智能服务器的生态系统建设也将成为市场发展的关键因素,硬件与软件的协同作用将进一步提升算力效率和应用场景的适应性。企业将在技术研发、定制化解决方案和生态建设上持续投入,以满足日益复杂的行业需求。

人工智能芯片作为算力产业的关键基础设施要素,呈现多元化发展趋势。多元化的人工智能芯片可针对不同的应用场景进行优化设计,例如,针对深度学习训练的GPU和TPU,能够提供大规模矩阵运算的高效支持;而针对推理任务的ASIC,则在功耗和延迟方面表现出色,适合部署在边缘计算设备中。此外,人工智能芯片在技术创新、生态系统建设和产业发展等多个方面展现出蓬勃发展的态势。在技术方面,中国人工智能芯片针对深度学习优化架构设计,推进架构创新,并重视软硬件协同优化,通过编译器、运行时环境、开发工具链等一系列配套软件的支持加速硬件潜能的发挥。在生态系统建设方面,诸多厂商推出开放平台,提供丰富的API接口和预训练模型库,降低使用门槛,并构建云-边-端一体化解决方案,形成完整的计算链条;活跃的技术社区加速知识共享和技术交流,帮助厂商改进产品和服务;此外,人工智能芯片企业还与其他行业领导者建立战略合作伙伴关系,共同探索新的应用场景和服务模式。未来全球人工智能芯片市场将持续扩大,中国作为重要市场之一,也将迎来高速增长期。政府出台一系列促进产业发展的扶持政策,包括资金投入、税收优惠和知识产权保护等。在大力政策支持下,芯片厂商正在加速新技术研发,推进产业链上下游联动,推动人工智能芯片技术的突破和广泛应用。

总的来说,中国推动算力产业的转型与市场发展,通过人工智能服务器和人工智能芯片的双轨并行发展,正在构建一个高性能、多元化和高效的算力基础设施体系。这一体系不仅能够满足当前大模型训练和推理所需的爆发式增长的算力需求,还为未来人工智能技术的创新和应用提供了坚实的基础。随着算力产业的不断发展,中国在全球人工智能领域的竞争力也将进一步提升,推动智能化社会的全面到来。

存储和网络:分布式存储与全闪存提升性能,先进网络架构优化数据访问速度

随着人工智能技术的飞速发展,企业对数据存储的需求达到了前所未有的高度。IDC数据显示,2024年全球企业在人工智能存储领域的支出达到67亿美元,2025年将增至76亿美元,2028年有望达到102亿美元,2023-2028年五年年复合增长率为12.2%。

大模型训练和生成式人工智能技术的应用对存储市场产生了显著影响。首先,算力的增强推动了对存储性能需求的升级。存储系统需要具备更大的容量、更快的读写速度、更低的延迟、更高的可靠性和更佳的灵活性,以支持高效的数据处理与模型训练,同时适应不断增长的数据量和扩大模型规模的需求。在这个过程中,分布式存储架构凭借其性能线性扩展的优势,成为训练场景的主要选择。随着算力集群规模扩大,存储带宽需相应提升,传统集中式存储和串行运算模式已难以满足需求。分布式存储与并行运算的结合,为人工智能领域提供了新的解决方案。分布式存储系统通过将数据分散在多个物理节点上,提供冗余备份、无限扩展性和并行访问,提升数据可靠性和容错性,系统可以迅速从其他节点恢复数据,确保应用的连续运行;支持PB级甚至EB级数据扩展,满足人工智能模型对海量数据的需求;支持并行访问,多个节点可以同时读取和写入数据,降低数据访问延迟。

其次,存储系统需要能够灵活应对复杂的数据治理和应用需求。当训练出的大模型应用于具体行业时,需要将行业内的各种数据与大模型结合,而这些海量数据来源广泛、类型多样且分布在不同地点,企业需要高效完成这些数据的汇集和预处理。除分布式存储架构外,多协议支持将成为关键。存储系统需要支持多种数据访问协议以及具备无损互通非结构化数据的能力,兼容不同数据格式和传输方式,从而提高数据管理的效率和灵活性,满足复杂应用场景的需求。

未来,随着推理工作负载的增加,存储系统将更加注重快速读写数据、实时响应推理任务、支持大量并发访问以及确保数据的高可用性和完整性。通过采用NVMe SSD等高性能存储介质,结合数据缓存和预取机制,设计灵活的扩展方案,并实施智能数据管理和优化策略,可以帮助企业提高存储利用率和性能,优化数据治理,加速数据价值挖掘。

全闪存存储方案凭借其卓越的数据传输速度、更低的能耗以及更高的单位物理空间容量,在人工智能市场中展现出强劲的增长势头。特别是QLC SSD(四层单元固态硬盘),预计将在以读取为中心的工作负载及应用程序中,以及缓存和分层架构的企业SSD市场中占据越来越重要的地位。PCIe接口协议正逐步占据更大的市场份额,代表下一代高性能网络技术的NVMe over Fabric(NVMe-oF)也开始崭露头角。NVMe-oF能够提供服务器与网络存储间极低的访问延迟,从而充分发挥NVMe SSD的优势并加速其普及。

生成式人工智能和大模型的发展带来了计算集群规模的提升,从万卡扩展到十万卡,大模型在训练和推理过程中会生成大量的临时数据,这些数据需要在不同计算节点之间快速传输和处理:基于远程直接内存访问(RDMA)技术可实现数据在设备间的直接传输,而不用经过传统网络协议,从而提高传输速度;在数据中心层面,400G以太网技术已经开始在新型数据中心得以采用。面对不断增长的数据传输需求,需要全面提升网络运力效率,构建面向人工智能的运力体系,该体系应具备如下特征:

高带宽:高带宽能够显著提升数据传输速度,减少训练和推理时间,提高整体效率。目前网络速率已经可达到400G/800G,1.6T是超大规模数据传输和高效能需求的下一步计划,未来行业目光将投向3.2T乃至更高速率,以应对数据中心内部服务器之间和跨数据中心场景下的数据互联。

低延迟:低延迟对于实时数据处理和快速响应至关重要,能够显著提升系统的性能和用户体验。RoCEv2的出现,使AIGC集群可以基于RDMA技术扩展到超大规模,较传统以太网的通信方式大大降低了延迟。

高可靠:高可靠性能够保证数据传输的稳定性和连续性,避免因网络故障或升级导致数据丢失和服务中断。从传输层的冗余路由和智能流量控制,到链路层的链路聚合与自动故障切换,再到物理层的硬件冗余设计和环境监控防护,通过多层次的设计和技术手段,确保网络系统和数据传输在任何情况下都能稳定、连续地运行。

端网协同:在大规模人工智能计算中,端网协同至关重要,能够显著提升数据传输的效率和可靠性,减少数据传输过程中的延迟和丢包率。新一代以太网技术的优化将不再局限于单一的网络设备或组件,而是覆盖数据端到端流程,从交换设备到网卡,再到软件端的全面优化。通过诸如智能网卡等技术的应用,减轻主处理器的负担,提高整体系统性能。

负载均衡:随着网络规模的扩大,传统的路由技术已难以满足需求。新的路由技术需要引入先进的负载均衡算法,确保数据流在网络中的均匀分布,避免某些节点过载。同时,这些算法还需具备高效的路径选择能力,以最优路径传输数据,减少延迟。

拥塞控制:在大规模网络中,拥塞是一个常见现象。拥塞控制技术通过监测网络流量,动态调整数据传输速率。先进的拥塞控制算法能够快速响应网络状态变化,避免因网络拥塞导致的数据传输延迟和丢包,确保数据传输的稳定性和高效性。

全网可视:网络可视化技术提供了对网络状态的实时监控和管理能力。通过可视化工具,网络管理员可以直观地了解网络拓扑、流量分布和性能指标,及时发现和解决潜在问题,优化网络性能。

可持续数据中心:液冷技术成为关注重点,聚焦智能算力散热革命

数据中心作为现代信息技术的基础设施,其能源消耗问题日益受到关注。随着人工智能、大数据和云计算等技术的快速发展,数据中心的能耗不断增加,对环境和经济都带来了巨大压力,可持续性发展成为行业关注的焦点。

为了解决人工智能工作负载带来的功耗和热挑战,业界积极探索多种形式的技术手段,共同研发更高效的能源管理和数据冷却技术,推动算力设施在计算节点应用如冷板、相变浸没液冷服务器、处理器垂直供电、超高转化率大功率氮化镓(GaN)电源等解决方案,提升算、电综合利用率;在机柜层面采用超高密度液冷机架实现集中部署,并融入创新的基于人工智能的智能控制技术,提高运维效率,通过落实“三总线盲插技术”、毫秒级多重漏液监测、负压式CDU等手段保障机柜运维安全;此外,数据中心积极引入可再生能源、智能能效管理系统实现绿色化、低碳化转型,加强电力与算力在绿色技术创新方面的合作。

液冷技术的发展是实现这一转型的重要技术突破,它可以显著降低数据中心的总能耗,提高计算密度,加速训练和推理的速度,提高算力利用率。该技术可将数据中心PUE值降至1.1以下,并减少了散热设备所需的空间,这不仅节省了空间资源,还在相同面积内实现了更多的服务器配置,极大提高了数据中心的效率和性能。此外,随着技术的不断进步,液冷技术还将与数据中心的其他技术相结合,如人工智能、物联网等,实现更加智能化、自动化的散热管理,推动数据中心向更加绿色、可持续的方向发展。IDC预计,2028年中国液冷服务器市场将达到105亿美元,2023-2028年五年年复合增长率将达到48.3%。

边缘计算:大模型的部署向边缘迁移,智慧边缘加速模型推理

边缘计算将在更广泛的IT战略中发挥关键作用。人工智能将逐步向边缘侧或端侧倾斜,未来企业级大模型有可能将越做越小,成为可搭载于边缘侧的计算设备,从而促进大模型在各种边缘场景下发挥更大的价值。IDC研究显示,生成式人工智能正迅速成为企业在边缘计算环境中最广泛应用的工作负载

随着人工智能技术的日益成熟,其应用场景也在不断拓展。然而,传统的云端人工智能处理模式在面临海量数据、实时性要求高以及网络带宽限制等挑战时,显得力不从心。因此,人工智能向边缘侧或端侧的迁移成为了一种必然趋势。边缘人工智能通过直接在数据源头进行处理和分析,不仅减少了数据传输的延迟和成本,还有效保障了数据隐私和安全,为智能应用的广泛部署提供了可能。

在这一背景下,企业级大模型的设计和应用也迎来了新的变革。为了适应边缘侧的计算环境和资源限制,大模型正朝着更加精简、高效的方向发展。通过模型压缩、剪枝、量化等技术手段,大模型能够在保持较高精度和性能的同时,显著减小模型体积和计算复杂度,从而轻松搭载于边缘侧的计算设备。这一变化不仅降低了部署成本,还提高了模型的灵活性和可扩展性,为边缘智能应用的快速发展奠定了坚实基础。

边缘计算通过本地化数据处理、减少网络延迟、保障数据隐私、优化资源分配和增强系统弹性等多方面的优势,显著提高了大模型的算力效率和实用性。首先,本地化数据处理使得大模型能够直接在数据源头进行实时分析,减少了数据传输的延迟和成本;其次,通过减少网络延迟,边缘计算确保了智能应用的即时响应和高效运行;同时,数据隐私的保障也为企业级应用提供了更加安全、可靠的环境;此外,资源分配的智能化优化和系统弹性的增强,使得边缘计算能够根据实际情况动态调整资源分配,最大化利用资源,确保大模型在各种场景下都能发挥出最佳性能。

算法和模型:算法创新与模型迭代解锁更高算力利用率,实现卓越性能与效率

算法是驱动是人工智能发展的核心引擎,决定了应用的智能上限,也牵引着算力的发展。2024年,o系列、Llama3、通义千问、R1等大模型不断升级,尤其是DeepSeek R1系列模型的发布,正是基于算法层面的极大创新,对中国乃至全球的人工智能产业带来深刻变革。一方面DeepSeek采用了大规模强化学习、多头注意力机制等算法创新,智能水平在美国高中数学竞赛邀请赛AIME、博士水平科学问答等测试中榜单上接近甚至超过了OpenAI的o1模型;另一方面,DeepSeek R1算法的创新也带来训练和推理阶段算力消耗的降低,训练算力只有Llama3的1/10,推理阶段缓存数据量降低了50倍,在算力约束的条件下进行AI算法创新提供了一个全新思路,吸引了全球开发者,7天实现了活跃用户数破亿。

多模共存,行业和企业落地成为重点。中国大模型发展呈现多模型共存的繁荣景象,市场上既有通用型大模型,也有针对特定行业或应用的专业模型。多样化生态不仅满足了不同应用场景的需求,也促进了技术进步和市场细分。随之而来的则是大模型的场景化落地需求快速增长,企业普遍希望能够根据行业数据或是内部数据对于模型进行微调,以提高模型的针对性和有效性,增强数据安全与隐私保护,提升模型在特定应用场景中的性能,从而更好释放大模型的价值。

提高模型架构效率与增加原始计算能力同样重要。杰文斯悖论指出当技术进步提高了资源利用效率时,该资源的总消耗量反而可能会增加,这一规模同样适用于人工智能领域。更经济的先进模型将推动AI需求,增加效率——而不仅仅是原始计算能力——可能是真正的竞争优势,更多公司致力于开发在不要求过多计算资源的情况下平衡性能和效率的模型。大模型的压缩、量化、蒸馏技术可以在不牺牲模型精度的前提下,显著提升推理吞吐量,减少内存、算力等关键资源的消耗,提高模算效率,降低计算成本。合适的压缩剪枝技术可减少模型参数数量50%以上,而模型性能损失很小。对于特定应用场景,采用专用的硬件与软件进行加速,能够实现高效加速并提高大模型在训练和推理的效率。同时,这些优化措施也提升了企业大模型的投资回报率,加速人工智能技术的应用和商业化进程。

端侧大模型和人工智能推理蓬勃发展。端侧模型以其较低的参数量和高效的计算能力,使得在资源受限的人工智能PC、智能手机等设备上运行复杂的人工智能模型成为可能。这些模型不仅能够处理文本,还在图像和语音识别等多模态领域展现了巨大的潜力,同时依托人工智能推理的发展,可将应用拓展到即时消息生成、实时翻译、会议摘要、医疗咨询、科研支持以及自动驾驶等场景,成为未来智能设备的核心,为用户带来更加智能、便捷和个性化的体验。

多模态大模型依旧是当前大模型训练和开发的重要方向。随着技术的快速演进,大模型正在从文本类、图片类等单模态向多模态、跨模态演进。多模态大模型是提高模型性能和泛化能力的一种有效方式,将成为未来发展重点之一。其能够同时综合处理和分析文本、图像、音频等各种模态的信息,有助于克服单一模态数据的局限和偏见,并将其融合以完成复杂的实际任务。在自动驾驶、内容推荐、虚拟现实和增强现实、远程医疗、虚拟助手、虚拟实验室、媒体和智能家居等场景中,多模态大模型能够更好地理解实际场景,输出更加准确的结果,展现出巨大的应用潜力和社会价值。

大模型的开源趋势正在显著增强。开源模型成为推动人工智能技术普及和应用落地的重要力量。在过去的18个月里,全球领先的软件和云服务商发布了数十种开放和部分开放的基础模型,开源社区的协作和贡献正在成为加速技术创新的重要力量,开源框架作为人工智能开发的基础,其生态系统日益丰富。开源不仅促进了生态繁荣,还降低了研发成本,使得中小企业和研究机构能够专注于应用开发和优化。以DeepSeek为例,企业可以访问一个性能水平相当的开源模型,并大幅降低了训练和部署这些模型的成本。这对于资源有限的中小企业和个人开发者来说尤为重要,使得更多组织能够负担得起先进人工智能技术的应用,加速了人工智能技术的普及。这种开放共享的方式加速了技术迭代,激发了更多的合作与创新,为整个行业的快速发展注入了新的活力。IDC预测,2025年,为了更快获得创新能力、运营主权、透明度和更低成本,将有55%的企业使用开源人工智能基础模型开发应用程序。

人工智能算力服务:构建全栈服务体系,加速大模型应用落地

随着科技的飞速发展,企业对于智能算力的基础设施和服务能力的要求正在发生深刻变化,传统算力技术架构和云服务模式难以满足新的需求,生成式人工智能将使企业更多使用人工智能就绪数据中心托管设施和生成式人工智能服务器集群,从而缩短部署时间,降低长期设施的资本成本。

这些变化尽管挑战了传统算力服务的既有优势,但也为算力服务市场带来了新的机遇与变革。这意味着云服务商除了需要不断创新,提升技术水平和服务质量,还须开辟更加开放、灵活的赛道,适应市场的快速发展。在当前技术体系下,人工智能服务器的高昂投资成本已成为行业面临的显著挑战,亟需新的合作机制来重新分配资源与市场。在此过程中,众多技术和资本纷纷加入人工智能算力服务的竞争。在人工智能时代,市场中的参与者需要重新考虑如何分配资源、降低成本并共享收益。这促使企业间寻求合作,共同分担投资压力,共享市场成果,形成数据中心服务商、云服务商、硬件厂商以及其他创新企业共同参与的生态体系,为用户提供人工智能算力资源,并通过技术创新和服务优化,满足用户多样化的算力服务需求,通过资源池化、动态分配和智能调度等技术手段,突破传统算力供给模式的局限性,提高资源利用率和灵活性。

智算服务市场正在快速发展。IDC定义下的智算服务是指以GPU、ASIC等人工智能专用算力为主的基础设施服务,主要包括智算集成服务和智算基础设施即服务(AI Infrastructure as a service, 简称AI IaaS)。智算集成服务主要是指厂商在帮助客户建设私有智算基础设施过程中提供的咨询、集成、开发、运维等专业和管理服务;AI IaaS是指供应商以租赁形式为客户提供一站式智能算力服务,并由供应商提供后续的运营及运维保障。其中AI IaaS市场又分为面向生成式人工智能(简称GenAI IaaS)和非生成式人工智能(简称Non-GenAI IaaS,如传统渲染、仿真、视联网推理等业务场景)两个细分市场。IDC数据显示,2024年中国智算服务市场整体规模达到50亿美元,2025年将增至79.5亿美元,2028年将达到266.9亿美元,2023-2028年五年年复合增长率为57.3%。其中,智算集成服务市场及GenAI IaaS市场是未来重要的两个增量市场,五年年复合增长率分别达到73%和79.8%,预计至2028年智算集成服务市场规模占比可达47%,GenAI IaaS市场规模占比达48%。

随着算力基础设施的搭建完成,市场和用户对资源利用率的关注度将会显著提升,运营和应用成为核心焦点。高效的建设、管理和运维能力对于智算服务的成功至关重要,能够确保资源的最优配置和高效利用。此外,智算服务商在这一过程中积累的成功运作经验也变得尤为重要,这些经验不仅能够提升服务质量,还能为用户提供更具竞争力的解决方案。因此,具备强大建管运能力和丰富运作经验的厂商将在新型算力服务市场中占据优势地位,推动行业的持续发展和创新

应用:积极探索人工智能应用场景,加速智能对于业务发展的价值转化

全球人工智能市场规模持续攀升,在这个千亿级别的市场下,各个细分领域都取得了显著的进展,其中生成式人工智能市场是主要的增长细分领域,企业支出的五年(2023-2028年)年复合增长率高达59.2%。从行业支出角度来看,过去一年,全球生成式人工智能IT基础设施的投入主要集中在互联网、运营商和IT服务这三大行业里,但从未来预测数据来看,这三大行业的占比将逐渐减少,进而转向政府、金融、制造、教育和医疗等行业。这意味着生成式人工智能将逐渐从大模型训练向推理迈进,尽管这将是一个长期的过程,但前景依然被看好。IDC认为,向“无处不在的人工智能”的过渡将在个人层面、业务或职能部门层面以及特定行业背景下出现一系列新的由人工智能驱动的应用场景。人工智能发展已进入一个全新的阶段。

人工智能技术应用及算力需求

在人工智能单点技术应用方面IDC调研显示,图像技术成为当下最主要的应用技术类型,人脸与人体识别紧随其后,自然语言处理位列第三。

根据单点技术应用及企业IT资源消耗调研结果显示,视频分析成为占用企业IT资源最多的工作负载。这归因于其需处理海量图像数据,执行复杂计算与实时处理,对计算和存储资源要求极高。除此之外,知识图谱和AR/VR以及图像技术是参与调研样本企业中另外三个高算力消耗的单点技术。知识图谱涉及大量关系数据处理和复杂查询;AR/VR需要高性能图形处理与实时渲染;图像技术则涵盖广泛的图像处理和分析任务。这些应用均对企业IT资源提出了严峻挑战,推动了对高效能计算和存储解决方案的需求。

随着生成式人工智能和大模型的广泛应用,模型参数量的增加对算力提出了更高的要求。目前企业使用的生成式人工智能模型的平均参数量分布如下:37%的模型拥有100-200亿参数,26%的模型参数量在60-100亿之间,而8%的模型参数量超过500亿。生成式人工智能模型参数量的增加对算力的需求显著提升,企业需要在硬件配置、软件框架和优化技术等方面进行综合考虑,以确保模型的高效训练和推理。

生成式人工智能用例分析

IDC调研结果显示,知识管理、对话式应用、内容生成和营销是企业当下应用生成式人工智能最具发展潜力的领域。这些应用通过分析和生成数据、图像、文字、情感及代码等内容,为企业带来新的增长机会。

生成式人工智能用例有三种主要类型,包括生产力类应用、业务部门或职能部门类应用,以及行业场景应用:

生产力类应用是针对具体工作任务设计的应用,用于提升劳动生产率和优化业务流程。通过自动化复杂任务(如设计生成、内容总结和生成、代码生成等),生成式人工智能使个人能够专注于高价值活动。此外,生成式人工智能可以高效处理大量数据,生成适当的响应和建议,从而优化生产流程和工作流,提高运营效率。越来越多的生成式人工智能功能正在被集成到现有的很多应用程序中,例如微软360 Copilot或谷歌的Duet ,从而为企业和个人带来更高的生产率和更好的用户体验。

业务部门或职能部门类应用倾向于将一个模型或多个模型与企业数据集成,供特定部门如市场营销、销售、采购等使用。这些业务功能用例需要与成熟企业应用和平台集成,其能力受到客户数据、产品数据、知识库等业务数据的约束。IDC调研结果显示,未来18个月,企业优先应用生成式人工智能的业务部门或职能部门场景依次为:客户互动,产品设计和市场营销。目前客户互动集中应用在智能客服场景,已经在金融、电商、通信、医疗和教育等多个行业的智能工作流程中广泛适用。通过优化服务流程和提高响应效率,生成式人工智能不仅增强了客户满意度,还在降低人力资源成本方面取得了显著成效。生成式人工智能在产品开发与设计方面的应用主要集中于文生图、图生视频、文生视频领域,并形成了较为稳定的业务流。其中,文生图与图生视频由于更加稳定、可预测的表现,成为较为主流的应用。

行业场景应用是生成式人工智能在各个行业中的特殊场景应用,这些特定的应用场景通常需要高度的定制化才能实现。在垂直领域内利用特定数据、针对具体场景优化模型以及提供工程化解决方案,是实现生成式人工智能实际应用的基础,同时也是构建企业竞争优势的核心。

与往年相比,技术创新成果加速了行业应用的进展,人工智能在自动驾驶、制造、金融、城市建设、科研教育、能源等多个领域展现了突出的应用效果和潜力:

技术进步大幅提升车辆感知和决策能力,使得自动驾驶的安全性和易操作性达到了新的高度,推动了该领域超越预期的快速发展;

在制造业中,人工智能技术持续优化生产流程,降低企业成本,提高制造产品质量;

在金融领域,人工智能技术在风险管理、欺诈检测和个性化金融服务等场景中发挥重要作用;

在智慧城市建设过程中,人工智能改进了交通管理和环境监控方式,提升治理效率;

科研方面,人工智能助力数据分析和生成,支持个性化教学和智能辅导系统的发展;

在能源领域,人工智能优化能源生产和分配过程,提高能源利用效率,推动智慧能源体系建设。

此外,生成式人工智能在行业中的渗透范围进一步扩大,在视频/图片创作、多模态数字人、代码生成、互动娱乐、营销等场景中,实现泛行业式的广泛应用。

就行业特殊场景而言:

在自动驾驶领域,生成式人工智能为用户提供更丰富的驾驶体验,实现在智能座舱、车辆状态检测、环境检测、故障诊断、路径规划和演练数据合成等场景的应用,并支持企业内部汽车研发工作,覆盖汽车设计、代码开发和内部知识库建立等场景,提高工作效率;

在金融行业,生成式人工智能被广泛应用于客服、数字人助手、风险审核、贷款审核、电子营销和财富管理等场景,提升了服务效率和客户体验;

制造行业尝试使用大模型与生成式人工智能能力辅助产品设计、供应链管理、智能客服,此外通过构建专家大脑加速智慧工厂建设;

在医疗领域,生成式人工智能支持远程手术,覆盖门诊、医务科室、设备管理和人员管理等多个场景,提升医疗服务质量和管理效率。

同时生成式人工智能与传统人工智能形成了互补共存的状态,在有着明确规则、需要广泛提炼特征并进行分类与预测的场景中,传统人工智能仍继续扮演着不可或缺的角色。

与此同时,具身智能机器人的发展引发市场关注,由于其可以在动态环境中进行实时决策和行动,提高任务执行的效率和效果,正在成为机器人未来发展的重要方向,预计将在工业、医疗、服务等领域具有广泛的应用前景。

人工智能应用价值分析

IDC调研显示,目前除了提升生产和研发效率外,人工智能带来的主要业务变化和重要业务成果包括:缩短流程时间、创造新的产品与服务,以及优化用户体验。未来,企业对人工智能的应用将在提升企业洞察、助力决策等维度提供更显著价值。

最佳实践

招商银行:深入推进企业数智化发展,打造数字员工助力提质增效

招商银行由招商局于1987年在深圳蛇口创建,是中国境内第一家完全由企业法人持股的股份制商业银行。成立37年来,招商银行已成为拥有商业银行、金融租赁、基金管理、人寿保险、境外投行、消费金融、理财子公司等金融牌照的银行集团。

挑战及解决方案

随着招行数字金融科技的发展和业务的不断扩张,如何提升工作效率、优化资源配置,成为了一大挑战。为实现业务流程超级自动化,提高工作准确性、生产效率和降低运营成本,支持银行线上化、数字化、智能化发展,招商银行引入RPA(机器人流程自动化)技术,打造海螺RPA+平台,构建灵活、好用、覆盖面强的平台和工具。

招商银行海螺RPA+是集成RPA、AI、Open API和大模型的自动化解决方案,拥有业务流程录制、封装编码等功能,可提供可视化设计,具备AI扩展性、服务化、智能资源匹配、监控预警和操作回溯等能力,可替代重复人工操作,实现降本增效控风险。

招商银海螺RPA+平台的构建为员工带来了全新的工作模式,实现文化的传承、数字化的扩容和空间的优化:

“数字员工”海螺RPA+:将人工智能和机器人流程自动化技术相结合,实现RPA技术向“数字员工”的转变,具备处理常规性、流程化、重复度高的工作内容的能力。基于此,员工可以把更多精力放在创造更有价值的新内容上,从而提升整体工作效能。

生态建设与人才培养:通过提供全面的培训支持,帮助员工快速掌握RPA+的使用方法。建设了完善的官网社区与在线沟通交流群,构建了完整的培训体系,根据员工的不同需求因材施教,以确保每个人都能够充分发挥自己的潜力,提高工作效率。

云+数字化多点开花:海螺RPA+的独特之处在于它的静默画中画功能,实现了员工和“数字员工”共享一台设备同时工作。可以大大提高员工整体交付价值与设备资源利用率。此外,借助云机器人,员工可以在移动端发起工作请求,“数字员工”在云端进行远程处理,进一步提升工作效率。

项目收益

最新统计结果显示,海螺RPA+平台注册用户数已超过18,000人,活跃用户超过17,000人,平台开发者超过6,000位,场景应用超过8,900个,拥有27,000多个机器人,处理上千万条业务。通过这一数字化转型方案,招商银行有效提高了业务处理效率,降低了运营成本,并支持了其数字化和智能化的发展战略:拥有数字化能力的员工可以利用RPA技术和工具对业务流程进行梳理和优化,增强创造力,消除流程中的冗余和重复步骤,使业务流程更加高效、顺畅;引入人工智能和机器学习、大模型技术,对业务流程进行智能分析和预测,优化流程或降低错误风险,为决策人员提供更有力的依据,提高招行的运营能力,进而增强竞争优势和市场地位。

平台通过降低技术门槛、提供员工培训、促进生态建设,推动了员工的数字化技能提升,并优化了业务流程管理。

构建智能工作空间:为员工提供个性化、低门槛、可视化的流程编辑器,帮助员工快速高效创建业务场景。通过智能化的任务管理和调度系统,提升数字员工资源利用率。

打造数字化人才:提供数字化技能培训,满足员工数字化转型需求。鼓励员工利用数字员工辅助工作,提高效率和准确性。通过智慧虚拟助手提升客户服务和内部支持的工作效率。

以数据驱动企业发展:提供实时准确的数据,为管理层提供有力支持,助力流程优化,提高流程效率,减少人为错误和重复工作。通过实时监控预防潜在风险和问题,确保流程持续合规。

无缝、高效:应用数字员工消减系统鸿沟,减少业务需求与技术排期冲突。数字社区,让每位员工皆可成为数字员工的开发者和使用者。目前,使用海螺RPA进行自主开发的人员中近六成为业务人员。

西湖大学:以计算之力,为科学家助力

西湖大学是由施一公院士领衔创办的、聚焦前沿科学研究的研究型大学,成立于2018年。西湖大学的目标是成为世界一流的研究型大学,鼓励科学家们打破学科壁垒,探索人工智能与各学科交叉融合,为科研创新提速,重点发展科学、工程、医学等领域的高水平基础与应用研究。

为此,西湖大学与浪潮信息合作,打造了西湖大学人工智能集群,为校内大部分算力需求提供服务,为“科学家+AI”展现了无限可能:

非编码RNA研究:非编码RNA约占人类转录组的98%,不仅参与生物体的各种基本生命过程,而且与很多重大疾病的发生密切相关。非编码RNA的数目非常庞大,而且在生命体里是高度动态的,可以跟很多其他生命分子相互交付、相互调节。面对数量庞大又动态的非编码RNA分子,如果单纯采用传统实验方式研究,需要耗费大量时间和精力也很难分析其中复杂的调控关系,找出调控规律。而人工智能技术能够高效解析测序数据,分析出其中的调控关系,找到调控规律,解决了以前单靠实验解决不了的问题,大大加速了研究进程,对于大量的疾病的治疗会带来福音。

演绎算法:演绎算法是把自然的演化规则引入到人工智能领域,以解决复杂系统的优化和决策问题。近两年遵循scaling law的大模型发展火热,模型越做越大,带来的能耗问题也引发了业界的担忧。因此西湖大学的科学家希望通过演化和发育的方式,让人工智能像生物智能一样自然演化,以更低的能耗产生更高的智能。最终研发出有自主学习能力、更类人的人工智能系统,为实现通用人工智能探索出一条新路径。

人工智能心理咨询师“小天”:“小天”是西湖大学研发的心理咨询大模型,基于西湖大学自研的多模态通用大模型“西湖大模型”研发。西湖大学科学家认为,“EQ让模型更有温度,更深地理解并满足人的需求。”经过大量的语料积累和真实心理咨询案例学习,加上自研的情感计算和共情模块,小天能带有感情地倾听和沟通。目前“小天”已能达到中级心理咨询师的水平。

在智算力的驱动下,科学研究正在迎来第五范式即“科学智能”(AI for Science)时代。“科学智能”不仅大幅提升了科研效率和准确性,还革新了科研范式,让人类能够挑战更复杂的难题,让很多科学创新的发现,从不可能成为可能。

长城汽车:着力发展智能化,持续提高用户体验

当前,中国汽车行业正通过智能化走向全球化。近年来,长城汽车凭借其深厚的技术积累和创新能力,成为中国汽车智能化发展的代表性企业。这一切得益于长城汽车在人工智能技术的应用、平台和硬件等方面的战略性布局和前瞻性投资。

应用:长城汽车的智能座舱系统基于智能感知和流畅操作,为用户提供更好的驾驶体验。通过摄像头、传感器等设备收集数据,结合人工智能算法,识别驾驶者的情绪、疲劳状态、视线焦点等,从而提供更加个性化的服务;基于生成式人工智能语音助手,不再局限于简单的问答形式,而是能够理解上下文,进行更自然的对话;座舱软件实现办公协同、旅行规划、生成式人工智能应用、内容聚合搜索等功能,使汽车从一个单纯的交通工具转变为一个智能的移动生活空间。此外,基于自主研发的SEE端到端智驾大模型,长城汽车推出全场景NOA智驾系统,覆盖从高速公路到城市道路,从行车到泊车全场景,为用户提供安全、高效的辅助驾驶体验。

平台:长城汽车智能座舱系统搭载了新一代CUX软件平台,以其卓越的硬件兼容性,适配多种车型,简化了传统一车一款一研发的复杂流程。通过CUX平台,长城汽车能够对不同车型的算力需求进行整体规划和分配,实现资源的优化配置,并根据车型发布计划制定详细的算力需求节点清单。此外,借助车联网技术,CUX平台还能实现车辆的远程监控和诊断,进一步提升用户体验和车辆管理效率。

硬件:在硬件方面,长城汽车采用“本地+云端”算力相结合的方式,提高数据处理效率和驾驶安全性。在智能驾驶和智能座舱系统中采用高性能硬件设备,如车规级全固态激光雷达、高性能CPU、GPU和NPU等,为系统和座舱软件的稳定运行提供了有力保障;而智能座舱、智能语音交互、智能驾驶等先进功能,通过部署车载以太网接入云端算力,提高车辆内部通信的速度和可靠性,为智能驾驶和车联网功能提供坚实的硬件基础。

智能化的发展需要跨领域的紧密合作。长城汽车通过与科技企业、通信运营商、芯片制造商等多方合作,实现资源共享和优势互补,共同推进智能网联汽车技术的进步,以加速智能化转型和创新。目前,长城汽车与浪潮信息在算力中心构建与车载计算系统研发等领域展开深度合作,充分发挥浪潮信息在服务器系统架构、散热、电源、高速信号等关键领域的技术优势,持续升级智能座舱的硬件性能与数据处理能力。

未来,长城汽车将持续提高智驾大模型的性能、迭代速度和泛化能力,充分发挥人工智能算力、云计算和大数据方面的优势,推动智能化技术在智能驾驶领域的落地应用,为用户提供更智能、更安全和个性化的驾驶体验。