2024年中国端侧大模型行业研究:算力优化与效率革命+如何重塑行业生态.pdf
《2024年中国端侧大模型行业研究:算力优化与效率革命+如何重塑行业生态.pdf》由会员分享,可在线阅读,更多相关《2024年中国端侧大模型行业研究:算力优化与效率革命+如何重塑行业生态.pdf(21页珍藏版)》请在咨信网上搜索。
1、1报告提供的任何内容(包括但不限于数据、文字、图表、图像等)均系头豹研究院独有的高度机密性文件(在报告中另行标明出处者除外)。未经头豹研究院事先书面许可,任何人不得以任何方式擅自复制、再造、传播、出版、引用、改编、汇编本报告内容,若有违反上述约定的行为发生,头豹研究院保留采取法律措施、追究相关人员责任的权利。头豹研究院开展的所有商业活动均使用“头豹研究院”或“头豹”的商号、商标,头豹研究院无任何前述名称之外的其他分支机构,也未授权或聘用其他任何第三方代表头豹研究院开展商业活动。头豹研究院2024年中国端侧大模型行业研究算力优化与效率革命如何重塑行业生态企业标签:阿里云、商汤科技、面壁智能AI变
2、革行业创新发展China End To Side Large Model Industry中国側大型産業撰写人:王利华头豹研究院咨询/合作网址:电话:15999806788(袁先生)电话:18916233114(李先生)深圳市华润置地大厦E座4105室团队介绍袁栩聪首席分析师oliver.yuanL王利华行业分析师头豹是国内领先的行企研究原创内容平台和创新的数字化研究服务提供商。头豹在中国已布局3大研究院,拥有近百名资深分析师,头豹科创网()拥有20万+注册用户,6,000+行业赛道覆盖及相关研究报告产出。头豹打造了一系列产品及解决方案,包括数据库服务、行企研报服务、微估值及微尽调自动化产品、
3、财务顾问服务、PR及IR服务,研究课程,以及分析师培训等。诚挚欢迎各界精英与头豹交流合作,请即通过邮件或来电咨询。报告作者中国:人工智能系列行业研读|2024/400-072-55883摘要2023年中国端侧大模型市场规模达8亿元,持乐观态度估计,预计2024年中国端侧大模型市场将达到21亿元生成式AI市场的蓬勃兴起,正驱使大模型厂商积极探索端侧应用新蓝海,以此作为增长的新引擎。端侧大模型通过在设备本地运行,有效降低了数据传输延迟,增强了隐私保护,拓宽了AI应用场景的广度与深度。与此同时,下游市场需求的强劲增长,特别是手机与自动驾驶行业的蓬勃发展,正强力拉动端侧大模型市场的扩张,2023年中国
4、端侧大模型市场规模达8亿元,预计2024年中国端侧大模型市场将达到21亿元。依托技术实力和生态建设,头部大模型厂商纷纷投入端侧大模型市场,利用在云端大模型领域的技术优势,商汤商量、阿里通义以及面壁智能率先在端侧大模型领域取得领先突破。端侧大模型定义为运行在设备端的大规模人工智能模型,这些模型通常部署在本地设备上,如智能手机、IoT、PC、机器人等设备。与传统的云端大模型相比,端侧大模型的参数量更小,因此可以在设备端直接使用算力进行运行,无需依赖云端算力。端侧大模型在成本、能耗、可靠性、隐私和个性化方面相比云端推理具有显著优势,并能够以低能耗提供高效且安全的AI处理,减少延迟并保护用户隐私,适合
5、个性化的AI应用。取决于行业对数据安全、隐私保护的需求、行业本身智能设备的普及程度以及AI大模型技术的成熟度,这些因素的相互作用和共同推动,端侧大模型将推动各行业智能化发展的步伐。端侧大模型面临的行业壁垒包括技术、硬件、数据、成本以及市场等方面,要求产业界在技术创新、标准制定、生态建设和市场推广等方面进行深入合作,以克服挑战,实现端侧大模型的广泛应用和落地。400-072-5588 中国端侧大模型行业概述-6定义与分类-7发展历程-8驱动力-9市场规模-10 中国端侧大模型行业产业链分析-11产业链-12模型压缩技术-13成本构成-14厂商类型-15行业场景-16业务场景-17 中国端侧大模型
6、行业分析-19政策分析-20行业壁垒-21竞争格局-22发展趋势-23 中国端侧大模型行业典型厂商分析-24阿里云-25商汤科技-26面壁智能-27 方法论及法律声明-28 业务合作-294研究框架400-072-5588AI大模型:指的是大型人工智能模型,通常由数十亿至数百亿个参数组成,用于各种自然语言处理、计算机视觉等任务。模型压缩技术:是一系列用于减少大型神经网络模型尺寸和计算复杂度的技术,包括剪枝、量化、蒸馏等方法,旨在减少模型大小的同时保持其性能。IoT设备:指的是物联网设备,通常具有较小的计算能力和存储空间,但能够通过互联网进行通信和数据交换。PC设备:个人计算机,如台式机、笔记本
7、电脑等,通常具有较高的计算和存储能力,适合运行复杂的应用程序和任务。数据中心:指的是大规模的服务器集群,用于存储和处理大量数据,支持云计算服务和网络应用。服务器:通常指的是提供网络服务、存储和计算资源的计算机系统,可用于托管网站、应用程序等。BERT:是一种预训练的自然语言处理模型,采用Transformer架构,能够理解文本语境并在各种NLP任务中取得良好性能。DistilBERT:是对BERT模型进行了蒸馏(Distillation)的轻量化版本,通过减少参数和计算复杂度来提高模型的运行效率。TinyBERT:是进一步轻量化的BERT模型,通过更深入的模型压缩和优化来适应资源受限的环境,如
8、移动设备或物联网设备。Jetson AGX Xavier:高性能嵌入式系统,具有GPU和AI计算能力,适用于边缘计算和深度学习应用。TPU:谷歌推出的张量处理单元,是一种专门用于加速人工智能工作负载的定制硬件加速器。PyTorch Mobile:是PyTorch框架的移动端部署版本,支持在移动设备上运行训练好的深度学习模型。TensorFlow Lite:是谷歌推出的用于在移动设备和嵌入式系统上部署深度学习模型的轻量级框架。ONNX:开放神经网络交换,是一种开放的跨平台深度学习模型表示格式,支持模型在不同框架之间的转换和部署。预训练模型:指的是在大规模文本数据上进行预训练的神经网络模型,通常包
9、含通用的语言或视觉理解能力,并可通过微调适应特定任务。中心云:指的是传统的云计算架构,数据和计算资源集中在大型数据中心进行管理和运行。边缘云:是一种分布式的云计算架构,将计算和存储资源放置在接近终端用户的边缘节点上,以提高服务响应速度和降低网络延迟。AI芯片:专门用于加速人工智能计算任务的硬件芯片,能够在高效率和低能耗的条件下进行大规模并行计算。知识蒸馏:是一种通过让一个较大且性能较好的模型(教师模型)指导一个小型模型(学生模型)来提高学生模型性能的技术,通常用于模型压缩和轻量化。名词解释400-072-5588Chapter 1行业概述 定义与分类 发展历程 驱动力 市场规模行业研读|202
10、4/400-072-5588中国:人工智能系列行业研读|2024/5用户端侧大模型定义为运行在设备端的大规模人工智能模型端侧大模型定义为运行在设备端的大规模人工智能模型,与传统的云与传统的云端大模型相比端大模型相比,端侧大模型的参数量更小端侧大模型的参数量更小,因此可以在设备端直接使因此可以在设备端直接使用算力进行运行用算力进行运行,无需依赖云端算力无需依赖云端算力中国端侧大模型市场探析定义与分类端侧大模型的定义来源:企业官网,头豹研究院移动设备IoT设备机器人PC设备网络计算存储安全端侧大模型定义为运行在设备端的大规模人工智能模型,这些模型通常部署在本地设备上,如智能手机、IoT、PC、机器
11、人等设备。与传统的云端大模型相比,端侧大模型的参数量更小,因此可以在设备端直接使用算力进行运行,无需依赖云端算力。AI大模型端侧大模型模型压缩技术AI大模型模型训练方式:数据中心或云端模型推理方式:服务器或云端参数量:多为百亿级别端侧大模型模型训练方式:云端模型推理方式:端侧参数量:多为十亿级别VSAI大模型通常在数据中心或云端进行训练,使用大规模的计算资源和海量数据。相比之下,端侧大模型由于资源限制,往往需要在设计和训练阶段进行模型压缩和优化。在推理方式上,AI大模型通常运行在服务器或云端,通过强大的计算能力处理复杂的任务。然而,这种云端推理方式依赖于网络连接,会带来延迟和隐私问题。端侧大模
12、型则是在本地设备上进行推理。参数量是AI大模型和端侧大模型的一个显著区别。AI大模型通常具有数十亿甚至上百亿的参数,如GPT-3的1,750亿参数。这种巨大的参数量使得大模型能够捕捉复杂的数据模式并在多种任务中表现出色。然而,端侧设备的计算能力和存储资源有限,因此端侧大模型的参数量通常较小。通过模型压缩技术,如知识蒸馏、剪枝和量化,端侧大模型的参数量可以减少到几百万或更少。例如,MobileBERT的参数量仅为BERT的1/4左右,但依然能够在移动设备上高效运行。400-072-5588中国:人工智能系列行业研读|2024/5端侧大模型在成本端侧大模型在成本、能耗能耗、可靠性可靠性、隐私和个性
13、化方面相比云端推理隐私和个性化方面相比云端推理具有显著优势具有显著优势,并能够以低能耗提供高效且安全的并能够以低能耗提供高效且安全的AIAI处理处理,减少延迟减少延迟并保护用户隐私并保护用户隐私,适合个性化的适合个性化的AIAI应用应用中国端侧大模型市场探析驱动力端侧大模型市场驱动力分析来源:中国统计局,CNNIC,头豹研究院中心云边缘云5G端侧为实现规模化扩展,AI处理的重心,正在向边缘转移从成本优势来看,AI推理的规模远高于AI训练。尽管训练单个模型会消耗大量资源,但大型生成式AI模型预计每年仅需训练几次。然而,这些模型的推理成本将随着日活用户数量及其使用频率的增加而增加。在云端进行推理的
14、成本极高,这将导致规模化扩展难以持续。从能耗来看,支持高效AI处理的边缘终端能够提供领先的能效,尤其是与云端相比。边缘终端能够以很低的能耗运行生成式AI模型,尤其是将处理和数据传输相结合时。这一能耗成本差异非常明显。从可靠性、性能和时延来看,终端侧AI处理能够在云服务器和网络连接拥堵时,提供媲美云端甚至更佳的性能。当生成式AI查询对于云的需求达到高峰期时,会产生大量排队等待和高时延,甚至出现拒绝服务的情况。向边缘终端转移计算负载可防止这一现象发生。从隐私和安全来看,端侧大模型从本质上有助于保护用户隐私,因为查询和个人信息完全保留在终端上。对于企业和工作场所等场景中使用的生成式AI,这有助于解决
15、保护公司保密信息的难题。从个性化来看,数字助手将能够在不牺牲隐私的情况下,根据用户的表情、喜好和个性进行定制。所形成的用户画像能够从实际行为、价值观、痛点、需求、顾虑和问题等方面来体现一个用户,并且可以随着时间推移进行学习和演进。0304050102端侧大模型可靠性、性能和时延成本优势个性化能耗隐私和安全400-072-5588中国:人工智能系列行业研读|2024/5下游市场需求的强劲增长下游市场需求的强劲增长,特别是手机与自动驾驶行业的蓬勃发展特别是手机与自动驾驶行业的蓬勃发展,正强力拉动端侧大模型市场的扩张正强力拉动端侧大模型市场的扩张,20232023年中国端侧大模型市场规模年中国端侧大
16、模型市场规模达达8 8亿元亿元,预计预计20242024年中国端侧大模型市场将达到年中国端侧大模型市场将达到2121亿元亿元中国端侧大模型市场探析市场规模中国端侧大模型行业市场规模来源:专家访谈,企业公告,头豹研究院CAGR:58%受实际落地情况的影响,2023年中国端侧大模型市场规模达8亿元,持乐观态度估计,预计2024年中国端侧大模型市场将达到21亿元生成式AI市场的蓬勃兴起,正驱使大模型厂商积极探索端侧应用新蓝海,以此作为增长的新引擎。端侧大模型通过在设备本地运行,有效降低了数据传输延迟,增强了隐私保护,拓宽了AI应用场景的广度与深度。例如,智能手机集成的AI摄影功能,能实时识别场景并优
17、化图像质量;可穿戴设备利用端侧模型监测健康指标,提供即时反馈。与此同时,随着AI芯片等算力市场带动,为端侧大模型打开新的市场空间。高性能、低功耗的AI芯片设计使得复杂模型能够在手机、物联网设备等终端高效运行,无需依赖云服务,显著提升响应速度与用户体验。2021年全球AI芯片市场规模达到200亿美元,预计到2025年将超过700亿美元,其中端侧AI芯片占比快速提升,成为增长的重要动力。下游市场需求的强劲增长,特别是手机与自动驾驶行业的蓬勃发展,正强力拉动端侧大模型市场的扩张手机作为个人智能终端的核心,正集成更先进的AI功能以提供个性化服务与优化用户体验,如荣耀Magic系列利用端侧AI大模型实现
18、偏好理解与多模态交互。同时,自动驾驶领域对实时性与安全性要求极高,推动了BEV+Transformer等技术与端侧大模型的融合,百度Apollo ADFM等L4级自动驾驶大模型的推出,标志着该领域迈向商用新阶段。8213147617920232024E2025E2026E2027E2028E中国端侧大模型市场规模单位:亿元400-072-5588Chapter 2产业链分析 产业链图谱 模型压缩技术 成本构成 厂商类型 行业场景 业务场景行业研读|2024/400-072-5588中国:人工智能系列行业研读|2024/5中国端侧大模型上游主要包括中国端侧大模型上游主要包括AIAI芯片供应商芯片
19、供应商、云计算服务商以及数据云计算服务商以及数据服务商服务商,中游为端侧大模型科技厂商和端侧科技企业中游为端侧大模型科技厂商和端侧科技企业,主要通过设备主要通过设备企业最终应用到汽车企业最终应用到汽车、教育等各行各业教育等各行各业中国端侧大模型市场探析产业链中国端侧大模型行业产业链分析来源:专家访谈,头豹研究院上游下游云计算服务提供商中游端侧大模型科技厂商AI芯片供应商端侧科技企业设备端企业应用场景数据服务商泛娱乐医疗金融汽车其他教育文本场景图像场景音频场景视频场景多模态场景 400-072-5588中国:人工智能系列行业研读|2024/5通过知识蒸馏通过知识蒸馏,端侧大模型能够在保持较高性能
20、的同时端侧大模型能够在保持较高性能的同时,大幅减少模大幅减少模型参数量和计算复杂度型参数量和计算复杂度。这种技术使得复杂的这种技术使得复杂的AIAI模型可在资源受限的模型可在资源受限的端侧设备上高效运行端侧设备上高效运行,实现低能耗实现低能耗、高响应速度和高准确度的高响应速度和高准确度的AIAI推理推理中国端侧大模型市场探析模型压缩技术端侧大模型压缩技术知识蒸馏来源:专家访谈,智慧文旅,头豹研究院inputXLayer1Layer2LayermTeacher modelLayer1Layer2LayernStudent(distilled)modelLoss FnSoftmax(T=t)Sof
21、tmax(T=t)Softmax(T=1)Loss Fnhardlabel y(ground truth)Soft labelsSoft predictionshardpredictionstudent lossdistillation loss知识蒸馏的基本原理首先,在强大的计算资源和海量数据集上训练一个高性能的大模型,称为教师模型。教师模型在输入训练数据时,不仅输出最终的分类结果(硬标签),还输出每个类别的概率分布(软标签),这些软标签包含了更多关于输入数据的细微信息和模式。在训练较小的学生模型时,不仅使用原始数据的硬标签,还使用教师模型生成的软标签。学生模型通过学习这些软标签,能够捕捉到
22、教师模型中包含的丰富知识。知识蒸馏在端侧大模型中的应用知识蒸馏使得学生模型能够在保持较高准确度的同时,显著减少参数量。例如,TinyBERT通过知识蒸馏技术将BERT的参数量减少到原来的1/7左右,但在许多自然语言处理任务中仍能保持较好的性能。这使得学生模型能够适应端侧设备的计算和存储限制。较小的学生模型在推理阶段需要的计算资源更少,推理速度更快。这对于资源受限的端侧设备尤为重要。端侧设备通常对能耗有严格限制。知识蒸馏生成的学生模型由于计算复杂度低,能够以较低的能耗完成推理任务。例如,在物联网设备和移动设备中,学生模型的低能耗运行方式使其能够长时间持续工作,而不会显著消耗电池电量。知识蒸馏生成
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 2024 年中 国端侧大 模型 行业 研究 优化 效率 革命 如何 重塑 生态
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【宇***】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【宇***】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。