(报告出品方:华泰证券)
大模型应用2:生产力工具的AI化有望推动新一轮PC换机周期
生产力工具、沟通工具及协作工具经历了PC时代、移动互联网时代的演进,正在进入AI时代。微软、谷歌与金山办公等公司以AI大模型对原有的生产力工具应用进行升级,通常提供文档理解、文字生成、图片生成、数据分析与处理等等功能,提升用户生产力。
办公:微软、谷歌引领产品矩阵全面AI化
微软是全球生产力工具的领导企业,围绕企业业务与管理流程,已经形成了布局完整的产品矩阵,目前正主导生产力工具的AI化。微软的产品矩阵覆盖企业办公、客户关系管理、资源管理、员工管理、低代码开发等业务环节,微软已经围绕这些业务环节,推出相应的Copilot产品,对原有产品进行AI大模型赋能。从Copilot时点来看,微软首先在主力产品Office套件上线Copilot,然后逐步在企业业务与管理流程的Dynamics套件、开发相关的PowerPlatform条件、员工管理的Viva套件上线Copilot。我们认为Copilot正以“通用助手”为切入点,重塑微软生产力工具矩阵,向数据协同、功能联动的方向发展。目前办公场景Office、企业业务流程场景Dynamics下的Copilot已明确单品收费标准。微软的Copilot产品分为和家庭两大场景。工作场景方面:1)面向企业办公场景推出CopilotforMicrosoft365,根据微软FY3Q24(对应日历季度1Q24)业绩会,近60%的财富100强企业正在使用。2)面向企业流程中的财务、销售和客服场景,分别推出CopilotforFinance/Sales/Service;3)面向云运营和管理场景,推出CopilotforAzure;4)面向IT安全场景,推出CopilotforSecurity;5)此外,微软推出CopilotStudio支持用户自定义Copilot,根据1Q24业绩会,已有3万名用户使用。家庭应用方面:1)面向C端用户办公场景推出CopilotPro;2)面向Win11和部分Win10推出CopilotforWindows,支持通过任务栏上或键盘上的Copilot按钮进行快速访问;3)在Bing搜索、Edge浏览器推出Copilot。
编程:AI协助编程开发,提高开发效率与质量
AI编程工具在功能上具有高度相似性,主要包括自动代码生成、代码分析与错误检测、实时编程建议。AI工具的应用极大地提高了开发效率,自动完成编写样板代码、设置环境和调试等重复性任务,使得开发者能腾出时间进行创造性开发;实时语法与错误检查功能有助于提升代码质量,减少代码调试时间,加快开发过程。根据微软官网调查数据,使用AI工具辅助编程后,74%的开发人员反映能够专注于更令人满意的工作,88%的使用者感觉工作效率更高,96%的开发人员在处理重复性任务时速度更快。
GitHubCopilot是AI编程领域最具代表性的AI工具,由OpenAI与Microsoft合作开发。Copilot具备强大的网络搜索和推理决策能力,能回答开发过程中的问题。比如通过自然语言描述需求,Copilot可以自动生成代码,并提供部署建议。据微软FY3Q24(对应日历季度1Q24)业绩会,GitHubCopilot付费用户数已达到180万,环比增速35%以上,收入同比增长超过45%。2024年5月微软Build大会进一步升级GitHubCopilot,包括1)更新Extensions,提升开发者的效率。开发者在编写代码之外花费了75%的时间用于追踪工作流和撰写文档。Extensions将所有流程整合在一起,可从Neovim、JetBrainsIDE、VisualStudio和VisualStudioCode等多种编辑器实时工作,减少上下文切换,开发者只需专注于核心代码。2)推出CopilotWorkspace,提高团队使用GitHub管理项目的效率,提供清晰的代码变动可视化界面,增强项目掌控感。3)推出Copilotconnectors,便于开发者用第三方数据和应用定制Copilot,提升开发效率。例如,开发者可以用西班牙语语音要求Copilot用Java编写代码,或询问Azure资源的可用性。
PC:AIPC24年下半年渗透率有望持续提升
AIPC=边缘算力+内置大模型。目前AIPC定义众多,芯片厂商、PC品牌厂商、第三方机构均各自有自己的定义。我们认为广义来说,处理器具有NPU提供的边缘算力能力,以及具有内置大模型,就可以称之为一款AIPC。以联想4/18推出的AIPC系列产品看,目前AIPC主流功能可以分为8类,PPT智能创作、文生图、文档总结、智能问答、AI识图、会议纪要、智会分身、设备调优,我们认为这是公司在AIPC的初期尝试,预计24年底全新一代AIPC随着处理器升级而推出后,全球AIPC渗透率有望更快提升。IDC预计全球PC出货总量稳定增长,AIPC渗透率持续提升,2027年或达60%。根据IDC数据,2023年全球PC出货量约2.5亿台,AI-capablePC出货量0.25亿台,市占率约为10%;2024年全球PC出货量2.75亿台,AI-capablePC市占率约19%;预计到2027年,全球PC出货量为2.93亿台,届时AI-capablePC市占率有望达到60%。
AIPC下NPU与独立GPU方案或将长期共存。AI应用落地将对PC算力提出更高要求,高通、英特尔、AMD等芯片厂商纷纷展开布局,陆续推出针对AIPC场景优化的芯片产品。在PC侧,使用独立GPU运行AI运载,具备高性能、高吞吐量等优势,但功耗高;NPU方案更具高能效、低功耗等特点,但对高性能要求AI负载支持能力有限。考虑AI任务需求以及用户偏好不同,我们认为AIPC市场使用1)CPU+NPU+GPU处理器(英特尔MeteorLake/AMD8040等);2)CPU+独立GPU;3)CPU+NPU+GPU处理器+独立GPU等组合作为处理AI负载主力的算力架构方案或将长期共存。2022年,据IDC数据,ARM架构CPU在PC市场的市占率约11%,主要布局厂商为苹果。2023年10月,高通推出的基于ARM架构XElite芯片具备突出的AI性能表现,符合AIPC发展趋势,有望带来ARMCPU在PC市场取得进一步突破。2024年6月举行的COMPUTEX2024上,ARMCEOReneHaas表示称,Arm预计将在五年内拿下WindowsPC市场50%以上的份额。
AIPC推动存储规格升级,DRAM最低16GB、LPDDR占比或逐渐提高。1)阿里通义千问7B模型的原始大小是14.4GB,在联想的LenovoAInow中运行的模型则压缩到了4GB。由此,AI大模型+电脑本身的缓存,大概只要5-6G内存能运行起来,而OS本身需占用5-6GB,故未来运存最低也需要16GB才能保证PC稳定运行。2)根据Trforce,QualcommSnapdragonXElite、AMDStrixPoint及英特尔LunarLake,三款CPU的均采用LPDDR5x,而非现在主流的DDRSO-DIMM模组,主要考量在于传输速度的提升;DDR5目前速度为4800-5600Mbps,而LPDDR5x则落于7500-8533Mbps,对于需要接受更多语言指令,及缩短反应速度的AIPC将有所帮助。今年LPDDR占PCDRAM需求约30~35%,未来将受到AIPC的CPU厂商的规格支援,从而拉高LPDDR导入比重再提升。硬件级的安全芯片确保隐私安全。根据联想和IDC联合发布的《AIPC产业(中国)白皮书》,AIPC需要设备级的个人数据和隐私安全保护,除了个性化本地知识库提供本地化的个人数据安全域以及本地闭环完成隐私问题的推理之外,还可能引入硬件级的安全芯片在硬件层面确保只有经过授权的程序和操作才能读取、处理隐私数据。此外联想等厂商也同样在自研AI芯片(如联想拯救者Y7000P、Y9000P、Y9000X、Y9000K四款新品笔记本搭载的搭联想自研AI芯片——LA系列芯片),实现智能的整机功耗分配。
大模型应用4:大模型是推动云计算发展的“锚”
AI开始拉动云计算收入增长。以微软为例,从2Q23到1Q24的四个季度,AI分别贡献Azure及其他云服务收入增速的1%/3%/6%/7%。谷歌在4Q23、1Q24业绩会上表示,AI对谷歌云的贡献不断提升,对垂直整合的AI产品组合的需求强劲,这为谷歌云在每个产品领域创造新的机会。亚马逊在1Q24业绩会上表示,基础设施建设与AWSAI功能正在重新加速AWS的增长率。生成式AI和模型训练需求驱动,AI收入占百度AI智能云收入在4Q23/1Q24分别达到4.8%/6.9%,其中大部分收入来自模型训练,但来自模型推理的收入快速增长。
大模型降价吸引客户上云。2024年5月,字节、阿里云、百度、科大讯飞和腾讯相继宣布降价策略,调低面向B端市场的大模型API调用费用。我们认为大模型API降价得益于算力芯片性能的提升与推理部署的优化,其目的在于吸引客户使用公有云,购买云厂商的计算、存储、网络和安全等基础产品。
大模型应用#5:大模型赋能搜索和广告等互联网传统业务
搜索、广告是互联网厂商的代表性传统业务,AI大模型赋能业务效果提升。我们看到AI从算法优化广告推送机制、广告内容生成2方面助力互联网公司广告业务。微软推出CopilotinBing,Google发布生成式搜索体验(SearchGenerativeExperience,SGE),提供更精准、更个性、更智能的搜索结果。其中,微软Bing借力GPT模型能力,市场份额有所提升。
广告:AI算法优化推送机制,生成式AI实现自动化广告制作
搜索:引入大模型后,Bing份额提升
微软Bing引入GPT模型能力开启生成式Web搜索新体验,市场份额提升。2023年2月,微软为旗下搜索引擎Bing配置AI增强型Web搜索体验助手NewBing,根据3月必应博客文章,预览版助手推出4周时间内日活用户即超过1亿,其中约1/3用户是第一次使用微软的搜索引擎。同年11月,微软将NewBing更名为Copilot。Copilot基于GPT-4和DALL-E,通过汇总Web搜索结果形成摘要和链接列表,并提供聊天体验来支持用户,优势包括:1)具备自然语言理解能力与多模态搜索和生成能力;2)以连续提问模式替代多次独立搜索;3)内置于微软浏览器网页边栏,同步化搜索与网页浏览过程;4)开发多平台延展,连接Web搜索和不同终端,如Skype、office365、GroupMe等。Copilot带来的搜索引擎流量增长数据亮眼,微软FY2Q24(4Q23)业绩会上表示,Bing的市场份额超过雅虎搜索,升至3.4%,由Copilot支持的搜索对话累计达50亿次,公司该季度搜索与广告收入同比增长近10%。根据StatCounter数据,Bing在搜索引擎中的市场份额已经由23年2月的2.8%提升至24年1月的3.4%。
PerplexityAI是势头强劲的新晋独角兽,专注于开发自然语言搜索引擎。PerplexityAI是世界首款融合了对话和链接的搜索引擎,公司成立于2022年8月,创始团队前司包括OpenAI、Meta、Quora、Databricks。根据官网披露数据,2024年1月,PerplexityAI月活用户即超过1000万,随后2个月内公司估值翻倍,同年4月公司估值达10亿美元,累积融资破1.65亿美元,正式跃升为搜索引擎领域的独角兽。该搜索引擎产品主要搭载第三方大模型,包括GPT-4o、Claude-3、SonarLarge(LLaMa3)、由开源的Mistral-7b和Llama2-70b模型微调、增强得到的pplx-7b-online和pplx-70b-online,用户可以根据自己的偏好选择使用的大模型。依靠检索增强生成技术(RAG),PerplexityAI使大模型和外部知识库连接,使得返回结果不仅限于大模型自身训练的资料节点,提高了生成结果的准确性。它能够解读自然语言,具有聊天对话搜索、智能文档管理和智能文本生成的功能,支持多轮对话和后续问题预测。PerplexityAI为免费用户提供无限次快速搜索和5次专业搜索,而Pro订阅用户可通过支付20美元/月或200美元/年的费用,每日使用300次专业搜素。
附录:国内外大模型公司进展
2022年11月,OpenAI推出基于的ChatGPT后,引发全球AI大模型技术开发与投资热潮。AI大模型性能持续快速提升。以衡量LLM的常用评测标准MMLU为例,2021年底全球最先进大模型的MMLU5-shot得分刚达到60%,2022年底超过70%,而2023年底已提升至超过85%。以OpenAI为例,2020年7月推出的GPT-3得分43.9%,2022年11月推出的提升至70.0%,2023年3月和2024年5月推出的GPT-4、GPT-4o分别提升至86.4%和87.2%。谷歌目前性能最佳的大模型得分达到85.9%。开源模型性能不容小觑,2024年4月推出的Llama370B得分已经达到82.0%。
AI大模型不断提升的同时,得益于算力芯片性能的提升与推理部署的优化,大模型应用成本快速下降,为基于大模型的应用发展创造了基础。目前OpenAI最前沿的GPT-4o(128k)输入输出的平均价格比2022年11月的GPT-3DaVinci低一半,主打高性价比的(16k)平均价格则比GPT-3DaVinci低95%。在GPT-4系列中,GPT-4o(128k)平均价格相较2023年3月的GPT-4(32K)低89%。
海外:微软OpenAI与谷歌领先,Meta选择开源的防御性策略
我们复盘了过去一年海外基础大模型训练企业在大模型技术、产品化和商业化上的进展。微软和OpenAI是目前大模型技术水平、产品化落地最为前沿的领军者,其对颠覆式创新的持续投入是当前领先的深层原因。谷歌技术储备丰厚,自有业务生态广阔并且是AI落地的潜在场景,过去由于管理松散未形成合力,我们看到谷歌从2023年开始整合GoogleBrain和Deepmind,目前正在产品化、生态化加速追赶。Meta选择模型开源的防御性策略,以应对OpenAI、谷歌等竞争对手的强势闭源模型。
微软OpenAI:闭源模型全球领先,大模型产品化处于前沿
产品化方面,微软与OpenAI将大模型能力对原有的软件产品、云计算业务、智能硬件进行全面升级。1)微软围绕企业办公、客户关系管理、资源管理、员工管理、低代码开发等业务环节具有完整的产品矩阵,2023年以来推出相应的Copilot产品对原有产品进行AI大模型赋能,其中产品化最早、最为核心的是面向企业办公场景的CopilotforMicrosoft365,以及面向C端用户的CopilotforWindows,以及集成在Bing搜索、Edge浏览器的Copilot。2)云计算业务方面,Azure云业务向MaaS服务发展,提供算力、模型、数据工具、开发工具等服务。3)智能硬件方面,微软在2024年5月发布GPT-4o加持的Copilot+PC,除微软Surface以外,联想、戴尔、惠普、宏碁、华硕等PC厂商也将发布Copilot+PC新品。
谷歌:闭源模型全球领先,自有业务生态及AI潜在落地空间广阔
产品化方面,谷歌将大模型能力融入自有软件业务、云计算和智能硬件之中。1)自有软件业务:谷歌在2023年5月I/O大会上宣布将PaLM2应用在超过25种功能和产品中,包括2B办公套件Workspace、聊天机器人Bard等等。随着谷歌主力大模型切换到Gemini,Workspace和Bard背后的大模型也同步切换。2)云计算:谷歌通过VertexAI和GoogleAIStudio向MaaS延伸。VertexAI是AI开发和运营(AIOps)平台,支持组织开发、部署和管理AI模型。GoogleAIStudio是基于网络的工具,可以直接在浏览器中设计原型、运行提示并开始使用API。3)智能硬件:2024年下半年,据Techweb,谷歌有望在10月推出Pixel9系列,预计将搭载基于最新Gemini模型的AI助手,执行复杂的多模态任务。
Meta:Llama开源模型领先
Meta凭借Llama系列开源模型在大模型竞争中独树一帜,目前已发布三代模型。Meta在2023年2月、7月分别推出Llama与Llama2。Llama2,提供7B、13B、70B三种参数规模,70B在语言理解、数学推理上的得分接近于,在几乎所有基准上的任务性能都与PaLM540B持平或表现更好。2024年4月,Meta发布Llama3,Llama3性能大幅超越前代Llama2,在同等级模型中效果最优。本次开源参数量为8B和70B的两个版本,未来数个月内还会推出其他版本,升级点包括多模态、多语言能力、更长的上下文窗口和更强的整体功能。最大的400B模型仍在训练过程中,设计目标是多模态、多语言,根据Meta公布的目前训练数据,其性能与GPT-4相当。Meta基于LLama系列模型打造智能助手MetaAI、雷朋Meta智能眼镜等硬件产品。Meta同时更新基于Llama3构建的智能助手MetaAI,无需切换即可在Instagram、Facebook、WhatsApp和Messenger的搜索框中畅通使用MetaAI。Llama3很快将在AWS、Databricks、GoogleCloud、HuggingFace、Kaggle、IBMWatsonX、MicrosoftAzure、NVIDIANIM和Snowflake上推出,并得到AMD、AWS、戴尔、英特尔、英伟达、高通提供的硬件平台的支持。此外,雷朋Meta智能眼镜也将支持多模态的MetaAI。
国内大模型:格局清晰,闭源追赶GPT-4,开源具备全球竞争力
我们复盘了过去一年国内基础大模型训练企业在大模型技术、产品化和商业化上的进展:1)国内闭源大模型持续追赶OpenAI:我们看到23年中到23年底的国内主流大模型对标,23年,开始对标GPT-4。例如2023年10月更新的文心4.0()“综合水平与GPT4相比已经毫不逊色”,2024年1月更新的智谱GLM-4整体性能“逼近GPT-4”,2024年4月更新的商汤日日新5.0“综合性能全面对标GPT-4Turbo”。2)国内竞争格局逐渐清晰,阵营可分为互联网头部企业、上一轮AI四小龙、创业企业。互联网头部企业中,目前百度与阿里在模型迭代与产品化上领先,字节跳动拥有领先的2C大模型应用豆包,但公开的大模型公司信息较少,腾讯的大模型迭代与产品化稍显落后。商汤是上一代“AI四小龙”公司中唯一在本轮浪潮中未曾掉队、持续创新领先的企业。创业公司中布局各有特色:智谱布局完整,开源、闭源模型兼具,2C/2B并重;月之暗面专注2C闭源,以长文本作为差异化竞争点;Minimax选择MoE模型,以2C社交产品切入;百川智能开源、闭源兼具,2B为主;零一万物从开源模型切入,目前开源和闭源模型兼具。3)国内开源模型具备全球竞争力。以阿里Qwen系列、百川智能Baichuan系列、零一万物的Yi系列为代表的国内开源模型成为推动全球开源模型进步的重要力量。
百度:文心大模型持续迭代,B/C端商业化稳步推进
文心4.0综合能力“与GPT-4相比毫不逊色”。继2023年3月发布知识增强大语言模型文心一言后,百度在2023年5月发布文心大模型3.5,2023年10月发布文心大模型4.0。相比3.5版本,4.0版本的理解、生成、逻辑、记忆四大能力都有显著提升:其中理解和生成能力的提升幅度相近,而逻辑的提升幅度达到理解的近3倍,记忆的提升幅度达到理解的2倍多。文生图功能方面,文心4.0支持多风格图片生成,一文生多图,图片清晰度提升。据百度创始人、董事长兼CEO李彦宏在百度世界2023上介绍,文心大模型4.0综合能力“与GPT-4相比毫不逊色”。
阿里巴巴:通义大模型开源闭源兼具,落地行业广泛
腾讯:混元大模型赋能自身业务生态实现智能化升级
混元已经接入腾讯多个核心产品和业务,赋能业务降本增效。2023年9月,腾讯上线混元大模型。混元已升级为万亿级别参数的MOE架构模型。截至2023年9月,包括腾讯云、腾讯广告、腾讯游戏、腾讯金融科技、腾讯会议、腾讯文档、微信搜一搜、QQ浏览器在内的超过50个核心业务和产品接入混元大模型;2023年10月超过180个内部业务接入混元;2024年4月,腾讯所有协作SaaS产品超过400个应用全面接入混元,包括企业微信、腾讯会议、腾讯文档、腾讯乐享、腾讯云AI代码助手、腾讯电子签、腾讯问卷等等。
字节跳动:豆包大模型赋能内部业务,对话助手“豆包”用户数量居前
字节跳动在2023年并未对外官宣其大模型,在2024年5月火山引擎原动力大会上首次公开发布。字节豆包大模型家族涵盖9个模型,主要包括通用模型pro、通用模型lite、语音识别模型、语音合成模型、文生图模型等等。字节跳动并未说明模型参数量、数据和语料,而是直接针对应用场景进行垂直细分。豆包大模型在2023年完成自研,已接入字节内部50余个业务,包括抖音、飞书等,日均处理1200亿Tokens文本,生成3000万张图片。2C产品方面,字节跳动基于豆包大模型打造了AI对话助手“豆包”、AI应用开发平台“扣子”、互动娱乐应用“猫箱”以及AI创作工具星绘、即梦等。2B方面,火山引擎也与智能终端、汽车、金融、消费等行业的众多企业已经展开了合作,包括OPPO、vivo、小米、荣耀、三星、华硕、招行、捷途、吉利、北汽、智己、广汽、东风本田、海底捞、飞鹤等。
商汤:“云、边、端”全栈大模型,5.0版本对标GPT-4turbo
商汤日日新5.0综合性能对标GPT-4turbo。2023年4月,商汤正式发布“日日新SenseNova”大模型体系,实现CV、NLP、多模态等大模型的全面布局。2024年4月,商汤日日新SenseNova升级至5.0版本,具备更强的知识、数学、推理及代码能力,综合性能全面对标GPT-4Turbo。日日新5.0能力提升主要得益三个方面:1)采用MoE架构,激活少量参数就能完成推理。且推理时上下文窗口达到200K左右。2)基于超过10TBtokens训练、覆盖数千亿量级的逻辑型合成思维链数据。3)商汤AI大装置SenseCore算力设施与算法设计的联合调优。
商汤推出“云、边、端”全栈大模型产品矩阵。1)云端模型即商汤最领先的基础模型系列。2)在边缘侧,商汤面向金融、医疗、政务、代码四个行业推出商汤企业级大模型一体机。一体机同时支持千亿模型加速和知识检索硬件加速,实现本地化部署,相比行业同类产品,千亿大模型推理成本可节约80%;检索大大加速,CPU工作负载减少50%,端到端延迟减少1.5秒。3)端侧模型方面,全面领先所有开源2B同级别模型,甚至在大部分测试中跨级击败了Llama2-7B、13B模型。日日新5.0端侧大模型可在中端性能手机上达到18.3字/秒的推理速度,在高端旗舰手机上达到78.3字/秒,高于人眼20字/秒的阅读速度。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)