借着传说中Intel在中国举办的有史以来规模最大的生态大会,谈谈AI PC生态于2024收官之际大致发展到了哪儿...

虽然最近在成都举办的“2024英特尔新质生产力技术生态大会”据说是Intel在中国举办的有史以来规模最大的生态大会——王稚聪(英特尔市场营销集团副总裁兼中国区总经理)在开篇致辞中提到,以往Intel的生态大会,基于数据中心/云、边缘计算、PC、软件等分开举办,而“今年我们将数个重要的生态大会融合到了一起”;

但不得不说,AI PC仍然是本次技术生态大会的绝对宠儿。不仅体现在主题演讲给到AI PC的篇幅最多,而且AI PC在本次一万平米的展馆内所占面积相当大,及展台特装看起来也都是最用心的。

最近TechInsights发文提到,Intel今年Q2已经获得了43%的AI处理器市场份额,与此前长期保持领先的苹果持平;AI PC处理器营收相比2023年Q4则增长6倍。这绝对称得上是颓废大环境与业绩现状下的一抹亮色了。

借着这个机会,也基于电子工程专辑对AI PC的长期关注,本文再度尝试谈谈2024收官之际,AI PC的生态大致走到了哪里。

 

处理器和工具链:普及工作进行中...

高宇(英特尔中国区技术部总经理)在下午的“AI PC软件生态产品发布分论坛”的开场演讲中说,AI PC要获得成功必须要解决三个问题:(1)PC的AI算力问题;(2)开发工具链问题;(3)应用/软件生态链的问题。

要做权责划分的话,以当代芯片企业“管得宽”的竞争特质,前两个一定是芯片厂需要花大力气去完成的,后一个则是芯片厂需要深度参与、辅助应用开发者共同达成的。

以往探讨AI PC的文章里,我们已经对前两个问题做过非常明确的阐释。对于Intel而言,面向PC提供AI算力的自然是酷睿Ultra处理器,基于XPU(CPU+iGPU+NPU)策略做AI加速;开发工具链则是在XPU基础之上,面向开发者的配套工具,典型的像是OpenVINO推理引擎,IPEX-LLM加速库,乃至AI模型适配等...

针对AI PC这两方面的构建,宗晔(英特尔中国区渠道与合作伙伴业务部总经理)也在主题演讲中给出了明确信息。AI算力方面,初代酷睿Ultra——也就是Meteor Lake“让AI PC扬帆起航”;刚发布不久的酷睿Ultra 200V——即Lunar Lake则“以超高能效比和旗舰AI性能为用户带来全新体验”;

“上个月发布的Arrow Lake处理器(酷睿Ultra 200S)将AI能力引入台式机,并将在明年扩展至高性能笔记本,加速了AI PC的普及”;“紧随其后,基于Intel 18A工艺的Panther Lake则将”实现AI PC体验的再升级...

这几代酷睿Ultra处理器每代都实现了AI性能的数倍提升,至Lunar Lake已经达成120TOPS的AI总算力;据说明年的Panther Lake还会带来AI算力的进一步跨越。所以高宇的总结是,“两年内PC的AI性能已经达到相当的高度,算力问题基本解决”。

而在开发工具链的问题上,宗晔提到“基于Intel OpenVINO深度优化硬件平台;与微软合作,完美支持Windows ML生态;通过IPEX与IPEX-LLM工具链快速适配开源生态”。高宇此前就已经自信地提过,Intel的工具链已经适配“目前能够跑在端侧的几乎所有模型”,所以工具链也并不成为AI PC普及的瓶颈。

第三个问题,最上层的软件与应用生态。“终端用户接触的不是工具链,也不是模型,而是好用的软件。”高宇谈到,“所以Intel过去一年花了很多时间”,一方面让“PC行业的软件厂商”加入AI能力,“让软件更有意思”;另一方面“以前不是PC行业的合作伙伴也能进入到PC行业”。

活动现场八角笼设计的AI PC专区高耸的AI PC柱子

照例提到的成果数据是,Intel和全球150+家ISV与国内40+家ISV“展开广泛合作”,也相继推出ISV加速计划与AI PC软件大赛,促进AI PC生态发展。目标是在5大场景实现落地,包括知识助手、办公助手、娱乐助手、创作助手,及更多垂类助手,并期望从中发现潜在的“杀手级应用”。

不过这些数据和成果汇报,看起来还是太泛了。实际上,下午场的“AI PC软件生态产品发布分论坛”就属于“Intel搭台,软件合作伙伴唱戏”,谈的就是更具体的AI应用与生态了。即便其中的好些应用,我们已经在前两个月见到过;但更具体的内容分享,还是有助于我们理解AI PC生态发展的实际成果...

 

端侧AI模型:和摩尔定律的交会

在谈具体的应用之前,先谈谈AI大模型。将大模型搬到边缘和端侧,可能是过去这大半年的热议话题。这本身就能代表端侧AI、端侧生成式AI的发展成熟度。或许这一议题的关键还在于,即便是面向AI HPC的大模型,是否就是堆更多的参数就更好?

面壁智能副总裁缪钧玮在演讲中提到所谓“模型知识密度”的概念,即模型能力÷模型参数。下面这张表中的红色曲线,反映的是在模型参数量级不变的情况下,每8个月模型能力就会提升1倍。所以“现在一个差不多20亿参数的模型,就已经能够达到当年1700亿参数GPT-3的水平”。

如果将其与相关晶体管尺寸微缩的摩尔定律放到一起——即摩尔定律还在持续令单位面积内的晶体管数量增加,“当这两条曲线相交时,我们就能在给定更为有限的算力下,去完成非常复杂的功能;也就将端侧的智能很好地做到了激活。”缪钧玮说。

虽然我们不知道这两条曲线的y轴是怎么算的,但这的确是个绝妙的、描绘大模型走向趋势的方式。在面壁智能看来,大模型走向端侧,走向更优的效率,“来自大模型科学化的不懈追求”。

“过去这段时间,我们和Intel协作,将轻量化的MiniCPM端侧模型,跑在了PC上。”缪钧玮展示的成果是,面包小钢炮端侧模型跑在Lunar Lake芯片上,经过“深入硬件底层计算加速与调度优化”,包括基于OpenVINO,实现了AI推理加速提升167%,以及首token延迟降低17%。

所以面壁将9月份发布的MiniCPM 3.0称作“端侧ChatGPT时刻到来”,提及它以4b参数规模,在性能上超越GPT-3.5,且多模态OCR的某些能力接近GPT-4V水准,是为大模型的“科学化”。“只需要2GB内存占用,对端侧非常友好;甚至不需要Intel最新的硬件平台,就可以流畅地把模型跑起来。”

包括“无限长文本”支持,“性能超Kimi”;“GPT-4o级function calling”;“RAG外挂三件套”“中文检索第一”“生成超Llama3-8b”;另外还有演讲中介绍的MiniCPM-V系列的多模态大模型,“对标GPT-4V”,2.6版的微表情捕捉分析据说只需要2b参数规模,就能识别人类超过20种情绪等等...都体现了端侧AI模型过去这1年时间的快速发展。

当然,分论坛发表演讲的AI模型企业不单是面壁智能一家。智谱也在与Intel持续数月的合作后,发布了GLM-Edge端侧大模型,包括大语言模型(GLM-Edge-4B-Chat, GLM-Edge-1.5B-Chat)和多模态模型(GLM-Edge-V-5B, GLM-Edge-V-2B)...

智谱智能终端行业负责人何国帅甚至给出了几个模型跑在Lunar Lake处理器上的具体成绩,包括首响时间、推理速度、内存占用峰值,“不需要依赖非常顶尖的高性能芯片”,“能够实现模型的普适”。

另外智谱也基于GLM-Edge端侧大模型,打造了端侧的智谱清言应用——“最近几周就会发布”,届时可直接下载使用——这本身就是大模型应用落地。据说支持长文本问答(20万字、30M文档支持)、本地知识库问答(应当是基于RAG,支持一次性学习50个文档)。这和半年前的端侧大模型应用,至少就参数看来就已经是天壤之别了。

模型部分最后值得一提的是,智谱也在会上特别介绍了CodeGeeX,一款IDE插件形式的AI编程助手。实际上AI编程工具现在已经相当火了,有统计显示35%的开发者每天都会用代码生成工具;AI编程工具作为IDE插件和本地部署的使用占比据说超过了60%。

所以智谱在CodeGeeX产品上,也选择和Intel一起打造了一个专门的AI PC版,能够实现端侧的代码处理,轻量级的部分功能——如代码补全、代码注释与翻译——据说也是程序员现在最高频的功能需求,以及智能问答相关的代码解释、函数重构、单元测试等工作交给端侧完成;

结合云侧更强大的功能,包括代码解释器、检索增强,乃至项目级能力;整体以端云协同的方式实现;据说未来随着处理器AI性能的进一步加强,智谱还考虑让端侧覆盖更多样化的AI编程功能...

无论如何上面这些都体现了当代AI大模型效率的显著提升。

 

具体到应用:实用性在加强

下午场的“AI PC软件生态产品发布分论坛”,谈具体应用的包括腾讯应用宝、印象笔记、同花顺、北科瑞声、新智慧心等(是否也体现了存量应用,与新增应用并行发展的思路?)。比较有趣的是,这些应用层级的开发者,多少也都谈到了端侧模型部署的“最佳实践”:即便他们本身可能并不做基础模型,也在强调要在端侧使用AI大模型的能力,就要求进行各种各样的优化。

比如印象笔记谈到的KV分层缓存,缓解端侧内存压力,以及如何降低首token延迟、解码延迟等;同花顺则强调了“模型蒸馏”、“投机解码”达成端侧推理的优化,大幅提升QPS与首token时间。即便不看他们究竟用AI模型干什么,这些也都能体现了AI应用以及整个生态的进步。

虽说AI PC领域引发轰动的“杀手级应用”可能还没有真正出现。但相比在半年前,我们对于生成式AI的诸多质疑,好些都已经烟消云散。比如说为什么要在端侧搞生成式AI:好比CodeGeeX在端侧的AI代码补全与生成,于码农要的就是实时性。

又好比新智慧心推出的“GameSkills”游戏技巧产品,作为《无畏契约》《英雄联盟》游戏的“AI教练”式存在,于竞技类游戏做游戏训练,实时要求就可能高到云上AI很难搞定的程度了。新智慧心创始人陈迪介绍与《无畏契约》官方+Intel合作的游戏技巧,现阶段主要做技能投掷点位教学。

感觉还挺出乎意料的是:这类AI助手主要是通过录屏、检测画面,藉由AI CV——包括识别小地图、人物坐标、英雄、line-up点位等,最终以画面中浮窗的形式给出玩家指导与辅助。这个流程在我们看来还是挺暴力的,现在的AI PC却都已经能够完全实时完成、在竞技类游戏中给出玩家指导了。

《无畏契约》GameSkills当前已经在职业选手中进行测试,后续也会面向普通玩家发布

陈迪说这个过程也是藉由XPU,即三个不同的处理器单元协作完成的。这其中又有个我们提过的有趣逻辑:即以前我们疑惑,当游戏需求高性能独显时,为什么不直接用性能更好的独显来做AI推理,而要用CPU+NPU+iGPU;陈迪的解释是,独显需专注于图形渲染——如果还要用它做AI推理,则画面可能会掉帧。

“对于对抗性很高的游戏而言,哪怕掉个10fps,玩家都可能无法接受。”加上某些游戏还借助独显的AI加速单元做超分和帧生成,则其面临的负载更重,此时“更需要XPU架构去跑端侧AI”。

而要说AI达成的实用功能,北科瑞声的AI PC会议大师能够进行基于本地算力做会议转写、说话人分离,乃至不同语言的实时翻译;以及腾讯应用宝PC版,借助生成式AI,更多的能够发现用户需求,达成行之有效的应用分发、提升商业转化能力;还有印象笔记的AI标签生成与分类、笔记内容对话并生成新笔记等...这些都称得上实用。

不过我们认为,这其中看起来更突破想象的,还是同花顺——炒股或接触金融的读者对同花顺应该非常熟悉了。同花顺做了AI PC版,核心是“同花顺金融指标代码大模型”,同花顺AI PC 1.0版也是同花顺多个团队与Intel协作的结果。

我们理解AI PC版同花顺的能力核心在于,对于某些有投资逻辑的专业技术面投资者而言,如果他不具备写金融指标代码的能力,那么在同花顺软件里,就可以自然语言对话的方式,让AI直接进行对应的操作。同花顺人工智能创新产品负责人郭云三说,投资逻辑公开的话,会影响盈利——所以这也是做端侧AI更具被隐私安全特性的典型案例。

现场演示提出需求“根据各股股价、振幅、资金流向,衡量个股是否处于超涨或超跌状态”,AI生成代码并直接画图

“用户通过自然语言,就能对话式地实现智能画线、指标设置、指令控制、数据可视化等功能。”而且是依托本地AI算力,“用户不需要花大量时间学习编程,也不必在社区求助其他人。”实用性之外,这也算得上Intel定义的垂类AI助手应用落地了。

看起来更高的AI算力底座、更高效的模型,和更具实用性的应用,的确让端侧生成式AI变得更有说服力了。

 

集行业万千宠爱的AI PC

高宇说AI PC概念被提出,至今也不过短短1年,这么短的时间里“AI PC就获得了行业万千宠爱”,是PC行业激发“增量市场”全村的希望。所以之前才有人说,AI PC概念的出现与发展,是全产业链都在参与推动的“阳谋”。

回过头来看宗晔提到的目前Intel客户端三大战略:(1)打造高能效端侧XPU AI算力底座;(2)构建高质量软件生态,推进AI应用普及;(3)本土应用新需求,拓展客户端新机。

除了最后一个,前两者基本就是本文内容涵盖的范围;且显然第2个,是Intel要实现AI PC普及,与生态全面扩展关键中的关键。也就不难理解,AI PC作为“全村希望”的内核了:它势必要走向生态健全与应用的成熟,以及更广泛的用户覆盖。AI PC的盛宴才刚刚开始。

至于第3点,我们从生态大会现场看到的,关键点在于更广泛的客户端设备形态,及新需求的开拓。比如说会上腾讯/IEG/新互动产品总经理吴丹发布的,基于Lunar Lake处理器的裸眼3D游戏掌机(3D One,如下图)、AI NAS设备,展场中展示的绿色PC、迷你PC、PC Farm等。毕竟这些也都符合推动Intel客户端发展的“五大引擎”:AI、商用、娱乐、计算、低碳。

责编:Illumi
本文为EET电子工程专辑原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
阅读全文,请先
您可能感兴趣
台积电的1.6纳米芯片“A16”技术具有多项创新点,其中最显著的是其超级电源轨(SPR)背面供电网络。这一技术是台积电首创,专为高性能计算产品设计,旨在提高芯片的性能和降低功耗。
使用旗下CUDA-Q平台,谷歌可以在英伟达Eos超算上动用1024块H100 Tensor核心GPU,以极低的成本执行全球最大、最快的量子设备动力学模拟,可以对容纳40个量子比特的设备进行全面、逼真的模拟。
为了应对这一挑战,英伟达正在与多家云服务提供商合作,共同优化散热方案,并强调工程迭代是正常且预期的一部分,但其交付时间或不得不再次推迟。
晶华微的信披问题并非首次被监管机构关注。2022年以来,公司及其多名高管已多次因信息披露不准确、募集资金管理和财务章使用不规范等问题收到上海证券交易所的监管警示。
最近国产AI芯片市场遭遇一波有关7nm被禁的震荡,现状如何了?
摩尔线程的全功能GPU芯片采用自研MUSA架构,内置图形渲染、视频编解码、AI计算加速、物理仿真和科学计算四大引擎。这些芯片能够支持多种工作负载,包括AI训练与推理加速、超高清视频编解码、物理仿真与科学计算等。
12月11-12日,“上海集成电路2024年度产业发展论坛暨第三十届集成电路设计业展览会”(ICCAD-Expo 2024)将在上海世博展览馆隆重举行。
A9136M4是一款结合高效能与成本改善的SoC芯片,适用于多种物联网应用。芯片数位核心整合了ARM® Cortex® M4F处理器,内建高达512Kbytes/1536Kbytes的Flash记忆体与80KBytes SRAM,同时提供多种强大的功能模组,满足市场对高效能无线解决方案的需求......
2024年10月29日,小米正式推出其新款智能穿戴设备——Redmi手环3。Redmi手环3搭载了炬芯科技ATS3085E智能手表SoC芯片。
派克汉尼汾以“赋能电气化”为主题,在上海新国际博览中心亮相 bauma CHINA 2024,全方位展示旗下前沿的产品技术组合与解决方案,助力工程机械行业打造新质生产力,实现绿色可持续发展。
动动手指,关注公众号并加星标哦最近在看运放的设计视频,博主的讲解思路,是从运放整体指标推出各个管子的尺寸的初值,然后再用仿真软件验证。我做的接收机课程(课程介绍见文章底部)时的思路差不多也是这样,先从
国芯网[原:中国半导体论坛] 振兴国产半导体产业!   不拘中国、放眼世界!关注世界半导体论坛↓↓↓11月28日消息,据俄罗斯联邦工业和贸易部副部长施帕克表示,俄罗斯已经拿到了第一批48核心的自研处理
芯片超人现有1600平米芯片智能仓储基地,现货库存型号1000+,品牌高达100种,5000万颗现货库存芯片,总重量10吨,库存价值高达1亿+。同时,芯片超人在深圳设有独立实验室,每颗物料均安排QC质
诚邀您参加“安富利×英飞凌专题技术直播活动本期直播将为您讲解触摸感应技术的前世今生、发展趋势、解决方案,一起探索触感革命的历史与未来!报名活动更有机会赢取惊喜好礼🎁先睹为快:小课堂亮点概览 🔍触摸感应
在AI热潮与需求推动下,英伟达与台积电备受投资者瞩目,2家公司的股价今年也持续攀升。尽管英伟达目前的市值远高于台积电,但外媒评析认为,基于台积电在半导体领域的关键地位,以及持续对AI芯片的投资,预计在
2024年电动智能汽车行业报告汇总(点击进入)近日,网传比亚迪将收购蔚来汽车一事,引起网友热议,随即,比亚迪与蔚来方均发声辟谣。在接到相关方报案后,合肥市公安局经开分局迅速依法对此事开展调查、处理,经
彭博社报道,据知情人士透露,拜登政府正在权衡对向中国销售半导体设备和人工智能存储芯片的额外限制,这将升级美国对北京科技野心的打击,但并不会采取之前考虑的一些更严格的措施。这些限制措施可能最快在下周公布
项目需求:VR软件适配到海光平台现在:AMD R7+windows。目标:海光c86 3350+银河 Linux我们是用SteamVR插件开发的VR软件,目前的卡点是 SteamVR这个插件在软件运行
点击上方蓝字关注我们微信公众号:OpenCV学堂关注获取更多计算机视觉与深度学习知识数据集说明数据集来自工业相机采集10张原始图像,然后通过OpenMV工具软件数据增强以后得到170张,基于OpenM
随着新的技术比如无人驾驶,人工智能等快速发展迭代,对新的测试项目和方案落地时间的要求也越来越高。有效利用各种不同语言和平台下已经开发好的“轮子”并快速集成到整体的测试方案中来可以达到事半功倍的效果。会