鸿蒙4里的大模型,能否撑起华为的野心?

一个以大模型作为终极操作系统(AIOS)的AI时代,终将会统合分裂的物联网市场。

这几天,关于鸿蒙4的文章、报道,可谓沸沸扬扬。


【资料图】

一时间,就算是不关注AI赛道的人,都听说了这个新系统里有个大模型,它大致相当于被升级、强化后的Siri。

比如能帮你生成点文章摘要、图片,或是自动订个酒店什么的。

但是,华为的野心,可不止是在手机里干点生成图片、文字的小花活。

人家可是把万物互联的梦想,都寄托在了这个小小的AI之上了呢。

具体来说,就是以手机上的大模型为起点,不断将智能化技术扩散到智能家居、智能汽车、甚至是智能城市之上。

如此,最后就能形成一个“万物互联”的超级终端。

其实,这不只是华为的野心,苹果、高通、荣耀等大厂都编程客栈进行了类似的布局。

毕竟,大模型与终端的结合,是下一阶段AI战场必争的阵地。

然而,要知道,现在有点竞争力的通用大模型,体量和参数,往往都是一千亿规模往上的。

要想把这么一坨“庞然大物”塞进小小的手机,还要能保证性能,绝非易事。

如果关键的技术问题没处理好,大模型终端化的梦想,最终将难免会沦为镜花水月。

1

可靠性问题

要让大模型进入终端,首先要解决的问题之一,就是输出的可靠性问题。

毕竟,任何使用过大模型的人,几乎都见识过各种各样的幻觉和谬误,而这样的幻觉一旦出现在终端侧,产生的损失和后果,往往比处理“案头工作”时要严重得多。

例如,在鸿蒙4的发布会上,华为就介绍到:大模型AI小艺,会根据你的地点数据等信息为你个性化推荐信息。

以出国旅行为例,在出发前小艺会提醒你出行信息,出发后小艺会给你推荐翻译等实用功能,到目的地后,则会展示当地的美食和地点导航。

然而,倘若处理不好可信、可控问题,一个可能出现的情况是:由于信息过时或错误,小艺告诉了你一个已经变迁或不存在的地点。不知情的你被“带偏”后,才恍然自己走了不少冤枉路。

同样地,在智能驾驶领域,倘若车辆上的大模型在终端侧输出不可靠,就会导致规划决策结果出现不合理、不符合交通规则的情况,影响车辆的行驶效率和安全性。

类似的情况,如果出现在2B端,只要存在1%的偏差,都将给企业埋下风险的种子,成为落地的门槛。

目前,关于大模型可信、可控方面的问题,学术界没有完美解,只能在各个环节逐步逼近。

但有一点却是业内的共识,那就是:预训练数据越多、越广,就越可以提高大模型的泛化能力和鲁棒性,从而减少生成幻觉和错误的可能性。

在之前披露的信息中,华为对外宣称自身的盘古大模型涉及项目超过1000个,除了学习大量通用知识外,盘古还深耕金融、政务、气象、医疗、健康、互联网、教育等行业,每个行业数据量超过500亿tokens。

从数据层面来看,可谓涵盖面甚广。

但需要注意的是,盘古大模型实际上分为了四个版本,分别是100亿参数、380亿参数、710亿参数和1000亿参数。

考虑到手机的硬件性能和运行环境,鸿蒙4中搭载的,很有可能是100亿参数版本的盘古大模型。

想在这100亿的数据规模上,保障大模型的准确性、可靠性,可能吗?

对于这个问题,华为有两种可能的解决方案:

首先一种,是直接将鸿蒙4中的大模型,变成一个看似通用的“专用”大模型。

这样的思路,其实是一种小而精的策略。

因为在某些特定场景,预训练数据的质量和相关性,远比其数量和范围要重要得多。

具体到手机方面,由于人们使用手机的场景、用途,都是相对比较固定的,例如查天气、导航、订外卖、订酒店等,因此华为可以根据这些特定的“手机场景”,针对性地搜集相应的高质量数据。

而经由这种高质量、高相关性数据训练出来的紧凑型语言模型,有可能在特定任务和场景上表现得比大参数模型更出色。

而第二种方式,则是通过“压缩”的方式,在不牺牲性能和精度的情况下,降低模型的参数。

2

化大为小

可以说,压缩功力的强弱,直接关系到了端侧大模型的可靠性、质量。也是大模型走向端侧的必要条件。

因为只有把模型压缩到了完全能在终端侧运行,摆脱云端计算的地步,大模型才能适应更多对延迟性要求高的边缘场景。

例如,智能汽车对于模型运行的可靠性和延迟要就非常高,在实时变化的路况中,如果在云端运行大模型,并且使用网络把结果传送到终端,肯定无法满足智能汽车的需求。同时,完全终端化、本地化的运行方式,也是出于对用户数据、隐私方面的一种考虑。

这也是为什么,颇为重视隐私的苹果,也宣布自己将要发布的AppleGPT将采取完全本地化的方式运行。

同样地,在鸿蒙4上,华为表示AI“小艺”相关的数据和学习的都是在端侧推理,以保障用户的安全和隐私。

既然“压缩”是大模型终端化的必要条件,那么目前在这方面,华为和其他大厂的差距究竟如何呢?

在之前的WAIC大会上,高通展示的手机大模型,已经能做到在安卓手机上,直接运行参数规模超过10亿的StableDiffusion,而且生成效果也还过得去。

而这背后,靠的正是不俗的模型压缩能力。

通过量化、压缩、条件计算、神经网络架构搜索和编译,高通在不牺牲太多精度的前提下对AI模型进行了缩减。

比如在在量化方面,高通将FP32模型量化压缩到INT4模型,实现了64倍内存和计算能效提升。

在这方面,华为自身的昇腾模型压缩工具,也提供了一系列的模型压缩方法,根据量化方法不同,分为基于calibration的量化和基于retrain的量化。

而上述两种量化方法,根据量化对象不同,分为权重量化和数据量化。

而具体来说,权重量化对模型影响不大,而数据量化对模型影响比较大。

这样的影响,可以用一个形象的比喻来说明:

压缩大模型就像切西瓜,而权重量化就像是把西瓜的种子变成整数,数据量化就像是把西瓜的果肉和果汁变成整数。

一般人吃西瓜的时候,更在乎的往往是果肉,而不是种子。

同理,权重是模型的一部分,但不是最重要的部分,我们运行模型的时候,主要关注的是输入输出数据的准确性和多少。

也正因如此,在用户可感知到的范围内,权重量化对模型性能的影响是较小的hfIyHkApK

而这也是为什么,谷歌、腾讯、百度等在将模型压缩技术结合到移动端时,使用的也大多是权重量化。

例如腾讯提出的NCNN和MNN模型,主要就是存储模型中各层的权重值。ncnn模型中含有扩展字段,用于兼容不同权重值的存储方式。

在科技发展的路径上,有一条真理,那就是:正确、合理的技术,往往都存在着一种趋同化的“最优解”,很少会存在什么“秘技”。

说到这里,问题来了:既然在可预见的未来,各个大厂在模型压缩、量化方面的技术,大体上都是趋同、相近的,那么在这场“终端AI”竞赛中,真正决定性的制胜因素,究竟是什么?

3

总结

在终端大模型的较量中,除了模型压缩、端侧芯片外,最主要的因素,就剩下了终端软件生态的搭建。

由于端侧芯片实在是一个太大的话题,受于篇幅所限,此处不再赘述,将来会单独用一整篇的内容加以分析。

这里主要重点说下终端软件生态。

一个可以预见的未来是:由于终端设备的多样性,碎片性,将来的终端大模型,必定会出现针对不同应用场景的“智能助理”。

例如,音箱中的智能助理,可以帮助我们管理智能家居;在工作场合,耳机中的智能助理可以作为秘书帮助处理会议纪要等工作。

在这种情况下,谁若能率先取得多模态方向上的突破,针对不同场景微调,提供多样化、专属化的智能助理,谁就能在终端大模型的长跑中,处于领先优势。

此外,考虑到手机、智能家居等终端设备,具有很强的“私有性”,因此,如何根据用户的个编程客栈人喜好和使用习惯,进行自适应学习,并提供个性化的建议和服务,就成了终端大模型能否长期陪伴用户的关键因素。

而倘若上述问题,都得到了较好的解决,那么一个以大模型作为终极操作系统(AIOS)的AI时代,就迟早会到来。

到了那时,分散、割裂、碎片化的物联网应用市场,也终将被大模型AIOS统合。

关键词: