为什么在移动芯片上,ai功能如此被看重?-凯发app

深度报道

为什么在移动芯片上,ai功能如此被看重?

从去年11月chatgpt爆火出圈以来,大模型成为几乎所有企业追逐的业务,而让这些企业疯狂追逐的原因,当然是在可预见的未来,人工智能将席卷各行各业,带来生产力的革命。

近日,骁龙8 gen3、天玑9300接连发布,最受关注的点,不再是参数的数值,而是标配的ai。

为什么在移动芯片上,ai功能如此被看重?对于用户来说这将带来怎样颠覆性的体验提升?

先说答案,对于移动芯片来说,未来的竞争核心是ai,ai性能的好坏将成为衡量芯片优劣的核心标准之一。

之所以这么说,当然和人工智能行业的发展密不可分。

从去年11月chatgpt爆火出圈以来,大模型成为几乎所有企业追逐的业务,而让这些企业疯狂追逐的原因,当然是在可预见的未来,人工智能将席卷各行各业,带来生产力的革命。

这个诱惑是谁也不愿错过的。

对于手机厂商来说,这同样是一个天赐良机!

一方面,手机圈卷的太厉害了,有了突破点就必须要抓住;另一方面,大模型的应用和手机有着天然的契合点,堪称绝配。

因此,骁龙和天玑最新的芯片都强调ai功能的引入。

10月25日,2023年骁龙峰会上,高通推出的骁龙8 gen3,把生成式人工智能功能直接引入芯片组。

骁龙8gen3把hexagon dsp升级为hexagon npu,带来了高达98%的ai算力提升,以及40%的能耗降低,支持终端设备上运行100亿参数的模型。可完成对话,生成图像或文本,不到一秒就能生成一张图。

11月6日,联发科发布天玑9300旗舰5g生成式ai移动芯片,集成联发科第七代为生成式ai设计的apu 790,整数运算和浮点运算的性能是前一代的2倍,功耗降低了45%,并且内置了硬件级的生成式ai引擎,可实现更加高速且安全的边缘ai计算,处理速度是上一代的8倍,1秒内可生成图片。

另外,联发科结合内存硬件压缩技术等,大幅减少ai大模型对终端内存的占用,支持终端运行最高330亿参数的ai大语言模型。

可以看出,高通和联发科都在最新旗舰芯片的ai性能上下了不少功夫。

而之所以这么做,一方面当然是为了性能的整体提升,另一方面,也给端侧大模型提供了支持。

关于大模型,最近数月,华米ov荣耀等几乎所有厂商都官宣了自家产品。那么要如何更好的和自己手机等硬件结合呢?部署端侧大模型就是选择之一。

我们知道,云端部署大模型对于个人隐私的保护不利,响应速度和适用场景有局限。

相较于单纯在云端部署,端侧ai大模型可基于用户偏好,对用户意图理解更精准,提供更好的个性化服务,结合多模态自然交互,打造个人化全场景智慧服务。

所以,部署端侧大模型是有必要的,当然,与云端的结合能更好的发挥大模型的价值。

有了大模型,未来我们的手机语音助手将不再是“智障”,而是一个更加人性化的情感陪伴,一个高效的生产力工具。另外,手机的各项功能体验都将带来革新。

这样的一次变革,每一个厂商都会竭力去争取。

搭载骁龙8 gen3、天玑9300的手机现在已经开始陆续开售,加上在软件上的不断升级,未来用户对各品牌的评价又会多一个评判标准:这个品牌的人工智能体验如何。

华为、小米、oppo 、vivo、荣耀等都已经在做了,建议用户在手机上探索一下。

可能唯一遗憾的是,苹果的人工智能有些掉队。当然,苹果用户可能并不在意这一点,毕竟ios很流畅,苹果手机已优秀到不需要人工智能了~

关键词

24快报
元宇宙的喜与忧
2024年2月23日 10:28
json抓取失败
网站地图