苹果的不是,这正是我最期待的地方

苹果终于发布了自己“AI”,尽管它并不是AI。

把AI解释为“AppleIntelligence(苹果智能)”的缩写,总会让人回想起当年在上海,杰克马面对一龙马,将AI释为“AlibabaIntelligence(阿里智能)”的尴尬时刻。

过去这些年,当众多厂商都在迫不及待地给产品冠以各种“AI”之名时,苹果却从未这么做,它坚持使用“神经网络”、“机器学习”等词语,并表示“这样描述才更准确”

——面对“人工智能”这一概念,苹果始终保持着极大的克制和谨慎

是AI,但又不是AI。尽管来迟,但不妨碍所有人都将这次发布会视为苹果迈入AI时代的关键一步。发布后一周,苹果股价暴涨10%。

除名字之外,苹果这套AI系统和其他大模型AI项目依然有着根本区别。苹果的模型参量要小得多,终极目标也不是要训练出“通用人工智能”。它最关键的任务,是将人们对AI的想象,从“洞悉一切的全知神”,变成“了解用户的贴身助手”

Make智能手机智能again

WWDC24上发布的苹果智能,从功能上可以分为三大部分:文字、图像和Siri。

其中,文字和图像相关的功能,包括文章改写、总结、语法检查、生成图片、智能P图,都是大家很熟悉的生成式AI能力。因为这部分功能所使用的端侧模型相对较小,不难预见,它的效果很可能比不上GPT-4o等云端大模型。

苹果AI真正的革命性变化,在于Siri。

AI模型的支持,对Siri进行了一次“史诗级加强”。它理解语言的理能力增强了,并且可以跨app进行信息检索、调用功能。更重要的是,苹果提出了一个极为关键的概念——“个人语境”(personalcontext)

简单来说,“个人语境”包括了你的iPhone及其他苹果设备上正在发生的一切

。比如接下来的日历事项安排、最近拍过的照片、浏览过的网页记录、朋友发送给你的链接、文件……

苹果AI会利用这一切的私人数据,来构建一个“私人知识库”

,用户则可以通过自然的对话交互,获取自己需要的信息,找到对应的手机功能。

比如在AA账单时,问“昨天朋友发给我的吃饭小票是多少钱?”;在订机票时问“我的护照号码是多少?”,Siri会从相册里找出护照页的照片,并提取号码;

这是AI与智能手机结合的焦点

,是让AI变得“真正有用”的关键钥匙。目前我们熟知的大模型大都是利用公共的语料数据进行训练,形成的知识也是一种“通识”,但普通人使用计算机和互联网时,大部分时间都是在创造和使用私人信息

特别是智能手机已普及如此的今天,它几乎就是我们人生的“记忆库”,储存着大量的照片、通讯记录、偶尔灵光一闪写下的笔记……这些数据在堆积之后,逐渐变得越来越难整理,而AI则有可能能够帮我们重新挖掘、组织这些记忆。

基于“个人语境”来构建模型和私人知识库,以及如何将部分知识与通识模型进行结合,将会是未来苹果AI发展的关键

一切为了“隐私”

技术上,苹果AI分为了三个大部分,对应三套模型

首先是运行在手机上的“本地模型”,其次是运行在苹果全栈自研服务器上的“云端模型”,最后它还可以在系统层接入OpenAI的GPT,后续还会接入更多第三方AI模型服务。

通过这种方式来搭建架构,是因为苹果需要谨慎而迫切解决的问题,是隐私

根据目前苹果放出的技术资料,苹果AI首先会从系统层面收集各种信息,生成一个“语义目录”,也就是“个人语境”的基本数据单位,供模型进行理解。第三方app里的数据也有对应接口,经开发者适配后,可以实现类似效果。

这些数据会经过语言和图像两个模型进行理解,之后如果本地模型的算力不够,在用户需要的时候,系统则会整合这部分语义数据,发送到苹果的服务器上,通过云端更大的模型进行理解。

这一套“语义目录”包含了用户最敏感的个人数据,其中很多还是在后台默认采集,才能实现“Siri了解了你”的神奇效果

,过程中用户可能无法很明确地知道具体哪些数据被采集了。

所以,为了实现这部分功能的隐私安全,苹果作出了不少努力和牺牲

苹果所部署的本地模型参量虽然比不上云端大模型的千亿万亿级,但也有约30亿的参量。所以只有搭载A17Pro芯片的iPhone15Pro系列,以及M1以上芯片的iPad和Mac才支持这一功能,考虑到大部分用户都会主力通过iPhone使用苹果AI,这可能会极大影响到苹果AI早期的冷启动。包括本地模型运行时的负载,可能也会影响手机的日常发热、续航表现。

而针对云端模型和服务器,苹果也拿出了最高级别的隐私安全实践

。苹果承诺不会在模型服务器上储存任何用户信息;只有当用户主动请求时才会调用云端模型介入;云端模型所使用的芯片全都是苹果自研,没有任何第三方芯片;最后,苹果表示所有的隐私承诺将经过第三方验证。

直到这一步,用户所有的数据和GPT等第三方大模型,都是严格隔离的。针对GPT的接入,苹果则做了产品层面的明显区分,只有用户“主动输入”的信息,才会以prompt的形式发送到GPT,且过程中苹果会进行二次确认,提醒用户“接下来将会跳转到GPT”。

考虑到苹果已经在iCloud上储存了大量的用户数据,且多年来从未出现过大的泄漏安全事故,苹果在AI上采取的超高级别的隐私承诺似乎有点夸张。但事实证明一切还是有必要的,就在发布会后不久,ElonMusk就针对苹果AI的隐私问题展开了攻击,暗示用户使用苹果AI就会把数据泄露给OpenAI

,尽管这一揣测还没有什么真实依据。

对苹果AI来说,隐私问题本身或许还能通过技术和产品设计解决,但由隐私问题所衍生出这一套分散的模型架构,才是真正的隐患和难题。

如果苹果AI一直高度依赖本地算力,考虑到模型规模和性能负载,它采集数据的颗粒度可能就会受到限制,停留在比较粗糙的层面,难以实现大模型那么顺畅的理解和交互。

目前在苹果AI的介绍页面里,整个“个人语境”还只能采集系统自带官方app的信息。第三方开发者要如何适配AI?会不会积极适配AI?还要打上不少个问号。

过去,苹果推出过多个系统内的便捷API,比如能够在相册app里直接利用第三方app的编辑工具修图,以及“快捷指令”和“AppClips小程序”,这些开发套件都没有得到第三方开发者的积极适配,因为接入这些便捷功能反而会影响app本身的活跃和留存。类似的问题,很可能也会在苹果AI上重演

所以,苹果AI所面临的隐私问题,苹果的不是,这正是我最期待的地方其实只是一连串难题的开始。与大模型“大力出奇迹”的发展方法论不同,想要将AI与手机结合,就必须重新设计整条技术链路。

从数据如何采集,过程中保证安全,训练拟合时如何追求效率和效果,到输出时如何转化为产品的功能……这和训练大模型,做一个“聊天机器人”完全不同

谨慎地期待,耐心地等待

大模型AI落地的主要难题,在于“产品化”。

大模型诞生的过程,靠的是构建一个巨大的神经网络,这个神经网络是单一的,难以被hack,更难拆分。

就像GPT目前严格来说依然只有ChatGPT这一个应用,大模型是封装好的单一系统,并不能像传统的计算机程序一样,所以就难以定义功能、产品化

目前围绕ChatGPT所做的那些产品,基本都是通过prompt实现的,并不具备一个产品所需要的严谨性,它依然偶尔会返回错误的结果,致命的地方则在于这些错误无法被debug。

苹果AI显然不是一个简单的“语言模型”。它其中有一部分功能是基于大模型的生成能力做的,但也有另外一部分功能明显更像是“加强版的机器学习”,比如Siri的搜索能力。只不过这些功能被装到了同一个篮子里,这个篮子叫“苹果智能”

根据苹果放出的技术文档,目前苹果的云端模型,主要处理的还是文字、图像相关的“生成性”任务;而最关键的“个人语境”构建和Siri的优化,大部分依然是通过本地实现,它的“智能程度”可能很难得到保证。

这不只是苹果一家的问题。目前还没有任何一个AI企业或手机厂商,成功将一个私人的数据库,与大模型的公共知识库成功结合,创造出新的智能体

,即想象中的完全了解用户的智能助手——解决这个问题的难度,比想象中大得多。

按照苹果公布的开发进度,至少在明年之前,我们都无法用上中文版的苹果AI,很显然,大量的功能代码和模型训练工作都还没有完成

过去一年我们用“涌现”这个词来形容大模型的能力发展之迅速,但真正到了与实用场景结合的时候,事情依然要复杂得多,需要更长的等待。

序幕拉开了,但表演还没有开始。

果壳AI组出品

作者:Jesse

编辑:卧虫

封图和插图来源:苹果、Giphy

本文来自果壳,未经授权不得转载.

免责声明:本网站部分内容由用户自行上传,若侵犯了您的权益,请联系我们处理,谢谢!联系QQ:2760375052

分享:

扫一扫在手机阅读、分享本文