Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

苹果智能背后模型公布:3B模型优于Gemma-7B,服务器模型媲美GPT-3.5-Turbo

在刚刚结束的全球开发者大会上,苹果宣布了 Apple intelligence, 这是一款深度集成于 iOS 18、iPadOS 18 和 macOS Sequoia 的全新个性化智能系统。 

图片

Apple Intelligence 由多种高度智能的生成模型组成,这些模型专为用户的日常任务设计。在苹果刚刚更新的博客中,他们详细介绍了其中两款模型:

  • 一个拥有约 30 亿参数的设备端语言模型

  • 一个更大的基于服务器的语言模型,该模型通过私有云计算在苹果服务器上运行。

这两个基础模型是苹果生成模型家族的一部分,苹果表示,他们会在不久的将来分享更多关于这一模型家族的信息。 

在这篇博客中,苹果用大量篇幅介绍了他们是如何开发高性能、快速且节能的模型;如何进行这些模型的训练;如何为特定用户需求微调适配器;以及如何评估模型在提供帮助和避免意外伤害方面的表现。 
图片
                             苹果基础模型的建模概览

预训练

基础模型是在 AXLearn 框架上训练而成的,这是苹果在 2023 年发布的一个开源项目。该框架建立在 JAX 和 XLA 之上,使得用户能够在各种硬件和云平台上高效且可扩展地训练模型,包括 TPU 以及云端和本地的 GPU。此外,苹果使用数据并行、张量并行、序列并行和 FSDP 等技术,沿着多个维度(如数据、模型和序列长度)扩展训练。

苹果在训练其基础模型时,使用了经过授权的数据,这些数据包括为了增强某些特定功能而特别选择的数据,以及由苹果的网页爬虫 AppleBot 从公开的网络上收集的数据。网页内容的发布者可以通过设置数据使用控制,选择不让他们的网页内容被用来训练 Apple Intelligence。 

苹果在训练其基础模型时,从不使用用户的私人数据。为了保护隐私,他们会使用过滤器去除公开在互联网上的个人可识别信息,比如信用卡号码。此外,他们还会过滤掉粗俗语言和其他低质量的内容,以防这些内容进入训练数据集。除了这些过滤措施之外,Apple 还会进行数据提取和去重,并使用基于模型的分类器来识别并选择高质量的文档用于训练。 

后训练

苹果发现数据质量对模型至关重要,因此在训练流程中采用了混合数据策略,即人工标注数据和合成数据,并进行全面的数据管理和过滤程序。苹果在后训练阶段开发了两种新算法:(1) 带有「teacher committee」的拒绝采样微调算法,(2) 使用带有镜像下降策略优化以及留一优势估计器的从人类反馈中进行强化学习(RLHF)算法。这两种算法显著提高了模型的指令跟随质量。 

优化

 除了保证生成模型本身的高性能,Apple 还采用了多种创新技术,在设备端和私有云上对模型进行优化,以提升速度和效率。特别是,他们对模型在生成第一个 token(单个字符或词语的基本单位)和后续 token 的推理过程都进行了大量优化,以确保模型的快速响应和高效运行。 

苹果在设备端模型和服务器模型中都采用了分组查询注意力机制,以提高效率。为了减少内存需求和推理成本,他们使用了共享的输入和输出词汇嵌入表,这些表在映射时没有重复。设备端模型的词汇量为 49,000,而服务器模型的词汇量为 100,000。

对于设备端推理,苹果使用了低位 palletization,这是一个关键的优化技术,能够满足必要的内存、功耗和性能要求。为了保持模型质量,苹果还开发了一个新的框架,使用 LoRA 适配器,结合了混合的 2 位和 4 位配置策略 —— 平均每个权重 3.5 位 —— 以实现与未压缩模型相同的准确率。 

此外,苹果还使用交互式模型延迟和功耗分析工具 Talaria,以及激活量化和嵌入量化,并开发了一种在神经引擎上实现高效键值 (KV) 缓存更新的方法。

通过这一系列优化,在 iPhone 15 Pro 上, 当模型接收到一个提示词时,从接收到这个提示词到生成第一个 token 所需的时间约为 0.6 毫秒,这个延迟时间非常短,表明模型在生成响应时非常快速生成速率为每秒 30 个 token。

模型适配
苹果将基础模型针对用户的日常活动进行了微调,并且可以动态地专门针对当前的任务。

研究团队利用适配器(可以插入预训练模型各个层的小型神经网络模块)来针对特定任务微调模型。具体来说,研究团队调整了注意力矩阵、注意力投影矩阵和逐点(point-wise)前馈网络中的全连接层。

通过仅微调适配器层,预训练基础模型的原始参数保持不变,保留模型的一般知识,同时定制适配器层以支持特定任务。
图 2:适配器是覆盖在公共基础模型上的模型权重的小型集合。它们可以动态加载和交换 —— 使基础模型能够动态地专门处理当前的任务。Apple Intelligence 包括一组广泛的适配器,每个适配器都针对特定功能进行了微调。这是扩展其基础模型功能的有效方法。

研究团队使用 16 bit 表征适配器参数的值,对于约 30 亿参数的设备模型,16 适配器的参数通常需要 10 兆字节。适配器模型可以动态加载、临时缓存在内存中以及交换。这使基础模型能够动态地专门处理当前的任务,同时有效地管理内存并保证操作系统的响应能力。

为了促进适配器的训练,苹果创建了一个高效的基础设施,以在基本模型或训练数据更新时快速重新训练、测试和部署适配器。

性能评估

苹果在对模型进行基准测试时,专注于人类评估,因为人类评估的结果与产品的用户体验高度相关。

为了评估特定于产品的摘要功能,研究团队使用了针对每个用例仔细采样的一组 750 个响应。评估数据集强调产品功能在生产中可能面临的各种输入,并包括不同内容类型和长度的单个文档和堆叠文档的分层混合。实验结果发现带有适配器的模型能够比类似模型生成更好的摘要。

作为负责任开发的一部分,苹果识别并评估了摘要固有的特定风险。例如,摘要有时会删除重要的细微差别或其他细节。然而,研究团队发现摘要适配器没有放大超过 99% 的目标对抗样本中的敏感内容。
图片
                             图 3:摘要用例的「好」和「差」响应占比。

除了评估基础模型和适配器支持的特定功能之外,研究团队还评估了设备上模型和基于服务器的模型的一般功能。具体来说,研究团队采用一组全面的现实世界 prompt 来测试模型功能,涵盖了头脑风暴、分类、封闭式问答、编码、提取、数学推理、开放式问答、重写、安全、总结和写作等任务。

研究团队将模型与开源模型(Phi-3、Gemma、Mistral、DBRX)和规模相当的商业模型(GPT-3.5-Turbo、GPT-4-Turbo)进行比较。结果发现,与大多数同类竞争模型相比,苹果的模型更受人类评估者青睐。例如,苹果的设备上模型具有约 3B 参数,其性能优于较大的模型,包括 Phi-3-mini、Mistral-7B 和 Gemma-7B;服务器模型与 DBRX-Instruct、Mixtral-8x22B 和 GPT-3.5-Turbo 相比毫不逊色,同时效率很高。
图片
                              图 4:苹果基础模型与可比较模型的评估中首选响应比例。

研究团队还使用一组不同的对抗性 prompt 来测试模型在有害内容、敏感主题和事实方面的性能,测量了人类评估者评估的模型违规率,数字越低越好。面对对抗性 prompt,设备上模型和服务器模型都很强大,其违规率低于开源和商业模型。
图片
                            图 5:有害内容、敏感主题和事实性的违规响应比例(越低越好)。当面对对抗性 prompt 时,苹果的模型非常稳健。

考虑到大型语言模型的广泛功能,苹果正在积极与内部和外部团队进行手动和自动红队合作,以进一步评估模型的安全性。
图片
     图 6:在安全 prompt 方面,苹果基础模型与同类模型的并行评估中首选响应的比例。人类评估者发现苹果基础模型的响应更安全、更有帮助。

为了进一步评估模型,研究团队使用指令跟踪评估 (IFEval) 基准来将其指令跟踪能力与同等大小的模型进行比较。结果表明,设备上模型和服务器模型都比同等规模的开源模型和商业模型更好地遵循详细指令。
图片
                             图 7:苹果基础模型和类似规模模型的指令跟踪能力(使用 IFEval 基准)。

苹果还评估了模型的写作能力,涉及各种写作指令。
图片
                           图 8:写作能力(越高越好)。

最后,我们看一下苹果对于 Apple Intelligence 背后技术的介绍视频。参考链接:https://machinelearning.apple.com/research/introducing-apple-foundation-models 
产业Apple intelligence苹果公司
相关数据
权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

基准技术

一种简单的模型或启发法,用作比较模型效果时的参考点。基准有助于模型开发者针对特定问题量化最低预期效果。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

注意力机制技术

我们可以粗略地把神经注意机制类比成一个可以专注于输入内容的某一子集(或特征)的神经网络. 注意力机制最早是由 DeepMind 为图像分类提出的,这让「神经网络在执行预测任务时可以更多关注输入中的相关部分,更少关注不相关的部分」。当解码器生成一个用于构成目标句子的词时,源句子中仅有少部分是相关的;因此,可以应用一个基于内容的注意力机制来根据源句子动态地生成一个(加权的)语境向量(context vector), 然后网络会根据这个语境向量而不是某个固定长度的向量来预测词。

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

数据管理技术

数据管理是利用计算机硬件和软件技术对数据进行有效的收集、存储、处理和应用的过程,其目的在于充分有效地发挥数据的作用。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

云计算技术

云计算(英语:cloud computing),是一种基于互联网的计算方式,通过这种方式,共享的软硬件资源和信息可以按需求提供给计算机各种终端和其他设备。

准确率技术

分类模型的正确预测所占的比例。在多类别分类中,准确率的定义为:正确的预测数/样本总数。 在二元分类中,准确率的定义为:(真正例数+真负例数)/样本总数

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

操作系统技术

操作系统(英语:operating system,缩写作 OS)是管理计算机硬件与软件资源的计算机程序,同时也是计算机系统的内核与基石。操作系统需要处理如管理与配置内存、决定系统资源供需的优先次序、控制输入与输出设备、操作网络与管理文件系统等基本事务。操作系统也提供一个让用户与系统交互的操作界面。

查询技术

一般来说,查询是询问的一种形式。它在不同的学科里涵义有所不同。在信息检索领域,查询指的是数据库和信息系统对信息检索的精确要求

拒绝采样技术

在数学中,拒绝抽样是用来从分布产生观测值的基本技术。它也被称为接受拒绝方法或“接受 - 拒绝算法”,是一种蒙特卡罗方法

对抗样本技术

对抗样本是一类被设计来混淆机器学习器的样本,它们看上去与真实样本的几乎相同(无法用肉眼分辨),但其中噪声的加入却会导致机器学习模型做出错误的分类判断。

生成模型技术

在概率统计理论中, 生成模型是指能够随机生成观测数据的模型,尤其是在给定某些隐含参数的条件下。 它给观测值和标注数据序列指定一个联合概率分布。 在机器学习中,生成模型可以用来直接对数据建模(例如根据某个变量的概率密度函数进行数据采样),也可以用来建立变量间的条件概率分布。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

堆叠技术

堆叠泛化是一种用于最小化一个或多个泛化器的泛化误差率的方法。它通过推导泛化器相对于所提供的学习集的偏差来发挥其作用。这个推导的过程包括:在第二层中将第一层的原始泛化器对部分学习集的猜测进行泛化,以及尝试对学习集的剩余部分进行猜测,并且输出正确的结果。当与多个泛化器一起使用时,堆叠泛化可以被看作是一个交叉验证的复杂版本,利用比交叉验证更为复杂的策略来组合各个泛化器。当与单个泛化器一起使用时,堆叠泛化是一种用于估计(然后纠正)泛化器的错误的方法,该泛化器已经在特定学习集上进行了训练并被询问了特定问题。

语言模型技术

语言模型经常使用在许多自然语言处理方面的应用,如语音识别,机器翻译,词性标注,句法分析和资讯检索。由于字词与句子都是任意组合的长度,因此在训练过的语言模型中会出现未曾出现的字串(资料稀疏的问题),也使得在语料库中估算字串的机率变得很困难,这也是要使用近似的平滑n元语法(N-gram)模型之原因。

量化技术

深度学习中的量化是指,用低位宽数字的神经网络近似使用了浮点数的神经网络的过程。

推荐文章
暂无评论
暂无评论~