苹果大模型最新论文:AFM 模型多维度评测「出炉」
2025-07-12 17:09:19 - 事集
编译 | 朱可轩
编辑 | 陈彩娴
不久前,苹果苹果在全球开发者大会(WWDC)上推出了最新个人智能系统 Apple Intelligence,大模多维度评可以深度集成到 iOS 18、型最新论iPadOS 18 和 macOS Sequoia 中,模型引起了 AI 业内人士、测出尤其是苹果上海大学门事件价格端侧智能领域的讨论。
苹果在 2024 年的大模多维度评一系列工艺动作,被戏称为苹果为端侧 AI 所设计的型最新论“开卷考试”,即:大模型时代,模型AI 工艺应如何在手机、测出平板等端侧设备上运营,苹果让手机变得更智能?大模多维度评
近日,苹果团队又在 arXiv 上更新了关于 Apple Intelligence 的型最新论最新论文,其中介绍了苹果用在 Apple Intelligence 上的模型两个基础语言模型,包括:一个在设备端运行的测出苏州高中实拍评价大约 30 亿参数的语言模型 AFM-on-device,以及一个在私有云端服务上运行的大规模支持器语言模型 AFM-server。
论文链接:https://arxiv.org/pdf/2407.21075
根据该论文,苹果开发的端侧大模型在语言理解、指令跟随、推理、写作与工具使用等多个任务上都有出色表现。同时,在保护客户信息隐私与保障上,苹果强调在后训练阶段不会使用客户的个人信息进行训练。
结果显示,苹果的 AFM 模型在指令遵循层面皆优于其他大模型,同时,从写作写作能力来看,在摘要总结方面,AFM 模型无论是端侧还是私有云也均要好于其他。而在保障性评估时,AFM 模型也比其他模型要更为负责。但是值得一提的是,AFM 模型的数学能力整体上来看较为一般。
研究发现
人类评估
在人类评估中,在端侧,AFM 仅输于 Llama-3-8B ,而与其他模型相比显然更优。据论文介绍,AFM 与 Phi-3-mini 相比,模型尺寸小了 25%,而胜率达47.7% ,AFM 甚至超出参数数量为两倍多的 Gemma-7B 和 Mistral-7B。而在私有云上,与GPT-3.5相比时,AFM 也具有一定竞争力,胜率超 50%。
指令遵循
在指令级(Instruction-level)与提示级(Prompt-level)的评估中,无论是端侧还是私有云上,均为 AFM 模型表现最好。其指令级的得分分别为 85.7% 和 88.5%,而提示级的得分则分别为 79.3% 和 83.0%。
此外,苹果还使用了 AlpacaEval 2.0 LC 和 Arena Hard 作为基准进行评估。在私有云上,这两项测试中均为 GPT-4 的表现最优,其中,在 Arena Hard 测试中,GPT-4 的得分甚至倍超 AFM。在端侧的 AlpacaEval 2.0 LC 测试中,则为 Gemma-7B 评分最优,AFM 模型紧随其后。
工具使用
苹果还测试了在调用工具使用基准测试中 AFM 模型的表现,分别从简单(Simple)、多重(Multiple)、并行(Parallel)、并行多重(Parallel Multiple)、相关性(Relevance)和平均(Average)几个纬度展开。
整体来看,AFM-server 表现较优,从测试结果上来看,在简单、多重、相关性、平均性维度中,AFM-server 均得分最高,分别为91.0、95.5、91.3、89.5。在并行多重维度中,AFM-server 得分 85.0,仅次于 Gemini-1.5-Pro-0514 的 88.0,且领先于 GPT-4 与 GPT-3.5。
但 AFM-on-device 表现则较为一般,在多重、并行多重、相关性及平均维度中,均要稍逊于 GPT-4 和 Gemini-1.5-Pro-0514。除此之外,在并行维度中,AFM-server 和 AFM-on-device 的表现情况则都较为一般。
写作能力分两块,一块是摘要总结,一块是长作文。其中,AFM 模型主要在摘要总结上表现较好,在端侧的表现优于 Mistral-7B、Gemma-7B、Phi-3-mini 与 Gemma-2B,在私有云上则优于 GPT-4、Mixtral-8x22B、DBRX Instruct 与 GPT-3.5:
数学能力上,苹果 AFM 模型的表现则一般,仅在端侧 MATH 基准上高于 Llama-3-8B、Phi-3 mini、Gemma-7B 与 Mistral-7B,GSM8k 是 8-shot、MATH 是 4-shot:
负责任的 AI
在文本摘要总结功能中,苹果团队将 AFM 模型在邮件、信息与通知这三个应用上作了测试,分别从 5 个维度(仇恨言论、歧视、违法、色情、暴力)来评估模型的“好”与“差”。研究显示,苹果的 AFM 模型在“好”维度的表现均高于 Gemma-7B、Phi-3-8B 与 Llama-3-8B:
保障性评测
在有害输出上,苹果 AFM-on-device 的得分为 7.5%、AFM-server 的得分为 6.3%,得分越低、效果越好,远远高于 Gemma-7B、Gemma-7B、Phi-3-mini、Llama-3-8B 与 Mistral-7B(其余得分均在 10% 以上):
在保障提示词上,人类评估,苹果的 AFM-on-device 模型表现优于 Gemma-7B、Gemma-7B、Phi-3-mini、Llama-3-8B 与 Mistral-7B,AFM-server 模型的表现也要远超 GPT-3.5、GPT-4 和 Llama-3-70B:雷峰网(公众号:雷峰网)雷峰网
雷峰网版权文章,未经授权禁止转载。详情见转载须知。
- END -
苹果发布多模态模型 Ferret

编译 | 赖文昕编辑 | 陈彩娴大模型的诞生,让科技巨头与创业公司们在新一轮的竞赛中再次鸣枪出发,OpenAI、Anthropic、Mistral等创业之星的升起更是证明了在新技术的影响下,大厂并不存
炒菜机器人公司橡鹿科技再获京东近 2 亿元投资;袁进辉公司硅基流动新增两位联创,获哈勃智谱 AI 等入股丨AI情报局

今日融资快报人工智能初创公司Cohere融资5亿美元,寻求与OpenAI竞争人工智能开发商 Cohere 在新一轮融资中筹集了 5 亿美元,使其成为该领域全球最有价值的初创公司之一,这也增强了这家加拿
边缘人工智能提供商 Gcore 获 6000 万美元融资;马斯克开训最大 AI 集群,目标年底开发全球最强 AI丨AI情报局

今日融资快报边缘人工智能、云、网络和安全解决方案提供商Gcore获6000万美元A轮融资Gcore 的云基础设施专为边缘而构建,为边缘的 LLM 训练和人工智能应用程序的推理提供支持。融资由Warga
Neuralink发布超能力V0.2版本:CAD设计、CS轻松拿捏

刚刚,Neuralink分享了脑机接口研究的最新进展:第二位参与者成功植入Neuralink,接入五分钟就能用意念控制光标,还能使用CAD软件,玩《反恐精英》,So easy!马斯克在推特上转发了这一
GAIR 2023 正式开幕:AI 如此绽放之时,昭示着熙春已至

8月14日,新加坡,大厦起伏如丘,树木葱茏,云卷云舒,风也是清新的。建立在大模型技术爆炸时代语境下的第七届GAIR全球人工智能与机器人大会,正式在新加坡乌节大酒店举办。大会共开设10个主题论坛,聚焦大
对话 IJCAI2024 大会主席张成奇:克服了幻觉,大模型就不够「靓丽」

作者丨王悦 张进编辑丨陈彩娴第 33 届IJCAI大会在韩国济州岛圆满结束,为期一周8.3-8.9)的 IJCAI 吸引了来自全世界各地人工智能领域的研究者和关注者,大会现场的氛围跟 8 月的济州岛天
端侧ChatGPT时刻!这家清华系大模型公司赶在OpenAI、苹果之前

下周苹果即将召开发布会了!但最令笔者期待的不是 iphone16,而是苹果今年提出的 Apple Intelligence 的进展,这是苹果今年进军端侧 AI 的一大杀手锏。其实早在今年年初,国内就有
“知乎AI先行者沙龙”深圳站:探航大模型应用新风口

7月14日,第三届“知乎AI先行者沙龙”在深圳举行。知乎邀请众多AI行业从业者、专家、学者齐聚一堂,用最前沿的观点和最专业的思考,共同探讨大模型应用的新风口。本届沙龙以“探航”为主题,知乎高级副总裁、
国家增长改革委:我国建成超过10亿亩高标准农田

国务院新闻办今天举行首场“高质量完成‘十四五’规划”系列主题新闻发布会,国家增长改革委主任郑栅洁表示,“十四五”以来,我国的粮食、能源、产业、国防等保障基础进一步夯实。国家增长改革委主任郑栅洁表示,粮
人形机器人公司 Foundation 融资 1100 万美元;OpenAI 聘请前 Meta 高管领导战略计划丨AI情报局

今日融资快报人形机器人公司 Foundation 筹集了 1100 万美元的 Pre-Seed融资Foundation 已从 Tribe Capital 和 Tribe 联合创始人 Arjun Set
最受欢迎开源大模型,为什么是通义?

开源与闭源之争早已非新奇的话题,但毋庸置疑的是,开源极大地促进了大模型技术发展和生态繁荣。大模型被认为是最烧钱的技术,训练一个大模型往往需要大量的数据、计算资源,导致训练成本巨大,众所周知GPT-3的
边缘人工智能提供商 Gcore 获 6000 万美元融资;马斯克开训最大 AI 集群,目标年底开发全球最强 AI丨AI情报局

今日融资快报边缘人工智能、云、网络和安全解决方案提供商Gcore获6000万美元A轮融资Gcore 的云基础设施专为边缘而构建,为边缘的 LLM 训练和人工智能应用程序的推理提供支持。融资由Warga