全新 Apple Intelligence 训练机制 用户资料不出 iPhone

Apple 宣布将在未来版本的 iOS 中导入全新 Apple Intelligence 训练机制,通过 Differential Privacy 技术实现隐私保护资料收集。 尽管该技术与先前备受争议的CSAM侦测系统有所相似,但此次苹果强调:数据完全留在装置本地、匿名、且用户完全可选择参与与否。

全新 Apple Intelligence 训练机制 用户资料不出 iPhone

差异化隐私再登场

Differential Privacy(差异化隐私)是 Apple 自 2016 年 iOS 10 时代起便公开拥抱的技术。 这项技术通过对用户数据加入随机「噪声」,让数据在分析时无法回推至个别用户。 根据苹果官方机器学习网志,Apple将使用这项技术训练Apple Intelligence系统,资料来源将完全由用户自主选择是否参与,并保证匿名、不具可追溯性。

资料不离装置

与直接将数据上传服务器训练 AI 模型不同,苹果采取的是「资料留在设备上」的策略。 分析仅通过装置端进行模式比对与统计投票,例如以人工产生的热门提示词(如戴牛仔帽的恐龙)在用户资料中寻找片段重合。 若有足够装置回传「有符合」结果,苹果才能进一步训练模型。 但过程中既不读取具体资料,也无法从中辨识用户身份。

应用领域拓展至生成图像与文字

Apple 表示从 iOS 18.5 起,这套 Differential Privacy 机制将应用于 Genmoji、Image Playground、Image Wand、Memories Creation、以及 Writing Tools 等功能。 因这些功能多以简短提示语为主,因此更适合以模式比对方式优化 AI 输出。 对于较长提示语(如生成电邮内容),苹果则使用「合成资料」(Synthetic Data)方式,模拟用户可能输入的文字,再与大量装置端产生的嵌入式资料(Embedding)比对,筛选出最具代表性的训练样本。

与 CSAM 侦测系统的相似与不同

尽管技术层面与先前争议的CSAM侦测机制有某些相似处,例如皆于装置端分析数据并利用统计判断,但两者本质不同。 CSAM 侦测会在多次侦测到潜在非法内容后触发人工审查流程,引发外界担忧系统可能被滥用于监控言论。 而此次 Apple Intelligence 训练完全不触及任何具体内容,数据分析结果中亦无法还原任何一笔原始资料。 Apple 表示这套机制是出于隐私至上的设计思维,无数据离开 iPhone,也绝不可能产生与用户身份挂钩的输出结果。

用户选择权仍为核心

Apple 强调,这项训练机制完全采用「选择加入」(opt-in)模式,用户若不希望参与,Apple Intelligence 系统将不会访问任何个人资料,无论是否经处理或加密。 这种以隐私为本的策略,也显示出苹果在当前AI热潮中,选择了一条不同于竞争对手的发展路径。

(0)
摩榜哥摩榜哥

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注