首页 > AI资讯 > 正文

当前,端侧AI技术飞速进步,数据安全的问题日益凸显。苹果公司推出了隐私云服务,意在保护用户隐私,然而这一过程中遇到了不少难题。这些难题不仅关系到每位用户的权益,更引发了广泛的担忧。

云端计算的隐私延伸

苹果公司利用自研的云系统,在云端进行AI计算。比如,将设备上处理数据的安全性和隐私保护扩展到云端。这无疑是一种积极的尝试,旨在让用户在使用云端服务时感到更加放心。然而,目前许多用户并不了解其具体的运作方式。很多时候,由于缺乏透明度,容易导致信任的缺失。用户对于自己的数据在云端所经历的各种操作细节并不了解。此外,苹果还将外部的大模型部署在PCC节点之外,例如GPT-4o等,它们只能处理非个人化的数据。虽然这样的做法看似保护了隐私,但公众并不清楚其背后的数据转换和处理过程。

云端AI计算虽然能保护个人隐私,然而其技术运作过程并不公开。即便企业宣称已经确保了用户隐私的安全,但用户在无法亲眼目睹实际的操作流程时,心中难免会存有疑虑。

责任关系的不明确

在商业发展层面,终端生产商、应用程序开发者以及第三方AI服务供应方在数据安全责任方面界限不明确。当用户在使用手机时下载一款APP,同时手机系统内置端侧AI,一旦数据安全出现问题时,难以区分责任是落在APP开发者还是终端生产商头上。尤其是当端侧AI智能体依赖APP服务能力完成任务时,这种责任界限的模糊性更为明显。比如,在使用一款具备AI功能的社交APP时,若发生数据泄露,是终端的AI模块出现了问题,还是APP开发者对数据管理不够到位,这个问题往往难以迅速确定。

责任主体间的界限模糊,这让用户在维护自身权益时遇到重重困难。一旦发生安全事故,各方往往互相推卸责任,而用户则不得不面对数据泄露的潜在风险。

端侧AI与APP的交互限制

在此过程中,若非终端系统主动提供技术接口,APP对终端AI的识别与操控行为便无法得知或进行干预。以办公软件类APP为例,面对终端AI的数据读取或操作指令,它们只能遵从,无法自行介入。这往往导致信息传递的单向性,使APP处于较为被动的状态。

这种状况对APP优化服务并不利。APP开发者无法依据终端AI的不同行为来调整服务策略,这或许会降低APP对用户需求响应的效率和处理的品质。

数据处理模式的改变

AI手机执行特定任务的方式已与移动互联网时代大不相同。它们不再与APP服务提供者直接合作来调用API。以三星为例,若要使用GalaxyAI功能,必须登录谷歌账户以获取个性化服务。这标志着一种数据处理模式的新变革,这种变革颠覆了传统的隐私保护与数据安全秩序。

在新的模式中,用户信息可能会被更多主体所获取。过去在移动互联网时代,通过明确的API调用还能控制数据流动的方向与使用范围,但如今情况不同了,安全风险也因此变得更加多样化和复杂。

特定APP的数据安全机制

终端厂商需为金融、社交、医疗等特殊APP提供技术支持。在这些涉及敏感信息的场景中,若APP涉及屏幕识别或数据处理,应允许其明确拒绝。以金融APP为例,它们处理大量资金交易信息,对隐私保护要求极高。若APP缺乏拒绝权,终端AI可能收集处理数据,从而为用户资金安全带来潜在风险。

若缺乏此类防护措施,在那些风险度高、敏感度强的领域,数据泄露的风险便会大大增加。一旦出现问题,追溯源头和采取补救措施都变得异常困难。

云端训练的安全隐患

终端持续提供个性化服务可能依赖云端数据来训练模型,三星曾对此作出过声明。然而,这其中涉及到了个人信息安全及用户权益保护的问题。以苹果为例,它仅公开了部分代码,使得外界对PCC的安全性只能依赖苹果的声明,而无法进行独立验证。此外,苹果的同态加密技术也存在局限性,且在云端解密用户数据时并未明确指出潜在风险。

云端训练的模型若不可靠,用户的数据就如同置于毫无防护的状态下被随意使用,这对用户而言,无疑是一种极大的威胁。

在端侧AI技术发展的过程中,人们普遍关心的是,我们该如何从法律角度明确责任归属?欢迎大家在评论区踊跃发表意见。同时,也请大家点赞并转发这篇文章,让更多的人能够了解和关注这一议题。

内容来自网络,如有侵权,联系删除。

猜你喜欢
发表评论

电子邮件地址不会被公开。 必填项已用*标注

评论信息
picture loss