端侧大模型崛起,AI手机如何应对数据安全与伦理挑战?

2025-03-04ASPCMS社区 - fjmyhfvclm

央广网北京3月4日消息(记者 樊瑞)在科技的浪潮中,AI 手机正以其强大的功能和便捷的体验,成为数码界的 “新宠”。2024 年被誉为 “AI 手机元年”。从 Microsoft 的 Phi 系列到 DeepSeek-R1 的重磅亮相,当前,端侧大模型正以前所未有的速度迈向轻量化、高性能与低功耗的新阶段。端侧大模型的快速发展使得智能手机逐渐从传统工具转变为“智能助手”。

从技术创新到产业应用,引发隐私与安全、伦理与治理的新挑战,AI手机的未来充满机遇与挑战,也引发各界广泛关注。日前,在对外经济贸易大学举办的“边缘计算新纪元:端侧大型语言模型的应用、风险与治理前瞻”研讨会上,来自学界、产业界的多位专家学者围绕这一主题展开探讨。

专家表示,端侧大模型的开源特性和技术优势,正在降低产业准入门槛,为AI手机的普及奠定基础。面对随之带来的隐私保护、安全治理和伦理边界的新挑战,行业应在创新与安全之间找到平衡。

️AI手机隐私保护问题受关注

北京汉华飞天信安科技有限公司董事长兼总经理彭根介绍,当前端侧大模型主要采用“手机端+云端”的混合技术路线,无法真正实现手机端离线运行。开发者为采集数据,主要采取了截屏识别和无障碍读屏两种方式。测试表明,原本用于辅助残障人士的无障碍读屏在实时性、资源消耗、准确率方面均大幅优于截屏识别,成为各大AI手机厂商的主流选择。

技术加持下,AI手机的前景也被大厂商和市场看好。21世纪经济报道合规新闻部副主任王俊表示,搭载大模型的AI手机已成为行业复苏的重要驱动力,2024年各大厂商完成了端侧AI基础能力的搭建,2025年或将迎来智能体产品的爆发式增长。但隐私保护和数据安全问题依然是产业发展的关键障碍。其团队测评发现,部分厂商调用无障碍权限时存在不透明现象,权限开关在执行命令时自动打开关闭,用户难以感知。产品设计在追求“无感体验”与安全之间存在张力。

对外经济贸易大学法学院教授张欣指出,端侧大模型的快速发展为AI手机带来了前所未有的技术突破,也引发了隐私保护、安全治理和伦理边界等多重挑战。

️警惕传统数据保护框架失效风险

AI手机发展之下,用户隐私和数据安全将面临新的挑战。北京大学法学院副院长戴昕表示,传统的数据保护框架在端侧大模型时代面临失效风险。他认为,智能助手深度融入日常生活后,传统的“告知-同意”机制难以起到保护作用,“在日常社交场景中,不断提醒用户‘不要输入任何保密信息’是不现实的。”他指出,绝大多数用户缺乏与“个人助理”互动的经验,无法准确形成对个人信息使用的合理预期,这种认知差距使得隐私保护机制面临重构需求。

北京航空航天大学法学院副教授赵精武指出,端侧大模型生态中的数据流转涉及手机厂商、应用开发者和第三方服务提供商,各方责任边界模糊,安全风险将持续增加。他还提到用户数据权限获取的必要性界限模糊问题。尤其值得关注的是,人机交互内容可能被用作模型训练数据,其中将包含更多敏感个人信息。结合新出台的《个人信息保护合规审计管理办法》,赵精武认为,手机应用合规审计将更加关注最小必要原则、业务相关性、用户知情权等要求,特别是高敏感权限(如剪贴板、通知栏监听)、非主动用户行为弹窗和权限撤销功能可能成为未来审计的重点。

中国社会科学院法学研究所副研究员唐林垚则认为,端侧大模型无论采取端侧还是云端方式,都面临严峻的隐私风险挑战。具体来说,端侧模式可能涉及权限过度调用,且难以确保数据安全;云端模式则面临数据在终端、云端和第三方间多次流转的风险。这些问题都进一步加剧端侧大模型部署环境下隐私保护的三大缺陷:知情同意流于形式、多方主体责任划分不清以及用户权利难以实现。他指出,端侧大模型的权限调用往往通过一次性授权实现,用户难以掌控数据的具体使用情况。此外,当数据被用于模型训练时,用户几乎无法知晓或删除相关信息。

针对这一问题,唐林垚建议从法律、技术和行业三个层面推进治理。他强调,应细化权限分类和动态告知义务,推动隐私计算技术的普及,并通过行业协会制定统一的数据分类分级标准,提升用户对数据流向的理解和控制。

️规范端侧大模型的功能发展、清晰各方责任边界

除了隐私保护,AI手机的安全风险也备受关注。中国人民大学法学院教授丁晓东指出,目前部分企业利用“无障碍功能”直接全部权限,这一行为存在重大的内容安全和数据安全风险。端侧大模型的应用必须在厂商与用户两个层面均获得明确授权,并通过合理信赖机制确保用户权益不受侵害。他还强调,监管机构应在数据融合过程中发挥关键作用,明确各主体的信义义务与保护责任。

中国信通院人工智能研究所高级业务主管呼娜英从技术实现路径分析了端侧大模型的风险挑战。她指出,端侧大模型的隐私保护复杂性升级,涉及授权机制、数据收集及分析处理等环节。尤其是跨应用权限穿透及任务拆解过程中可能产生的逻辑漏洞,出现非预期的安全风险。呼娜英认为,端侧大模型的特殊性在于人工智能技术提供方与应用提供方关系更为复杂,责任边界更难清晰划分,但仍可在既有风险管理框架内通过完善风险识别、评估和应对机制来有效治理。

同济大学法学院助理教授朱悦则从技术演进的角度分析了未来端侧大模型可能带来的新型安全挑战。他预测,未来端侧大模型将通过长期记忆能力的强化,为用户提供更个性化的服务,但这也可能导致个人数据的集中化,包含个体人格和财产信息的个人记忆模型数据归属将更为复杂。朱悦指出,要通过软硬件层面的安全保障技术,确保个人数据“可训不可见”。伴随端侧大模型的普及,他建议进一步完善有关个人记忆模型的法律定性、人与人之前基于端侧模型交往的行为效力等相关问题的立法。

要治理AI手机领域复杂的隐私与安全问题,中国信通院互联网法律研究中心主任何波提出要处理好端侧大模型发展的四大核心关系:发展与安全、守正与创新、近期与中远期、国内与国际。何波特别指出,端侧大模型并非完全“裸奔”,现有法律法规如《个人信息保护法》和《网络数据安全管理条例》等已为端侧大模型的治理提供了法律依据,应充分利用现有法律框架进行治理。他强调,对AI终端的治理要区分技术发展扩散的不同周期,近期可通过专项检测行动、安全测评等技术手段解决突出问题,中远期则需要通过立法方式规范端侧大模型的功能发展。

️人机交互模式升级,需完善多层次治理

端侧大模型的普及不仅改变了技术架构,也重塑了人机交互的范式。华东政法大学法律学院副教授韩旭至认为,端侧大模型正在推动人机交互从“器官延伸”向“助手伙伴”转型。这种转变带来了交互模式的升级。

清华大学人工智能国际治理研究院助理研究员宋雨鑫则表示,大型预训练语言模型的出现,极大改变人机交互的基础逻辑,底层逻辑从“人适应工具”变为“机器适应人”。她表示,在此情况下,交互范式从纯粹虚拟层面的信息交互,转向具体行为效果层面的交互。

在新的人机交互范式下,人同AI的关系也面临新的挑战。韩旭至提出价值对齐将是AI手机落地应用的核心伦理问题。他指出,模型生成内容的边界难以界定,特别是在涉及敏感话题时,如何平衡安全与实用性成为技术治理的难题。针对这些挑战,他提出多层次治理建议,包括建立伦理风险评估机制、引入算法安全评估制度以及提升用户数字素养等。

宋雨鑫则认为新的人机交互可能在隐私保护与数据安全、用户自主权与控制权以及机器道德责任归属等方面带来关键挑战。“大规模部署和应用是必然趋势,只有建立信任才能实现广泛接受与应用。”她认为,端侧大模型的广泛应用需要以信任为核心,从可控交互、安全交互与透明交互三个层面,采取如增强解释性、优化用户反馈机制等举措,增强用户对技术的信任感。

全部评论