ITBEAR科技资讯
网站首页 科技资讯 财经资讯 分享好友

大模型隐私透明度实测:用户数据“撤回难”,安全隐忧何时解?

时间:2025-01-16 10:24:50来源:ITBEAR编辑:快讯团队

在人工智能(AI)日益普及的今天,用户数据已不再仅仅是个人隐私的代名词,它们正成为推动大型AI模型进化的宝贵资源。从制作PPT到设计新春海报,再到文档内容总结,白领们已习惯于利用AI工具提升工作效率,甚至有人开始借助AI来订购外卖和酒店。

然而,这种便捷性背后隐藏着巨大的隐私风险。许多用户在享受数字化技术带来的便利时,往往忽视了数据透明度的问题。他们不清楚自己的数据是如何被收集、处理和存储的,更不确定这些数据是否会被滥用或泄露。这种信息的不透明性,成为了数字化时代的一大隐患。

今年3月,OpenAI旗下的ChatGPT被曝出存在安全漏洞,导致部分用户的历史聊天记录被泄露。这一事件立即引发了公众对大型AI模型数据安全和个人隐私保护的担忧。无独有偶,meta的AI模型也因侵犯版权而备受争议。今年4月,美国作家和艺术家等组织指控meta的AI模型未经许可使用了他们的作品进行训练。

为了了解当前国产大型AI模型在信息披露透明度方面的表现,「科技新知」选取了豆包、文心一言、kimi、腾讯混元、星火大模型、通义千文、快手可灵等七款主流大模型产品作为样本进行了实测。通过隐私政策和用户协议测评、产品功能设计体验等方式,「科技新知」发现这些产品在用户数据保护方面存在不少问题。

在登录页面,这七款大型AI模型产品都遵循了互联网APP的常规做法,提供了使用协议和隐私政策。这些政策文本中均设有不同章节,向用户说明如何收集和使用个人信息。然而,当用户希望撤回或拒绝相关数据用于AI训练时,却发现这一过程并不顺畅。只有豆包、讯飞、通义千问、可灵等少数产品在隐私条款中提及了可以“改变授权产品继续收集个人信息的范围或撤回授权”。

以豆包为例,用户可以通过关闭特定设置来撤回语音信息的授权,但对于其他类型的信息,则需要通过官方联系方式才能要求撤回使用数据。在实际操作中,「科技新知」发现这一过程并不简单,有时甚至无法得到及时回复。同样,通义千问和可灵也仅提供了对语音服务授权的撤回选项,对于其他信息则需要联系官方进行取消。

相比之下,讯飞星火的要求更为苛刻,用户需要通过注销账号的方式才能实现数据撤回。而腾讯元宝虽然在APP中提供了“语音功能改进计划”的开关,但在隐私条款中并未明确提及如何改变信息授权。

更令人担忧的是,这些大型AI模型在处理用户数据时,往往将其用于多种用途,包括模型和服务优化、相关研究、品牌推广与宣传等。虽然大多数模型在隐私协议中提到使用了不低于行业同行的加密技术、匿名化处理等手段保护个人信息,但这些措施的实际效果仍有待验证。

例如,如果用户输入的内容被作为数据集存储,那么在未来其他人向模型提问相关内容时,就可能带来信息泄露的风险。如果云端或产品遭到攻击,通过关联或分析技术恢复原始信息的可能性也存在。这些隐患都加剧了用户对大型AI模型隐私保护的担忧。

在智能体和端侧AI的应用场景中,隐私泄露的风险更为复杂。这些应用往往需要获取更详细且具有价值的个人信息,包括位置、支付、偏好等敏感信息。然而,当端侧AI智能体基于APP的服务能力完成特定任务时,终端厂商与APP服务提供者在数据安全上的责任边界变得模糊。这不仅增加了个人隐私泄露的风险,也给监管带来了挑战。

这不仅关乎用户个人信息安全与隐私保护,更是决定整个大型AI模型行业能否健康、可持续发展的关键所在。未来,各大模型厂商应积极响应用户关切,主动优化产品设计与隐私政策,以更加开放、透明的姿态向用户阐释数据的来龙去脉。同时,监管部门也应加快完善相关法律法规,明确数据使用规范与责任边界,为大型AI模型行业营造一个既充满创新活力又安全有序的发展环境。

更多热门内容