织好AI用户信息“防护网” - 夜上海论坛

织好AI用户信息“防护网”

  发布时间:2024-06-28 18:59:07   作者:玩站小弟   我要评论
对话交流、创作诗歌、编写代码、自动绘画……以大语言模型为代表的生成式人工智能AI)快速发展,正前所未有地改变着人们的工作和生活。随着生成式AI应用场景日益增多,个人信息保护 。

对话交流、防护网创作诗歌、织好编写代码、用户自动绘画……以大语言模型为代表的信息生成式人工智能(AI)快速发展,正前所未有地改变着人们的防护网工作和生活。

随着生成式AI应用场景日益增多,织好个人信息保护也面临新的用户挑战:对数据的收集和挖掘,会不会侵犯个人隐私?怎样处理好个人信息保护与数据合理利用之间的信息关系?使用个人信息的边界在哪儿?本报记者就此进行了采访。

“画像”背后藏风险

“对许多上班族来说,防护网做PPT是织好一件让人头疼的事,经常要加班加点熬夜制作,用户有时还要额外付费聘请专业设计人员修改润色。信息”在北京某互联网公司工作的防护网小潘告诉记者,现在通过生成式AI软件,织好只需确定主题、用户导入大纲、选择模版,不到1分钟就能生成一份专业又精美的PPT。

尽管效率明显提高,小潘却心有疑虑:PPT里提到的工作内容、行业数据、个人情况,会不会被储存在AI“大脑”中?如果涉及企业战略规划、商业秘密、关键技术,有没有被恶意窃取或泄露给第三方的可能?“目前,还没看到软件有类似‘一键擦除数据’的功能,无法确定这些信息的最终去向。”小潘说。

现实中,不管是生成PPT、制作简历还是自动美颜、智能聊天,都不可避免地要向生成式AI提供姓名、职业、人脸、声纹等个人信息,其中潜藏着不容忽视的隐私泄露风险。

比如,一款基于生成式AI技术的摄影软件一度走红网络。用户花9.9元,上传个人照片,选择喜欢的模版,便能获取一套由AI生成的写真集。在AI写真“刷屏”网络的同时,该软件也因存在滥用用户信息的嫌疑受到批评。有网友说:“向一款手机APP里传这么多照片,让我感到很不安。谁知道这些照片会不会被作为其他用途?”后来,研发团队致歉,承诺上传照片只用于数字写真制作,制作完成后,照片也将自动删除。

出于对新兴技术的好奇,消费者往往在不知不觉中将个人隐私“透露”给AI。反过来,凭借获取到的信息,通过强大的数据整合、处理能力,生成式AI也能判断出个人的身份特征和行为习惯。有研究发现,聊天机器人可以从日常对话中精准提炼关键信息,了解其购物习惯、个人兴趣乃至个人观念,从而为用户精准“画像”。

“生成式AI具有高度智能化特征,借助其出色的内容理解和学习能力,从海量信息中获取个人隐私,甚至可能通过对话‘诱导’用户打开‘心房’。”西南政法大学科技法学研究院副院长郑志峰告诉记者,这意味着生成式AI十分“懂”你,在侵害个人隐私方面更加高效、隐蔽,不易察觉。

用户数据成“养料”

“我们将对您主动上传的文档材料进行脱敏处理后作为AI训练基础材料使用……”前段时间,某办公软件隐私政策中的条款被质疑滥用用户信息。随后,该软件发布声明,保证用户文档不再被用于AI训练目的。

啥是AI训练?“对生成式AI来说,离不开算法、算力、数据三要素。其中,数据是AI的‘养料’,‘投喂’得越多,AI越‘聪明’。”郑志峰介绍,这决定了生成式AI必须尽可能多地采集、处理和使用各种数据,为大模型成长提供充足“营养”。

当前,各类数据采集无时不有、无处不在,几乎每个人都被置于数字化空间之中,个人隐私极易以数据的形式被存储、复制、传播。在所有数据类型中,个人信息能反映个人行为、偏好、行动轨迹等,是最有价值的数据类型之一。

“许多企业利用用户数据优化产品和服务、定向投放广告或开展经营活动。”中国社会科学院法学研究所网络与信息法研究室副主任周辉说,“有的企业片面关注数据价值,忽视了隐私保护和数据安全,可能出现违法收集、滥用用户信息等行为。”

生成式AI的快速发展和应用门槛的大幅降低增加了隐私泄露风险。研究报告显示,截至2024年1月,前十位AI类APP需求规模同比增长近40倍。生成式AI正加速渗透人们生活的方方面面。然而,应用场景日益丰富的同时,违规收集、使用用户信息的花样也变多了。

借助生成式AI的换脸和拟声技术进行远程视频诈骗就是一例。有媒体报道,郭先生接到“好友”的视频通话,对方声称需要保证金用以项目竞标,想借郭先生公司账户“走个账”。出自对“好友”的信任,郭先生陆续给对方转账共计430万元。等郭先生再次联系好友时才发现自己被骗。

“随着AI生成内容愈发逼真,传统内容审核机制和安全防护手段已不足以适应新形势的要求。”中国信通院人工智能研究所高级业务主管呼娜英说,生成式AI技术愈加成熟,用户在保护好个人隐私的同时,也需要提升对新型网络犯罪的辨别和防范能力。

给AI产品贴“标记”

怎样才能满足生成式AI的“胃口”,同时又保护好个人隐私呢?处理好两者关系,既需要法律法规的约束,也离不开技术手段的支撑。

去年7月,国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》,多处提及个人信息保护问题。强调生成式AI服务提供者“对使用者的输入信息和使用记录应当依法履行保护义务,不得收集非必要个人信息,不得非法留存能够识别使用者身份的输入信息和使用记录,不得非法向他人提供使用者的输入信息和使用记录”等。

“中国目前有关个人隐私保护的法律法规比较完善。未来需要根据生成式AI技术特点进一步构建具体的权利、义务和责任规则。”郑志峰举例说,AI的风险等级是多样的,不同AI算法对于个人隐私的侵害程度不同,需要有针对性的具体措施。

通过技术手段识别、阻断和追溯生成式AI生成侵犯个人隐私的有害信息,也是人工智能治理实践中的重要措施之一。根据《互联网信息服务深度合成管理规定》,深度合成服务提供者对使用其服务生成或者编辑的信息内容,应当采取技术措施添加不影响用户使用的标识。

“通俗地说,就是给生成式AI的产品和服务贴上统一的‘标记’,提示用户该内容由AI合成,也有助于监管部门管理。”呼娜英介绍,由于显式标识容易被裁剪或删除,还需进一步探索隐式标识的解决方案。

尽管生成式AI在一定程度上存在隐私泄露风险,但并不意味着它与信息保护之间是完全对立的,关键是要找到发展与规范之间的平衡点,在生活越来越“智能”的同时,守护好个人隐私安全,推动生成式AI健康可持续发展。

  • Tag:

相关文章

最新评论