技能可以“炼化” 隐私权不能让渡-新华网
新华网 > > 正文
2026 04/28 10:21:56
来源:新华每日电讯

技能可以“炼化” 隐私权不能让渡

字体:

  近日,从GitHub上爆火的“同事.skill”开源项目,到部分企业的应用,这些新奇的技术试验,在引发“赛博永生”猎奇讨论的同时,也在试探个人信息保护、隐私权保障等相关法律规定的底线,需要引起警惕和深思。(相关报道见本报4月27日6版)

  随着新技术发展,“炼化同事”的难度并不算高:通过整合员工在办公平台的聊天记录、工作文档、邮件等素材,经AI深度学习,生成具备个人特征的数字模型,这种数字模型可在一定程度上模仿该员工开展一些简单工作。

  但事情并没有那么简单。人格尊严权是公民依法享有的最基本社会地位及受他人与社会尊重的基础性权利,其中隐私权是重要的构成部分。这些被提取的素材和数据,看似是工作场景中的常规留存,实则包含大量隐私信息——私人化的沟通语气、未公开的工作思路、隐藏在工作记录中的个人偏好与隐私诉求等。若企业未经严格授权,擅自使用离职员工的私人数据训练AI数字模型,无论名义是“内部测试”或者“降本增效”,本质上都会存在侵犯公民隐私权的风险。更需警惕的是,若此类情况越来越多,则可能出现变相强迫授权等情况,最终让“同意”沦为必然,突破更多法律法规底线。

  针对此话题的讨论中,有些人还担心供职公司未经自己同意,就偷偷提取工作记录和沟通内容,“数字人”已训练出来,自己还被蒙在鼓里。而类似的隐私泄露风险早已出现:使用AI产品后,个人行踪、生活习惯被精准掌握,出现未经授权却被获取隐私信息的情况。此类行为,不仅伤害个体权益,更加剧民众对AI技术的不信任,阻碍技术长远发展。

  AI技术飞速发展,正在重塑人们对工作的认识,但技术创新和应用不能“脱缰”,底线不能被“炼化”。保障隐私权和个人信息安全,需要各方形成合力,共同划定禁区。我们看到,个人信息保护法、《生成式人工智能服务管理暂行办法》等已经明确相关规则,但现实操作中仍存模糊地带,监管部门要进一步完善法规,明确AI训练中个人隐私保护的具体标准,规范数据采集、存储、使用全流程,并对擅自侵犯他人隐私权、非法使用个人数据的企业予以严厉处罚,形成有力震慑。

  公众也要持续增强个人信息保护意识,在工作和生活中警惕隐私泄露。尤其是在入职、离职时,要仔细审阅相关授权条款,明确个人数据的使用范围,拒绝不合理的授权要求。当发现自身隐私权被侵犯时,要敢于运用法律武器维护自身权益,主动向监管部门投诉举报。

  技术是中性的,但应用必须有边界、有底线。“炼化同事”的讨论再次提醒我们,隐私权不可侵犯,法律的红线不可逾越,这应成为数字时代不可动摇的准则。如此,AI方能真正服务于人、造福社会。(记者 张武岳)

【纠错】 【责任编辑:焦鹏】