环球首页 国内·国际·言论 | 经济·财富·科技 | 社会·文化·生活·其他 | 专栏 | 过刊检索 | 关于我们 | 环球广告
当AI侵犯了你
  新华网 ( 2018-07-03 06:47:05 ) 来源: 《环球》杂志
 

    有科学家估计,到2040年,人工智能的犯罪率将会超过人类。利用人工智能技术进行欺诈等犯罪行为,在很大程度上与个人信息泄露及隐私保护不力相关。如何在发挥人工智能积极作用的同时,保护个人隐私、防止诈骗等犯罪,以及平衡个人保护与公共利益的关系,是人工智能时代的一项重要课题。

文/梁正

  一个关于人工智能(AI)辅助刑侦的案例相当有趣:今年以来,基于人脸识别技术,已有不下5名逃犯在多地举行的张学友演唱会上被抓。

  而另一案例却令人十分忧虑:浙江绍兴警方去年破获的一起涉嫌诈骗的案件中,犯罪嫌疑人的行为涉及窃取数据、利用人工智能晒密撞库、分销数据、冒充诈骗、洗钱等整个产业链。其中,晒密撞库是基于人工智能的快速识别验证码技术。

  有科学家估计,到2040年,人工智能的犯罪率将会超过人类。利用人工智能技术进行欺诈等犯罪行为,在很大程度上与个人信息泄露与隐私保护不力相关。如何在发挥人工智能积极作用的同时,保护个人隐私、防止诈骗等犯罪,以及平衡个人保护与公共利益的关系,是人工智能时代的一项重要课题。

AI比你更了解你

  在各种智能终端、传感器无所不在的今天,借助便捷的信息采集技术,社交网络能够很方便地将人们的行为方式、性格倾向、兴趣爱好等信息化和数据化,而通过相应的智能算法,就可以准确地画出每个人的“数据画像”,这也意味着,在大数据采集、分析和人工智能技术面前,我们每个人都将变成“透明人”,不再拥有传统意义上的隐私。可以说,算法甚至比你自己更了解你。而掌握着这些数据和算法的机构,无论是公共部门还是商业企业,都可以利用其来“智能化”地推行社会治理或提供商品服务,从而大幅提升管理效率与服务水平。

  对公共部门而言,借助上述技术可以方便地掌握民众在收入、消费、健康、教育等方面的情况,为税收、社保、卫生、教育等方面的政策制定与实施提供支持。但其中的一个风险在于:人工智能基于机器学习特别是自主学习而形成的“黑箱”特征,并不能保证其所习得的算法的公平性和合理性,因为它只能保持“近似正确”,从而有可能产生误判。纽约市的教育部门由于引入了基于人工智能的评教系统,导致一位深受学生和同事喜爱的老师被解雇,就是一个“算法失效”的典型案例。

  与公共部门相比,商业机构特别是掌握大量消费者数据的平台公司,则是消费者受到隐私泄露与“算法歧视”威胁的最大风险源。第一种常见的风险是,消费者个人信息被泄露和不当使用,如脸书和剑桥分析公司的信息泄露案就是典型代表。另一种常见的风险是,在完全没有外部规制的条件下,商家有足够的动力根据消费者的个人偏好向其推荐特定商品或服务,并根据消费者的收入水平、消费倾向而“因人定价”,以实现利润最大化。此外,如保险公司拒绝向特定人群(如特定基因携带者或特定行为人群)提供保险,类似这种“消费者歧视”或“拒绝服务”,在人工智能+大数据分析的今天不难做到。

  为了应对人工智能时代可能引发的信息泄露与侵权问题,欧盟出台了号称史上最严厉的数据保护法规——《通用数据保护条例》(GDPR),并于今年开始实施。条例对个人信息的保护达到前所未有的程度,将数据披露与使用的权利赋予个人,明确数据控制者与处理者有保护个人数据及加工处理以防止泄密的义务,值得研究与借鉴。

金融诈骗的新宠

  近年来,人工智能技术被少数别有用心的人有目的地用于欺诈等犯罪行为。如将基于不当手段获取的个人信息形成“数据画像”,再借助社交平台冒充熟人进行诈骗。再比如,使用人工智能技术进行学习与模拟,生成包括图像、视频、音频、生物特征等在内的信息,突破安防屏障。去年曾有报道称新款苹果手机“刷脸”开机功能被破解,即是这类例子。

  传统的金融欺诈检测系统高度依赖复杂的密码、刻板的规则,在提供保护的同时也给消费者带来诸多不便,并且由于缺乏有效的科技手段,已无法应对日益演进的欺诈模式和欺诈技术,伪造、冒充身份等欺诈事件时有发生,给企业和消费者造成很大损失。

  可喜的是,目前已经出现相当一部分人工智能技术用来防范可能的犯罪行为,如智能安防领域的语音识别、人脸识别、视频抓取等,再比如智能金融领域的免密支付、生物特征识别、异常行为分析等。且目前国内已出现以反欺诈为代表的金融科技公司,致力于应用人工智能技术构建自动化、智能化反欺诈技术和系统,帮助企业风控系统打造用户行为追踪与分析能力,建立异常特征的自动识别能力,逐步达到自主、实时地发现新的欺诈模式的目标。这在信用体系、监管体系存在缺失的社会,具有特别重要的意义。

  运用人工智能技术应对如金融欺诈等犯罪行为,除了需要技术本身的研发与完善,还需要相关法律法规的保障,如针对电子证据(包括行为数据)的获取与保存、平台与消费者举证责任划分等问题,都应建立具体的法律法规保障制度。

  此外,从潜在风险来看,无人机、无人车、智能机器人等都可能遭到非法侵入与控制,导致财产损失或被犯罪分子利用的后果。针对此类风险,则要从产品设计上进行追溯,明确是否存在设计缺陷或漏洞,在界定生产者责任的基础上再行改进与完善。

制度+技术的双重防控

  如前所述,人工智能技术应用于公共治理、商业服务、公共安全等领域,能够带来极大的便利和明显的收益,但同时也引发了一系列新问题,其核心是对信息,特别是个人敏感信息的搜集、分析、处置与使用,以及这一过程中不同参与主体相互之间责任、权利与义务关系的界定。因此,这是一个公共治理问题。

  从这一角度来看,在人工智能时代,个人数据和隐私保护已经不单是个人权利问题,还与公共利益息息相关。例如,“个人数据画像”的生成,除基于个人特征信息外,更多来自行为数据,尤其是来自与他人的交往和联系中所产生的数据。因此,在数据治理上,如何实现个人保护与公共利益的平衡,需要深入思考与研究。

  从技术角度来看,目前基于大数据、机器学习等方式产生的人工智能算法,其内部仍然是一个“黑箱”,并不能从因果机制角度来判定其合理性、正当性。与此同时,由于数据本身的局限性、有偏性,加之社会意识形态与主流价值观的影响,也可能导致算法出现偏差,甚至“算法歧视”,留下不当使用的漏洞。

  要解决这一问题,就需要从根本上突破“算法透明”障碍。而这又要求人类树立正确的伦理标准,营造良好的科研与市场竞争环境,鼓励平台公司和中小企业在相应伦理规范和法律法规的指引下积极开展研发活动,特别是能够在人工智能基础理论、核心算法上有所创新,有所突破。

  (作者系清华大学公共管理学院副教授、清华大学中国科技政策研究中心副主任)

来源:2018年6月27日出版的《环球》杂志 第13期

《环球》杂志授权使用,其他媒体如需转载,请与本刊联系

本期更多文章敬请关注《环球》杂志微博、微信客户端:“环球杂志”

 请注意:



·遵守中华人民共和国有关法律、法规,尊重网上道德,承担一切因您的行为而直接或间接引起的法律责任。
·新华网拥有管理笔名和留言的一切权利。
·您在新华网留言板发表的言论,新华网有权在网站内转载或引用。
·新华网新闻留言板管理人员有权保留或删除其管辖留言中的任意内容。
·如您对管理有意见请向留言板管理员反映。

发表评论: 用户名 密码 匿名

 查看评论
放大字体
缩小字体
打印本稿
查看评论
推荐给朋友:
  相关新闻:
新华网版权与免责声明:

 
凡本网注明"稿件来源:新华网"的所有文字、图片和音视频稿件,版权均属新华社和新华网所有,任何媒体、网站或个人未经本网协议授权不得转载、链接、转贴或以其他方式复制发表。已经本网协议授权的媒体、网站,在下载使用时必须注明"稿件来源:新华网",违者本网将依法追究责任。
本网未注明"稿件来源:新华网"的文/图等稿件均为转载稿,本网转载出于传递更多信息之目的,并不意味着赞同其观点或证实其内容的真实性。如其他媒体、网站或个人从本网下载使用,必须保留本网注明的"稿件来源",并自负版权等法律责任。如擅自篡改为"稿件来源:新华网",本网将依法追究责任。如对稿件内容有疑议,请及时与我们联系。
如本网转载稿涉及版权等问题,请作者在两周内速来电或来函与新华网联系。

订阅本刊
本刊通用网址:环球杂志
  • 如果您对《环球》杂志的稿件有任何意见及建议请与我们联系。
  • 编辑部电话:
    010-63077031
  • E-mail:
    globe1980@vip.sina.com
  • 社址:北京市京原路8号新华社第二工作区
  • 邮政编码:100040
  • 对外合作:
    010-63077015
  • 传真:010-63073516
  • 总 编 辑:姬斌(兼)
  • 执行总编辑:金风
  • 副总编辑:聂晓阳
                 李晓明
                 刘新宇
                 刘 洪
  • 《环球》杂志
    新华通讯社主管
    瞭望周刊社主办
    环球杂志社编辑出版
    ·全彩半月刊
    ·出版日期:每月1日/16日
    ·国内统一刊号:CN11-1273/D
    ·邮发代号:2-511
    ·国外邮发代号:SM341
    ·国内订阅:
    全国各地邮局均可订阅 本刊随时办理邮购
    ·全年订阅价:192.00元
    ·国内零售:
    全国各大中城市报刊摊点/地铁/机场/书店等均有销售
    ·零售价:8.00元
    ·国外总发行:
    中国国际图书贸易总公司(北京399信箱)
    ·海外定价:US $6.00元 HK $25.00