斯坦福大学校园里的标示牌
斯坦福大学的技术伦理相关课程均与业界结合紧密,具备很强的实操性,这既提高了学生的积极性和参与度,也使得学界的很多灵感与智慧可以直通工业界,真正助力实际问题的解决。
《环球》杂志记者/彭茜
人们对理工类课程的传统印象是做实验、写代码、跑数据,但斯坦福大学的课程设置充满学科交叉色彩,人文社科和数理充分交融,常将科学技术置于社会历史变迁背景下审视,从哲学、社会学、政治学等多角度探讨技术社会的影响和伦理挑战。
无论是斯坦福大学专门的技术伦理必修课,还是嵌入式的伦理课程模块,均体现出与业界结合紧密、直面现实问题的特色,有一定的启发和借鉴价值。
传奇的CS181
在斯坦福大学,CS181是一门颇具传奇色彩的课程。这门已开设30多年的“计算机科学、伦理与公共政策”课,显示了该校对于技术伦理教育的长期关注。从设立伊始,这门课就以跨学科的视角来审视科技发展。
CS181的前身是上世纪80年代开设的“计算机、伦理与社会责任”课。当时,美国开启反弹道导弹军事战略“星球大战”计划,军方开始大力资助斯坦福理工科实验室研究。这令一些科学家开始思考如何避免技术发展偏向危险轨道,更加关注技术的社会责任。当时在斯坦福大学教授符号系统的特里·威诺格莱德和博士生、哲学家海伦·尼森博姆联合开设了这门选修课。在课上,学生们听尼森博姆讲授功利主义和康德,威诺格莱德则带领大家讨论计算机和社会责任。
2019年在斯坦福做访问学者期间,《环球》杂志记者选修了这门有30多年历史的“长青课”。现在,这门课已是斯坦福大学计算机专业核心必修课,选课规模达150人。在人工智能(AI)、大数据等新技术全面渗透人类日常生活的当下,这门课有了新的现实意义。课程研讨与计算机应用相关的伦理和社会问题,聚焦“伦理理论、社会、政治和法律考量”,关注的问题领域包括隐私、可靠性、复杂系统的风险、专业人士在技术应用过程中的责任及其工作产生的后果等等。
这门课如今由斯坦福大学计算机系、哲学系和政治系的3位老师共同授课,从各自学科视角引领学生审视技术发展。如谈及自动驾驶汽车,计算机系教授萨哈米会详解目前自动驾驶汽车所面临的技术瓶颈;哲学系教授科恩会抛出伦理学中的“电车难题”,让大家思考当自动驾驶汽车面临不可避免的事故,如何在保护车内乘客和路人之间作权衡;政治系教授雷奇则对比各国政府出台的自动驾驶汽车监管措施,要求大家思考不同政体和文化背景下的技术治理偏好。
CS181的另一特色,是让学生真切体会技术伦理问题就在身边。从第一节课开始,萨哈米在讲台前摆了几台直对着学生的摄像机,征集大家在摄像头“注视下”上课的感受,这是对技术侵入人类生活的一次现场模拟。“计算机与伦理学”“AI监管”“AI与国家安全”“数据隐私”“私人平台的权力”“硅谷的文化与价值”……课程章节设置紧跟现实中的伦理争议,经常把一些突发事件作为案例讨论,并请来争议中的“当事人”现身说法。
在“私营平台的权力”一节中,课程邀请了谷歌新闻创始人巴哈特、脸书前首席安全官斯塔莫斯和欧洲议会议员斯卡科进行圆桌讨论,探讨脸书作为“私营超级力量”如何控制整个信息生态系统、脸书和谷歌搜索引擎推荐算法如何“强化”假新闻、“社交网络效应”如何加深美国两党分歧等等。而在“AI与国家安全”一节中,现任美国国家情报总监、前白宫国家安全委员会副顾问海恩斯,以及硅谷大数据公司Palantir隐私与公民自由小组负责人等专家,则非常直白地剖析了中美AI“军备竞赛”的现状,并讨论中国发展AI的“举国体制”是否可为美国提供借鉴。
课程十分注重培养学生的批判性思维和决策能力。教授在每节课上都在讲台两侧各设一个话筒,在嘉宾演讲和圆桌讨论结束后,学生会在话筒后排长队针对演讲内容提问,视角尖锐常令嘉宾措手不及。除讲习课外,每周还设有助教引导的讨论课,学生被分为不同小组,进行正反方激辩。
引导学生发现问题,也让学生积极参与探索解决问题的现实路径,是CS181的另一重点。比如,有一节课专门讨论算法歧视问题,教授与学生共同探讨了硅谷某公司利用AI算法筛选简历导致的性别歧视。而课后作业,就是让大家一起设计一个更公平、无偏见的AI神经网络系统。
参加了这门课的斯坦福大学大一学生杨彧蔚对记者说,CS181已和数学、文学一样成为一门“工具性”课程,也是通识教育的一部分。他表示,对于希望涉足计算机行业的自己来说,CS181提供了全新的思考角度,自己未来或许会成为一个更具有社会责任感的程序员。
杨彧蔚还和课上同学成立了“有益社会的计算机科学”俱乐部,已经有100多位成员,大家常常在课下根据课上讨论的一些计算机伦理和社会问题,去尝试做一些解决方案。
伦理课程模块广泛嵌入
除了专门的技术伦理课,斯坦福大学几乎所有技术类课程都设有嵌入式的社会影响和伦理模块;一些人文社科学院的课程,也加入了对技术的社会性反思,使得几乎任何专业背景的学生都可以接受技术伦理和社会影响的教育。
全校大热的课程——著名人工智能专家吴恩达开设的深度学习,设立专门板块讨论“深度虚假”等深度学习的滥用对社会的危害,比如计算机通过学习海量视频数据后生成虚假政治人物演讲视频、伪造名人发言等。课程不仅教授背后的技术细节,也探讨识别和整治“深度虚假”的方法。
美国国家工程院院士、人工智能专家李飞飞的计算机视觉课程,也专门用几节课的时间去讨论人脸识别的隐私问题。
法学院开设的“AI的社会影响”课程,则关注AI治理中的法律因素。老师会带领学生审视AI应用中的一些法律盲区,探讨当AI载体触犯他人利益、造成社会损失时,如何量刑定罪,学生们还会组成虚拟法庭进行辩论。比如,自动驾驶汽车出了事故,如何对汽车厂商、自动驾驶方案提供方、驾驶员等进行责任认定,这些都是真实生活中亟待解决的问题。
课堂上另一给人留下深刻印象的案例,是美国某州级法院依赖AI系统辅助对犯罪嫌疑人进行量刑,结果该嫌疑人因为是有色人种(黑人),被AI认为应重判,原因就是此前AI学习的大量数据都是有色人种的犯罪记录,导致了不公平。
再如记者所选的“设计思维:科技中的性别研究”课程,由设计学院、社会学系和工学院共同开设。该课希望通过性别研究改进当前科技产品设计中多元性和包容性不足的问题。当下科技界有太多性别单一主义思维,如手机智能语音助手大多使用女性声音,这其实是一种对女性的潜在歧视。我们的期末项目是设计了一套性别包容性“菜谱”,这套开源工具包可辅助自动驾驶、AI语音助手等科技产品设计,使其更加多元包容,如在产品设计中考虑到女性、婴幼儿的特别需求等。
在课程最后的答辩环节,由硅谷业界人士来评审工具的实用性并提出问题。我们的这套工具得到了Amazon Echo智能音箱的开发者和谷歌旗下Waymo自动驾驶汽车研发者的青睐,他们表示会在产品设计和团队建设中尝试使用我们的工具。
由此可见,斯坦福大学的技术伦理相关课程均与业界结合紧密,具备很强的实操性,这既提高了学生的积极性和参与度,也使得学界的很多灵感与智慧可以直通工业界,真正助力实际问题的解决。
绕不开的伦理审查机制
除了在课程中深度嵌入伦理模块,斯坦福大学对于技术伦理的重视还体现在严格的科研伦理审查机制上。这一机制从高校教育阶段就帮助每个科研从业者树立技术伦理意识。
在校园公告栏里,经常能看到一些招贴受试志愿者的海报,很多都是为了测试新技术应用,如智能手表监测用户睡眠的情况,智能音箱的人机交互技术的成熟度如何,等等。这些涉及人类受试者的研究招募,从海报、问卷到研究方案等都要经过制度审查委员会(IRB)的审查。
斯坦福大学发展与心理科学博士李星煜对《环球》杂志记者说,IRB是美国联邦政府成立的专门机构,植入在每个大学和科研机构中,由有伦理学背景的专人负责,只要是涉及人类受试者的研究计划,无论是人文学科还是理工科,均需要提交IRB审查,这也是将研究成果发表在国际期刊的前提。IRB要求每个学生都要接受伦理方面的培训,并在考取证书后才能做跟人相关的实验。
李星煜介绍,学校有官方网站供研究者填写研究伦理审查申请表,包括研究项目持续期、主要目的、包含哪些子项目等。IRB会派专门的经理与研究者对接,根据网申表格提出一些质疑,并要求把不符合伦理的地方作修改或删除。知情同意写有研究主导院系和IRB的举报电话,如果受试者对研究不满意,随时可打电话举报。
李星煜举例说,自己曾参与一项研究,调查什么因素会影响学生对学习科学的兴趣,发放测试学习热情的问卷就需要先通过IRB审查;还有一些研究涉及“欺骗”受试者,比如一些实验会有一半人吃安慰剂,这种时候就要写清楚每一步怎么跟受试者说话,最后怎么来跟他们释疑。
“IRB要求保证受试者心满意足地体验实验过程。因此我们设计实验时,就很重视实验开始前和开始后的沟通环节,要让受试者理解我们具体要研究什么,他们是为科学作贡献,而不是被当成小白鼠。” 李星煜说。
来源:2021年7月14日出版的《环球》杂志 第14期
《环球》杂志授权使用,其他媒体如需转载,请与本刊联系
本期更多文章敬请关注《环球》杂志微博、微信客户端:“环球杂志”
|