2017年,我在“个人机器人小组”的同事们进行了一项研究。年龄在6到10岁的儿童受到邀请到媒体实验室里玩各种智能设备(比如亚马逊Alexa或谷歌Home智能音箱)。
在孩子们和这些设备玩耍互动后,研究人员向他们每个人都提出了以下问题:你认为这个设备比你聪明,和你一样聪明,还是不如你聪明?以下是他们的回答:
我的实验室同事兰迪总是津津乐道于某个参与此次研究的孩子的故事。一个小女孩问:“Alexa,树懒吃什么?”
亚马逊Alexa用合成语音回答说:“对不起,我不知道怎么帮你。”
“没关系!“小女孩大声说。她走到另一台亚马逊Echo前,拿起它说道:“我要看看另一台Alexa知不知道。”
我喜欢这个故事,但它也让我有些担心。孩子们天生好奇,渴望把科技用作理解周围世界的透镜。但这项研究的结果告诉我一件事:我们的孩子对科技拥有很大的权力,但他们并未清晰理解科技的运作方式。
如今我们正处在人工智能时代,在此过程中成长起来的孩子们不仅是数字原住民,而且是AI(人工智能)原住民(我的导师辛西娅·布雷西亚喜欢这么说)。
尽管在搜索树懒吃什么(主要是树叶,偶尔也吃昆虫,如果你想知道的话)时这可能是无害的,但我担心孩子们会在更普遍的算法(比如YouTube推荐算法)中同样拥有这么大的权力。
2018年,Zeynup Tufecki在《纽约时报》上发表了一篇题为《YouTube, the Great Radicalizer》的文章,讲述了自己在YouTube上观看政治集会的体验。
从唐纳德·特朗普到希拉里·克林顿和伯尼·桑德斯,在看完这些视频后,在“自动播放”功能的配合下,YouTube推荐算法似乎越来越多地给她推荐阴谋论内容。
不管她看了多少左倾或右倾的内容,这个算法都会用这类视频对她进行连续密集轰炸,要么是否认大屠杀的,要么是断言美国政府搞了911袭击的。
正是这一发现,再加上YouTube是青少年中最流行的社交媒体平台、70%的成年人用YouTube来学习新事物或了解世界新闻这两个事实,让我担心孩子们在科技、特别是在人工智能上所拥有的权力。
那么,在人工智能时代,我们如何让孩子们准备好成为负责的科技消费者呢?我们能否使他们不仅成为人工智能系统的谨慎消费者,而且成为科技的尽责设计者?
用AI +伦理教育赋予孩子力量
这两个问题是我在媒体实验室所从事的研究的核心,我试图将那些人工智能、设计和伦理学研究者的理论成果转化为可操作的教学实践。
我的伦理+AI课程的第一个试点是去年10月在戴维·E·威廉姆斯中学(David E. Williams MiddleSchool)举办的一个三节课的讲习班,在课上我与200多名中学生一起展开合作。在这三节课中,学生们学习了深度学习的基础知识、算法偏见,以及如何在设计人工智能系统时考虑到伦理道德问题。
这门课程的目标是让学生明白人工智能系统是可以改变的,并给他们提供工具来实现这种改变。其理念是,如果我们能够把一个系统看成是某种灵活的东西,明白它不一定必须是现在这个样子,那么这个系统对我们的控制力就会降低。正如凯茜·奥尼尔(Cathy O ‘Neil)所说,算法仅仅是一种观点而已。
让学生明白算法是可变的,首先意味着让学生完全理解算法。他们需要了解每天都在与之打交道的算法:谷歌搜索或SnapChat上的人脸识别系统。一旦学生能够识别周围世界的算法,他们就能够了解这些系统的工作原理——例如,神经网络如何从图像数据集中学习?
我认为,一旦学生们掌握了基本的科技材料,这时就有必要引入伦理主题了。在大学层面,一节伦理课或“社会影响”课经常被归入学期的最后一节课,或全部归入一门独立课程。
这就带来了两个方面的问题。
首先,它无意中教导学生把伦理道德作为亡羊补牢的事后想法,而非算法构建或设计过程的基础。
第二,老师经常感觉时间不够用!回想起我在小学、初中和高中上过的许多美国历史课,我的老师们从来都不会跳过1964年民权法案这部分内容。
作为成年人,我对冷战是怎么回事有个模糊的概念,但我无法像跟你讲法国大革命那样把其中的细节讲得绘声绘色。这不是我们在科技课上设置伦理主题所期待的结果。伦理内容必须与科技内容相结合。
例如,在试点课期间,学生们训练了自己的猫狗分类算法。但这里有一个意外转折:训练数据集是有偏见的。在训练集中,猫的代表性过高,狗的代表性过低,这导致分类器能对猫进行高精度分类,却常常将狗错误地标记为猫。
在看到训练数据对分类器的影响后,学生们有机会重新组织他们的训练集,使分类器对狗和猫都同样有效。
最后,课程以一节伦理设计课结束。学生们的任务是通过识别系统中的利益相关者及其可能拥有的价值来重新设想YouTube推荐算法。他们的成果相当惊人。
在这次试点教学中,有两件事非常清楚。首先,学生们比我预想的更有能力理解课程材料。其次,他们需要更多时间来接触课程材料。对他们来说,三堂45分钟的课根本不足以完成令其引以为傲的项目,或深入探索其所接触的技术。
今年夏天,“个人机器人小组”将在麻省理工学院媒体实验室举办为期一周的夏季讲习班。本次讲习班将纳入来自试点项目的许多相同课题——孩子们将学习如何训练自己的图像分类器,并学习伦理设计过程,但为期一周的日程安排将使我们在每个主题上都能有所扩展,让学生真正有种人工智能和伦理学专家的感觉。
学生将学习其他类型的人工智能系统,比如最邻近(K-nearest)算法。他们还将通过思辨性小说创作讲习班或角色扮演练习来扩充自己的伦理工具箱。当我们将基于我们的观察和反馈课程完善后,我们计划在今年晚些时候将其开源。
本文由“放牛班的秘密花园”编译自Mit Media Lab
作者:Blakeley Hoffman, 译者:Sail2008
喜欢我们的公众号,记得加星标或置顶哦。
相关推荐:
声明:著作权所有,转载需授权,严禁抄袭,违者必究!
有需求的请至公众号后台预约个性化咨询。
NOW现在行动!
欢迎扫码加入咨询服务群,了解产品服务,提出问题,分享宝贵意见。
更多精彩内容,请关注我们。
Come on,给你的灵魂充充电!