电脑终将学会读懂人类情感,虽然这一过程比较缓慢,但确定无疑。这是否意味着一个没有隐私的未来,抑或更富有同情心、更乐于助人的机器的黄金时代?
本期《梦游者》播客着眼于人工智能日益强大的“解读”人类的能力,并探讨了这项技术邪恶的和积极的用途。
杜比实验室首席科学家、斯坦福大学教授波比·克拉姆(Poppy Crum)正在使用先进传感器和人工智能捕捉情感信号。
从追踪血液流动的热传感器,到检测呼吸频率的二氧化碳监测仪,再到追踪微观面部识别的摄像头,在机器面前保持一张扑克脸越来越难了。
“作为人类,我们没有改变,”克拉姆说。“改变的是传感器的无处不在,传感器的性能,及其成本。”
如果这听起来有点吓人,或许本应如此。正如数字社会学家丽莎·塔里亚·莫雷蒂所指出,我们越来越信任那些可能以意想不到的方式运行的算法。即使是构建这些算法的计算机科学家有时也会推卸责任,将人工智能视为他们无法控制的东西。
人工智能的最新成果,从机器学习到计算机视觉等
“如果你放弃自己的责任,如果你只是出于恐惧而退缩,那么你就不是个好的计算机科学家,”“虚拟现实之父”、微软研究科学家杰伦·拉尼尔(Jaron Lanier)说。“这不是负责任的做事方式。”
拉尼尔说,我们常常被一项技术所带来的好处迷得眼花缭乱,以至于没有考虑到潜在的负面影响。他指出,许多人欢迎语音助手进入他们的家庭,却没有考虑到语音助手对儿童的影响。
“我认为问题不在于数学或算法,”拉尼尔说。“我认为问题出在我们思考它们的框架上——这种意识形态认为,机器是活的。”
当然,让更强大、更善解人意的机器进入我们的生活也有负面影响。例如,人工智能算法可能会帮助我们消除人类的偏见和错误。
“人工智能是由人编程的,”李开复说,这位企业家在领导谷歌中国前曾致力于Siri背后的技术。
“所以需要由我们来排除那些我们认为在人工智能决策中不适合考虑进来的因素。如果我们想在贷款决策引擎中消除性取向,我们可以做到这一点。或者,如果我们想从求职申请中消除性取向,我们也可以做到这一点。”
杜比实验室的克拉姆认为,像Alexa这样的设备或许能成为一个新的、更贴心的医疗助手,一个没有人类弱点的助手。她说:“人类会犯错,我们不擅长随时整合信息,我们出现谬误的地方,技术正好可以解决。”
她认为,用户需要知道他们是如何被监控的,但她认为选择退出很快就将成为不可能的事。克拉姆说:“我们必须认识到,我们所相信的这种认知独立自主权或认知机构已成为过去式。我们必须重新定义未来的样子。”
本文由“放牛班的秘密花园”编译自wired
作者:Will Knight,译者:Sail2008
喜欢我们的公众号,记得加星标或置顶哦。
相关推荐:
声明:著作权所有,转载需授权,严禁抄袭,违者必究!
有需求的请至公众号后台预约个性化咨询。
欢迎扫码加入咨询服务群,了解产品服务,提出问题,分享宝贵意见。
更多精彩内容,请关注我们。
Come on,给你的灵魂充充电!