李飞飞:世界上没有一个科技发明独立于价值观

  人工智能在60年来有了长足的发展,站在产业界和社会大众的角度,人工智能就像是一个新兴科学一样崛地而起,但是站在人工智能研究者的角度,为什么今天深度学习能做到这么好,是因为有很多代人不断地迭代和努力,这已经是几代人的工作。

  这是李飞飞的观点。李飞飞于2016年年底加入谷歌,任云人工智能和机器学习首席科学家,此前是美国斯坦福大学计算机科学系副教授,领衔斯坦福研究中心、斯坦福大学人工智能实验室(SAIL)主管。

  作为机器视觉领域的顶尖科学家,李飞飞一直在研究如何让机器看懂、读懂这个复杂的世界。李飞飞的主要贡献在于参与建立了两个被 AI 研究者广泛用来教机器分类物体的数据库:Caltech 101 和 ImageNet,而后者,目前已经成为了全球最大的图像识别数据库,也可以称得上是全球机器视觉识别领域的考场。

  在李飞飞看来,机器视觉技术有关感知这块细分领域,学术界已经将接力棒交给了工业界,往下走是需要工业界和创业界的努力,这也解释了她在学术界做多年研究之后加入谷歌的原因,在这个领域要走得更远,李飞飞需要在企业中实践。

  李飞飞也一直在推动AI领域的人才多样化这个问题,她在接受《千秒》采访时表示,鼓励女性和少数族裔参与人工智能的研究。

  对于人工智能进一步发展到底是技术上还是社会问题更难解决,李飞飞认为是社会问题尤其是价值观问题。她认为,技术问题尽管不简单但逻辑相对清晰,而社会问题涉及的范围方方面面,比如每个个体的情感与需求、个体与个体的交流、群体关系、种族、民族、国家等不同的阶层,这相比技术问题显然是更难的。她的这一观点与我们采访的Pinterest首席科学家Jure Leskovec的观点一致,Jure认为,正是因为社会问题的复杂性,也是人工智能的一个重大机遇。

  李飞飞还认为,人工智能发展接下来一定会成为社会结构重新组织的一个重要因素之一,而这就离不开一个普遍的规律——世界上没有一个科技的发明和应用是独立于价值观之外的。站在这个角度看,价值观是人的,“所以为什么我提出来人工智能将改变世界,那么谁能改变人工智能呢?这个问题就是我们要关注参与创造人工智能的这个人群,这个人群会代表着我们需要的价值观。而人工智能是这么重要、这么普适性的一个技术,从最发达的硅谷到印度的一个乡村都会受到人工智能的影响。那在这个过程中,我们需要关注创造人工智能的人群,因为说白了就是这个人群代表着我们人类的价值观。”

李飞飞:世界上没有一个科技发明独立于价值观

  李飞飞:之前我就知道我最有热情的一件事情就是对学术和真理的追求。我从大学一年级先是进入普林斯顿大学物理系,在那个时候我就知道我对物理的兴趣可能更多地来源于它的这种数学的和第一性原理的美,而不是以后会去参与物理的这个事业。但是,通过物理专业的学习,我发现我最感兴趣的就是智能这个问题,包括人的智能认知能力和机器的智能。所以,在普林斯顿大学读本科的时候,我就参与了很多研究,都是跟视觉这些有关的。本科毕业以后我就申请了研究生、博士生,我记得当时申请了麻省理工大学、斯坦福大学和加州理工大学,都被录取了,但是因为导师的原因,我选择了加州理工大学。那时,我知道我会走学术的路。

  我在普林斯顿毕业是1999年,因为那时正是华尔街的一个牛市时期,作为普林斯顿大学的学生,当时收到一些录取也不奇怪,我的大多数同学都被好的公司录取。我拒绝那些录取也不奇怪,因为它不是我心里想要的。

  《千秒》:之前我在YouTube上看了您在TED大会上的一些演讲,您讲机器视觉,首先您叫一个机器看东西,后来再教它怎么去讲一句话,机器视觉的下一步发展方向是什么?

  李飞飞:机器视觉是人工智能的一部分,人工智能在这60年间有了长足的发展,站在产业界和社会大众的角度,人工智能就是像一个新兴科学一样崛地而起,但是站在我们人工智能研究者的角度,这已经是几代人的工作。它新鲜是因为它带来了不同的可以解决新问题的方案,可以用于不同的、更多的帮助人类社会的一些应用场景。但是,我们走到今天并不是一个突发性的事件,人工智能要解决的问题中,有一些基础的问题,比如说基础算法的一些理论,已经有60年的研究历程了。为什么今天深度学习能做到这么好,也是因为有很多代人不断地迭代和努力。再比如说计算机视觉方面,从感知到认知,这是非常大的一步,目前人工智能解决得比较好的是感知方面,比如说物体识别,简单地语音、语义识别。但是在认知方面,在一个有背景的场景方面,我们还有很多要做的工作,这就是为什么我们看到特斯拉的车会出现事故,为什么我们有那么多监控器还是不能轻轻松松地告诉我们哪个孩子溺水了,或者说哪里有不好的事情发生,所以,还是有很多要做的工作。

  我认为现在在感知这一块,学术界已经把接力棒交给工业界了,学术界也有工作要做,但是往下走,工业界和创业界是需要做很多这方面的工作的。

  李飞飞:我觉得站在工业界和创投界的角度,突然开始谈人工智能是因为你们看到了人工智能的效果,因为突然发现效果挺好,图片识别、语音识别、无人车的一些基础技术都做得不错。但现在的问题是,为什么突然这几年人工智能有这么好的一些应用效果呢?我想是有三个不可忽略的要素。

  第一个要素是软件算法,通过了几十年的积累,像深度学习这个算法是一个所谓的高容量模型,它就带来了第二个需要的要素,就是大数据。站在机器学习的角度讲,高容量模型那么多参数,如果数据不够的话,就会出现过度拟合,它的泛化能力就比较差。所以,很多年来我们看到在没有数据的情况下,我们很难建立系统。现在,因为互联网的崛起,传感器的崛起,数据整个是在爆炸。第三个就是我们开玩笑说的摩尔定律了,计算机硬件的长足发展,计算能力的发展。

  李飞飞:我觉得任何一个新兴事物都可以带来很多兴奋点,也会带来一些压力预测。我坚信人工智能本身是第四次工业革命最重要的推动力之一,第四次工业革命主要是由信息革命和电脑运算产生的。信息革命最关键是两个字——信息,可是信息是什么?光是数据是没有用的,要能用智能的办法来处理数据、利用数据才是最有用的。所以说,站在这个角度,人工智能得到的关注和大家的信心我是认同的。

  但是,在这个过程中,确实是有很多消费的过度兴奋的情绪,这就要具体事件具体分析了。总的来说,我看好人工智能,当然,虽然我看好人工智能,但是在具体的投资、创业、产品开发的过程中,我觉得需要冷静,需要和专家的合作,而不是拍脑袋做事。

  李飞飞:首先,我不是一个创业者,但是我最在行的是学术。我觉得我可以说一些我的想法,我觉得第一,对创业公司来说,人类历史的发展永远是有机会的,因为数据的获取也有不同的渠道,也许大公司占领了很有优势的数据获取渠道,但是总是有不同的场景还没有足够好的一种方式,那创业公司就有机会;第二,不是所有的创业公司或者产品都是走向消费者的,我们也听到李开复老师分享了,很多有机会的应用场景有可能是在商业上,是在企业中,这里边就可以产生不同形式的合作。所以,我觉得创业公司还是有很多机会的。

  李飞飞:作为斯坦福大学人工智能实验室的主任,我非常重视人才多样化这个问题,尤其是在这个领域女性和少数族裔较少,应该鼓励这些人参与人工智能、参与工程学。我最近做了几件事,一件事是斯坦福人工智能实验室的女孩夏令营,叫SAILORS。这个夏令营已经办了两年了,是人工智能领域目前唯一的一个夏令营,而且是针对女孩子的。我们会继续办下去,而且我们现在在跟其他学校讨论怎么扩大这件事情。

  另外一件事,前段时间白宫的科学技术政策局(OSTP)也跟我在斯坦福大学合作了一场公开的研讨会,然后我们和政府也在讨论怎么鼓励不同的人才。所以,这件事情不是我一个人做得了的,需要更多的人参与,需要更多的声音被听到。

  李飞飞:我的实验室里现在博士生、硕士生和博士后加起来可能快20人。各种背景、各个国家、世界各地的,当然也有很优秀的中国学生。 他们本科的背景主要是以计算机科学为主,但是也有电子工程,也有数学,又有神经生物,还有物理,学习背景形形色色。

  李飞飞:这太重要了。首先,人类的思想和艺术的最高境界都是相通的,美和真理是相通的;其次人文科学的本质是对人性的探索,而科技是服务于人性的,如果对人性没有理解和了解,科技是危险的。所以我觉得在人工智能这样一个领域,从古希腊到古印度到中国的哲学家,一直走到笛卡儿,走到今天,我们都在探索人工智能。人工智能的思考和智能这一部分又特别涉及何以为人这个问题,而人工智能的应用场景又跟人息息相关。在这个过程中,和人文科学的合作,我觉得是非常非常重要的。

  李飞飞:这个问题很大,我觉得都难。我觉得社会问题可能更难解决,因为它技术上问题的逻辑稍微清晰一些,线条清晰一些,清晰不等于简单,但是它毕竟遵从的是一个比较有逻辑性的思路。但是,社会问题涉及了很多,涉及了每一个个体的需求、个体的情感、个体和个体之间的交流、群体和群体之间的关系,涉及种族、民族、国家,涉及不同的社会阶层。所以,社会问题在我看来肯定是最难的。

  人工智能这样一个普适型的技术绝对会影响社会的结构,因为它是一个巨大的生产推动力。人类社会在每一次工业化的过程中,都经历过阵痛,也经历过社会结构的重新组织。我觉得人工智能很可能会成为下一次社会结构重新组织的一个重要因素之一。

  世界上没有一个科技的发明和应用是独立于价值观之外的。你可以想象,我们发现火的时候,它代表的价值观是生存的价值观,在人类的早期,我们需要用火煮食物吓走猛兽。当有人发现火也可以伤害别人的时候,它的应用场景就变了,它可以变成一种武器。所以,每一个技术的发现和发明都带着它背后的价值观。站在这个角度,价值观是人的,所以为什么我提出来人工智能将改变世界,那么谁能改变人工智能呢?这个问题就是我们要关注参与创造人工智能的这个人群,这个人群会代表着我们需要的价值观。而人工智能是这么重要的一个技术,这么普适性的一个技术,从最发达的硅谷到印度的一个乡村,都会受到人工智能的影响。那在这个过程中,我们需要关注创造人工智能的人群,因为说白了就是这个人群代表着我们人类的价值观。

  李飞飞:这个问题很多人问,尤其科幻爱好者和好莱坞对这个问题特别感兴趣。我从来不认为我有所有的答案,所以这也是共同探讨的一个话题吧。第一,任何东西从第一步走到第十步都是一个过程,不是说我们今天还在识别,明天这个机器就开始打打杀杀了,这是不可能的。这个过程是谁去完成,谁去做的,我们有个体发明人的价值观,我们有群体的法律、伦理、道德,我们有政府级别的政策,这些我觉得都是人工智能发展过程中必不可少的东西。所以说,我们会不会最后允许像人工智能这样的科技伤害人类,这个问题我觉得我们应该问核能源,它就曾经被用来伤害过人类。今天虽然这个危险还在,但是我们人类社会已经学会了怎么去把核能源良性地利用,而不是恶性地利用。同样,基因工程也是既可以用来帮助人类,又可以用来伤害人类的技术。所以说,人工智能在这一点上并不特别,还是取决于我们怎么去发展它。

  李飞飞:最大的瓶颈是认知!我们可以把看猫、看狗、看椅子、看车做得很好,但是我们怎么把这个场景、这个来龙去脉背后的知识全部串起来,这是一个巨大的瓶颈。第一,我们都不清楚人是怎么做到的。第二,不一定人工智能得需要知道人怎么做到才做得了,我们现在还有巨大的缺陷,我们现在不知道怎么描绘知识,怎么描绘场景。

  《千秒》:三五年之内,您觉得哪些方面人工智能的应用会特别广泛,或者应用起来特别适合的这些领域?

  李飞飞:我觉得哪里有需求、哪里有数据,就在哪里用。其实,工业场景的应用永远是跟着市场走的,比如无人驾驶已经是一个没有太大悬念的应用场景了。工业界有很多的投入,虽然无人驾驶今天还为时过早,但是我相信无人驾驶会是最早进入大规模应用的一个大的人工智能的场景。因为这个投入和需求都在那儿,其他的话,就是看场景,比如说金融也有很多场景,电子商务也有很多场景,这个就看数据了。

李飞飞:世界上没有一个科技发明独立于价值观

  16岁随父母从中国移居美国新泽西州,1999年毕业于普林斯顿大学后,她赴西藏研究一年藏药。2005年获得加州理工学院电子工程博士学位。

  2009年她加入斯坦福大学任助理教授,并于2012年担任副教授(终身教授)和斯坦福人工智能实验室与视觉实验室主任,主要研究方向为机器学习、计算机视觉、认知计算神经学。

  李飞飞的主要贡献在于参与建立了两个被 AI 研究者广泛使用来教机器分类物体的数据库:Caltech 101 和 ImageNet,而后者目前已经成为了全球最大的图像识别数据库,也可以称得上是全球视觉识别领域的考场。

  2016年11月15日,谷歌在美国旧金山召开新闻发布会对外宣布,招入2名人工智能(AI)研究员,管理和领导谷歌全新的机器学习部门。这2位人工智能研究员分别是斯坦福大学人工智能研究实验室负责人李飞飞,Snapchat公司研究部门负责人李佳。

李飞飞:世界上没有一个科技发明独立于价值观

  该篇文章由《千秒》创作,选自集结《千秒》采访全球21位顶尖科学家、业界领袖、投资人、艺术家如何深度解读AI未来的系列文集而成、由人民邮电出版社出版的《科学+预见人工智能》一书,该书已于4月17日在京东开放预售,点击“阅读原文”即可购买!

相关推荐
新闻聚焦
猜你喜欢
热门推荐
返回列表
 
Ctrl+D 将本页面保存为书签,全面了解最新资讯,方便快捷。