大猩猩

首页 » 常识 » 常识 » 最强AlphaGo炼成了,但短期内小
TUhjnbcbe - 2025/3/9 10:01:00
北京看白癜风哪间医院效果好 http://pf.39.net/bdfyy/bjzkbdfyy/
昨天最强“AlphaGo炼成”的消息刷屏全球媒体。让不少人兴奋的一个观点是海量标定数据不再是瓶颈。但业界也有人持不同的看法。不久之前,中科视拓曾组织过一个圆桌论坛,名为“深度学习的能与不能”,邀请了机器之心创始人赵云峰作为主持,中科视拓董事长山世光、地平线机器人创始人余凯博士、研究院院长颜水成教授、微软资深研究员梅涛博士、中科院自动化所张兆翔研究员作为嘉宾进行了讨论。虽然这些嘉宾都是中科视拓相关的研究人员,但这个圆桌后半部分讨论了小数据甚至无数据情况下的一些创新研究方向及可能的难题,这部分内容我们认为很有价值。于是,就获得官方授权及资料,对这个论坛的一些内容做了整理。概括来说:颜水成认为,GAN可以非常好地去解释小样本学习的过程,但最终的模型生成机制还是用大数据学出来的,并不是有一个样本立即能得到一个模型。梅涛认为,学习还是通过大数据来学,小样本学习,现在有zero-shotlearning,在学术上可以探讨,但是这样的技术很难应用到真实场景里。张兆翔认为,将数据在其他转化过程中的不同模型作为知识沉淀下来,去帮助新智能体学习的时候,有望做到小样本学习,但是不一定能完全做到。山世光认为,GAN非常重要,但背后应该是基于大数据学习的。余凯认为,未来想象的数据有可能会缓解对数据的缺失所带来的掣肘。以下为现场内容的整理。机器之心创始人赵云峰(主持人)接下来问一个比较具体的问题。我们要解决的小数据甚至无数据的问题,我们要实现的半监督甚至无监督的学习,深度学习不太擅长。那我们可以在哪些方面有新的探索?用哪些新的方法解决这些问题?副总裁、研究院院长颜水成教授无论来自计算科学领域,还是来自神经科学领域的研究者,都一直在探寻一个同样的问题——“早期时人脑识别的机制到底是什么样的”。去年的会上我们讨论了可能的一个hypothesis(假设)——人的大脑有两套机制,一套机制是非参的,一套机制是参数的。参数这套机制可以用类似深度学习的方法去模拟。另一套非参的机制是,我们在给定一个样本时,并不立即给出模型。比如狗屎的例子,如果说以前从来没有见过,现在有了一种狗屎,可能第二次、第三次见到狗屎的时候,并不是脑子里面有个模型,而是用已经见过的狗屎去做匹配。所以说当你见的狗屎的数目足够多了之后,模型就可以从中学习出来,就是从非参转化到参数化。也许我们思考这个问题的时候,从开始就做小样本的学习本身是错误的。因为人还有一个非参数的机制,在这个机制里,慢慢积累数据,形成模型。并不是拿到样本即可立即得到一个模型。大家知道现在GAN可以非常好地去解释小样本学习的过程,比如你有一些类型的样本和一套生成机制,你可以从一个面生出各个维度表示。比如说你看到了一个狗屎,但是你要看了一个牛粪,牛粪你看到这个模型就有了,那么就是说可能脑袋里的GAN模型会模拟牛粪的生成机制,会生成很多样本,那么这个样本再去指导你去识别这个狗屎。就是说有这么一个机制,一种是非参的,一种类似于GAN,已经生成一个模型了,一个新的样本利用相似的类别,会生成出很多样本出来。总的来说,最终的模型生成机制还是用大数据学出来的,并不是有一个样本立即能得到一个模型。微软资深研究员梅涛博士我同意颜水成的观点,我始终相信学习还是通过大数据来学。小样本学习,现在有zero-shotlearning,在学术上可以探讨,但是这样的技术很难应用到真实场景里。我们在真实场景中也遇到过这样的问题,微软有很多数据,至于小样本,我们会在大数据库里面做一些数据的清洗,包括数据的整理,数据的排序这方面工作。最后还是把这个问题归结到基于大量样本学习的问题。但在学术上面来说,可能我们还不太熟悉人脑对物体认知的过程,对泛化能力还不够清晰,所以这方面可能还是要跟神经科学结合起来进行研究。zero-shotlearning,one-shotlearning等,解决问题的能力可能有限。中科院自动化所张兆翔研究员小样本学习,显然是人类学习的一个特长吧。那么,人或者是生物为什么能够进行小样本学习?其实本质上它也是基于大样本的。因为我们说到从原始人,到现在走这么长时间的进程当中,有很多很多的东西都刻画到基因中了,或者在演化过程中刻画人脑的参数调整过程。因此在现在社会当中,爸爸妈妈告诉孩子这是狗屎,告诉狗屎的过程其实是从猩猩、猴子踩到狗屎开始,所以说在这个进化过程当中,其实是把这些东西给刻画下来了。在学术界,有观点认为人工智能应该走向数据与知识的结合,如果我们能够结合一些知识,显然能够从完全由数据驱动转化为一些小样本驱动。在某种意义上来说,这种知识其实是从过去的数据总结出来的。比如我们近期开展的一个工作,如果有一个大样本已经训练出一个模型,这个模型能够作为一个老师存在,去指导他的孩子或者他的学生,那这个学生就可以用较少的数据跟老师互动起来,去迅速地达到更好的感知或识别回路。因此,如果从多智能体的角度去探索,将数据在其他转化过程中的不同模型作为知识沉淀下来,去帮助新智能体学习的时候,有望做到小样本学习。但是不一定能完全做到的,因为我们知道人类的进化是相当复杂的另一个我觉得值得尝试的方面,就是前面几位提到的:大数据的学习仍非常重要我们知道现在很多时候会用到因果分析。不同的果是由一个原因导致的,比如说狗屎,还有狗屎旁边撒的一泡尿,这是两个模态、两种数据,却都因“狗的操作”这个原因导致,因此狗屎和狗屎旁的尿之间是有关系的。这种关系可以帮助我们构建映射关系。很多时候一些共生的模态,可以帮助我们做很多很多事,左眼可以看到东西,右眼也可以看到东西,你眼睛看到东西,同时你的耳朵也听到东西,这些共生的模态帮助人在处理信息时,减少标注数据,通过尽可能少的样本去达到一些更好的学习目的,这些都是学术界做的一些有意义的尝试,也体现了深度学习的研究有很大的挖掘潜力。中科视拓董事长山世光我举一个具体的例子。在人脸识别这个我们做了很多年的领域,这两种方式其实都是有的。在人脸识别这个领域里面,做神经科学和做心理学的人在研究两种不同的人脸识别方式。一种就是我们所谓的陌生人的识别,比如说之前你从来没见过我,给你一张我的照片让你去机场接我;另外一种是去辨认你非常熟悉的人。这两种不同的人在你的大脑里面识别模型其实是不一样的。前者在心理学或者神经科学领域,他们研究的结果更倾向于在你大脑里存了一个照片,因为你其实并没有见过其他更多的信息。当然你也可以举一反三,等会我们说另外一个话题。而对于非常熟悉的人,比如你现在回想你的父母,可能就不再是一个照片,而是有复杂多样的信息,更多音容相貌的信息就加进去了,那可能就变成了一个模型,而不是纯粹的一个照片或者是某种特征。这是一个我们会感觉到差异的地方,一个one-shot问题。但实际上,在人脸识别领域,我们一直在践行的就是one-shot的问题。比如说今天大家可能在门口看到了人脸识别系统。大多数人没在我们系统里面做过训练,二只提供了一张照片,那为什么那个人脸识别系统也可以识别本人呢?我们也是用的深度学习。无需成百上千张的照片也可以识别本人是因为我们已经对其他人的照片,几十万人或者是上百万人的照片,做了学习。我们是学了如何去区分不同人脸的方法或者模型。它有推广能力,它可以推广到我们从来没有见过的人身上。一个人来了之后,虽然他没有在训练集里面,但是我们用另外一百万人学出来的模型,可以非常好的去提取他跟别人有什么不同的特征。这已经是一个模型迁移问题,另外一群人的区分模型用到这个人身上去,我想这个就是一个迁移学习的例子。刚才还提到GAN这样一个方法,我觉得这个非常重要的事情,就是我们人类有举一反三的能力。人看了一张照片之后,你看到他正面的照片,你可能会想他侧面会长什么样,他笑出来是什么样等等。这些东西就是我们举一反三的能力。这个举一反三的能力基于大数据学,因为我们见过了太多的人,他正面长什么样侧面长什么样也学到了这个模型,那么这个模型可以指导我们去猜测这个人正面是这个样子,那他侧面是什么样?他笑起来又是什么样?这个背后的问题应该是基于大数据学习的,比如说,当我们这个世界上有一百万类物体需要识别,当我们做到了一万类的时候,也许做一万零一、一万零二类的时候就相对比较容易了,因为我们已经有了大量的识别其他物体的经验,利用这个经验,可以用少量数据迁移到其他的问题上去。地平线创始人余凯对,其实刚才讨论的我就顺着大家讨论的往后想,就是说这个小数据学习大数据学习,看似是两个很不一样的概念。但是我感觉这两个空间,实际上是存在一个虫洞一样的一个效率,就是这两件事情有可能是一件事,为什么是一件事?那我举三个例子跟大家解释一下。因为刚才谈到举一反三,古过人类简史这本书,其实可能都会回顾,就是说在几十万年前实际上存在差不多人类的多个种群,我们现在出来这个胜出的叫智人,这个智人是胜出的。但是你发现很有意思的,从这个脑容量来衡量,其实智能不是最聪明的,但是在考古发现里面,发现智能的群落跟其他的被智能打败的那些人类的群落,有一个很大的不同,是说智能有一个很明显的能力,就是所谓虚拟化,虚拟的能力。就是他会描述虚拟的故事,并且去演算这个虚拟故事,比如说他们会去演算这个部落里有一个共同的神灵,这个神灵怎么样怎么样。从来都没有人见过,一般的猴子就是说只会见到了才会相信,但是智人这群猴子没有看见的东西,他也能够虚拟、想象。所以这种想象的能力,实际上是让这个人类区别于很多其他的,因为想象一个共同的神灵并且活灵活现,他会什么行为,喜欢什么不喜欢什么,他的性格是什么样的,实际上给这个部落造成一个范式,让大家按照这个范式去匹配,所以这个种群就更强大。这是第一个例子,举一反三,并且是想象的能力,区别于这个,就是让人类插上翅膀。第二个例子是Alphago,今年的Alphago2.0,你会发现它其实一定意义上来讲没有数据,因为它是完全从零的状态开始博弈,它完全是左右博弈,去虚拟下无数盘棋。整个这个程序是用的深度学习加强化学习,在不断的从虚拟的对决里面去学习很多的经验,最后达到一个很强大的能力,会接近棋盘真理。zerodatalearning,它是没有用任何人类历史的棋盘对决的数据,但是它又是大数据,为什么呢?因为它用很多虚拟的数据来学习,所以就是说,你就发现想象力使你在zerodatalearning和datalearning之间好像有个虫洞效应。实际上它们两个之间距离是非常短的,不是我们想象的差别那么大。那我讲第三个例子,就是关于自动驾驶,因为自动驾驶其实大家知道,真正测试一个自动驾驶系统的行为,不是靠这些常规交通,而是靠什么呢?靠很多边界的案例,靠很多不正常的交通数据,比如小孩子突然走到马路,你可能一辈子很难碰到几个,但是你就是要拿这些情况去测试。但是你不可能用真实的数据,你不可能让小孩真的去横闯马路,然后去测试你这个自动驾驶的系统,所以一定是用仿真的系统,去产生的很多的这种配制,然后去训练去测试。这个是自动驾驶必须要走的路,那这个里面实际上就是用大量的数据,但是这个数据是举一反三虚拟想象出来的。所以未来的话,有可能想象的数据会填补我们对数据的缺失所带来的掣肘,然后使你实际上有效的是用小数据,但是你从产生很多大量的数据,使得你这个系统能够不断的进化,去变得越来越聪明。我们未来会看到越来越多的例子体现这一点,所以这一块其实也联系到我一直在思考的事情,因为我去年参加微软研究院院庆的大会的时候,我记得我向大家推荐了英伟达的股票,我说英伟达的股票值得买。当时如果信了我的人,应该现在还是赚了不少钱,至少比买北京的房子赚钱。那时候70块钱,现在多。因为我在思考,因为你要不断的举一反三,实际上你这不是观测而是计算,因为你能够不断的举一反三,其实是更大的计算力。所以我感觉就是说,计算力本身还是会持续去推动整个人工智能往前去发展,所以我觉得投资在计算力上,我认为当前这个时间点还是不错的,这个是我的一个分享。---------------------------------------------------------关于这个圆桌其他部分的内容,我们也进行了一些简单整理。但为了给读者一个更好的阅读体验,我们并未全部放在文章里。对这个话题感兴趣的读者,可以点击链接查看全部内容。
1
查看完整版本: 最强AlphaGo炼成了,但短期内小