第1146期AI100_机器学习日报(2017-11-07)

更新于 2017年11月8日 机器学习
我来说两句
0 2017年11月8日

2017-11-07 日报 机器学习

AI100_机器学习日报 2017-11-07

@好东西传送门 出品,由@AI100运营, 过往目录http://ai100.com.cn

订阅:关注微信公众号 AI100(ID:rgznai100,扫二维码),回复“机器学习日报”,加你进日报群

微信公众号:rgznai100

本期话题有:

全部26 算法14 深度学习10 资源8 视觉7 应用5 自然语言处理5 会议活动3 语音2 公告板1

用日报搜索找到以前分享的内容: http://ml.memect.com/search/

算法组   网页版 2017-11-07 14:48
资源 自然语言处理 机器翻译 数据
『Facebook最新对抗学习研究:无需平行语料库完成无监督机器翻译』http://t.cn/RliTQJA

 

wx:专知内容组   网页版 2017-11-08 06:50
算法 资源 PDF 课程 强化学习
「自动文摘AS知识资料全集(入门/进阶/代码/数据/专家等)(附pdf下载)」【导读】主题荟萃知识是专知的核心功能之一,为用户提供AI领域系统性的知识学习服务。主题荟萃为用户提供全网关于该主题的精华(Awesome)知识资料收录整理,使得AI从业者便捷学习和解决工作问题!在专知人工智能主题知识树基础上,主题荟萃由专业人工编辑和算法工具辅助协作完成,并保持动态更新!另外欢迎对此创作主题荟萃感兴趣的同学,请加入我们专知AI创作者计划,共创共赢! 今天专知为大家呈送第七篇专知主题荟萃-自动文摘Automatic Summarization知识资料大全集荟萃 (入门/进阶/论文/课程/会议/专家等等),请大家查看!专知访问www.zhuanzhi.ai,  或关注微信公众号后台回复” 专知”进入专知,搜索主题“自动文摘”查看。此外,我们也提供该文pdf下载链接,请文章末尾查看!此为初始版本,请大家指正补充,欢迎在后台留言!欢迎大家分享转发~了解专知,专知,一个新的认知方式!自动文摘 ( Automatic Summarization ) 专知荟萃入门学习进阶论文代码Tutorial数据集领域专家自动文摘系列(1-13) [http://rsarxiv.github.io/tags/seq2seq/]Text summarization with TensorFlow Google官方发布 [https://research.googleblog.com/2016/08/text-summarization-with-tensorflow.html]Your tl;dr by an ai: a deep reinforced model for abstractive summarization 强化学习用于文档摘要 [https://einstein.ai/research/your-tldr-by-an-ai-a-deep-reinforced-model-for-abstractive-summarization]教机器学习摘要 [https://zhuanlan.zhihu.com/p/21426100?refer=paperweekly]Rasim M Alguliev, Ramiz M Aliguliyev, Makrufa S Hajirahimova, and Chingiz A Mehdiyev. 2011. MCMR: Maximum coverage and minimum redundant text summarization model. Expert Systems with Applications 38, 12 (2011), 14514–14522. [http://www.sciencedirect.com/science/article/pii/S0957417411008177] 转自:专知 完整内容请点击“阅读原文” via: http://mp.weixin.qq.com/s?__biz=MzA4NDEyMzc2Mw==&mid=2649678331&idx=3&sn=66e02fbf56c5f1d61cca2990ed9f36e4&scene=0#wechat_redirect

 

wx:   网页版 2017-11-08 06:50
算法 自然语言处理 产业 胡刚
「【直观详解】信息熵、交叉熵和相对熵」【阅读时间】    10min – 13min【内容简介】    使用一个现实中直观的例子详解信息熵、交叉熵及相对熵的核心概念,读完后,希望能帮助你建立起这三个概念的固有直觉,不再疑惑。要完成题目的最终解释,必须从熵这个神奇的概念开始讲起。 Entropy来源于希腊语,原意:内向,即:一个系统不受外部干扰时往内部稳定状态发展的特性。定义的其实是一个热力学的系统变化的趋势。1923年,德国科学家普朗克来中国讲学用到entropy这个词,胡刚复教授看到这个公式,创造了“熵”字,因为“火”和热量有关,定义式又是热量比温度,相当自洽。 信息论中,熵是接受的每条消息中包含的信息的平均值。又被称为信息熵、信源熵、平均自信息量。可以被理解为不确定性的度量,熵越大,信源的分布越随机。1948年,由克劳德·爱尔伍德·香农将热力学中的熵引入信息论,所以也叫做:香农熵。 在生态学中,熵表示生物多样性的指标。 熵是描述一个系统的无序程度的变量;同样的表述还有,熵是系统混乱度的度量,一切自发的不可逆过程都是从有序到无序的变化过程,向熵增的方向进行。我们接下来要讨论的信息熵 交叉熵 相对熵 更多的着眼于信息论的角度,换句话说,更加关注概率和不确定性。 可以将对熵的理解从简单到复杂依次分解成三个层次来理解。 数学是一种工具,使用数学来描述现实中的各种事物是一个数学家本质的工作目标。而现实中不确定性,或者说不太确定是否会发生的事件必须要找到一种抽象的、符号化和公式化的手段去表示。比如天气情况,假设可能有【阴、晴、雨、雪】四种情况,使用概率符号表示P=[p1, p2, p3, p4],接下来自然而然的思考:那么,什么条件(情况)会影响这些值呢?假设有一下三种描述,或者说条件今天是晴天,所以明天可能也是晴天天气预报说明天下雨9月12日苹果公司举行发布会那么这三个描述中,很明显,第二条的信息量更大,因为它可以使得不确定事件发生在p3的概率更大。类似的,第三条对判断毫无帮助,信息量为0。注意,信息量不等于信息熵,如果是这样,那么直接用概率来衡量就可以了,不需要在重新定义一个概念。其实信息熵是信息量的期望(均值),它不是针对每条信息,而是针对整个不确定性结果集而言,信息熵越大,事件不确定性就越大。单条信息只能从某种程度上影响结果集概率的分布。 我们已经有了P=[p1, p2, p3, p4],来表示天气情况,那么用计算机来存储每天的天气,那该如何编码呢?常见的做法是,4个不同的信息,只需要2bit就能做到,00 01 11 10,假设我们在南方城市,肯定要把00编码成雨天,这样可以节省存储空间,至于为什么能节省存储空间,这就要讨论编码方式。可以简单的理解为,如果一串信息一串0很多,可以通过编码压缩这一群0来节省空间。之后我们发现这个公式中有个除法非常讨厌,我们想着去掉它,脑海中第一反应出来的满足这个条件的一定是取对数,至于为什么取对数,那说道就很多,取对数是指数的逆操作,对数操作可以让原本不符合正态分布的模型符合正态分布,比如随着模型自变量的增加,因变量的方差也增大的模型取对数后会更加稳定。取对数操作可以rescale(原谅我,这里思前想后还是感觉一个英文单词更加生动)其实本质来说都是因为第一点。说人话版本,人不喜欢乘法,对数可以把乘法变加法。那么我们结束清楚之后,就很容易就可以定义出a作为底数,可以取2(处理2bit数据),10(万金油),e(处理正态分布相关的数据)结合对信息熵的定义(第一节最后的粗体字)然后把(2-2)带入(2-1),就会发现,哦!看着有点眼熟啊。这这这,就是信息熵的定义式吧?总结就发现,信息熵其实从某种意义上反映了信息量存储下来需要多少存储空间。总结为:根据真实分布,我们能够找到一个最优策略,以最小的代价消除系统的不确定性(比如编码),而这个代价的大小就是信息熵。 因为是我们用2bit模式存储,为了计算方便,这里取a = 2直观的来考虑上面不同的两种情况,明显当事件的不确定性变小时候,我们可以改变存储策略(00 雨天 01 阴天),再通过编码,节省存储空间。信息熵的大小就是用来度量这个不确定大小的。关于编码的方式,这里提一下,哈夫曼树与哈夫曼编码 ,有兴趣的读者可以去研究一下。 转自:机器学习算法与自然语言处理 完整内容请点击“阅读原文” via: http://mp.weixin.qq.com/s?__biz=MzA4NDEyMzc2Mw==&mid=2649678331&idx=4&sn=fc6091f32e8e97783b6931ec696a966f&scene=0#wechat_redirect

 

爱可可-爱生活   网页版 2017-11-07 18:42
深度学习 语音 Carlos E. Perez
【深度学习语音风格转换】《Voice Style Transfer using Deep Learning》by Carlos E. Perez http://t.cn/Rlpa8Bx pdf:http://t.cn/Rlpa8Bi

 

ChatbotsChina   网页版 2017-11-07 11:30
深度学习 视觉
深度网络图像分割通俗指南 http://t.cn/RlC2kTx

 

wx:晓凡   网页版 2017-11-07 21:20
深度学习 视觉 算法 应用 语音 资源 自然语言处理 Geoffrey Hinton Yann Lecun Yoshua Bingeo 费根 高文 幻灯片 机器人 李飞飞 社交网络 神经网络 数据科学 王蓁 杨强 姚期智
「学界 | 高文院士JDD演讲全文:AI发展浮沉60年,这一波高潮我们还能走多远?(附PPT)」AI科技评论报道,11月6日,京东举行 JDD京东金融全球数据探索者大会,在全球范围内寻求志同道合的伙伴共同探索大数据和人工智能在金融领域的最佳实践 。中国工程程院院士、北京大学教授高文应邀做会议演讲,演讲主题为“探索大数据,迎接人工智能时代”。演讲中,高文院士不仅介绍了大数据和人工智能的联系与区别,也仔细讲解了他认为的人工智能走到了哪里、还要走多远。根据AI科技评论前方记者报道与现场速记整理如下:高文:各位嘉宾早上好,我和杨强教授是多年的朋友,从1991年我们一起参加世界人工智能联合会,相识了以后,二十几年每年都保持一些沟通、交往,所以开始他动员我来这里说几句的时候,我说这是一个金融创新的会,我去了不知道说什么好,我本身不做金融。后来他说没关系,你就说说比较宏观的东西好了,我说这个好办,北京大学的特点就是都在天上,天马行空随便讲,今天我们就随便讲讲。我们现在这个时代确实是已经从大数据时代,移到人工智能时代。为什么这样讲呢?实际上这和大数据本身的内涵关联性比较强,为什么说关联性比较强呢?我们知道大数据本身的规模特别地大,越来越大,从原来的EB级现在正在往ZB级发展,数据本身在不停地增加,我们叫数据泛滥。这个数据泛滥,比如和零售有关有很多数据,再早一点是科学的数据,不管哪种数据都是和网络关联的,个人自媒体出来以后网络数据又非常多。但这些数据以前大家都把它叫做大数据,最近有一个讲法,大数据不是规模大,而是垃圾多的数据叫大数据,利用率低的数据。比如视频数据,另外网络的个人数据,真正被利用的比例还是很低的,大数据本身的概念越来越大,但这个数据大了以后到底怎么使用怎么发展,最近一段时间大家都深入讨论,比如说数据是不是越大越好,是不是什么东西都一定要一个数据?回答是No。最近有一个非常好的案例,AlphaGo下围棋,以前是需要使用人类下围棋的数据,同时自己尝试了三千万局的数据,最近的AlphaGo Zero不需要人类对弈数据了,自己会生产数据。现在我们就可以提问,什么样的情况不需要外部数据,自己生产数据就够了?我和有些专家讨论,觉得什么样的AI系统不需要外部数据就可以战胜人,实际上就是满足三个条件:    1、集合是封闭的,不管你是状态集还是什么集,你的集合是封闭的,我们知道围棋集合是封闭的。    2、规则是完备的。也就是说下棋什么地方能下,什么地方不能下,这个规则完全完备的,不能随便更改。    3、约束是有限的,也就是说你在约束条件下,不可以递归,因为有了递归之后往下推延就停不下来,而有限的时候就能停下来。满足这三个条件,不需要外部数据,系统自己产生数据就够了。所以可以想见,今后有很多的情况你去判断这个人和机器最后谁能赢,满足这三个条件机器一定赢,不管德扑、围棋,类似的情况很多了。是不是所有的情况都是这样?当然不是。你可以看现在很多的交易、物流、零售,其实它有很多的条件一直在变,不满足刚才的条件,这时候你需要很多外部的数据,但是不是有外部数据就够了?当然不是,外部数据怎么用?它自己不会去产生一个用法,这个用法需要靠人,通过人工智能的这些手段,去用这些数据。所以人工智能实际上就是从大数据科学到人工智能是一个非常非常自然的迁移过程。最近人工智能非常热,热到每一个人,每一个投资人都说我要投人工智能或者我要干人工智能,这件事好不好呢?不知道。但我们可以看看历史,以史为鉴,可以知道很多事情。人工智能到现在的发展,到去年刚好是60年。我们看看60年的发展实际上是经历了三个阶段,第一个阶段20年,1956年到1976年。第二个阶段,从1976到2006年,30年,2006年是第三波浪潮刚刚开始,它会持续多长时间?不知道,可能25年,可能35年,也可能是40年。当然按照20、30,下面到底是40年、50年甚至60年不知道。但你知道这个规律就知道人工智能绝不是已经把所有的事情做完了,如果用人的一生来比喻,人工智能其实现在大概刚上小学的程度,有的还不到小学的程度,所以现在它的历程可能只是1/10,后面有很长的路可走。在人工智能路上有很多关键人物不能忘记,图灵不能忘记。计算机领域特别重要的一个奖图灵奖,其他学科有诺贝尔奖;诺贝尔时代没有计算机,后来有了计算机以后,大家就想计算机界也应该设一个和诺贝尔奖相当的奖,这个奖就是图灵奖,现在全世界一共65个人得过图奖,姚期智教授,是华人当中唯一得到图灵奖的。在人工智能领域得到图灵奖的一共8位,马文.明斯基(1969),约翰.麦卡锡(1971),艾伦.纽厄尔(1975),赫伯特.西蒙(1975),爱德华.费根(1994),拉吉.瑞迪(1994),莱斯利.瓦伦特(2010),犹大.伯尔(2011),就是照片上这八位。整个计算机科学领域人工智能实际上是插在宝塔尖的1/8。莱斯利.瓦伦特,犹大.伯尔,后面这两位是2010年和2011年获奖,都是和概率推理和概率学习、因果学习有关的两个学者。总体来说,人工智能到现在有三个主要的代表性的学派,哪三个呢?第一个是用逻辑的方法做人工智能,通常我们把它叫做逻辑主义学派,或者叫做符号主义学派。第二个是以连接主义为基本工具,就是用神经元网络,今天的深度学习就是它一个典型的代表。第三个学派,从搞控制论的人,比较主张的一个学派,更多的是做这种自适应和进化、计算。这三个学派里各有千秋,不能说哪个好哪个坏。什么叫人工智能?刚才主持人说的非常好,说我们今后可能就是人类智能和人工智能的一个对决,其实人工智能是人类智能的一个计算机的实现,从对决的角度,它永远不可能超过人类智能,只是说在某一个特定的方面它可能胜出,但从智能本身它没办法胜出。我们看看智能的定义,其实智能有很多方面,包括逻辑能力,语言能力、空间能力、感知能力,包括音乐感知的能力,肢体的控制能力。后面这几个是比较难的,包括人的内省、自我反省,包括人际关系的能力,包括自然探索的能力,比如发现一些新的东西,完全没有任何线索,你能想出我要做这个,我把这个问题解决掉,自然探索的能力,包括图像、图形的感知能力。其实智能分为这九个能力,而现在的人工智能在这九个方面只有三个做的还可以,有六个方面还相当的远,所以我们说现在的人工智能要想挑战人类智能,路还很长。为什么我们说人工智能60年呢?因为1956年当时有一个里程碑式的会议,达特茅斯会议。当时人工智能这几个最元老,那时候很年轻,他们集聚到一起开了两个月的会,怎么样让机器具有人的智能,讨论定出了人工智能的最终目标,什么叫人工智能。现在看起来1956年定义的人工智能的白皮书,到现在一点都不过时。所以我们说年轻人还是非常厉害的,特别同意刚才强东老总说的,对新事物、对年轻人要充分认可,那时候三四十岁的年轻人,那时候计算机刚刚兴起,人工智能概念没有,他们就提出来我们要怎么做这个东西,这是非常了不起的一件事,现在看起来确实他们做的是对的。这次会议开了以后,全世界当然主要是美国、欧洲了,那时候很多学校都开始跨入人工智能热潮当中,典型的像斯坦福大学、CMU、MIT、哈佛大学很多人都做相关的这些研究,那个阶段大家采用的技术手段,主要是逻辑主义或者符号主义。什么叫逻辑或者符号呢?实际上就是他认为一切的推理,我都可以用逻辑演算的方式来实现,我只要定义了整个逻辑演算的体系,做一个规则,就可以完成任何事,可以进行推理、数学证明,可以创作、奏乐等等,所以全是通过符号的方式来做。这个事其实我们小学就学过代数运算,逻辑它也是运算,但它不是用的代数运算,是用的布尔运算,它其实和代数运算非常接近。有了这个运算就可以对它进行推理,推理你要使用一个工具,他们使用了演绎推理的工具。我们知道到现在为止,最主要的自然科学的定理使用的都是演绎推理的方式来完成的。比如说亚里士多德他的三段论体系就是非常典型的演绎推理,欧几里得的几何学也是用这样完成的,牛顿力学,麦克斯韦、爱因斯坦全都是用演绎定理推出来的。所有演绎推理的基础满足是三段论方程,什么叫三段论,我有一个大前提,这是一个一般的原理,我有一个小前提是我要研究的特殊情况,根据大前提、小前提得到一个结论,这个结论是根据一般情况,对特殊情况做出一个判断,这就完成了演绎推理,这就叫三段演绎推理。所有的基础逻辑的方法都是这样做的,为了做这个当时设计了很多的人工智能语言,用这种语言可以写人工智能的方程,机器就可以去证明。当然这听起来很好,而且第一次浪潮,大家都认为十年之内人工智能一定可以完成很多事,但一直到1976年前后大家发现一开始定的那么高调的东西绝大多数都实现不了,加上当时有人落井下石。1973年有一个英国人发了一个报告,给AI拨一大盆冷水,把AI研究分三类系统,A是指自动机、B是机器人、C为中央神经系统。自动机和中央神经系统研究是有价值的,但进展太慢;机器人的研究毫无价值,而且非常令人失望,所以他建议把所有的机器人研究都取消掉;A和C因为它本身令人失望,所以也是非常低调。这个报告出来以后各国政府全部都把对人工智能投入的经费砍掉,马上就进入了严冬。所以1976年实际上是人工智能第一次的严冬的到来。1976年之后尽管没有经费,学者的可爱之处是给钱也做,不给钱也做。因为做逻辑的,前面已经把自己的体量拉的很大,没钱物的马上就地卧到,没得到钱的还在继续做。当时做神经网络的,基本上没有得到什么钱,不看好,所以本身就是教授带几个学生在那玩,这个领域虽然面临寒冬了,但对他来讲没有变化,反正盛夏的时候没有钱,寒冬的时候还是没钱,所以带着学生继续玩。这一玩玩出花样来,1976年开始有很多做神经元网络的,不停的写东西、发东西,一直到1986年出来一个让人眼睛一亮的东西,这个东西叫BP算法(AI科技评论注:“误差反传网络”,也就是我们现在熟知的反向传播)。以往的神经元网络只能做非常小的事,做不了大事。但这个东西出来以后可以做大事了,所以就推动了这个领域发展的速度非常快,时间关系我就不展开了。但它也只能解决一些问题。一开始人们也是期待要解决很多问题,其实也是遥遥无期,到最后又来了第二次的低谷,包括日本第五代机的失败,当时在斯坦福大学要建一个知识百科全书的项目都失败了,使得第二次人工智能又跌入了低谷。第三次是从2006年开始的,现在是人工智能的三个大牛,一位在多伦多大学Geoffrey Hinton,一位在蒙特利尔大学Yoshua Bingeo,一位在纽约大学Yann LeCun,这一年分别发表了三篇文章在讲一件事。刚才说神经元网络可以进行大规模的学习,而且可以学习的速度很快,精度很高。这个文章出来了以后,当时大家并不知道这个东西要怎么用,这个东西被谁给激活了,李凯和李飞飞做的ImageNet,主要操刀是李飞飞做的。ImageNet是一个全球的图像识别的比赛,在2012年以前都是用常规的方法,2012年开始有一个参赛队用了这个方法,比别的队错误率马上降低了一半。到2013年其它方法全部退出,全都是深度学习,2014年不停地改进。所以可以看出2015年的时候错误率已经降的非常多,深度学习的网络也非常多。到2016年的时候几乎做到不光人没法比,错误率已经低到不需要再做了,所以李飞飞选择2017年宣布这个比赛停止,不再做了,因为其实已经没有太大促进意义了。所以今天的第三轮由于深度学习,由于刚才所说的产业界的热情参与,所以我们产生了很多新的企业,有很多新的机遇,这是非常好的事。在这个机遇下国家干点什么,国家有一个中国人工智能2.0的发展战略研究,这是中国工程院一起来搞的,今年发布了一个重大研究计划。关于这个中国下一代人工智能,起初是叫AI2.0,后来经过中央高层决定,把它正式名称叫作中国新一代人工智能,这里面主要是做五个关键技术和一批应用。这五个关键技术,包括大数据智能,这和前面讲的大数据关联性非常强。第二个方面是群体智能,依靠群体的力量推进智能的研究。第三个是跨媒体智能,要把声音、图像、文字、自然语言所有这些东西联结在一起来研究智能,这是跨媒体智能未来所希望达到的目标。第四个是人机混合增强智能,人和机器混合起来怎么样让智能更高能力更强。第五个是自主智能系统,其实就是无人机,强东总刚才也强调我们在物流方面做无人系统。这五个方面和应用以及下面支撑的关系,我们有五个支柱,上面是应用,下面是基础支撑。那么这样一个轮廓,实际上就是对整个从国家战略来说已经进行了非常圆满的布局,这个是不是够了?其实还不是。就是如果看整个人工智能学科的轮廓,包括计算机视觉、语言识别、自然语言、人机交互、机器人学习等等这样的方向,这些方面目前大的布局是沉浸到应用这个方面。涉及到人的九类智能,是我们在逻辑语言文字和图形图像来说现在已经做的相当不错,中间六类还是有相当的距离需要探索。总结一下,历史总是这样螺旋前进的,它基本上人工智能的三次浪潮也是从符号主义到连接主义,到目前还是以连接主义为主的浪潮。这个符号主义到现在为止已经有30多年比较寂寞了,但它作为人类智能的一个高等抽象,它应该是发挥作用的,所以怎么发挥作用,这个是未来大家可以慢慢观察。连接主义,就是神经元网络、深度学习,目前是非常非常大行其道的,但怎么样解决小数据甚至没有数据的学习?实际还是有相当大的挑战,特别是很多的学习结果是不可解释的,这是最大的挑战。行为主义是注重自适应和进化,这是从人从猴子演化过来,它可能更接近。它怎么样在学习方面做得更好,还是需要探索。不管是企业、国家投资,大家利用好天时地利要好好干一场,不管这一轮是20年,我们现在刚刚11年,所以后面还有9年的好日子过,如果是30年还有19年好日子过。所以我想人工智能肯定至少还有10年到20年左右的好日子过,大家珍惜这个机会。当然人工智能既然是一个少年,少年主要的成长靠什么?靠学习,靠知其所以然的学习的研究,中国下一代人工智能也会在这个方面进行一些布局,我们就知道今后的方向,也许对在座各位,也许会有点帮助。好,谢谢大家。(完)更多京东JDD大会报道,请继续关注AI科技评论报道。—————  给爱学习的你的福利  —————随着大众互联网理财观念的逐步普及,理财规模随之扩大,应运而生的智能投顾,成本低、风险分散、无情绪化,越来越多的中产阶层、大众富裕阶层已然在慢慢接受。王蓁博士将以真实项目带你走上智能投顾之路,详情请识别下图二维码或点击文末阅读原文~———————————————————— via: http://mp.weixin.qq.com/s?__biz=MzI5NTIxNTg0OA==&mid=2247488026&idx=2&sn=d3c04c55c275c3123c08598b7d4f27a8&scene=0#wechat_redirect

 

wx:岑峰   网页版 2017-11-07 21:20
视觉 算法 应用 Kenneth Stanley Mario Kart Mario World 广告系统 神经网络 王蓁
「开发 | 如何从零训练神经网络玩游戏?这里有一段详细的解读视频」AI科技评论消息,最近,Youtube 上的知名游戏博主 SethBling 训练了一个叫 MariFlow 的神经网络来玩 Mario Kart 游戏。在进行15个小时的游戏训练并做了一些针对性的改进后,这个神经网络在 50cc Mushroom Cup 中获得了金牌。 这并不是 SethBling 第一次在游戏中应用神经网络“通关”。此前 SethBling 曾经创建了另一个神经网络MarI/O,通过训练,这个神经网络自己演变成玩“超级马里奥世界”(Super Mario World)的高手。SethBling还拍摄了一个六分钟的视频来解释通过神经网络来进行游戏的原理。他设计了一个四层的神经网络,通过计算,程序会给出它认为在某个点上应该按下什么键的预测。通过这个视频,或许你也可以举一反三,做出更好的应用例子(例如赛车游戏)。和AI科技评论来看一下构建这个神经网络中 SethBling 的思路吧:游戏当中,我们可以看到Mario在一直全速奔跑,全程没有任何停顿,并能快速躲开类似上图这样高难度的子弹袭击,最终到达终点的时候剩余时间为354秒。让我们重头开始看看神经网络是如何进行决策的:如上图所示,这是一个只有4层的神经网络模型,通过对最左侧的输入图像的计算(红色的短线代表Mario、白色方块代表不会移动的物体如地面,黑色方块代表会移动的物体如敌人,等等),最终得出最右侧的8个按键的输出状态(SethBling解释说,神经网络中的神经元和神经树突并不总是被亮起的,这也是我们所说的只使用到了我们一小部分的大脑)。而在一开始的时候,机器的表现非常笨拙,甚至不会按任何键。在这样的过程中,系统会尝试切换不同的模拟状态,通过尝试了很久后才学会了向右移动;在遇到子弹的时候也不会跳跃躲避;那么神经网络是如何学习的呢?还是从最初的简单状况开始,绿色线代表正激励连接,而红色表示负激励连接。自要从目前的状态所激活的是绿色的正激励连接,那么Mario就只管一直按右键狂奔;当红色的负激励连接被激活时,则切换到相应的状态,如上图中按下A键做一个跳跃动作;如果没有任何链接被激活,那么Mario就站在那里。这只是一个简单的示意:如果神经网络中的节点和连接越复杂,系统能做出的选择也更多,最终做出最合适的选择;那么神经网络是如何从简单进化到复杂的呢?我们设定一个函数Fitness,这个函数值取决于Mario奔跑的距离以及所用的时间,奔跑距离越大、所用时间越短,Fitness值越大,而只有获得最大值的模型才能被选为下一代演化的基础模型,而在下一代演化中在关键节点上(如上图吃到子弹游戏结束)会产生随机突变(AI科技评论注:这和生物进化的过程非常相似,只有最适应环境的种类才能生存繁衍),在这样不断演变中达到最优解。在上图的34代演化得分图中,我们可以看到机器在进化过程中也遇到了一些瓶颈,但最终克服了这些瓶颈取得了好成绩。 这一方法,SethBling称之为NEAT(Neuro Evolution of Augmenting Topologies,增强拓扑神经演化),在 Kenneth Stanley 和 Ari 的论文中也有讲述。完整视频见此。  —————  给爱学习的你的福利  —————随着大众互联网理财观念的逐步普及,理财规模随之扩大,应运而生的智能投顾,成本低、风险分散、无情绪化,越来越多的中产阶层、大众富裕阶层已然在慢慢接受。王蓁博士将以真实项目带你走上智能投顾之路,详情请识别下图二维码或点击文末阅读原文~———————————————————— via: http://mp.weixin.qq.com/s?__biz=MzI5NTIxNTg0OA==&mid=2247488026&idx=5&sn=1df005c62e052ab4701c327814772613&scene=0#wechat_redirect

 

wx:刘芳平   网页版 2017-11-07 21:20
公告板 深度学习 算法 应用 资源 单周 广告系统 幻灯片 机器人 王蓁 问题 医疗 智能汽车
「干货 | 德扑 AI 之父托马斯·桑德霍姆:扑克 AI 如何完虐人类,和 AlphaGo 大不同」卡耐基梅隆大学计算机系教授、德扑 AI 之父托马斯·桑德霍姆AI科技评论按:11 月 6 日,在京东 JDD(京东金融全球数据探索者大会)大会上,卡耐基梅隆大学计算机系教授、德扑 AI 之父托马斯·桑德霍姆发表演讲,讲述了他们创造的人工智能冷扑大师 Libratus 背后的原理究竟是什么?并表示这种非完美信息的游戏 AI 也可以在经济生活带来广泛的应用。演讲开始,桑德霍姆即透露,Libratus 和名噪一时的 AlphaGo 非常不同,后者是基于完美信息的游戏,前者则是非完美信息的游戏(imperfect-info games)。“在不完美信息的游戏里面,我们的挑战是不知道对手和他的行为或者是说他的行为可能性。那么对于他们以往做了些什么呢?我也不知道。”他说。之后,他阐述了 Libratus 的基本原理,包含抽象化、子博弈解决器和自我改善模块三个部分,里面并没有用到深度学习。桑德霍姆认为,人工智能不光是机器学习,“机器学习是关于过去,我们从过去的数据中学习,希望能够预测到未来或者是说在未来能够做到更多有益的东西,而战略性逻辑会关系到很多的可能性,是关于未来而推出的游戏”。以下内容由AI科技评论根据桑德霍姆的演讲速记整理,有不改变原意的删减。今天我讲一下超人类的 AI 怎么做战略性的分析和推理,这里用扑克做例子,今天我们说的是不完美信息的游戏,也就是说整个对手的状态不被机器人所知,这个跟下棋没有什么太大的联系,但是和谈判很像。我们知道 AlphaGo 的技术可以用于所有的完美信息的游戏,完美信息的游戏有一个好性质,就是一个大游戏可以分解成各个小的子游戏,子游戏怎么样解决的呢?通过别的子游戏的结论来学习。比如当我们看这一局的时候,不用关心其他局或者是其他的象棋步骤里面对手怎么做?只看这一步怎么样做就能够学到了。而非完美的信息是什么意思?就是一个信息一个子游戏学到的,不能用于另外一个子游戏。那么不完美信息的游戏就比完美信息的游戏更难。这些是基于某一 个小领域的技术,并且不可迁于其他的小领域的,比如说扑克,我们发明的这种算法能够在这种不完美信息的情景下也能够学习。由于完美信息和不完美信息的游戏两者本质不一样,AlphaGo 所应用的技术不可以应用到非完美的扑克游戏里面,因为两者的性质是不一样的。在不完美信息的游戏里面,我们的挑战是不知道对手和他的行为或者是说他的行为可能性。那么对于他们以往做了些什么呢?我也不知道。我跟我的扑克对手,我不知道他以往的行动,他也不知道我以往的行动,像我们人类面对的情景里面更多的是这一类的,不知道对手背后的盘算。那么我们想问的是对手的行动对我有什么样的启示,我怎么样通过对手的行动来推测到背后的动机,我的行动也泄露了我的哪些意图给我的对手呢?这里面有意思的是,我们不需要去解析这些行动的信号。这些信号让我们回过头来看这个纳什的方程式,纳什先生其实只是给博弈论一个定义,他并没有给我们结论,他用一些算法,根据更窄的定义来算出,争取更好的算法。那扑克里面有很多的数学原理,如果我们看一下纳什先生的那篇博士论文,把他的博弈论方程首先展示给我们,这是 1993 年的时候,这里只有一个定义,那就是类似于扑克的定义。再往后对于扑克,我们有了更多的科学家和更多的定义。大家也会讨论如果有更多更好的策略和战略来赢扑克,最近去年,我们有数以百计的关于这个扑克的扑克研究。我讲的不会太多,我只讲一些重点的研究,首先有 2004、2005 年的学生和我一起做了这样一个关于无损抽取的一个算法,就是说你略掉了,或者是说不知道这个游戏的 99% 的信息,却依然可以去知道这个游戏的规则。那么,我们现在要谈的无限下注德州扑克的纸牌压注成为最难的一个计算机界解决的标杆,里面包含了 10 的 161 次方的情景。到目前为止我刚刚说的无限下注的纸牌游戏是被 AI 攻破的,我们看一下这种单周的关于无限下注的突破,这是第二次单挑,因为之前有一次人机对抗,当时的 AI 输给了人类选手,这次我们叫做再对抗,再挑战。我们的 AI 系统是一个冷扑大师的智能系统,它的对手是四个非常优秀的扑克选手,我们一共做了 12 万次的交手,在 20 天之内,下注的赌金 20 万美元之多,大家有很强的动机去赢。2017 年这场,我们把这笔 20 万美元的奖金,不是每个人给 20 万,而是根据这四个选手的表现成比例的分配,而且我们的试验设计非常的保守,让人类去设计整个游戏的范式,为什么这么做呢?让人类去设计整个游戏的各种范式,以便于到最后去决定谁赢谁输的时候,因为是人类事先设计好的,就不会有各种的争吵和争议了。那么,整个的人类在押注的时候,更多的时候会觉得人类会赢。我们看一下游戏的现场,丹尼尔是我的朋友,我的同事,他们单独的一对一单调。冷扑 AI VS 中国龙之队一说到丹尼尔和 AI 单挑,AI 和上面的四位扑克大师在楼上单挑。比方说杰森,他在同时看着两桌,他在这两桌之间可能来回切换,在他左边的这个小屏幕上,他可以进行切换,最终的结果,我们的冷扑大师系统赢,而且大胜人类。同理,我们用这个冷扑大师跟中国的赌神进行对抗,中国的龙之队,中国的六位赌神,这是国际扑克大师的赢家,这些都是顶级的扑克手。冷扑大师还是赢了我们人类的赌神。有人要问了,我们这个冷扑大师的系统是什么原理呢?基本上我们用的是已验证正确的技术,这里面没有深度学习。所以说在上面主要有三个选择,第一个选择是有很多游戏规则的输出,还有一些更小的游戏的抽象化,最后有一个算法进行蓝图战略的执行。然后在我们的子博弈的解决器里面,实际上也是在游戏的过程中来进行问题的解决,有一个自我改善的模块,它能够把所有的这些本身的 AI 后台的主机在晚上的时候做一个更新。对于软件的运行,在我们匹兹堡的超级计算机中心的这台计算机有 1200 万小时的游戏的时间积攒。所以说它有很多的输入的信息,如果我们把 AlphaGo 和它进行对比的话,AlphaGo 是用人类的游戏历史,我们没有做这个东西,我们是白手起家的。好像是我们对着镜子给自己进行拳击,然后突然跳起来飞踢泰森的关系,我们也是一样的,我们通过 AlphaGo 来进行自我游戏实现的。我们看看第一个解析,是模块里面使用新的抽象化的算法,相对来说获得一个更小的规则,然后我们会有一个平衡化的过程。然后重新回到我们最初的游戏中进行我们所谓的蓝图战略。然后这里有两个抽象化,一个是胜利的抽象化,是定期进行算法的计算。2016 年的时候做过,现在我们用一个最大的抽象化,进行了一个平衡化的算法,来获得多种抽象化,所以从第一个赌局到我们的第二个赌轮里面,在所有的赌轮里面都可以进行,第四个赌轮里面我们使用了子博弈的解决器,这里面有一个产品的抽象画,所以这样的话我们可以对我们的客户端有一个更好的理解了。第三个正式的抽象化是从我们的扑克赌轮中,这里使用了人工智能之外,还加入了一些大赌局和小赌局的概念,所以说我们可以有最初的一个初级算法,然后把它进行一个优化,但是暂时没有办法来进行拓展,所以说我们还需要把它第一个赌局慢慢的往外拓展。后来到了子博弈的解决器,这里有五个新部分,第一个部分很可能是可以把它当前的对手的一些内容考虑在内,第二个,它是属于一些战略中的,你的子博弈的,这个计算方式很可能不会比这个蓝图战略更差。然后,如果说对手在当前的阶段犯一个错误的话,我们可以重新再考虑到它这样的一个情况下,然后同时考虑到出现的错误,但是还能够保证你的胜利,所以说它是可以在与真正的人进行比赛的时候,不会出现这种类似的错误。还有就是说关于子博弈的解决问题。一开始的时候,你解决这个问题一,再进行游戏。但是我们在这里先要再解决剩余的一些,就是说整个局我要重新的做一遍,每当对手走一步,我都会把剩下的部分再重新算一遍。另外,它还可以把当时,你可以猜想的步骤的实际这一步计算在内,这些都是在我们的抽象中,还有它可以启动得比较早,以前都是在最后一个赌轮,现在我们放在第三个赌轮里面,如果这里没有在子博弈中的这种牌的抽象化,我们这样做是因为我们希望能够通过一种新方式进行子博弈的解决。最后一个模块,它就是自我改善的模块,它采用了完全不同的一种方法来进行自身的改善。并且它也使用了之前我们所说的平衡战略。那么我通常是怎么做的呢?就是说我们需要把一系列的对手模块聚集在一起进行开发,我觉得它是比较有风险的一个方法,特别是对于一些顶级玩家来讲,因为顶级玩家是属于世界上的这个方面的专家,他们是很容易发现漏洞的专家,所以说这个过程中,很容易会遇到困难,然后我们让对手的行为集成告诉我们自己战略里面的漏洞在哪。这样在这个超级计算机里面,算法会把这些加入到我们的行为抽象画里去,之后我们就可以把它添加到我们的库里面去,可以在自己的主机里面把一些理性的内容再加入进去。下面我们再讲一下,在我们实验室里面研究的一些情况,还有就是说如何来解决非完整的信息的内容,这是我们的一些在做的课题,所以在游戏中和我们之前讲的,它会有一个非完整性信息,需要有一个抽象化的寻找器,然后我们要知道它里边的一个,游戏中会出现的问题的路径,然后我们有一个这种算法,它可以把一些概率来进行计算,如果说你这个模型离我们的偏差这么远,然后它这个模块会来进行改善,我们在扑克中是来做竞赛的,所以我们在比赛中需要应用来进行一个模拟,虽然规则不是这么清楚。所以同样的一个概念,如果我们的模块,现实当中只有这么一个差异的话,我们可以来改善我们的战略。然后让它更适合现实中的情况。第二点,在我们之前说过,可能在事件当中最好的是平衡战略,也是我们能够获得的最好的理论,今年夏天开始,我们有更多的一些算法了。第三个,我们在双方都会出现比较大的,或者是很多的错误的时候,我们是不是能解决这些问题。尽管传统意义上来讲,我们觉得有一些错误可能是可以进行计算化的,但是现在在计算机里面的一些技术可以用更好的办法来进行一个改善。最后,就是在利用或者是说开发之间的这种对比,在游戏中,我们需要去发现对方的漏洞。然后开始通过这种非游戏理论的方式,考虑到自己如何不会被对方所利用。所以说如果你开始采用游戏理论的时候,有人利用了这种游戏理论或者是博弈理论是不安全的。但是现实中不见得如此,你可以利用别人的同时,也可以保证自己不被利用,也可以保证自己的安全性。像我之前提到的这些技术,不仅仅是被用来编程,这些被用来任何一个你有互动的过程中,这个当中不光有一方,还有不完整的信息,对于新技术的能力,之所以这么振奋,是因为我们看到了这种战略性的机器中有很多的类似知识的复制。我认为这种战略定价,或者是说战略产品的组合,也可以利用它来进行一个优化。AI 也可以应用于现实世界的“游戏”现在,在 AI 当中,我们不光可以节省更多的人力,同时,又可以做得比最好的人类更强,让我们有更多的理由来利用到实际中。有一些人可能觉得大多数的现实中的应用,总会存在着不完美信息,就算是不看做一个游戏,那么我们想象一下,比如说在定价中的利用,如果对方的这个竞争对手的价格已经固定了,如果突然对方改变了这个价格,你需要实现自己的价值优化,需要反应,这里面是一个反映式的模块。战略性的定价可以让你来驱动市场的发展,同时可以事先进行价格的思考,同样你战略性的产品和组合优化,在金融中的使用也比较多,比如说战略性的结构或者是说战略贸易执行等等,还有自动的溢价。我们使用眼镜改善我们的视力,为什么不能用 AI 来改善自己的战略逻辑呢?还有像拍卖中,假如有一种投机式的拍卖,在没有人知道底价的情况下,是不是可以采用合理的竞猜。还有像电影版权,不同的一些流媒体公司,他们可能要买一些不同的视频流,到底如何能够构建一个更好的视频流的组合,如何来进行更好的谈判。大部分的应用会考虑到网络安全问题,如何来防护漏洞和操作系统中的问题,以及政治运动中,我到底要花多少钱,基于我竞争对手的预算来进行计算。还有自动驾驶车辆中,或者是说半自动驾驶的车队由不同公司来进行运维的时候,如何来获得一个更好的道路规则。有很多的一些军队或者是说在实体安全方面的应用,还有生物适应或者是说一些医药的安排中,我们已经有了多种的计划能够把这些,比如说对患者人群来进行更好的一个规划,才能够避免进行一些疫苗的注射和癌症的防护等等,当然我们还有娱乐式的,训练式的应用技术,在很多的新的游戏中,同时也会有一些社交的游戏。最后一张幻灯片我想指出的是人工智能不光是深度学习,还有一些重要的部分和领域,现在有一些新的技术和领域,我们叫做战略性逻辑,它是我们战略博弈的一部分,同时我们还有向对手建模等等,这些也是需要很多的模型。机器学习是关于过去,我们从过去的数据中学习,希望能够预测到未来或者是说在未来能够做到更多有益的东西,而战略性逻辑会关系到很多的可能性,是关于未来而推出的游戏。我们已经做了一些试验,希望能够获得更多结果,谢谢大家。—————  给爱学习的你的福利  —————随着大众互联网理财观念的逐步普及,理财规模随之扩大,应运而生的智能投顾,成本低、风险分散、无情绪化,越来越多的中产阶层、大众富裕阶层已然在慢慢接受。王蓁博士将以真实项目带你走上智能投顾之路,详情请识别下图二维码或点击文末阅读原文~———————————————————— via: http://mp.weixin.qq.com/s?__biz=MzI5NTIxNTg0OA==&mid=2247488026&idx=3&sn=365e7365cfcdf0e0e0d2d6ecbdf1403c&scene=0#wechat_redirect

 

wx:   网页版 2017-11-07 18:46
深度学习 算法 资源 Python 何宇健 决策树 课程 神经网络 统计
「今晚直播 | 神经网络的原理及结构设计」现在是AI“大行其道”的时代,不少专业人士都认为AI将会是第四次工业革命的驱动力。在诸多通往AI的道路中,深度学习可谓是最热门、最有效的之一,而深度学习的基础正是神经网络。 为此,CSDN学院邀请到《Python与机器学习实战》作者何宇健,他将为大家直播分享的主题为「神经网络的原理及结构设计」。 本课程全面覆盖神经网络相关知识点,并分享知识点之间的联系,有助于巩固机器学习体系。不仅介绍理论知识,且详述相应代码实现的思路和细节。 11月7日(今晚)20:00-21:00 CSDN学院 本课程会先从神经网络的原型谈起,然后会通过与传统机器学习算法(朴素贝叶斯、决策树等)进行比较来直观说明为何它如此有效,最后会通过介绍一些对原型的改进与创新来说明为何神经网络能在广大领域发挥作用。 何宇健,《Python与机器学习实战》作者,来自北京大学数学系,有多年Python开发经验,在GitHub上拥有并维护着一个纯Python编写的机器学习算法库(180个stars,100个forks)。对机器学习、神经网络、贝叶斯算法有深入研究。曾在创新工场AI工程院负责研发适用于结构化数据的新型神经网络。 没有相应背景并对深度学习感兴趣、或有一定机器学习背景并想拓宽思维的,渴望为转型AI打好基础的程序员。 1. 神经网络的基本知识;2. 神经网络与传统机器学习算法的对比;3. 神经网络的改进与创新。 扫描下方二维码立即报名 ↓ via: http://mp.weixin.qq.com/s?__biz=MzAwNDI4ODcxNA==&mid=2652245832&idx=2&sn=4f4b06347138fd897855bf76b7766609&scene=0#wechat_redirect

 

大数据_机器学习   网页版 2017-11-07 17:47
算法
机器学习算法汇总 >>>> 20429 学习方式 根据数据类型的不同,对一个问题的建模有不同的方式。在机器学习或者人工智能领域,人们首先会考虑算法的学习方式。在机器学习领域,有几种… 非监督式学习: 在非监督式学习中,数据并不被特别标识,学习模型是为了推断出数据的一些内在结构。常见的…全文: http://m.weibo.cn/5291384903/4171506185432014

 

机器之心Synced   网页版 2017-11-07 17:30
深度学习 视觉 算法 神经网络
【深度学习在单图像超分辨率上的应用:SRCNN、Perceptual loss、SRResNet】本文介绍了三种不同的卷积神经网络(SRCNN、Perceptual loss、SRResNet)在单图像超分辨率集上的实际应用及其表现对比,同时也探讨了其局限性和未来发展方向。http://t.cn/RlpwtT1

 

机器之心Synced   网页版 2017-11-07 17:21
经验总结 Python 博客 行业动态 可视化
【谷歌开源「Tangent」:一个用于自动微分的源到源Python库(附API概述)】近日,谷歌在其官方博客上开源了「Tangent」:通过 Python 函数 f 生成新函数,来计算 f 的梯度,从而实现更好的梯度计算可视化,帮助用户更容易地编辑和调试梯度。http://t.cn/Rlp7Po4

 

IT技术头条   网页版 2017-11-07 16:09
【使用sklearn进行数据挖掘-房价预测—模型调优】通过上一节的探索,我们会得到几个相对比较满意的模型,本节我们就对模型进行调优 网格搜索 列举出参数组合,直到找到比较满意的参数组合,这是一种调优方法,当然如果手动选择并一一进行实验这是一个十… 详戳→ http://t.cn/RlNWzcM 作者→ (Wanna…全文: http://m.weibo.cn/1748246753/4171481585633409

 

IT技术博客大学习   网页版 2017-11-07 15:05
深度学习 Python
【使用深度学习TensorFlow框架进行图片识别】 Apsara Clouder大数据专项技能认证:使用深度学习TensorFlow框架进行图片识别 与Caffe、Theano、Torch、MXNet等框架相比,Ten… 详见:http://t.cn/RlNq2Nl 分享自@J念来过倒

 

视觉 自然语言处理
【#深度好文#浅谈人工智能:现状、任务、构架与统一】到底什么是人工智能?现在的研究处于什么阶段?今后如何发展?AI目前大热的几个领域,计算机视觉、自然语言理解与交流、机器学习等等的重点研究问题和难点是什么?本文内容由浅入深,干货满满→http://t.cn/RlAZLB1

 

大数据_机器学习   网页版 2017-11-07 12:27
算法
三张图读懂机器学习:基本概念、五大流派与九种常见算法http://t.cn/RlC6rPo 来自 人工智能AI与大数据技术实战 公众号:weic2c ​

 

大数据_机器学习   网页版 2017-11-07 11:06
算法 回归
机器学习实战:Logistic回归 >>>> 机器学习, Logistic 回归,第一眼看到逻辑回归(Logistic Regression)这个词时,脑海中没有任何概念,读了几页后,发现这非常类似于神经网…还是一种支持在线学习的算法。所谓在线就是指能实时处理新加入的训练数据,而不必从新将所有数据又处理一遍。 下面给出C#版…全文: http://m.weibo.cn/5291384903/4171405417241401

 

外刊IT评论   网页版 2017-11-07 10:07
深度学习
【见证深度学习发展史最重要的6段代码】深度学习发展到如今的地位,离不开下面这 6 段代码。本文介绍了这些代码的创作者及其完成这些突破性成就的故事背景。每个故事都有简单的代码示例,读者们可以在 FloydHub 和 GitHub 找到相关代码。 […] http://t.cn/RlX9gN4

 

【信息论之父香农演示机器学习】1952 年,克劳德·香农在一次会议上展示他制造的一只机械老鼠,如何“探索迷宫”,经过一系列尝试后,再将老鼠重新放回起点,它会直接沿着正确的路走到终点。网友感慨:“再早100年就是巫术,再晚100年就是常识,当下就是科学。”看不懂点这里[doge]→…全文: http://m.weibo.cn/2392261910/4171384739648128

 

大数据_机器学习   网页版 2017-11-07 08:26
算法 资源 KNN 聚类 书籍
机器学习(二)——K-均值聚类(K-means)算法 >>>> 划分,属于无监督学习。 2. 无监督学习和监督学习 上一篇对KNN进行了验证,和KNN所不同,K-均值聚类属于无监督学习。那么监督学习和无监督学习的区… 最近在看《机器学习实战》这本书,因为自己本身很想深入的了解机器学习算法,加之想学…全文: http://m.weibo.cn/5291384903/4171365114206330

 

IT技术博客大学习   网页版 2017-11-07 08:05
入门 算法 资源 课程
【机器学习业务实践之路】 课程介绍 本系列课程为您讲述如何使用机器学习算法快速解决业务问题,会以实际业务作为出发点,所有实验都提供实验流程以及实验数据,帮您用最短的时间快速学习机器学习的原理与使用方法。 学习入口:点击这里… 详见:http://t.cn/Rl9ZWQo 分享自@J念来过倒

 

大数据_机器学习   网页版 2017-11-07 07:46
Python
携程客户流失概率预测 赛后总结 >>>> python, 数据挖掘,这次和一群好友在科赛网上参加了携程的客户流失概率预测比赛,最终33名完赛,虽然依然是渣渣成绩,但又认识了好多大神,学到了不少东西。 …诉我要保证xgb预测训练集和验证集的0-1比例与它们真实的0-1比例非常接近。比如说,原来验证集0-1比例…全文: http://m.weibo.cn/5291384903/4171355039851702

 

应用 自然语言处理 机器人
聊天机器人Chatbot知识资料全集(入门/进阶/论文/软件/数据/专家等) http://t.cn/RlizUFY

 

wx:   网页版 2017-11-08 06:50
会议活动 深度学习 视觉 算法 应用 资源 AAAI CVPR ECCV 活动 神经网络 书籍 杨林迪 医疗
「线上 | 迪英加董事长兼联合创始人杨林: 深度学习在生物医学影像分析的应用」11月9日(周四)晚8点,在将门技术社群,我们邀请到的是将门被投企业——医疗影像领域人工智能公司迪英加科技董事长兼联合创始人、美国佛罗里达大学终身教授杨林博士,他将为我们带来“Deep Learning in Biomedical Image Analysis”的主题分享。活动信息▼主题:Deep Learning in Biomedical Image Analysis时间:11月9日(周四)20:00地点:将门创投斗鱼直播间 分享提纲▼数字病理图像分析可以为改善诸如肺癌、乳腺癌、脑肿瘤等疾病的表征提供关键的定量支持。但随着图像数据量的不断增加,人工处理这些海量数据效率太低且是不可能完成的。因此深度学习在生物医学图像分析领域的应用引起了广泛关注。在本次分享中,我们将介绍深度学习在数字病理学中的多个应用,尤其是针对各类病理图像的细胞检测任务的应用。深度学习方法通常采用原始输入数据,并通过一系列非线性变换逐步学习分层特征表示。理论和实践都证明,深层架构能够通过学习高度复杂的函数从而揭示出数据的内在结构。卷积神经网络(CNN)是最成功和最广泛使用的体系结构之一。 因此在本次分享中,我们还将重点介绍几个基于CNN的学习框架,包括全卷积网络(FCN)、Deep Voting和结构化回归,以实现高效且稳健的细胞检测。以上三种架构均采用卷积层和二次采样层进行层次化特征表示,FCN中使用反卷积层进行特征向上采样,这对于端到端的训练至关重要。具体而言,FCN无需调用滑动窗口测试,非常适合用于大规模的图像分析。嘉宾介绍▼杨林迪英加董事长、联合创始人美国佛罗里达大学终身教授杨林博士本科毕业于西安交通大学,现在是美国佛罗里达大学生物医学工程系、电子与计算机工程系、计算机系三系终身副教授博导,具有超过15年影像大数据研发经验,是人工智能医学和深度学习处理影像大数据国际知名专家。获得2008年ISBI NIH杰出青年科学家论文奖,2015医学图像分析顶级年会(MICCAI) 青年科学家和最佳论文奖,发表同行评议的学术论文100多篇,参与编撰2本基于深度学习的医学图像分析和计算机辅助诊疗的专著。在国际权威期刊和顶级会议发表SCI期刊和会议论文100多篇:其中包括PAMI, CVPR, ECCV, AAAI, MICCAI 等。近年来,杨林博士主持或参与了多项美国国家健康局R01基金(NIH R01)、美国肺癌协会基金等科研项目,2017年参与编撰了一本基于深度学习的医学图像分析的最新前沿专著:“基于深度学习和卷积神经网络的医学图像分析”。 转自:将门创投 完整内容请点击“阅读原文” via: http://mp.weixin.qq.com/s?__biz=MzA4NDEyMzc2Mw==&mid=2649678331&idx=2&sn=e0040c9ccf2fc8315e20833c61f959dd&scene=0#wechat_redirect

 

机器之心Synced   网页版 2017-11-06 22:45
会议活动 深度学习 算法 NIPS Yuhuai Wu 会议 强化学习 吴宇怀
【线上分享第一期:似自然梯度的优化算法KFAC与强化学习算法ACKTR】北京时间 11 月 8 日 20:00 至 21:00,多伦多大学在读三年级博士生 Yuhuai Wu(吴宇怀)分享NIPS 2017 论文《Scalable trust-region method for deep reinforcement learning using Kronecker-factored approximation》。…全文: http://m.weibo.cn/3996876140/4171218721164339

 

新智元   网页版 2017-11-06 13:48
会议活动 视觉 ICCV 会议
【新智元导读】计算机视觉领域顶会之一的 ICCV 结束不久,图像质量提升、从头创建图像、风格迁移、图像描述等方面都出现许多新颖、创造性的工作。本文梳理了ICCV上13个最令人印象深刻的项目,一起来看。http://t.cn/RlaXRIv

 

回复