第1118期AI100_机器学习日报(2017-10-10)

更新于 2017年10月11日 机器学习
我来说两句

AI100_机器学习日报 2017-10-10

@好东西传送门 出品,由@AI100运营, 过往目录http://ai100.com.cn

订阅:关注微信公众号 AI100(ID:rgznai100,扫二维码),回复“机器学习日报”,加你进日报群

微信公众号:rgznai100

本期话题有:

全部12 算法10 应用8 深度学习7 会议活动5 资源5 自然语言处理4 视觉4 入门3 语音3

用日报搜索找到以前分享的内容: http://ml.memect.com/search/

wx:   网页版 2017-10-10 21:40
公告板 会议活动 经验总结 深度学习 视觉 算法 应用 语音 知识工程 自然语言处理 CVPR ICDM Luke Oakden-Rayner Marco Romani Michael Fox 博客 产业 邓侃 邓侃 分类 广告系统 韩玫 韩玫曾 行业动态 胡祥杰 会议 活动 机器人 马坚 强化学习 神经网络 生物信息学 王飞 王永东 医疗 语言学 知识库 智能汽车
「人类医生的终结者:深度学习医疗2016-17两次大突破」【AI WORLD 2017世界人工智能大会倒计时 29  天】大会早鸟票已经售罄,现正式进入全额票阶段。还记得去年一票难求的AI WORLD 2016盛况吗?今年,百度副总裁、AI技术平台体系总负责人王海峰、微软全球资深副总裁,微软亚洲互联网工程院院长王永东等产业领袖已经确认出席大会并发表演讲。谷歌、亚马逊、BAT、讯飞、京东和华为等企业重量级嘉宾也已确认出席。 本届大会特设智能医疗论坛,并邀请到来自谷歌、卡内基梅隆大学、康奈尔大学等多位相关领域的专家和创业者,就“医疗 AI 在哪些方面已经或即将超越人类医生”、“独立的AI医疗系统何时能够出现”等问题进行展望、分享。智能医疗的真实发展现状如何?技术瓶颈何在?未来最有潜力的应用是哪些?请来世界人工智能大会智能医疗论坛寻求答案。 更多大会日程陆续揭晓中……参加大会,请关注新智元微信公众号或访问活动行页面:http://www.huodongxing.com/event/2405852054900?td=4231978320026了解更多1新智元报道  作者:张易,胡祥杰【新智元导读】南澳大学医学专家 Luke Oakden-Rayner 发表了一系列博客文章,讨论机器会不会在短时间内取代人类医生,他总结出了医疗AI领域的 6 大特征,同时列举了他认为深度学习在AI领域的两大里程碑式的研究:谷歌发表在美国医学会杂志(JAMA)关于糖尿病视网膜病变的研究和斯坦福大学的研究者在2017年发表在Nature杂志上的研究“达到皮肤病学家水平对皮肤癌的分类”。从产业层面看,在普华永道刚刚发布的全球AI报告中,也表明医疗是最容易受到 AI 影响的行业。智能医疗是否已达到“超越人类水平”的临界点?独立的AI诊疗中心何时出现?请来世界人工智能大会智能医疗论坛寻找答案。 南澳大学的放射科医师、医学专家,在阿德莱德大学与公共卫生学院攻读医学博士学位的 Luke Oakden-Rayner从今年5月开始就在追逐医疗AI领域的发展,他写了一系列的博客来介绍这一领域的最新进展,目前更新到第三篇,其系列博客的名字就叫《人类医学的终结 – 医学AI研究最前沿》(The End of Human Doctors – The Bleeding Edge of Medical AI Research)。 他这一系列博客的文章将主要讨论:机器会不会在短时间内取代人类医生。 他说,这些文章将会深入到医疗自动化的最前沿研究中。此前许多关于医疗AI的文章中,我们简单地假设深度学习可以将医疗的任务自动化,这么做是有意义的,因为这样我们就能获得一大堆的概念和定义,但是,在这篇文章中,我们首先要对这一说法进行一下论证。 接下来,会讨论医疗AI所面临的阻碍,此前许多讨论都集中在外部的障碍,比如监管和自动化的普及率。但是我们甚至都没有触碰到最本质的问题——技术上的挑战,它可能会减缓AI对医生的替代。 在前面的三篇文章中,他列举了他认为深度学习在AI领域的两大里程碑式的研究,分别标志着这一领域所取得的第一和第二个大突破:谷歌发表在美国医学会杂志(JAMA)关于糖尿病视网膜病变的研究和斯坦福大学的研究者在2017年发表在Nature杂志上的研究“达到皮肤病学家水平对皮肤癌的分类”。 此外,他还介绍了一些“小的但是不容忽视的”研究,比如“高分辨率乳腺癌筛查与多视角深卷积神经网络”和“检测巨细胞病变图像上的癌症转移”。 通过这些最前沿的研究,他总结出了医疗AI领域的6 大特征(问题): 医学影像提出了大多数其他图像分析AI不必面对的特定问题。其中之一就是“瓦力在哪里”的问题:图像通常是海量的,但疾病的特征通常是小而微妙的。在医疗任务中,通过丢弃像素来压缩图像可能会损害性能,这意味着预训练不适用。巨大的图像带来了技术上的挑战,因为深度学习的硬件很难匹配其需求。解决这些挑战的一个方法是通过基于补丁的训练,但是这会成倍地增加数据集收集的时间和成本。临床人群的低发病率意味着我们通常需要庞大的数据集才能找到足够的阳性病例。就算这些数据集本身已经存在,这也会大大增加成本。医学AI系统在某些特定方面比人类专家更灵活,即使水平达不到人类的层次,但也可能是有用的。以下是Luke Oakden-Rayner的博客文章内容,以第一人称方式呈现: 第一部分,我们将会对一个研究进行深度的解读,这绝对是一项最先进(state of the art)的研究。 首先,我想提醒大家,从2012年开始,深度学习才成为一种可应用的方法被使用,所以,我们在医学中使用这一技术的时间还不超过5年,并且,要知道,医疗人员在技术上的反应通常会慢半拍。有了这些前提,我们会发现现在取得的很多结果都是令人难以置信的,但是,我们也必须承认,这仅仅是开始。 接下来,我会对一些明显代表作医疗领域自动化取得突破的论文进行解读,同时会补充一些有用的对话。除了介绍论文,还会讨论以下几个关键要素: 任务:这是一个临床的任务吗?如果这一工作被自动化,有多少医疗从业者会被颠覆?为什么这一任务会被选中。 数据:数据是如何收集和处理的?它如何遵守医学审查和监管要求?我们可以更广泛地了解医疗AI的数据需求。 结果:它们与人类医生相比能力如何?它们究竟测试了什么?我们还能收集更多的什么? 结论:这一研究的重要性在哪?可扩展的地方在哪? 第一个论文。谷歌发表在美国医学会杂志(JAMA)关于糖尿病视网膜病变的论文。(2016年12月) 任务:糖尿病性视网膜病变是致盲的主要成因之一,主要由眼睛后部细小血管损伤引起。这是通过观察眼睛的背面,可以看到血管。所以这是一个感知任务。他们训练了一个深度学习系统,执行与糖尿病视网膜病变评估相关的几项工作。文章标题中所提到的结果是评估“可参考”的糖尿病性视网膜病变,其正在检测中度或更差的眼睛疾病(该组患者的治疗方式与“不可参考”眼病患者的治疗方式不同)。他们还评估了识别严重视网膜病变并检测黄斑水肿的能力。 数据:他们对13万个视网膜照片进行了训练,每个级别由3到7名眼科医生进行评估,最终的标签以多数票决定。图像来自使用各种相机的4个位置(美国EyePACS和3家印度医院)的康复临床数据集。 网络模型:他们使用了Google Inception-v3深层神经网络的预训练版本,这是目前使用最好的图像分析系统之一。预训练通常意味着他们已经接受过训练的网络来检测非医疗物体(如猫和汽车的照片),然后进一步对特定医学图像进行了训练。这就是为什么网络只能接受229 x 299像素的图像。 结果:这篇论文我认为是医学深度学习的第一个大突破。他们的AI系统获得了与单个眼科医生相同水平的表现,在于眼科医生的平均水平相比时,也不落下风。  图:彩色的点是人类眼科医生,黑线是谷歌的深度学习系统。 与人类以上相比,他们的系统在检测黄斑水肿上做到了相同的水平,但是在更严重视网膜病变绝对值(AUC值)上要差一些。 关于这一研究的10点总结Google(和合作者)训练了一个系统,以检测糖尿病视网膜病变(其导致全世界5%的失明),系统的表现与一组眼科医生的表现相当。这是一个有用的临床任务,这可能不会节省大量资金,也不会在自动化的时候取代医生,但具有很强的人道主义动机。他们使用130,000个视网膜图像进行训练,比公开的数据集大1到2个数量级。他们用更多阳性的案例丰富了他们的训练集,大概是为了抵消训练对不平衡数据的影响(一个没有共识性的解决解决方案的问题)。由于大多数深度学习模型都针对小型照片进行了优化,所以图像被大量采样,丢弃了90%以上的像素。目前看来,我们还不知道这是不是件好事。他们使用一组眼科医生来标注数据,很可能花费了数百万美元。这是为了获得比任何单个医生的解释更准确的“真正的真相”。第5点和第6点是所有当前医学深度学习系统的错误来源,而且人们对这些话题知之甚少。深度学习系统比医生有优势,因为它们可以用于各种“操作点”。相同的系统可以执行高灵敏度筛选和高特异性诊断,而无需再训练。所涉及的trade-off是透明的(不像医生)。这是一个很好的研究。它在可读性上是令人难以置信的,并在文本和补充中包含了大量有用的信息。该研究似乎符合目前FDA对510(k)法案的要求。虽然这项技术不太可能要通过这一手续,但是该系统或衍生物完全可能在未来一两年内成为临床实践的一部分。 第二篇具有代表性的突破性研究是斯坦福大学的研究者在2017年发表在Nature杂志上的研究“达到皮肤病学家水平对皮肤癌的分类”。 任务:皮肤科是主要专注于皮肤病变的医学专业。他们处理皮肤癌(美国每年10,000人死于该病)和其他全身性疾病的肿瘤,皮疹和皮肤表现等系统疾病。作者训练了深度学习系统,用于执行与皮肤科实践相关的几项工作。标题的结果是对“需要活检”病变的评估,这是鉴定可能患有皮肤癌并需要进一步处理的患者。他们还评估了直接从图像中识别癌症的能力,以及一项更复杂的任务,试图诊断病变亚组。 数据:他们从18个不同的公共数据库以及斯坦福医院的私人数据中训练了13万个皮肤损伤照片。不幸的是,这篇文章并没有说清楚数据来源及如何构建,所以我真的不知道训练标签是什么。在论文中,他们将数据描述为“皮肤科医生标注的”,但也提到了各种位置的活检结果。我想我们可以假设,这个数据的大部分是被单个皮肤科医生标记,没有活检结果。 网络模型:同第一个研究。 结果:本研究是我认为医学深度学习的第二个重大突破。他们比大多数单个皮肤科医生以及他们提供的比较的皮肤科医生“平均”水平获得了更好的表现。 关于这一研究的8点总结 1.斯坦福大学(以及合作者)训练了一个系统来鉴别需要活检的皮肤病变。皮肤癌是浅色皮肤人群中最常见的恶性肿瘤。2. 这是一个有用的临床任务,是目前皮肤科实践的很大一部分。3.他们使用13万个皮肤病变照片进行训练,并且用临床上典型的阳性病例丰富了他们的训练和测试组。4.图像被大量采样,丢弃了大约90%的像素。5.他们使用“树实体论”组织训练数据,通过培训来提高其准确性,以识别757类疾病。这甚至在更高级别的任务上改进了结果,如“这种病变需要活检吗?6.他们比单个皮肤科医生能更好地识别需要活检的病变,具有更多的真阳性和较少的假阳性。7.虽然可能存在监管问题,但该团队似乎已经有一个有用的智能手机应用程序。我希望在未来一两年内可以为消费者提供这样的东西。8. 对皮肤病的影响尚不清楚。至少在短期内,我们实际上可以看到皮肤科医生的需求不断增加。 最后,Luke Oakden-Rayner总结说,我认为这些研究是突破性的,事实也说明了这个问题,两个研究组似乎都在研究初次发表后六个月内临床测试了这些系统。谷歌的视网膜病变研究实际上已经完成了初步的临床试验,并正在印度推出系统,旨在解决受过训练的眼科医生处理糖尿病眼病短缺的问题。斯坦福大学皮肤科组正在建立一个智能手机应用程序来检测皮肤癌。 普华永道刚刚发布了名为“探索 AI 革命”的全球AI报告,特别推出了“AI 影响指数”,对最容易受到 AI 影响的行业进行了排名。其中,医疗和汽车并列第一位。 AI影响评分从1-5(1是最低的影响,5最高),医疗和汽车都是3.7分,并列第一: 而实际上,从 2011 年开始,医疗领域一直高居 AI 行业应用前列。CB Insights 曾发布过 AI 应用的“行业热图”,可以直观地看出智能医疗的火热程度。 从全球范围来看,IDC 在其《全球半年度认知/人工智能支出指南》中将医疗人工智能统列为2016年吸引最多投资的领域之一,并表示在未来五年内,包括医疗人工智能+诊断和治疗系统的使用案例将获得最大的发展。在五年期间,它预测医疗健康人工智能投资的年复合增长率为69.3%。 国内,根据亿欧智库的相关研究数据,截止至2017年8月15日,国内医疗人工智能公司累积融资额已超过 180 亿人民币,融资公司共 104 家。 说回到普华永道的最新报告。该报告以“基于数据的诊断支持”作为智能医疗的高潜力用例,认为“人工智能最初可能被作为人类医生的辅助来采纳,而不是替代人类医生。这将改善医生的诊断,但此过程也为 AI 学习提供了有价值的见解,让其可以不断学习和改进。人类医生和 AI 驱动的诊断之间的这种持续的相互作用将提高系统的准确性,并且随着时间的推移,人类将有足够的信心完全授权 AI 系统进行自主操作。” 实际上,这一美好前景已展现出了些许萌芽。如依靠计算机视觉的智能医疗影像识别,已经随着深度学习等技术的使用,来到了“超越人类水平”的临界点。同时,2017 年 8 月,国家卫计委在新闻发布会上也传达出一个重要信息:将在已有的 5 类可独立设置的医疗机构上,再增加 5 类独立设置的医疗机构类别(包括病理诊断中心、康复医疗中心等等)。随着支持社会办医的政策落实,医疗的“牌照”价值正在下降,未来很有可能出现独立的 AI 诊断中心,直接为患者提供诊断服务。 将于2017年11月8日在北京国家会议中心举办的AI WORLD 2017世界人工智能大会特设智能医疗论坛,并邀请到来自谷歌、卡内基梅隆大学、康奈尔大学等多位相关领域的专家和创业者,就“医疗 AI 在哪些方面已经或即将超越人类医生”、“独立的AI医疗系统何时能够出现”等问题进行展望、分享。智能医疗的真实发展现状如何?技术瓶颈何在?未来最有潜力的应用是哪些?请来世界人工智能大会智能医疗论坛寻求答案。 我们隆重为您介绍首批确认的智能医疗论坛演讲嘉宾,他们是:谷歌资深科学家韩玫;美国卡内基梅隆大学计算机学院计算生物学副教授马坚;大数医达创始人、卡内基梅隆大学计算机学院暨机器人研究所博士邓侃;康奈尔大学威尔医学院助理教授王飞。 马坚美国卡内基梅隆大学计算机学院计算生物学副教授 马坚, 2016 年1月起担任卡内基梅隆大学计算机科学学院计算生物学副教授,他也是CMU机器学习系的教授。他曾就职于伊利诺伊大学香槟分校(助理教授(2009-2015),副教授(2015))。他的小组研究一直专注于算法开发,以帮助更好了解人类基因组的基本功能和人类疾病如癌症的分子机制。 演讲主题:精准基因组数据与智能医疗最新进展 演讲概要:互联网下半场,人工智能正在加速数据系统的闭合。医疗和健康数据是其中最重要也是最难获得和解析的一环。从可穿戴设备到IoT,到医学图像、医疗档案和个人基因组信息,如何加速多模态高维数据的整合,推动产业发展,同时又促进个性化普惠医疗,提升民众的健康管理,需要学界和业界的创新性合作。我从基因组数据的最新发展入手,介绍一下精准基因组和智能医疗的进展,并探讨与整个互联网产业创新性结合的可能性。 大数医达创始人,美国卡内基梅隆大学计算机学院暨机器人研究所博士 邓侃,上海交通大学本科及硕士,美国卡内基梅隆大学(CMU)计算机学院暨机器人研究所博士,专攻人工智能及数据挖掘。历任美国甲骨文公司(Oracle)主任系统架构师,美国泰为手机导航公司(Telenav)北京分公司总经理,百度高级总监并主管网页搜索和知识图谱。 2015年,邓侃创建北京大数医达科技有限公司,旨在将深度强化学习技术应用于医疗健康领域。大数医达对几亿份三甲医院病历,进行结构化解析,构建海量训练数据,并结合临床指南,训练医疗深度强化学习模型。用于实现面向患者的医疗咨询服务,面向基层医生的临床导航服务,以及面向医院和医疗保险的全流程精细化质量控制和成本控制服务。 演讲主题:多模态智能疾病诊断系统的四大技术难点 演讲概要:北京大数医达科技有限公司实现了多模态智能疾病诊断系统,该系统把 CNN、RNN、Attention、GAN、RL、MCTR、Knowledge Graph 等多种前沿技术融为一体,构建医学智能诊断新体系。本演讲重点介绍该系统以下 4 个方面的技术难点。 1. 把多模态数据,都转换成以医疗知识图谱为轴心的语义向量,在同一个参照系下进行相互比较和交叉操作; 2. 在知识图谱为轴心的语义向量空间中,融合多模态数据,并使用生成对抗模型提供可行又可靠的质量评估方案; 3. 用卷积神经网络技术,从病情描述中提炼病情特征,用聚焦机制,从医学知识图谱中补充相应病理逻辑,优化疾病的诊断与验证; 4. 用深度强化学习和蒙特卡洛搜索树技术,给医生推荐最佳后续化验和检查项目,补充病情描述,用最小的代价,找到诊断金指标,提高诊断精度。 康奈尔大学威尔医学院助理教授,IBM沃森研究中心顾问 王飞,博士,康奈尔大学威尔医学院助理教授,IBM沃森研究中心顾问,法国液空集团研究顾问。曾任职于康涅狄格大学以及IBM沃森研究中心。他于2008年在清华大学自动化系获得博士学位,其博士学位论文“图上的半监督学习算法研究”获得了2011年全国优秀博士论文奖。主要研究方向包括数据挖掘,机器学习技术在医疗信息学中的应用。王飞博士已经在相关方向的顶级国际会议和杂志上发表了近190篇学术论文,引用超过5000次,H指数39。其(指导的学生)论文论文曾ICDM2016最佳论文提名,ICDM2015最佳学生论文,ICHI 2016最佳论文奖,ICDM 2010的最佳研究论文提名奖,SDM 2015与2011最佳研究论文候选以及AMIA 2014转化生物信息学峰会的Marco Romani最佳论文候选。王博士还是Michael Fox基金会主办的帕金森病亚型发现数据竞赛的冠军获得者。王飞博士是2017年国际医学信息学大会(MedInfo)的分领域主席(track chair),2015国际健康信息学大会(ICHI)的程序委员会主席。王博士同时还是AMIA知识发现与数据挖掘 (KDDM) 工作小组副主席。任杂志Artificial Intelligence in Medicine的编委(Associate Editor),Journal of Health Informatics Research的编委,Smart Health的编委,Data Mining and Knowledge Discovery的执行编委(Action Editor),Pattern Recognition编委。已在美国申请相关专利40余项,授权15项。 演讲主题:人工智能与智慧医疗——现状、误区、挑战及发展方向 演讲概要:人工智能正在改变着这个世界。医疗健康,作为每个人生活中不可分割的一部分,也正在被人工智能改变着。全球的IT巨头,例如Google, Microsoft, IBM,以及国内的IT巨头BAT,都在试图用先进的人工智能技术来提高医疗质量,让每个人变得更加健康。本报告将对目前人工智能技术在医疗中应用的现状做以小结,指出这一领域的常见误区及挑战,进而展望未来的发展方向。 韩玫 谷歌资深科学家 韩玫,谷歌资深科学家。她已发表超过30篇有关视频分析、视觉跟踪、物体检测、几何建模、图像处理、计算机视觉、多媒体处理以及计算机图形学的会议论文。拥有20多项美国专利。加入谷歌之前,韩玫曾是美国NEC实验室研究员。韩玫本科、硕士、博士毕业于清华大学计算机科学与技术专业,并于2001年获得卡内基梅隆大学机器人学博士学位。曾担任3DV 2016,CVPR 2017和ACM Multimedua 2017的会议组织主席。 更多嘉宾将陆续揭晓,世界人工智能大会门票火热销售中,请点击“阅读原文”抢票。 博客地址:https://lukeoakdenrayner.wordpress.com/2017/10/09/the-end-of-human-doctors-the-bleeding-edge-of-medical-ai-research-part-3/ 【扫一扫或点击阅读原文抢购大会门票】AI WORLD 2017 世界人工智能大会购票二维码:  via: http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&mid=2652005936&idx=1&sn=a1b069cc66ac74f04687b8f85fad5b04&scene=0#wechat_redirect

 

wx:   网页版 2017-10-11 06:33
算法 应用 广告系统 矩阵 推荐系统
「推荐系统经典技术:矩阵分解」在2007年,Netflix公布了一项推荐算法的比赛,根据用户对电影的评分历史,预测用户对没有看过的电影的评分。如果有队伍能在测评指标上超过Netflix官方的推荐系统——“Cinematch” 10%以上,将会被奖励100万美元。最终,在2009年,一支名为“BellKor’s Pragmatic Chaos”的队伍以超过“Cinematch” 10.06%的成绩获得全部奖金。在Netflix比赛的推动下,矩阵分解方法大放异彩,许多队伍采用矩阵分解的方法都取得了不错的效果。今天我们将介绍推荐系统中的经典算法——矩阵分解 。矩阵分解算法主要作用在用户-物品评分矩阵上,其主要思路是将评分矩阵分解成两个低维的矩阵,分别用来刻画用户和物品的特征,再由这两个低维矩阵的内积来重建用户对未评分物品的评分。在通常情况下,评分矩阵有两种类型:Explicit Feedback 和 Implicit Feedback。Explicit Feedback用户显式地用评分表达对物品的喜欢或不喜欢。如在豆瓣电影中,用户可以用5星表达自己对电影的喜爱,也可以用1星表达对电影的不喜爱。在文章Matrix Factorization Techniques for Recommender Systems[1] 中指出,最基本的处理Explicit Feedback的模型可以表达为:其中,R是已知的用户对物品的评分,X是用户的latent factor,Y是物品的latent factor,lambda是正则化系数。更复杂的加入了用户和物品偏置项的模型可以表达为:以上两种模型均可通过SGD (stochastic gradient descent) 或ALS (altering least square) 来求解。可以参考LibRec中的 BiasedMFRecommender.javaImplicit Feedback用户对物品的喜好可以通过用户在物品上的行为侧面反映。如在Point-of-Interest推荐中,用户在某个地点的check-in次数可以侧面反映用户对这个地点的喜爱程度。大多数推荐系统是处理implicit feedback的,因为用户的行为比用户的偏好要更容易观察得到。当然在这样的数据中噪声也更大,不容易推测出用户的喜好。在论文Collaborative Filtering for Implicit Feedback Datasets [2] 中叙述的weighted alternating least squares模型是一种非常经典地处理implicit feedback的方法。这个方法与上述处理explicit feedback最大的不同之处是,这种方法将所有的用户与物品的交互都视为positive sample,用户与物品交互的次数反映了用户这个物品感兴趣的程度 (confidence)。这个模型可以被表示为:其中P是一个二值化的矩阵,用来表达用户是否和物品有交互。C是confidence矩阵,由用户和物品的交互次数矩阵得到,次数越多相应的值越大,用来表达用户对物品的感兴趣程度。转自:LibRec智能推荐 完整内容请点击“阅读原文” via: http://mp.weixin.qq.com/s?__biz=MzA4NDEyMzc2Mw==&mid=2649678211&idx=3&sn=7f5d5bda8ff26e96f80ba3e39d95b400&scene=0#wechat_redirect

 

wx:   网页版 2017-10-11 06:33
经验总结 深度学习 视觉 算法 应用 语音 资源 自然语言处理 PageRank TFIDF Tomas Mikolov 博客 代码 机器翻译 矩阵 数据 特征工程 推荐系统 信息检索 语言学 智能汽车 主题模型
「NLP中自动生产文摘(auto text summarization)」最近几年在人工智能领域中大热的工程技术deep learning,将机器对图像,语音,人类语言的认知能力都提升了不少,前前后后也涌现出不少不仅仅是很cool而且是非常实用的应用,比如人脸识别,猫脸识别,无人车,语义搜索等等。其中,深度学习技术对图像和语音的影响最大,但对人类语言的理解(NLP)做的没有那么那么好。所以,不必太过鼓吹人工智能将会如何如何,民众的期待不应太过接近科幻电影,不然只能换来无尽的失望,从而导致寒冬的来临。However, I would encourage everyone to think about problems, architectures, cognitive science, and the details of human language, how it is learned, processed, and how it changes, rather than just chasing state-of-the-art numbers on a benchmark task.以上是一些简单的背景介绍,下面进入正题。 自动文摘(auto text summarization)是NLP中较难的技术,难点很多,至今并没有一个非常让人满意的、成熟的技术来解决这个问题。想法大家在查文献的时候,输入一个关键词之后,会返回一个paper列表,如果你只看paper的title可能会被一些标题党蒙骗,如果每篇paper都看abstract,时间会花太久,看着很烦。所以我在想,给rsarxiv添加一个功能,基于query的research survey生成。当你输入一个keyword之后,返回的结果不仅仅是paper列表,还有一个非常精炼的survey,你可以通过阅读survey了解到每篇paper的最核心工作,如果你感兴趣的话,可以进一步查看paper的具体内容。(比摘要还要精炼)基于这个idea,开始逐步地了解自动文摘技术,所以这一系列blog的目的是为了记录我在学习自动文摘过程中的一些点滴心得。 介绍第一篇blog对自动文摘做一个简单的介绍。自动文摘技术应用最广的领域在于新闻,由于新闻信息的过载,人们迫切地希望有这么一个工具可以帮助自己用最短的时间了解最多的最有用的新闻(为什么不直接看标题呢?因为很多新闻为了哗众取宠,故意将标题起的特别吸引人眼球,但却名不副实),因此就有了Yahoo 3000w$$ 收购summly的交易。另外,搜索引擎也是应用之一,基于query的自动文摘会帮助用户尽快地找到感兴趣的内容。前者是单文档摘要技术,后者是多文档摘要技术,后者较于前者会更加复杂一些。自动文摘出现的重要原因之一是信息过载问题的困扰,(当然个性化推荐系统是解决信息过载的另外一个好的办法)另外一个重要原因是人工文摘的成本较高。可以想象,如果计算机有能力写出一个topic下的综述paper,也就不需要survey作者去花大量的时间来读和写了。自动文摘要解决的问题描述很简单,就是用一些精炼的话来概括整篇文章的大意,用户通过阅读文摘就可以了解到原文要表达的意思。问题包括两种解决思路,一种是extractive,抽取式的,从原文中找到一些关键的句子,组合成一篇摘要;另外一种是abstractive,摘要式的,这需要计算机可以读懂原文的内容,并且用自己的意思将其表达出来。现阶段,相对成熟的是抽取式的方案,有很多很多的算法,也有一些baseline的测试,但得到的摘要效果差强人意,对后者的研究并不是很多,人类语言包括字、词、短语、句子、段落、文档这几个level,研究难度依次递增,理解句子、段落尚且困难,何况是文档,这是自动文摘最大的难点。自动文摘(二)引: 自动文摘的方法主要分为两大类,extractive和abstractive。前者是目前最主流、应用最多、最容易的方法,后者相对来说更有一种真正人工智能的味道。还有另外一种分类方法是,单文档摘要和多文档摘要,前者是后者的基础,但后者不只是前者结果简单叠加那么简单。本文只介绍单文档的extractive方法。 Extractive (抽取式)Summarization 抽取式的方法基于一个假设,一篇文档的核心思想可以用文档中的某一句或几句话来概括。那么摘要的任务就变成了找到文档中最重要的几句话,也就是一个排序的问题。 排序是一个非常经典的问题,也是一个非常多解决方案的问题。比如:Google根据用户的query生成的网页列表,就是一个排序之后的结果;再比如Amazon的推荐系统推荐给用户的N个可能感兴趣的产品,也都是通过算法做了排序输出的。排序针对不同的问题,需要提出不同的指标,比如有的应用关心的是相关性,有的关心的是时效性,有的关心的是新颖性等等,在这个层面上来讨论排序,会有不同的模型。 一般的抽取式摘要问题,会考虑相关性和新颖性两个指标。相关性是指摘要所用的句子最能够代表本文档的意思,而新颖性是指候选句子包含的冗余信息要少,尽可能每句话都可以独立地表达出一种独立的意思。 下面简单介绍一些思路。 1.预处理 NLP任务的标准流程中第一步都是预处理,将拿到的文本做分句,这里有两种可能性,一是用句点或者其他可以表达一句话结尾的符号作为分隔,另外一种是用逗号作为分隔符获取句子。 2.词、句表示 这一步的思路是:将词、句子表示成计算机能理解的量,然后计算一些指标进行排序。这个地方也是各种算法、模型最大的不同之处: (1)Bag Of Words。词袋模型将词定义为一个维度,一句话表示成在所有词张成的空间中的一个高维稀疏向量。 (2)TFIDF。可以理解为带权重的词袋模型,计算出每个词的TFIDF值,作为该词的权重。 (3)LDA/LSI。将整篇文档利用TFIDF模型表示成一个矩阵,做SVD降维分解,生成两个矩阵,一个是文档-话题矩阵、另一个是词-话题矩阵。得到词-话题矩阵之后,可以得到句子-话题矩阵。 (4)Word Embedding。Tomas Mikolov提出的Word2Vec,用了很多技巧和近似的思路让word很容易地表示成一个低维稠密向量,在很多情况下都可以达到不错的效果。词成为了一个向量,句子也可有很多种方法表示成一个向量。 3.排序 这里介绍两种常见的方法。 (1)基于图排序 将文档的每句话作为节点,句子之间的相似度作为边权值构建图模型,用pagerank算法进行求解,得到每个句子的得分。(2)基于特征 特征工程在深度学习火之前是解决特定领域问题的良药,这里用到的特征包括: 1)句子长度,长度为某个长度的句子为最理想的长度,依照距离这个长度的远近来打分。 2)句子位置,根据句子在全文中的位置,给出分数。(比如每段的第一句是核心句的比例大概是70%) 3)句子是否包含标题词,根据句子中包含标题词的多少来打分。 4)句子关键词打分,文本进行预处理之后,按照词频统计出排名前10的关键词,通过比较句子中包含关键词的情况,以及关键词分布的情况来打分。 代表算法是TextTeaser。 4.后处理 排序之后的结果只考虑了相关性并没有考虑新颖性,非常有可能出现排名靠前的几句话表达的都是相似的意思。所以需要引入一个惩罚因子,将新颖性考虑进去。对所有的句子重新打分,如下公式: a score(i) + (1-a) similarity(i,i-1), i = 2,3,….N 序号i表示排序后的顺序,从第二句开始,排第一的句子不需要重新计算,后面的句子必须被和前一句的相似度进行惩罚。 这个算法就是所谓的MMR(Maximum Margin Relevance) 5.输出 输出的结果一般是取排序后的前N句话,这里涉及到一个非常重要的问题,也是一直自动文摘质量被诟病的问题,可读性。因为各个句子都是从不同的段落中选择出来的,如果只是生硬地连起来生成摘要的话,很难保证句子之间的衔接和连贯。保证可读性是一件很难的事情。 这里有一个取巧的方法,就是将排序之后的句子按照原文中的顺序输出,可以在一定程度下保证一点点连贯性。 路漫漫其修远兮,吾将上下而求索 参考: [1] TextRank源码阅读笔记https://gist.github.com/rsarxiv/11470a8d763b2845f671061c21230435[2] TextTeaser源码阅读笔记 https://gist.github.com/rsarxiv/4e949264b3bda98828b84cf2991e57e4自动文摘(三)引: – 蜀道之难 难于上青天 虽然有很多SaaS提供Summarization的服务,虽然有很多App尤其是新闻类App标榜自己拥有多么牛的技术做Summarization,我们还是不得不承认自动文摘的技术离一个高水平的AI还有一段距离,很长的一段距离。都说自动文摘很难,到底难在哪里? – Abstractive 上一篇博客分享了Extraction方法的一些思路,本篇简单聊一点Abstractive的想法。Abstractive是一个True AI的方法,要求系统理解文档所表达的意思,然后用可读性强的人类语言将其简练地总结出来。这里包含这么几个难点: (1)理解文档。所谓理解,和人类阅读一篇文章一样,可以说明白文档的中心思想,涉及到的话题等等。 (2)可读性强。可读性是指生成的摘要要能够连贯(Coherence)与衔接(Cohesion),通俗地讲就是人类读起来几乎感觉不出来是AI生成的(通过图灵测试)。 (3)简练总结。在理解了文档意思的基础上,提炼出最核心的部分,用最短的话讲明白全文的意思。 上述三个难点对于人类来说都不是一件容易的事情,何况是发展没太多年的自然语言处理技术。人工智能领域中AI能够领先人类的例子很多,包括前不久很火的Alpha狗,图片识别,主要是利用计算机远强于人类的计算能力,但也有很多的领域,AI离人类的水平还有很远,比如paper的survey,summarization,机器翻译等等。 近几年随着Deep Learning的火爆,研究者们利用一些最新的研究成果来做summarization,比如attention model,比如rnn encoder-decoder框架,在一定程度上实现了abstractive,但还是处于研究初期,效果还不算很好。 – Evaluation 自动文摘最大的一个难点是评价问题,如何有效地、合理地评价一篇文摘的效果是一个很难的问题。 (1) 人工评价 一千个读者,有一千个哈姆雷特,不同的人理解一篇文档会有很大的不同,基于人工评价的方法有类似于评价开放的文科辨析题目答案一样,需要从答案中寻找一些所谓的要点,计算要点覆盖率,打分。人工评价结果在很大程度上都是可信的,因为人可以推理、复述并使用世界知识将具有类似意思但形式不同的文本单元关联起来,更加灵活一些,但时间成本太高,效率太低。 (2)自动评价 计算机评价效果,需要给定参考摘要作为标准答案,通过制定一些规则来给生成的摘要打分。目前,使用最广泛的是ROUGH系统(Recall-Oriented Understudy for Gisting Evaluation), 基本思想是将待审摘要和参考摘要的n元组共现统计量作为评价依据 然后通过一系列标准进行打分。包括:ROUGH-N、ROUGH-L、ROUGH-W、ROUGH-S和ROUGH-SU几个类型。通俗地将就是通过一些定量化的指标来描述待审摘要和参考文摘之间的相似性,维度考虑比较多,在一定程度上可以很好地评价Extracive产生的摘要。 这里涉及到一个重要的问题,就是标注语料问题。自动评价需要给定一系列文档已经他们的参考文摘,用来测试不同的算法效果。TAC(Text Analysis Conference)和TREC(Text REtrieval Conference)两个会议提供了相关的评测数据集,自动文摘领域的paper都是以这些数据集为baseline,与其他paper的算法进行对比。会议的数据集毕竟有限,新的领域中做自动文摘需要建立自己的数据集作为标准。 现有的评价标准存在的一个重要问题在于没有考虑语义层面上的相似,评价extractive还好,但评价abstractive就会效果不好了。Deep Learning其实就是一个representation learning,将世界万物表示成数字,然后作分析。在词、句子甚至段落这个层面上的表示学习研究的非常多,也有很多的state-of-the-art的结果,所以做语义层面上的评价并不难。 重要性 评价对于一个研究领域非常重要,是牵引这个领域前进的首要因素,评价需要制定标准,标准的好坏关系到这个领域的研究质量,尤其是研究者们的paper质量,因为大家相互比较算法的优劣就十分依赖这样的标准。 标准数据集的建立以及baseline的提出,是最首要的任务。完整内容请点击“阅读原文” 转自:大数据挖掘DT数据分析 via: http://mp.weixin.qq.com/s?__biz=MzA4NDEyMzc2Mw==&mid=2649678211&idx=4&sn=31edb50857a1eb01571ec3050571e7e3&scene=0#wechat_redirect

 

wx:郑宇   网页版 2017-10-11 02:04
会议活动 架构 进化计算 入门 深度学习 算法 应用 资源 自然语言处理 CIKM Hadoop Spark SVM Yu Zheng 大数据 分类 会议 聚类 可视化 强化学习 神经网络 书籍 问答系统 郑宇
「五分钟了解你不得不知道的人工智能热门词汇」 编者按:大数据和人工智能的浪潮正在席卷全球,众多热门词汇蜂拥而至:人工智能(Artificial Intelligence)、大数据(Big Data)、云计算(Cloud Computing)、机器学习(Machine Learning)、数据挖掘(Data Mining)、深度学习(Deep Learning)、强化学习(Reinforcement Learning)和数据库(Databases)。不少人对这些高频词汇的含义及其背后的关系总是似懂非懂、一知半解。 为了帮助大家更好地理解人工智能,我们邀请到微软亚洲研究院资深研究员郑宇博士用最简单的语言来解释这些词汇的含义,理清它们之间的关系,希望对刚入门的同学们有所帮助。 人工智能、机器学习、深度学习和强化学习 首先来看一下人工智能、机器学习和深度学习之间的关系。如图一所示,我们可以大致认为深度学习是机器学习中的一种学习方法,而机器学习则可以被认为是人工智能的一个分支。 图一 人工智能研究分支 人工智能:人工智能涵盖的领域很广,除了机器学习外,还包括专家系统、进化计算、模糊逻辑、粗糙集、多代理、规划问题等。最近几年,人工智能的发展主要得益于机器学习领域的推动,尤其是深度学习取得的突破,其他领域的进展相对较小。人工智能分为弱人工智能和强人工智能,前者让机器具备观察和感知的能力,可以做到一定程度的理解和推理。目前的科研都集中在弱人工智能这部分,并很有希望在近期取得重大突破。而强人工智能期待让机器获得自适应能力,解决一些之前没有遇到过的问题。电影里的人工智能多半都是在描绘强人工智能,而这部分在目前的现实世界里难以真正实现。 机器学习:从学习方法上来分,机器可以分为监督学习(如分类问题)、无监督学习(如聚类问题)、半监督学习、集成学习、深度学习和强化学习。深度学习本来并不是一种独立的学习方法,其本身也会用到有监督和无监督的学习方法来训练深度神经网络。但由于近几年该领域发展迅猛,一些特有的学习手段相继被提出(如残差网络),因此越来越多的人将其单独看作一种学习的方法。按照学习目的来分,机器学习涵盖了回归、分类、聚类、异常监测、量纲学习和因果分析等。 深度学习:最初的深度学习是利用深度神经网络来解决特征表达的一种学习过程。深度神经网络本身并不是一个全新的概念,可大致理解为隐含层很多的一个神经网络结构。为了提高深层神经网络的训练效果,人们对神经元的连接方法和激活函数等方面做出相应的调整。其实有不少想法早年间也曾有过,但由于当时训练数据量不足、计算单元落后,因此最终的效果不尽如人意。 强化学习:强化学习为一个代理(Agent)在一个环境里设计一系列动作(Actions)以获得最优的未来长期回报(Reward)。走迷宫常被用来作为解释强化学习的例子。因为学习方法复杂,早年间强化学习只能解决一些非常简单(状态空间小、动作选择少)的问题。直到深度学习的出现,使得我们可以用深度神经网络去逼近一个近似的价值和策略函数,强化学习才取得很大的进展(如在AlphaGo里的价值判断网络),人们称其为深度强化学习(Deep Reinforcement Learning)。与其说是强化学习的进展,不如说是在强化学习的框架里,深度学习贡献了巨大的力量。 数据挖掘、人工智能、大数据和云计算 如图二所示,数据挖掘是从数据中发掘知识的过程,在这个过程中人工智能和数据库技术可以作为挖掘工具,数据可以被看作是土壤,云平台可以看作是承载数据和挖掘算法的基础设施。 图二 数据挖掘的过程以及与人工智能和云计算的关系 数据挖掘:数据挖掘是从数据中发掘知识的过程,在挖掘数据的过程中需要用到一些挖掘工具和方法(如图二第二个层面所示)。这些工具可以是基于数据库的挖掘方法,比如频发模式发掘(Frequent Pattern Mining)和关联规则。大家经常听说的啤酒和尿布的例子就是基于数据库技术的频繁模式发掘。数据挖掘也可以用到机器学习的方法,比如各种分类模型(如Decision trees和SVM)、概率图模型(Probabilistic Graphical Models)以及深度学习的方法。数据挖掘同样也可以用到人工智能里非机器学习的方法,比如遗传算法和粗糙集等。当数量非常大时,数据挖掘需要借助云平台来承载数据,并利用云平台中的分布式计算单元来提高数据挖掘效率。当挖掘完毕后,数据挖掘还需要对知识进行可视化和展现。 云计算:云计算平台一般是由第三方IT公司建立的涵盖基础设施、计算资源和平台操作系统的集成体。云平台解决了传统公司各自搭建机器集群所产生的建设周期长、升级换代慢、维护成本高的痛点,让其他公司可以从搭建计算平台的繁重任务中解脱出来而专注于自己的业务。云平台用户可以高效、灵活的调整自己的资源配置(比如用多少台虚拟机、多少个计算节点等),第三方公司根据用户使用的资源来收取相应的费用。打一个通俗的比喻,就好比不用每家每户弄一个发电机,而是集中建一个发电厂,每家只需要插上插头就可以用电,根据用电的多少来计费。用户不用关心发电厂建在哪里、如何发电,也不用操心如何维护发电厂本身的运转和安全。 云计算平台本身为大数据的存储和分析提供了很好的基础设施(如storage和Hadoop、Spark和Storm等分布式计算环境),但默认的云平台上并没有自带强大的机器学习和人工智能能力,也缺乏高效的索引机制(如时空索引算法)。因此,云平台并不等于大数据平台。近期不少公司在积极地开发基于云平台的机器学习工具(如AzureML)和人工智能平台。图三是我们基于Azure搭建的城市大数据平台,其中时空索引、针对时空数据的机器学习算法和多源数据融合算法都是以前的云平台所不具备的。 图三 城市大数据平台 大数据:大数据是一种从数据的采集、管理、分析挖掘到服务提供的端到端的、解决行业问题的综合实力,是从数据生命周期这个维度来看的知识获取过程(数据库、机器学习和人工智能技术可以成为其中的一个环节),也是一种基于数据的思维方式。通常讲大数据都会提到4个V,Volume(量大)、Velocity(速度快)、Variety(多样性)、Value(价值)。但实际上,除了Variety(多样性)以外,其他几个属性很难界定,比如多大才叫大,一直很难给出一个严格的定义。而只要是数据就有其价值,关键是如何利用数据。因此,大数据不是指一个体量很大的单一数据,其关键在于多源数据融合(即把来自不同领域的数据的知识相互结合,形成1+1>2的合力),这是大数据的战略制高点,不是单单在“数据”前加个“大”字那么简单。 多源数据的融合给数据管理、数据挖掘、机器学习和人工智能带来了很多新兴课题。当数据挖掘被用来挖掘和融合多源数据中蕴含的知识时,数据挖掘就跟大数据有了完美的结合。如果数据挖掘还在挖掘单一数据,那就是传统的数据挖掘或者是早年间研究的“海量数据挖掘”。作为数据挖掘的工具,分布式机器学习的重点是解决海量数据挖掘的问题,而不是解决多源数据融合的问题。要想融合多源数据,我们就需要在机器学习中设计新的多源数据融合算法([1]是一篇关于多源数据融合的机器学习算法的综述),并为云平台设计特别的管理和索引方法。 图四以城市大数据为例,说明了大数据和数据挖掘以及人工智能之间的关系。城市大数据就是从城市数据的感知、管理、分析到服务提供的端到端的、解决行业(如交通、环境等)问题的综合实力。在解决一个问题时,我们通常需要同时用到来自于多个领域的数据(如预测空气质量需要考虑气象、交通和地理信息等),如何融合多源数据中的知识就是一个难点。这需要在数据挖掘过程中设计相应的数据管理算法和机器学习算法。因此,可以大致理解在图四的第二、三(管理和分析)层面是在做数据挖掘的事情,而在第三层里,又需要用到一些改良的机器学习和人工智能算法。更多细节将在《Urban Computing》[2]一书中介绍。 图四 城市计算和城市大数据 [1] Yu Zheng, Methodologiesfor Cross-Domain Data Fusion: An Overview, in IEEE Transactions on Big Data [2] Yu Zheng, Urban Computing, MIT Press (预计2018年初出版) 郑宇博士,微软亚洲研究院城市计算领域负责人,上海交通大学讲座教授、博导,香港科技大学客座教授; 提出了“城市计算”的理念,以主作者身份在大数据和人工智能领域顶尖国际会议和刊物上发表相关论文50余篇,论文被引用14,000余次,H-Index:56;担任人工智能顶尖国际期刊(SCI一区)ACM Transactions on Intelligent Systems and Technology(ACM TIST)的Editor-in-Chief(TIST近五年影响因子10.47,在所有ACM期刊中排名第一)、ACM数据挖掘中国分会秘书长,以及大数据领域知名国际会议ICDE2014 和CIKM2017的工业界主席;2013年,他因在城市计算领域的贡献被《MIT科技评论》评为全球杰出青年创新者(TR35),2016年被评为美国计算机学会杰出科学家 (ACM Distinguished Scientist)。你也许还想看:● 郑宇:城市计算让生活更智能● 大数据freestyle: 共享单车轨迹数据助力城市合理规划自行车道● 媒体|郑宇:用大数据预测雾霾是如何做到的?感谢你关注“微软研究院AI头条”,我们期待你的留言和投稿,共建交流平台。来稿请寄:msraai@microsoft.com。微软小冰进驻微软研究院微信啦!快去主页和她聊聊天吧。 via: http://mp.weixin.qq.com/s?__biz=MzAwMTA3MzM4Nw==&mid=2649441822&idx=1&sn=f3cd3938f44e105e43a3aa262c97fb18&scene=0#wechat_redirect

 

wx:吉他手   网页版 2017-10-11 00:26
入门 算法 应用 资源 Kaggle Python 崔立明 集成学习 课程 推荐系统 章凌豪
「开发 | Kaggle机器学习之模型融合(stacking)心得」AI科技评论按,本文作者吉他手,AI科技评论获其授权发布。此文道出了本人学习Stacking入门级应用的心路历程。在学习过程中感谢@贝尔塔的模型融合方法(https://zhuanlan.zhihu.com/p/25836678),以及如何在 Kaggle 首战中进入前 10%这篇文章(https://dnc1994.com/2016/04/rank-10-percent-in-first-kaggle-competition/,作者是章凌豪)。对于两位提供的信息,感激不尽。同时还有Kaggle上一些关于ensemble的文章和代码,比如这篇(https://www.kaggle.com/arthurtok/introduction-to-ensembling-stacking-in-python)。本文适用于被stacking折磨的死去活来的新手,在网上为数不多的stacking内容里,我已经假设你早已经看过了上述所提到的那几篇有用的文章了。但是,看完之后内心还是卧槽的。我希望下面的内容能成为,你在学习stacking的曲折道路上的一个小火把,给你提供一些微弱的光亮。本文以Kaggle的Titanic(泰坦尼克预测 https://www.kaggle.com/c/titanic)入门比赛来讲解stacking的应用(两层!)。数据的行数:train.csv有890行,也就是890个人,test.csv有418行(418个人)。而数据的列数就看你保留了多少个feature了,因人而异。我自己的train保留了 7+1(1是预测列)。在网上为数不多的stacking内容里,相信你早看过了这张图:这张图,如果你能一下子就能看懂,那就OK。如果一下子看不懂,就麻烦了,在接下来的一段时间内,你就会卧槽卧槽地持续懵逼……因为这张图极具‘误导性’。(注意!我没说这图是错的,尽管它就是错的!!!但是在网上为数不多教学里有张无码图就不错啦,感恩吧,我这个小弱鸡)。我把图改了一下:对于每一轮的 5-fold,Model 1都要做满5次的训练和预测。Titanic 栗子:Train Data有890行。(请对应图中的上层部分)每1次的fold,都会生成 713行 小train, 178行 小test。我们用Model 1来训练 713行的小train,然后预测 178行 小test。预测的结果是长度为 178 的预测值。这样的动作走5次! 长度为178 的预测值 X 5 = 890 预测值,刚好和Train data长度吻合。这个890预测值是Model 1产生的,我们先存着,因为,一会让它将是第二层模型的训练来源。重点:这一步产生的预测值我们可以转成 890 X 1 (890 行,1列),记作 P1 (大写P)接着说 Test Data 有 418 行。(请对应图中的下层部分,对对对,绿绿的那些框框)每1次的fold,713行 小train训练出来的Model 1要去预测我们全部的Test Data(全部!因为Test Data没有加入5-fold,所以每次都是全部!)。此时,Model 1的预测结果是长度为418的预测值。这样的动作走5次!我们可以得到一个 5 X 418 的预测值矩阵。然后我们根据行来就平均值,最后得到一个 1 X 418 的平均预测值。重点:这一步产生的预测值我们可以转成 418 X 1 (418行,1列),记作 p1 (小写p)走到这里,你的第一层的Model 1完成了它的使命。第一层还会有其他Model的,比如Model 2,同样的走一遍, 我们有可以得到  890 X 1  (P2) 和  418 X 1 (p2) 列预测值。这样吧,假设你第一层有3个模型,这样你就会得到:来自5-fold的预测值矩阵 890 X 3,(P1,P2, P3)  和 来自Test Data预测值矩阵 418 X 3, (p1, p2, p3)。—————————————–到第二层了………………来自5-fold的预测值矩阵 890 X 3 作为你的Train Data,训练第二层的模型来自Test Data预测值矩阵 418 X 3 就是你的Test Data,用训练好的模型来预测他们吧。—————————————最后 ,放出一张Python的Code,在网上为数不多的stacking内容里, 这个几行的code你也早就看过了吧,我之前一直卡在这里,现在加上一点点注解,希望对你有帮助:—————  AI 科技评论招人啦!  —————你即将从事的工作内容:报道海内外人工智能相关学术会议,形成具有影响力的报道内容;采访高校学术青年领袖,输出人工智能领域的深度观点;跟进国内外学术热点,深入剖析学术动态;我们希望你是这样的小伙伴:英语好,有阅读英文科技网站的习惯;兴趣广,对人工智能有关注及了解;态度佳,有求知欲,善于学习;欢迎发送简历到 guoyixin@leiphone.com—————  给爱学习的你的福利  —————3个月,从无人问津到年薪30万的秘密究竟是什么?答案在这里——崔立明授课【推荐系统算法工程师-从入门到就业】3个月算法水平得到快速提升,让你的职业生涯更有竞争力!长按识别下方二维码(或阅读原文戳开链接)抵达课程详细介绍~———————————————————— via: http://mp.weixin.qq.com/s?__biz=MzI5NTIxNTg0OA==&mid=2247487594&idx=4&sn=65eb242f5c7267fe2c40e870030a6520&scene=0#wechat_redirect

 

wx:   网页版 2017-10-10 21:40
公告板 会议活动 视觉 算法 应用 语音 资源 PDF 代码 广告系统 行业动态 活动 机器人 李飞飞 刘小芹 论文 神经网络 王永东 语言学
「【李飞飞团队最新研究】神经任务编程NTP,具有强大泛化能力的机器人学习框架」【AI WORLD 2017世界人工智能大会倒计时 29天】大会早鸟票已经售罄,现正式进入全额票阶段。还记得去年一票难求的AI WORLD 2016盛况吗?今年,百度副总裁、AI技术平台体系总负责人王海峰、微软全球资深副总裁,微软亚洲互联网工程院院长王永东等产业领袖已经确认出席大会并发表演讲。谷歌、亚马逊、BAT、讯飞、京东和华为等企业重量级嘉宾也已确认出席。本届大会特设智能医疗论坛,并邀请到来自谷歌、卡内基梅隆大学、康奈尔大学等多位相关领域的专家和创业者,就“医疗 AI 在哪些方面已经或即将超越人类医生”、“独立的AI医疗系统何时能够出现”等问题进行展望、分享。智能医疗的真实发展现状如何?技术瓶颈何在?未来最有潜力的应用是哪些?请来世界人工智能大会智能医疗论坛寻求答案。更多大会日程陆续揭晓中……参加大会,请关注新智元微信公众号或访问活动行页面:http://www.huodongxing.com/event/2405852054900?td=4231978320026了解更多 1新智元编译  来源:arxiv.org编译:刘小芹 【新智元导读】斯坦福大学计算机视觉实验室李飞飞团队的最新研究提出一个新的机器人学习框架:神经任务编程(NTP),在机械臂的物品堆叠、分拣和桌面清理三类任务中,证明该框架具有强大的泛化到未知任务的能力。李飞飞表示这虽然是探索性的进步,但这是一个非常吸引人的课题。 论文下载:https://arxiv.org/pdf/1710.01813.pdfGitHub地址:https://github.com/StanfordVL/ntp 摘要 在这项研究中,我们提出一种新型机器人学习框架,称为神经任务编程(Neural Task Programming,NTP),它将从演示到神经程序推导(neural program induction)的 few-shot learning 想法结合起来。NTP将一个任务规范(例如,一个任务的视频演示)作为输入,并递归地将其分解为更精细的子任务规范。这些规范被馈入一个分层的神经程序,其中底层程序是可以与环境交互的可调用子程序。我们在三个机器人操作任务中验证了我们的方法。NTP在具有分层结构和组合结构的序列任务中实现了强大的泛化(generalization)能力。实验结果表明,NTP通过不断增加的长度,可变拓扑和变化的目标学习很好地拓展到未知任务。 在复杂的操作任务中,例如物体分类、装配和清理,需要在机器人和环境之间的长时间交互中进行连续的决策。在复杂的任务中进行规划以及适应新的任务目标和初始条件,是机器人技术的一个长期挑战。 让我们试想一个在仓库环境中的物体分类任务——它需要分类、从仓库中检索,最后打包装运。每个任务都是一组基本的分层的序列,例如 pick_up、move_to 和 drop_into,它们可以被组合成操纵子任务,例如抓起和放下(grasping and placing)。这个问题有很大的变化空间:仓库中的不同物体位图、子任务的排列、不同长度的任务列表等等,这就导致形成一个很大的任务空间。 图1:(上)在测试时,NTP实例化一个任务条件策略(一个神经程序),通过解释演示任务执行指定任务。(下)我们分别在模拟环境和实际环境中的方块堆叠(A,B),物体分类(C,D)和桌面清理(图8)任务评估NTP。 举个例子,图1中,(C)显示了一个物体分类任务的简化设置。任务是将4个类别的物体移到到4个箱子里。在各类别和容器之间总共有256种可能的映射,并且对象实例的可变数目进一步增加了复杂性。在本文中,我们试图解决复杂任务规划领域的两个挑战,即(a)推广到新任务目标的学习策略,以及(b)用于长期环境交互的原语( primitives)的层次组合。 图2:神经任务编程(NTP):给定一个输入程序,一个任务规范和当前的环境观察,NTP模型预测子级程序运行,子级程序应作为输入的任务规范的子序列 。 我们提出神经任务编程(NTP),这是一个统一的,任务不可知的学习算法,可以应用于具有潜在分层结构的各种任务。NTP的一个关键的基本思想是学习跨任务和域共享的可重用表示。NTP解释一个任务规范(图1左),并将分层策略实例化为一个神经程序(图1中),其中底层程序是可在环境中执行的原始动作。任务规范被定义为描述任务过程和最终目标的时间序列。它可以是记录状态轨迹的第一或第三人称的视频任务演示,或者甚至是一个语言指令列表。在这项研究中,我们使用任务演示作为任务规范。 我们尝试了两种形式的任务演示:任务中对象的位置轨迹,以及任务的第三人称视频演示。NTP将任务的目标从输入规范中解码,并将其分解为子任务,并通过闭环反馈与环境交互,直到达到目标(图1右)。每个程序调用将作为输入环境观察和任务规范,生成下一个子程序和相应的子任务规范。分层结构的最低层是通过机器人API捕获的符号动作。这种层次分解有助于信息隐藏和模块化,因为低层的模块只访问与它们的功能相关的相应子任务规范。它防止模型在训练数据上学习假依赖关系,从而产生更好的可重用性。本质上,NTP解决了任务推广的一个关键挑战:跨任务转移的元学习(meta-learning)和分层模型( hierarchical model),从而扩展到更复杂的任务。因此,NTP具有神经编程和分层RL的优势,同时弥补了它们的不足。 NTP推理过程 我们证明NTP可以扩展为三种任务结构的变化:1)任务长度:由于问题大小的增加而改变步数(例如,有更多的物体需要运送);2)任务拓扑:子任务的灵活排列和组合,以达到相同的最终目标(例如,以不同的顺序操纵物体);3)任务语义:不同的任务定义和成功条件(例如,将对象放入不同的容器)。 网络实现细节 (放大查看) 研究的主要贡献 1)我们的主要贡献是提出一个新的建模框架:NTP,可以实现分层任务的元学习。 2)我们在模拟环境以及实际的机器人实验中对单臂操作任务进行NTP的评估:方块堆叠,物体分类和桌面清理。 3)我们的研究表明,NTP可以实现知识迁移,以及基于one-shot演示的新任务的推广,新任务包括增加长度,变化拓扑和改变语义,而不限制初始配置。 4)我们还表明NTP可以通过视觉输入(图像和视频)进行端到端的训练。 图3:在块堆叠任务中NTP的执行跟踪示例。 图4:任务结构的可变性包括改变成功条件(任务语义)、可变子任务排列(任务拓扑)和改变任务大小(任务长度)。我们评估了NTP模型推广到这三种类型变化的能力。 图5:任务长度与成功率 图6:任务语义与成功率 图7:可见状态NTP与成功率 本研究中,我们提出神经任务编程(NTP),这是一种元学习框架,它可以学习模块化和可重用的神经程序,用于分层任务。我们展示了NTP在3类机器人操作任务中的优势,这些任务需要长时间、复杂的环境交互。NTP实现了对任务长度、拓扑和语义的泛化。这项工作使我们有机会使用可泛化的神经程序来建模分层任务。至于未来的工作,我们计划:1)改进状态编码器,以提取更多的任务突出信息,例如对象关系,2)设计更丰富的API,以及3)扩展这个框架,以在真实的机器人环境中处理更复杂的任务。 【扫一扫或点击阅读原文抢购大会门票】AI WORLD 2017 世界人工智能大会购票二维码:  via: http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&mid=2652005936&idx=4&sn=4dc72f0b42b1f81a38702e81d24ee94b&scene=0#wechat_redirect

 

机器之心Synced   网页版 2017-10-10 18:25
深度学习 算法 自然语言处理 神经网络
【深度好奇提出文档解析框架:面向对象的神经规划】深度好奇(DeeplyCurious.ai)近日在 arXiv 上发布的论文提出了一种基于神经符号智能(Neural-symbolic)的特定领域文本解析框架:Object-oriented Neural Programming(OONP)。http://t.cn/ROIDEdk

 

ChatbotsChina   网页版 2017-10-10 14:06
机器学习概念总结笔记(一) http://t.cn/ROfdWfY 机器学习概念总结笔记(二) http://t.cn/R0jfnbc 机器学习概念总结笔记(三) http://t.cn/R08NmDE 机器学习概念总结笔记(四) http://t.cn/ROfdWfj

 

爱可可-爱生活   网页版 2017-10-10 12:54
深度学习 Hang Zhao
【PyTorch实现的MIT ADE20K数据集语义分割/场景解析】’Pytorch implementation for Semantic Segmentation/Scene Parsing on MIT ADE20K dataset’ by Hang Zhao GitHub: https ://github .com/hangzhaomit/semantic-segmentation-pytorch ​

 

蚁工厂   网页版 2017-10-10 08:54
经验总结 算法 博客
#技术博客推荐# 有趣的蚁群算法。 蚁群算法(Ant Colony Optimization, ACO),又称蚂蚁算法,是一种用来在图中寻找优化路径的机率型算法,对蚂蚁行为进行模仿抽象。在求解旅行推销员问题时,蚂蚁随机从某一城市出发,根据城市间距离与残留信息素浓度按概率选择下一城市,蚂蚁走完所有的城市后,在走过…全文: http://m.weibo.cn/2194035935/4161225258412502

 

爱可可-爱生活   网页版 2017-10-10 05:24
会议活动 深度学习 算法 应用 PacificVis 会议 论文 神经网络 预测
《How Much Chemistry Does a Deep Neural Network Need to Know to Make Accurate Predictions?》G B. Goh, C Siegel, A Vishnu, N O. Hodas, N Baker [Pacific Northwest National Laboratory] (2017) http://t.cn/ROVcBsf

 

wx:Non   网页版 2017-10-11 00:26
公告板 会议活动 入门 深度学习 视觉 算法 应用 资源 CVPR Gan Loss IJCAI PDF 崔立明 行业动态 会议 课程 论文 神经网络 陶大程 推荐系统 王超岳 招生
「IJCAI 2017最佳学生论文得主王超岳:基于生成对抗网络的图像编辑方法 | 分享总结」AI科技评论按,近些年来,生成对抗网络在许多图像生成和图像编辑任务上都获得了很大的成功,并受到越来越多的关注。对于图像编辑任务,现在面临的两个重要的挑战分别是:如何指导网络向目标图像学习(以提升图像编辑的效果)和如何感知输入图像内容(以提升图像编辑的精度)。悉尼科技大学 FEIT 三年级博士生,优必选悉尼AI研究院访问学生,陶大程教授学生王超岳在雷锋网 AI研习社主办的学术青年分享会上结合他的两篇论文Tag Disentangled Generative Adversarial Networks for Object Image Re-rendering(IJCAI 2017 Best student paper)和Perceptual Adversarial Networks for Image-to-Image Transformation(arXiv 2017),分享了对图像编辑做出的相应探索。分享内容如下:常见的图像编辑有图像去雨(雪)、图像填充、素描到照片、风格转换、图像超分辨率、图像上色、图像旋转、时间变换等,抽象来说就是给定一张图像以及要求,来生成新的图像。即让机器理解图像和生成图像。生成对抗网络是由Goodfellow在2014年提出的,算是一种新的网络架构,可以做有监督或无监督的学习。基于GANs的图像编辑框架如下所示:接下来介绍第一篇论文,用于图像转换任务的感知对抗网络(Perceptual Adversarial Network,PAN)。近两年基于GANs的框架,有很多不同的优化,下图是对Pixel-wise loss、GANs loss和Perceptual loss的对比工作。Pixel loss优点是使用简单、训练速度快、稳定,缺点是输出图像模糊,质量低。GAN loss优点是能提升生成图像质量,更加真实,锐利,缺点是学习整体生成分布,无法单独使用。Perceptual loss优点是注重图像包含的高维特征,感知效果,缺点是受限于预训练的其他网络。下面是对提升生成图像质量做出的一些研究,引入不同的loss来生成不同的输出图像。他们希望有新的loss函数来弥补现有的问题,持续缩小生成图像和真实图像的差距。基于这样的想法提出了感知对抗损失。使用感知对抗损失的理由如下:感知:衡量生成图像和真实图像的高维特征的差异,并致力于缩小他们。对抗:当现有高维特征的差异小于一定数值m ,D网络被更新以寻找新的高维空间,以进一步缩小仍存在的不同。统一:所有训练统一在一个GAN框架中,无需引入其他预训练网络,且不受任务限制。他们引入感知对抗loss加GAN loss的结构,在这里引入GAN loss来让生成图像的整体分布符合真实图像的整体分布。下面是针对于这个网络的相关实验,主要有图像的去雨、从分割后的label的图像到街景的重现、卫星图到谷歌地图的转换、图像补全、素描生成真实图像的任务。下面是对比图像去雨雪的任务,他们的模型在色差的控制等方面都有所提升。下面是图像补全任务,对比CVPR 2016的Context Encoder,PAN能得到更加优化的效果。进行Pixel2pixel实验时与pix2pix做了对比,也可以看到明显提升。解决图像生成的质量之后,还有一个问题:interpretable。也就是如何解开神经网络的黑箱,并帮助计算机进一步理解图像。针对于如何在图像转换过程中理解整个网络,并控制中间层信息的表征,他们提出标签分解生成对抗网络(Tag Disentangled Generative Adversarial Networks, TDGAN),用于进行目标图像的再次渲染(Re-rendering)。给定输入图像,里面会包含一系列的输入信息,人脑看到之后很容易分理出这些信息,但之前的网络很难理解这些信息,因此很难对输入图像进行精细编辑,现在他们想要让网络能更进一步理解这些信息。他们提出分解表征法。 解决方案:标签。只要简单的改变标签,就能很容易生成微笑的图像。基于此,他们提出TDGAN,包括下图四个子网络。网络的框架图如下:主要有f1、f2、f3、f4四个约束项:这四个子网络采用如下交替训练的形式:下面是工作相应的实验结果,给定单张椅子,给定一些想要的角度,可以生成不同角度的效果,另外可以生成人在不同光线及表情下的效果。 下图是他们在两个数据集下做的一些任务。可以通过给定单张椅子照片,生成不同角度的椅子;也可以控制输入人脸图像的多种性质,如改变其角度,光照,表情等。总结如下:现有的很多方法都是在GANs的框架下,希望提升现有的图像编辑效果和提升图像编辑的精度,他们做了以下尝试,去让任务表现更好。第一是从学习的层面,不再只是从像素层面或固定高维空间上去缩小真实图像和转换图像之间的不同,而是利用对抗学习的思想去持续寻找并缩小真实图像和转换图像之间尚存的差异。另一方面,他们希望算法可以更深入的理解图像,并帮助计算机能更加智能,通过提取和分解图像中包含的各种信息,让算法可以更精确的编辑图像,从而得到想要的结果。Perceptual Adversarial Networks for Image-to-Image Transformation论文地址:https://arxiv.org/abs/1706.09138Tag Disentangled Generative Adversarial Networks for Object Image Re-rendering论文地址:https://www.ijcai.org/proceedings/2017/0404.pdf本次分享的视频如下:AI科技评论整理编辑。—————  AI 科技评论招人啦!  —————你即将从事的工作内容:报道海内外人工智能相关学术会议,形成具有影响力的报道内容;采访高校学术青年领袖,输出人工智能领域的深度观点;跟进国内外学术热点,深入剖析学术动态;我们希望你是这样的小伙伴:英语好,有阅读英文科技网站的习惯;兴趣广,对人工智能有关注及了解;态度佳,有求知欲,善于学习;欢迎发送简历到 guoyixin@leiphone.com—————  给爱学习的你的福利  —————3个月,从无人问津到年薪30万的秘密究竟是什么?答案在这里——崔立明授课【推荐系统算法工程师-从入门到就业】3个月算法水平得到快速提升,让你的职业生涯更有竞争力!长按识别下方二维码(或阅读原文戳开链接)抵达课程详细介绍~———————————————————— via: http://mp.weixin.qq.com/s?__biz=MzI5NTIxNTg0OA==&mid=2247487594&idx=1&sn=c9075e9336d420093d4f55b7057fac85&scene=0#wechat_redirect

 

回复