第1267期机器学习日报(2018-03-08)

更新于 2018年3月9日 机器学习
我来说两句
0 2018年3月9日

2018-03-08 日报 机器学习

机器学习日报 2018-03-08

@好东西传送门 出品,由@AI100运营, 过往目录http://daily.awesomeport.cn/ml

订阅:关注微信公众号 AI100(ID:rgznai100,扫二维码),回复“机器学习日报”,加你进日报群

微信公众号:rgznai100

本期话题有:

全部16 视觉7 自然语言处理6 深度学习5 算法5 会议活动3 资源3 公告板2 应用2 语音1

用日报搜索找到以前分享的内容: http://ml.memect.com/search/

wx:   网页版 2018-03-08 20:20
公告板 会议活动 视觉 语音 资源 自然语言处理 CVPR PDF 傅建龙 行业动态 会议 活动 论文 问答系统
「突破特征表达方式:微软亚洲研究院CVPR论文DA-GAN,让计算机创造奇妙“新物种”」   新智元推荐  来源:微软研究院AI头条 【新智元导读】还记得那个能自己写诗的微软小冰吗?很多人看到小冰的诗之后惊叹原来机器也有了创造力。最近,微软亚洲研究院研发的DA-GAN技术让机器绘画创造也成为了可能,只要人们用文字描述一下自己想要的画面,计算机便可以在几毫秒之内生成多个与描述吻合的形象。也许在不久的将来,DA-GAN技术将开启一个人人都是创造者的时代。 当人们用文字描述“我想要一只腹部、胸部为白色,头顶灰色,翅膀有白色翅斑的小鸟”时,计算机便可以通过DA-GAN在几毫秒的时间内生成多个与文字描述高度吻合的形象(如下图)。这些由计算机生成的鸟栩栩如生,完全符合人们期待的鸟的形象,不过它有可能是真实存在于现实世界中的,也有可能是系统根据鸟类特征和文字描述“创造”出来的一只“鸟”。 DA-GAN生成的“腹部、胸部为白色,头顶灰色,翅膀有白色翅斑的鸟”(注意:该图片中的鸟在现实世界中并不存在) DA-GAN研究团队的技术突破得益于特征表达技术的发展。以往的特征表达工作,多是让机器理解图片并抽取特征,然后再对图片进行分类;而DA-GAN则有些反向思维的意味,在提取图片特征后,将特征在人类的视觉空间中还原出来。 以上文所列举的鸟为例,系统首先要能够根据现实世界的鸟,总结出鸟的结构和特征,然后再根据用户的需求,输出他们所需要的鸟。之所以选择鸟类作为研究对象,是因为鸟类的特征非常丰富,仅头部就有几十种特征,鸟类专家就是利用这些细微的差别来判断鸟的种类,而特征丰富就意味着可以更好地去验证模型的生成能力。 微软亚洲研究院研究员傅建龙表示,“在训练DA-GAN系统时,我们先让它‘见’过很多种类的鸟,就如同一个人认识了红苹果后,看到绿色的苹果,也可以从它的外形中判断出这是苹果一样。DA-GAN依据所接触的鸟类图片,学会了判断鸟的经验性常识。” 与传统的数据训练模式需要pair data(数据对)不同,DA-GAN不需要将文本与真实的鸟一一对应,而是将原始图片分割成不同的部分(暂称该部分的样本为T),例如头部、身体、尾巴、姿势等,不同的部分分别投射到一个“隐空间”(暂称该部分的生成样本为T’),然后通过大量的图片训练,去验证T-T’对应的精确程度,也就是去不断验证该“隐空间”的好坏,从而不断迭代,确保从T-T’的过程并非随机产生,而是保持一定的规则,进而让“隐空间”的模型逐步趋于完善。这个过程可谓是DA-GAN系统最为核心的创新所在,也是它能够更加智能、真正具有举一反三学习能力的关键点。DA-GAN深度注意力编码流程图 接下来,DA-GAN就可以基于该模型创作用户想要的鸟类了,正如文章开头所描述的,输入你的需求,一只栩栩如生的鸟就会相应生成。它可能是一只自然界里真实存在的鸟,也可能是一只拥有A种鸟类的头部特征、B种鸟类的身体特征、C种鸟类的尾部特征以及任意姿态的一只“想象中的鸟”,而在现实世界里并没有这样的鸟类,但它看上去就是一只真正的“鸟”。(a) 文字到图像生成 (b) 物体类别变换 傅建龙表示,“目前,我们只将鸟类分成了4个部分,这是我们计算出来的映射相对合理,同时系统代价较小的可行的方式。当然也可以将鸟分为10个、30个部分,那样模型会越来越精确,但系统代价可能也会成倍增加。” 除了鸟类,DA-GAN还可以用于任何与图片相关的创作,例如此前风行的基于真实人脸生成卡通人脸的小程序,其实大部分只是将纹理附着到了原始照片上,如果利用DA-GAN,则可以做得更像是艺术家的现场漫画写生,它可以是梵高风格、莫奈风格、漫画风格等等,用户可以进行任意转换。对于DA-GAN来说,最重要的是早期的数据训练,图片越多质量越高。而且其分辨率已经从其他相关技术能够达到的64*64升级到了256*256,分辨率的提高,意味着图片每个部分所包含的细节信息更加完善,也正因为细节的丰富,才使得DA-GAN的表现在与真实世界的对比中优于同类技术。 与此同时,DA-GAN生成的众多新的图片,又可以反哺给该系统,从而让它拥有更多的学习数据。也就是说,只要基于少量的原始数据,DA-GAN就可以产生更多“真实”的练习数据,大大改善某些领域真实数据缺乏的问题。利用DA-GAN的这一优势,研究团队实现了业内首次在鸟类数据集中增加生成数据,并将系统的准确度提升了两个百分点。 数据增强结果姿态变换任务 图中每组图片的第一列是source,第二列是target,第三列是DA-GAN生成的鸟类:保持与第一列的鸟类类别一致,但具有第二列的鸟类姿态 在可触摸的未来,或许,DA-GAN技术将开启一个人人都是创造者的时代。只要你的需求输入它能够读懂,哪怕是你脑海中幻想出来的物体和场景,它都能“画”出来。而由DA-GAN所描绘出来的虚拟世界,可能一点都不比文学家、艺术家创作出来的场景逊色。 不仅如此,让已经灭绝的动植物,通过记载文字的描述重新跃然纸上;为安防领域提供更真实的犯罪嫌疑人画像;帮助人们贴合自身的情况试穿网络售卖的衣物等等,还有更多DA-GAN技术的应用场景,等待大家去想象。同时,傅建龙也表示,未来随着技术的不断发展,更多可以生成逼真图片和影像的技术将会诞生,如何辨别真伪也是需要科研人员以及大众思考和解决的问题。 论文链接:https://arxiv.org/pdf/1802.06454.pdf 本文经授权转载自“微软研究院AI头条”,点击阅读原文查看原文 【2018新智元AI技术峰会倒计时 22天】大会早鸟票已经售罄,现正式进入全额票阶段。 2017年,作为人工智能领域最具影响力的产业服务平台——新智元成功举办了「新智元开源·生态技术峰会」和「2017AIWORLD 世界人工智能大会」。凭借超高活动人气及行业影响力,获得2017年度活动行“年度最具影响力主办方”奖项。 其中「2017AIWORLD 世界人工智能大会」创人工智能领域活动先河,参会人次超5000;开场视频在腾讯视频点播量超100万;新华网图文直播超1200万;2018年的3月29日,新智元再汇AI之力,共筑产业跃迁之路。 在北京举办2018年中国AI开年盛典——2018新智元AI技术峰会,本次峰会以“产业·跃迁”为主题,特邀诺贝尔奖评委\德国人工智能研究中心创始人兼CEO Wolfgang Wahlster 亲临现场与谷歌、微软、亚马逊、BAT、科大讯飞、京东和华为等企业重量级嘉宾,共同研讨技术变革,助力领域融合发展。 新智元诚挚邀请关心人工智能行业发展的各界人士 3 月 29 日亲临峰会现场,共同参与这一跨领域的思维碰撞。 关于大会,请关注新智元微信公众号或访问活动行页面:http://www.huodongxing.com/event/8426451122400 【扫一扫或点击阅读原文抢购大会门票】 via: http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&mid=2652014574&idx=5&sn=05fc1f305392582a86e8e447d205cbd1&scene=0#wechat_redirect

 

wx:关注前沿科技   网页版 2018-03-08 20:53
经验总结 算法 资源 自然语言处理 PDF 博客 代码 教育网站 智能汽车
「OpenAI发布可扩展的元学习算法Reptile | 论文+代码+Demo」昨天,OpenAI发布了一种新型的可扩展元学习算法Reptile,还能在线试玩。何为Reptile?难道是—— 咳咳严肃一点。据OpenAI官方博客显示,这是通过重复对一个任务进行采样、随机梯度下降并将初始参数更新为从任务中学习到的最终参数的算法。这种方法不禁让人想到去年七月伯克利AI研究所关于未知模型元学习法(MAML)的研究。OpenAI表示,Reptile的效果和MAML相似,但实现起来更简单,计算效率更高。UC伯克利MAML相关论文: http://bair.berkeley.edu/blog/2017/07/18/learning-to-learn/元学习(Meta-learning)是一种学习如何学习的过程。向元学习算法中输入任务的分布,相当于每个任务都是一个需要学习的任务,算法会产生一个快速的learner,每个learner可以从少数样例中进行归纳。小样本学习(Few-shot Learning)分类问题是元学习中研究得比较充分的课题,learner只能从每个类中看到1-5个输入-输出样例,然后对新的输入进行分类。下面是一个one-shot交互式演示的demo,可以在OpenAI的博客上试玩这个应用了Reptile小模型。 你可以通过点击“Edit All”(编辑所有),随心画三个不同的形状,然后在最右边的输入栏中再画一个,看看Retile是如何对它进行分类的。量子位也随手画了几笔参与了一下这个项目:△ 画工有限,见谅 △ 嗯,已经写不下一个“乐”了 Reptile认为,量子位手画的小女孩应该属于“熊猫”分类,手写的“快”字和“节”更相像,应该分到这个分类中的可信度高达95.9%。想试玩demo可以移步介绍页面:https://blog.openai.com/reptile/目前,相关研究的论文也已经放出:https://d4mucfpksywv.cloudfront.net/research-covers/reptile/reptile_update.pdfSo does 代码(TensorFlow实现):https://github.com/openai/supervised-reptile一个基于JavaScript的实现(文中我们玩的那个demo就是用它做的~):https://github.com/openai/supervised-reptile/tree/master/web祝你玩得开心~— 完 —加入社群量子位AI社群15群开始招募啦,欢迎对AI感兴趣的同学,加小助手微信qbitbot6入群;此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。进群请加小助手微信号qbitbot6,并务必备注相应群的关键词~通过审核后我们将邀请进群。(专业群审核较严,敬请谅解)诚挚招聘量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。量子位 QbitAI · 头条号签约作者վ’ᴗ’ ի 追踪AI技术和产品新动态 via: http://mp.weixin.qq.com/s?__biz=MzIzNjc1NzUzMw==&mid=2247495239&idx=4&sn=4c051790ae6196e9c2502cfe2e4b3ef7&scene=0#wechat_redirect

 

wx:关注前沿科技   网页版 2018-03-08 20:53
会议活动 深度学习 视觉 应用 自然语言处理 Craig Venter Geoffrey Hinton GPU Michael Jordan Tom Mitchell Yann Lecun 蔡文胜 产业 行业动态 会议 活动 机器人 李开复 陆奇 彭志强 吴恩达 辛顿 徐小平 杨立昆 医疗 余凯 智能汽车
「陆奇李开复余凯谈AI十年机遇,Hinton和LeCun会如何评价?」因移动互联网而生的GMIC大会,今年即将迎来第十年。 也迎来了全新时代下的话题:人工智能。在昨天举行的首场发布会上,长城会董事长文厨宣布:GMIC北京2018将于4月26-28日在北京国家会议中心举办,以“AI”生万物为主题,谐音爱生万物,即科学技术要有人文的温度,机器有爱,做真“芯”英雄。同时,首场思想论道也已经开始。创新工场董事长李开复、地平线机器人创始人余凯,盛景网联创始人彭志强等现场围绕中国AI的10年机遇,展开畅谈。都有哪些新看法?众所周知,创新工场董事长李开复是那个在中国把AI喊最响的人,也是那个不断向西方世界同步中国AI进展的“发言人”。李开复对AI和中国AI的看好,毋庸置疑。但对比移动互联网,创新工场董事长抛出两个判断:一是中美AI差距,二是AI风口。关于中美AI差距,李开复认为目前就能看到大趋势。从AI应用和市值等方面,中美成为平级双雄,有60%概率。但在处理器、操作系统和顶级科学家等层面,中国还存在明显差距,这是需要中国AI在未来10年不断努力的。另一个AI“风口”。李开复提醒注意AI应用的特殊性,相较移动互联网“风口”的指数级爆发和增长,AI在很多领域还需要更多的时间。无论是自动驾驶中无人车真正替代有人车,还是AI应用于各个行业,抑或将AI当做解决方案产生商业价值,速度都可能没有移动互联网时代这样狂飙突进。关键点在于AI应用更多To B,与更多To C的移动互联网无法相提并论。移动互联网时代诞生的小米、今日头条、快手等都是高速增长、快速累积的2C产品公司。然而网络效应在诸多“AI+行业”并不一定马上发挥作用。不过李开复也强调,AI将产生的价值将是前所未有的,可能不会一两年内彻底改变世界,但毫无疑问会不断带人类进入一个全新时代。最后,李开复也隐晦表达了对当前区块链和比特币的态度。之前有截图称开复加入“3点钟群”,所以他专门声明:目前已经退出了所有3点钟群,只留下一个徐小平蔡文胜等朋友为主的区块链技术群。地平线机器人创始人余凯也对AI十年趋势发表了看法。大的方面,余凯认为AI是一个非常长的雪道,宏观格局不会在5年、10年内见分晓。目前AI应用还集中在感知和识别,认知及决策尚缺乏标志性进展,而且还有很多未知的东西,其中暗涵了科学问题、产业落地问题,这都与移动互联网时代不同。然而细分方向领域,机器视觉、自动驾驶等方面,可能会在5年、10年内分出高下。尤其是机器视觉领域,5年内就会迎来战争结束。中美格局话题上,余凯认为基础和核心技术上的差距目前依然很明显。中国在基础底子上缺乏话语权,目前在开发系统、操作系统、处理器方面都面临挑战。余凯还面向开发者做过调查,在美国高校AI开发者交流中,问是否用TensorFlow(Google)?哗啦啦全举手。问是否有用paddlepaddle(百度),没有一个人响应。所以余凯认为,当前在这些方面差距还是很明显。当然,作为AI处理器方面的中国创业者,与英伟达GPU的关系无法回避。余凯现场以比方回应:“我们和英伟达可以看作是同班同学,大家都在学习攻克AI处理器方面的研究,可能会分第一名第二名,但最主要是把这门学问做好。”这位地平线机器人创始人自然希望成为优秀毕业的那一个。他现场表示,努力在5年内把AI芯片完整搞好,让中国在这样核心的领域有一席之地。值得一提的是,百度集团总裁兼COO陆奇,此次也“云参与”了话题讨论。陆奇认为,AI十年内会有三大方向:第一是机器视觉,该领域中国公司有大机会,因为拥有的数据优势非常明显。第二是无人驾驶。这位百度集团COO坚定认为中国会在无人驾驶方面领先美国,不论美国现在有Waymo、特斯拉,中国最后都会在该领域保持领先。第三是AI+生物医药,攻克癌症。把人工智能和生物医疗结合起来,陆奇同样认为中国会领先美国。由于陆奇此次并未现场参与交流,所以对于这三大他斩钉截铁看好的AI方向,并没有更多拓展和阐释。不过对于“AI”的时代序幕和中国机会,陆奇或许会在GMIC 2018上做更深入谈论。最后,作为GMIC 2018的“序曲”,此次论坛中也公布了更多已经确定的参会嘉宾详情。值得期待的是,Geoffrey Hinton(杰弗里·辛顿)、Yann LeCun(杨立昆),Michael Jordan(吴恩达的导师)以及Craig Venter(克莱格·文特尔),Tom Mitchell(汤姆·米切尔)都已敲定。其中,一直希望来中国的深度学习开创性大神Geoffrey Hinton,由于脊椎原因无法长途旅行(即便提供越洋专机),所以将通过视频进行演讲及互动。LeCun则已经确定会到北京现场。“三巨头”的另一位Bengio,目前还在协调中,尚未确定。GMIC主办方,长城会董事长文厨也透露,此次能够邀请到诸多AI大牛参会讲演,与中国AI发展、GMIC影响力扩大密切相关,也离不开专门组成的“GMIC顾问委员会”。比如作为GMIC 2018的顾问,李开复亲自出面帮邀请了Hinton和LeCun。— 完 —加入社群量子位AI社群15群开始招募啦,欢迎对AI感兴趣的同学,加小助手微信qbitbot6入群;此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。进群请加小助手微信号qbitbot6,并务必备注相应群的关键词~通过审核后我们将邀请进群。(专业群审核较严,敬请谅解)诚挚招聘量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。量子位 QbitAI · 头条号签约作者վ’ᴗ’ ի 追踪AI技术和产品新动态 via: http://mp.weixin.qq.com/s?__biz=MzIzNjc1NzUzMw==&mid=2247495239&idx=3&sn=4f4e001e6482a8d8cb47c0c7e56f8648&scene=0#wechat_redirect

 

ChatbotsChina   网页版 2018-03-08 09:52
算法 行业动态 神经网络
谷歌大脑发布神经网络的「核磁共振」,并公开相关代码 http://t.cn/RE8l4pO

 

爱可可-爱生活   网页版 2018-03-08 06:04
视觉 论文
【自然场景汉字图像数据集】“Chinese Text in the Wild” http://t.cn/REEwDUq ref:《Chinese Text in the Wild》T Yuan, Z Zhu, K Xu, C Li, S Hu [Tsinghua University] (2018) http://t.cn/REEwDU5

 

南京轻搜   网页版 2018-03-08 17:31
视觉 Python
【超有趣!手把手教你使用树莓派实现实时人脸检测】本文介绍了如何在树莓派上,使用 OpenCV 和 Python 完成人脸检测项目。该项目不仅描述了识别人脸所需要的具体步骤,同时还提供了很多扩展知识。#人脸识别# http://t.cn/RqQCBk2 http://t.cn/RE80LAo

 

PaperWeekly   网页版 2018-03-08 17:15
会议活动 深度学习 视觉 CVPR 代码 会议
【超分辨】Image Super-Resolution via Deep Recursive Residual Network 超分辨CVPR2017文章,用了更少的参数达到了state-of-the-art的效果。 推荐人:yunyang(PaperWeekly社区用户) 论文链接:http://t.cn/REnSPPV 源码链接:http://t.cn/REnSPPt

 

wx:   网页版 2018-03-08 17:13
深度学习 视觉 算法 应用 资源 PDF 机器人 课程 论文 强化学习
「DeepMind提出「SACX」学习范式,训练机器人解决稀疏奖励任务」-高薪招聘兼职AI讲师、助教和技术开发! 在本文中,我们提出调度辅助控制(Scheduled Auxiliary Control,SACX),这是强化学习(RL)上下文中一种新型的学习范式。SAC-X能够在存在多个稀疏奖励信号的情况下,从头开始(from scratch)学习复杂行为。为此,智能体配备了一套通用的辅助任务,它试图通过off-policy强化学习同时从中进行学习。实际上,我们方法所蕴涵的关键思想在于,主动(学习)调度和辅助策略的执行,使得智能体能够有效地对其环境进行探索,使其能够在稀疏奖励强化学习中表现突出。我们在若干个具有挑战性的机器人操作环境下进行实验,实验结果证明了我们的方法是非常有效的。 考虑下面的场景:一个学习智能体必须控制一个机器人手臂以打开盒子,并将一个方块放置在其中。尽管为这个任务定义一个奖励是非常简单和直接的,例如,使用诸如力传感器这样的盒子内的简单机制对所放置的方块进行检测,但是潜在的学习问题的解决还是存在一定难度的的。智能体必须能够发现一个长序列的“正确”行为,以便找到产生稀疏奖励的环境配置——即包含在盒子内的方块。可以说,发现这种稀疏的奖励信号是一个非常艰难的探索问题,而想要通过随机探索获得这种成功几乎是不可能的。 智能体在任一配置中对两个方块进行堆叠操作,将红色方块置于绿色方块之上,反之亦然在过去的几十年里,为了帮助解决上述的探索问题,科学家们已经开发了许多种研究方法。这些方法包括:奖赏塑形(reward shaping)、课程学习(curriculum learning)、从模拟到现实的已学习策略的迁移、从演示中进行的学习、模型指导下的学习以及反向强化学习等。可以这样说,所有这些方法都依赖于特定于任务的先验知识的可用性。除此之外,它们还往往将控制政策偏向某种潜在意义上并不理想的方向。例如,使用由实验者设计的奖赏塑形(shaped reward),不可避免地会偏向智能体所能够找到的解决方案。与此相反,当使用稀疏任务公式时,智能体可以发现全新的、潜在意义上更为优异的解决方案。因此,可以这样说,我们更倾向于开发在学习期间支持智能体的方法,但是保留智能体从稀疏奖励中进行学习的能力。理想情况下,我们的新方法应该减少用于处理稀疏奖励的特定的先验任务知识。在“清理”任务中智能体操作的描述。图像描绘了将所有物品“放入盒子”意图的最终行为轨迹(从左到右,从上到下)我们引入了一种称之为调度辅助控制(SAC-X)的新方法,将其作为实现这种方法策略的第一步。它基于四个主要原则:1.每个状态动作对都与一个奖励向量相配对,由(通常而言是稀疏的)外部提供的奖励和(通常而言是稀疏的)内部辅助奖励组成。2.每个奖励条目都有一个指定的策略,在下文中称为“意图(intention)”,该策略经过训练以最大化其相应的累积奖励。3.有一个高级调度程序,它在出于提高智能体对外部任务的性能的目标考虑下,选择个体意图并加以执行。4.学习是在off-policy过程中执行的(与策略执行异步),意图之间的经验是共享的,以便有效地使用信息。 图像序列描绘了在一个真正机器人上训练后的SAC-Q智能体,处理“拿起”(顶部)和“放下”(底部)任务的过程尽管本文所提出的方法通常来说适用于更为广泛的问题,但我们主要在一个具有稀疏奖励的典型机器人操作应用程序上对我们的方法加以讨论:将各种目标堆叠起来和清理桌子。这些任务中的辅助奖励是基于智能体对于控制其自身的感官观察(例如图像、本体感受、触觉传感器)的掌握程度而定义的。它们被设计成在一个真实的机器人装置中非常易于实现。特别地,我们在一个原始感官层面上定义了辅助奖励,例如,是否检测到触摸。或者,可选择性地,在一个需要少量实体的预先计算的较高级别上对它们进行定义,例如,是否有任何目标移动,或者在图像平面上是否有两个目标彼此相接近。基于这些基本的辅助任务,智能体必须有效地对其环境进行探索,直到观察到更多有趣的外部奖励。其实,这种方式主要是受到人类在孩童时代玩游戏阶段的启发。 在“清理”任务实验中的期望奖励,SAC-Q能够可靠地对所有四项外在任务进行学习我们展示了SAC-X在模拟机器人操作任务方面的能力,例如使用机器人手臂进行堆叠和整理桌面。所有任务都是通过稀疏的、易于定义的奖励进行定义的,并使用相同的一组辅助奖励函数加以解决。另外,我们经过试验证明,我们的方法具有样本高效性,从而使得我们能够在一个真实的机器人上从头开始学习。 我们引入SAC-X,一种能够同时在一组辅助任务中学习意图策略的方法,并对这些策略进行积极的调度和执行以探索其观察空间,从而寻找外部定义的目标任务的稀疏奖励。通过使用简单的辅助任务,SAC-X可以从以“纯粹”、稀疏、方式性进行定义的奖励中学习复杂的目标任务:只指定最终目标,而不是解决方案路径。实验中,通过使用一组常见的简单且稀疏的辅助任务以及一个真实的机器人,我们展示了SAC-X在若干个具有挑战性的机器人模拟任务上的优异表现。所学到的意图是具有高度反应性的、可靠的,并表现出丰富且具有鲁棒性的行为。我们认为,这是实现将强化学习应用到现实世界领域的重要一步。原文:https://arxiv.org/pdf/1802.10567.pdf-学习人工智能,挑战百万年薪-或点击“阅读原文”,查看详情 via: http://mp.weixin.qq.com/s?__biz=MzA4NzE1NzYyMw==&mid=2247496752&idx=2&sn=9a175d75beceb90b22062ba4c4284827&scene=0#wechat_redirect

 

蚁坊软件   网页版 2018-03-08 15:30
#人工智能# 【2018年全球AI学科高校排名:卡耐基梅隆居首 清华大学排名13】近日,CSRankings公布了2018年计算机科学排名顶级学校排名。该榜显示,卡耐基梅隆大学(CMU)、麻省理工学院(MIT)与斯坦福大学名列全球前三。图二为清华大学AI的5个细分领域。http://t.cn/RE87VCe

 

新智元   网页版 2018-03-08 12:36
公告板 视觉 智能汽车
【新智元导读】2017年,中国在人工智能相关知识产权方面已经超过美国,中国企业在国际AI竞赛中也多有斩获,取得了很多“图像识别领域的诺贝尔奖”、“自动驾驶领域的诺贝尔奖”。那么,未来中国有没有可能凭计算机、凭借AI获得真正的诺贝尔奖?对此,诺贝尔奖评审委员会中唯一的计算机领域专家沃夫冈·…全文: http://m.weibo.cn/5703921756/4215276822102015

 

数盟社区   网页版 2018-03-08 10:30
深度学习 算法 神经网络
胶囊网络为何如此热门?与卷积神经网络相比谁能更甚一筹?http://t.cn/REEKg92

 

算法组   网页版 2018-03-08 09:17
自然语言处理
『资源 | 百万级字符:清华大学提出中文自然文本数据集CTW』http://t.cn/RE8fa5W

 

机器之心Synced   网页版 2018-03-08 09:07
自然语言处理 Python
【如何通过Scikit-Learn实现多类别文本分类?】互联网的绝大多数的文本分类都是二进制的,本文要解决的问题更为复杂。作者使用 Python 和 Jupyter Notebook 开发系统,并借助 Scikit-Learn 实现了消费者金融投诉的 12 个预定义分类。本项目的 GitHub 地址见文中。http://t.cn/REEVuxd

 

爱可可-爱生活   网页版 2018-03-08 05:47
深度学习 算法 自然语言处理 Alvaro Peris Python 代码 机器翻译 神经网络
【Keras实现的神经网络机器翻译】’NMT-Keras – Neural Machine Translation with Keras (Theano/Tensorflow)’ by Álvaro Peris GitHub: http://t.cn/REEZ1xu doc:http://t.cn/REEZ1x3

 

爱可可-爱生活   网页版 2018-03-08 05:38
论文
【“看似”数据集:比较与联想】“Totally Looks Like Dataset – How Humans Compare, Compared to Machines” http://t.cn/REEZt1E ref:《Totally Looks Like – How Humans Compare, Compared to Machines》 [York University] (2018) http://t.cn/REEZt18

 

爱可可-爱生活   网页版 2018-03-08 05:33
代码
【AI隐私相关资源大列表】’awesome-ai-privacy – Private machine learning progress’ by OpenMined GitHub: http://t.cn/REEZhxG

 


回复