第1119期AI100_机器学习日报(2017-10-11)

更新于 2017年10月12日 机器学习
我来说两句

AI100_机器学习日报 2017-10-11

@好东西传送门 出品,由@AI100运营, 过往目录http://ai100.com.cn

订阅:关注微信公众号 AI100(ID:rgznai100,扫二维码),回复“机器学习日报”,加你进日报群

微信公众号:rgznai100

本期话题有:

全部21 算法9 应用6 资源6 深度学习5 自然语言处理4 视觉4 会议活动4 经验总结4 公告板2

用日报搜索找到以前分享的内容: http://ml.memect.com/search/

the2   网页版 2017-10-11 12:26
算法 资源 Andrej Karpathy John Schulman 课程 强化学习
京东等赞助的深度强化学习两日教程#DeepRL#Bootcamp. 讲师有Pieter Abbeel,Vlad Mnih ( DQN及其变体),Andrej Karpathy,John Schulman等。实验工具是OpenAI Gym。课件和视频: http://t.cn/ROxgBJX

 

wx:   网页版 2017-10-12 06:51
经验总结 算法 KNN R语言 博客 聚类 统计
「【学习】确定最佳聚类数目的10种方法」在聚类分析的时候确定最佳聚类数目是一个很重要的问题,比如kmeans函数就要你提供聚类数目这个参数,总不能两眼一抹黑乱填一个吧。之前也被这个问题困扰过,看了很多博客,大多泛泛带过。今天把看到的这么多方法进行汇总以及代码实现并尽量弄清每个方法的原理。数据集选用比较出名的wine数据集进行分析因为我们要找一个数据集进行聚类分析,所以不需要第一列的种类标签信息,因此去掉第一列。同时注意到每一列的值差别很大,从1到100多都有,这样会造成误差,所以需要归一化,用scale函数去掉标签之后就可以开始对数据集进行聚类分析了,下面就一一介绍各种确定最佳聚类数目的方法mclust包是聚类分析非常强大的一个包,也是上课时老师给我们介绍的一个包,每次导入时有一种科技感 🙂 帮助文档非常详尽,可以进行聚类、分类、密度分析Mclust包方法有点“暴力”,聚类数目自定义,比如我选取的从1到20,然后一共14种模型,每一种模型都计算聚类数目从1到20的BIC值,最终确定最佳聚类数目,这种方法的思想很直接了当,但是弊端也就显然易见了——时间复杂度太高,效率低。63 51 64可见该函数已经把数据集聚类为3种类型了。数目分别为63、51、64。再画出14个指标随着聚类数目变化的走势图下表是这些模型的意义它们应该分别代表着相关性(完全正负相关——对角线、稍强正负相关——椭圆、无关——圆)等参数的改变对应的模型,研究清楚这些又是非常复杂的问题了,先按下不表,知道BIC值越大则说明所选取的变量集合拟合效果越好 上图中除了两个模型一直递增,其他的12模型数基本上都是在聚类数目为3的时候达到峰值,所以该算法由此得出最佳聚类数目为3的结论。mclust包还可以用于分类、密度估计等,这个包值得好好把玩。注意:此BIC并不是贝叶斯信息准则!!!最近上课老师讲金融模型时提到了BIC值,说BIC值越小模型效果越好,顿时想起这里是在图中BIC极大值为最佳聚类数目,然后和老师探讨了这个问题,之前这里误导大家了,Mclust包里面的BIC并不是贝叶斯信息准则。1.维基上的贝叶斯信息准则定义与log(likelihood)成反比,极大似然估计是值越大越好,那么BIC值确实是越小模型效果越好2.Mclust包中的BIC定义[3]这是Mclust包里面作者定义的“BIC值”,此BIC非彼BIC,这里是作者自己定义的BIC,可以看到,这里的BIC与极大似然估计是成正比的,所以这里是BIC值越大越好,与贝叶斯信息准则值越小模型越好的结论并不冲突Nbclust包是我在《R语言实战》上看到的一个包,思想和mclust包比较相近,也是定义了几十个评估指标,然后聚类数目从2遍历到15(自己设定),然后通过这些指标看分别在聚类数为多少时达到最优,最后选择指标支持数最多的聚类数目就是最佳聚类数目。可以看到有16个指标支持最佳聚类数目为3,5个指标支持聚类数为2,所以该方法推荐的最佳聚类数目为3. 转自:贝尔塔 完整内容请点击“阅读原文” via: http://mp.weixin.qq.com/s?__biz=MzA4NDEyMzc2Mw==&mid=2649678216&idx=3&sn=074bbaa7b02410478d766ddcae746b51&scene=0#wechat_redirect

 

wx:Thomas Wolf   网页版 2017-10-11 19:46
会议活动 深度学习 算法 应用 资源 自然语言处理 Else None GPU Python See E.G SVM Thomas Wolf 代码 分类 行业动态 会议 机器人 课程 情感分析 神经网络 推荐系统 问答系统 预测
「如何用pyTorch改造基于Keras的MIT情感理解模型」作者 | Thomas Wolf 编译 | 雁惊寒 情感情绪检测是自然语言理解的关键要素。最近,我们改造出了一个好用的情感理解集成系统,该系统前身是MIT媒体实验室的情感检测模型DeepMoji。开源代码:https://github.com/huggingface/torchMoji 该模型最初的设计使用了TensorFlow、Theano和Keras,接着我们将其移植到了pyTorch上。与Keras相比,pyTorch能让我们更自由地开发和测试各种定制化的神经网络模块,并使用易于阅读的numpy风格来编写代码。在这篇文章中,我将详细说明在移植过程中出现的几个有趣的问题:如何使用自定义激活功能定制pyTorch LSTMPackedSequence对象的工作原理及其构建如何将关注层从Keras转换成pyTorch如何在pyTorch中加载数据:DataSet和Smart Batching如何在pyTorch中实现Keras的权重初始化 首先,我们来看看torchMoji/DeepMoji的模型。它是一个相当标准而强大的人工语言处理神经网络,具有两个双LSTM层,其后是关注层和分类器: torchMoji/DeepMoji模型 构建一个定制化的pyTorch LSTM模块 DeepMoji有一个很不错的特点:Bjarke Felbo及其协作者能够在一个拥有16亿条记录的海量数据集上训练该模型。因此,预先训练的模型在此训练集中具有非常丰富的情感和情绪表征,我们可以很方便地使用这个训练过的模型。该模型是使用针对LSTM的回归内核的Theano/Keras默认激活函数hard sigmoid训练的,而pyTorch是基于NVIDIA的cuDNN库建模的,这样,可获得原生支持LSTM的GPU加速与标准的sigmoid回归激活函数:Keras默认的LSTM和pyTorch默认的LSTM 因此,我写了一个具有hard sigmoid回归激活函数的自定义LSTM层:def LSTMCell(input, hidden, w_ih, w_hh, b_ih=None, b_hh=None):    “””    A modified LSTM cell with hard sigmoid activation on the input, forget and output gates.    “””    hx, cx = hidden    gates = F.linear(input, w_ih, b_ih) + F.linear(hx, w_hh, b_hh)     ingate, forgetgate, cellgate, outgate = gates.chunk(4, 1)     ingate = hard_sigmoid(ingate)    forgetgate = hard_sigmoid(forgetgate)    cellgate = F.tanh(cellgate)    outgate = hard_sigmoid(outgate)     cy = (forgetgate * cx) + (ingate * cellgate)    hy = outgate * F.tanh(cy)     return hy, cy def hard_sigmoid(x):    “””    Computes element-wise hard sigmoid of x.    See e.g. https://github.com/Theano/Theano/blob/master/theano/tensor/nnet/sigm.py#L279    “””    x = (0.2 * x) + 0.5    x = F.threshold(-x, -1, -1)    x = F.threshold(-x, 0, 0)return x 这个LSTM单元必须集成在一个完整的模块中,这样才可以使用pyTorch所有的功能。这个集成相关的代码很长,建议直接引用到Github中的相关源代码。 Keras和pyTorch中的关注层 模型的关注层是一个有趣的模块,我们可以分别在Keras和pyTorch的代码中进行比较:class Attention(Module):    “””    Computes a weighted average of channels across timesteps (1 parameter pr. channel).    “””    def __init__(self, attention_size, return_attention=False):        “”” Initialize the attention layer        # Arguments:            attention_size: Size of the attention vector.            return_attention: If true, output will include the weight for each input token                              used for the prediction        “””        super(Attention, self).__init__()        self.return_attention = return_attention        self.attention_size = attention_size        self.attention_vector = Parameter(torch.FloatTensor(attention_size))     def __repr__(self):        s = ‘{name}({attention_size}, return attention={return_attention})’        return s.format(name=self.__class__.__name__, **self.__dict__)     def forward(self, inputs, input_lengths):        “”” Forward pass.        # Arguments:            inputs (Torch.Variable): Tensor of input sequences            input_lengths (torch.LongTensor): Lengths of the sequences        # Return:            Tuple with (representations and attentions if self.return_attention else None).        “””        logits = inputs.matmul(self.attention_vector)        unnorm_ai = (logits – logits.max()).exp()         # Compute a mask for the attention on the padded sequences        # See e.g. https://discuss.pytorch.org/t/self-attention-on-words-and-masking/5671/5        max_len = unnorm_ai.size(1)        idxes = torch.arange(0, max_len, out=torch.LongTensor(max_len)).unsqueeze(0)        if torch.cuda.is_available():            idxes = idxes.cuda()        mask = Variable((idxes < input_lengths.unsqueeze(1)).float())         # apply mask and renormalize attention scores (weights)        masked_weights = unnorm_ai * mask        att_sums = masked_weights.sum(dim=1, keepdim=True)  # sums per sequence        attentions = masked_weights.div(att_sums)         # apply attention weights        weighted = torch.mul(inputs, attentions.unsqueeze(-1).expand_as(inputs))         # get the final fixed vector representations of the sentences        representations = weighted.sum(dim=1) return (representations, attentions if self.return_attention else None) class AttentionWeightedAverage(Layer):    “””    Computes a weighted average of the different channels across timesteps.    Uses 1 parameter pr. channel to compute the attention value for a single timestep.    “””     def __init__(self, return_attention=False, **kwargs):        self.init = initializers.get(‘uniform’)        self.supports_masking = True        self.return_attention = return_attention        super(AttentionWeightedAverage, self).__init__(** kwargs)     def build(self, input_shape):        self.input_spec = [InputSpec(ndim=3)]        assert len(input_shape) == 3         self.W = self.add_weight(shape=(input_shape[2], 1),                                 name='{}_W’.format(self.name),                                 initializer=self.init)        self.trainable_weights = [self.W]        super(AttentionWeightedAverage, self).build(input_shape)     def call(self, x, mask=None):        # computes a probability distribution over the timesteps        # uses ‘max trick’ for numerical stability        # reshape is done to avoid issue with Tensorflow        # and 1-dimensional weights        logits = K.dot(x, self.W)        x_shape = K.shape(x)        logits = K.reshape(logits, (x_shape[0], x_shape[1]))        ai = K.exp(logits – K.max(logits, axis=-1, keepdims=True))         # masked timesteps have zero weight        if mask is not None:            mask = K.cast(mask, K.floatx())            ai = ai * mask        att_weights = ai / K.sum(ai, axis=1, keepdims=True)        weighted_input = x * K.expand_dims(att_weights)        result = K.sum(weighted_input, axis=1)        if self.return_attention:            return [result, att_weights]        return result     def get_output_shape_for(self, input_shape):        return self.compute_output_shape(input_shape)     def compute_output_shape(self, input_shape):        output_len = input_shape[2]        if self.return_attention:            return [(input_shape[0], output_len), (input_shape[0], input_shape[1])]        return (input_shape[0], output_len)     def compute_mask(self, input, input_mask=None):        if isinstance(input_mask, list):            return [None] * len(input_mask)        else:return None 如你所见,主要的算法大致相同,但PyTorch代码中的大部分都是注释,而Keras则需要编写几个附加函数并进行调用。在编写和调试自定义模块和层时,pyTorch是一个更快的选择;而对于快速训练和测试由标准层构建的模型时,Keras显然更加合适。 PackedSequence对象的工作原理 Keras有一个不错的掩码功能可以用来处理可变长度序列。那么在pyTorch中又该如何处理这个呢?可以使用PackedSequences! pyTorch文档中有关PackedSequence的介绍并不是很详细,所以这里会详细描述它的细节。一个拥有5个序列18个令牌的典型NLP批次 假设我们有一批可变长度的序列(在NLP应用中通常就是这样的)。为了在GPU上并行计算这样一个批次,我们希望:尽可能多地并行处理这个序列,因为LSTM隐藏状态依赖于每个序列的前一个时间步长,以及以正确的时间步长(每个序列的结尾)停止每个序列的计算。 这可以通过使用pyTorch中的PackedSequence类来实现。我们首先通过减少长度来对序列进行排序,并将它们放到在张量中。然后对张量和序列长度列表调用pack_padded_sequence函数# input_seqs is a batch of input sequences as a numpy array of integers (word indices in vocabulary) padded with zeroasinput_seqs = Variable(torch.from_numpy(input_seqs.astype(‘int64’)).long()) # First: order the batch by decreasing sequence lengthinput_lengths = torch.LongTensor([torch.max(input_seqs[i, :].data.nonzero()) + 1 for i in range(input_seqs.size()[0])])input_lengths, perm_idx = input_lengths.sort(0, descending=True)input_seqs = input_seqs[perm_idx][:, :input_lengths.max()] # Then pack the sequencespacked_input = pack_padded_sequence(input_seqs, input_lengths.cpu().numpy(), batch_first=True) PackedSequence对象包括:一个data对象:一个torch.Variable(令牌的总数,每个令牌的维度),在这个简单的例子中有五个令牌序列(用整数表示):(18,1)一个batch_sizes对象:每个时间步长的令牌数列表,在这个例子中为:[6,5,2,4,1] 用pack_padded_sequence函数来构造这个对象非常的简单:如何构造一个PackedSequence对象(batch_first = True) PackedSequence对象有一个很不错的特性,就是我们无需对序列解包(这一步操作非常慢)即可直接在PackedSequence数据变量上执行许多操作。特别是我们可以对令牌执行任何操作(即对令牌的顺序/上下文不敏感)。当然,我们也可以使用接受PackedSequence作为输入的任何一个pyTorch模块(pyTorch 0.2)。例如,在我们的NLP模型中,我们可以在对PackedSequence对象不解包的情况下连接两个LSTM模块的输出,并在此对象上应用LSTM。我们还可以在不解包的情况下执行关注层的一些操作。 pyTorch中的智能数据加载:DataSets和Batches 在Keras中,数据加载和批处理通常隐藏在fit_generator函数中。重申一遍,如果你想要快速地测试模型,Keras很好用,但这也意味着我们不能完全控制模型中的重要部分。在pyTorch中,我们将使用三个类来完成这个任务:一个DataSet类,用于保存、预处理和索引数据集一个BatchSampler类,用于控制样本如何批量收集一个DataLoader类,负责将这些批次提供给模型 我们的DataSet类非常简单:class DeepMojiDataset(Dataset):    “”” A simple Dataset class.    # Arguments:        X_in: Inputs of the given dataset.        y_in: Outputs of the given dataset.     # __getitem__ output:        (torch.LongTensor, torch.LongTensor)    “””    def __init__(self, X_in, y_in):        # Check if we have Torch.LongTensor inputs (assume Numpy array otherwise)        if not isinstance(X_in, torch.LongTensor):            X_in = torch.from_numpy(X_in.astype(‘int64’)).long()        if not isinstance(y_in, torch.LongTensor):            y_in = torch.from_numpy(y_in.astype(‘int64’)).long()         self.X_in = torch.split(X_in, 1, dim=0)        self.y_in = torch.split(y_in, 1, dim=0)     def __len__(self):        return len(self.X_in)     def __getitem__(self, idx):        return self.X_in[idx].squeeze(), self.y_in[idx].squeeze() 我们BatchSampler则更有趣。我们有几个小的NLP数据集,用于微调情感情绪检测模型。这些数据集有着不同的长度和某些不平衡的种类,所以我们想设计这么一个批量采样器:在预先定义的样本数中收集批次,这样我们的训练过程就可以不依赖于批次的长度能够从不平衡的数据集中以平衡的方式进行采样。 在PyTorch中,BatchSampler是一个可以迭代生成批次的类,BatchSampler的每个批处理都包含一个列表,其中包含要在DataSet中选择的样本的索引。因此,我们可以定义一个用数据集类标签向量来初始化的BatchSampler对象,以构建满足我们需求的批次列表:class DeepMojiBatchSampler(object):    “””A Batch sampler that enables larger epochs on small datasets and        has upsampling functionality.    # Arguments:        y_in: Labels of the dataset.        batch_size: Batch size.        epoch_size: Number of samples in an epoch.        upsample: Whether upsampling should be done. This flag should only be            set on binary class problems.        seed: Random number generator seed.    # __iter__ output:        iterator of lists (batches) of indices in the dataset    “””     def __init__(self, y_in, batch_size, epoch_size, upsample, seed):        self.batch_size = batch_size        self.epoch_size = epoch_size        self.upsample = upsample         np.random.seed(seed)         if upsample:            # Should only be used on binary class problems            assert len(y_in.shape) == 1            neg = np.where(y_in.numpy() == 0)[0]            pos = np.where(y_in.numpy() == 1)[0]            assert epoch_size % 2 == 0            samples_pr_class = int(epoch_size / 2)        else:            ind = range(len(y_in))         if not upsample:            # Randomly sample observations in a balanced way            self.sample_ind = np.random.choice(ind, epoch_size, replace=True)        else:            # Randomly sample observations in a balanced way            sample_neg = np.random.choice(neg, samples_pr_class, replace=True)            sample_pos = np.random.choice(pos, samples_pr_class, replace=True)            concat_ind = np.concatenate((sample_neg, sample_pos), axis=0)             # Shuffle to avoid labels being in specific order            # (all negative then positive)            p = np.random.permutation(len(concat_ind))            self.sample_ind = concat_ind[p]             label_dist = np.mean(y_in.numpy()[self.sample_ind])            assert(label_dist > 0.45)            assert(label_dist < 0.55)     def __iter__(self):        # Hand-off data using batch_size        for i in range(int(self.epoch_size/self.batch_size)):            start = i * self.batch_size            end = min(start + self.batch_size, self.epoch_size)            yield self.sample_ind[start:end]     def __len__(self):        # Take care of the last (maybe incomplete) batchreturn (self.epoch_size + self.batch_size – 1) // self.batch_size 从Keras到pyTorch:不要忘记初始化 将Keras/Tensorflow/Theano代码移植到pyTorch的过程中,最后需要注意的事情是对权重的初始化。Keras在开发速度方面的另一个强大特点是层的默认初始化。相反,pyTorch并没有初始化权重,而是由开发者自己来决定。为了在微调权重时获得一致的结果,我们将像如下代码那样复制默认的Keras权重初始化:def init_weights(self):    “””    Here we reproduce Keras default initialization weights to initialize Embeddings/LSTM weights    “””    ih = (param.data for name, param in self.named_parameters() if ‘weight_ih’ in name)    hh = (param.data for name, param in self.named_parameters() if ‘weight_hh’ in name)    b = (param.data for name, param in self.named_parameters() if ‘bias’ in name)    nn.init.uniform(self.embed.weight.data, a=-0.5, b=0.5)    for t in ih:        nn.init.xavier_uniform(t)    for t in hh:        nn.init.orthogonal(t)    for t in b:        nn.init.constant(t, 0) 结论 当我们针对一个模型比较Keras和pyTorch这两个框架时,我们可以感觉到它们有着不同的哲学和目标。根据笔者的经验来看:Keras非常适合于快速测试在给定任务上组合标准神经网络块的各种方法;pyTorch非常适合于快速开发和测试自定义的神经网络模块,因为它有着很大的自由度和易于阅读的numpy风格的代码。 原文:https://medium.com/huggingface/understanding-emotions-from-keras-to-pytorch-3ccb61d5a983 SDCC 2017“人工智能技术实战线上峰会”将在CSDN学院以直播互动的方式举行。作为SDCC系列技术峰会的一部分,来自阿里巴巴、微软、商汤科技、第四范式、微博、出门问问、菱歌科技的AI专家,将针对机器学习平台、系统架构、对话机器人、芯片、推荐系统、Keras、分布式系统、NLP等热点话题进行分享。先行者们正在关注哪些关键技术?如何从理论跨越到企业创新实践?你将从本次峰会找到答案。每个演讲时段均设有答疑交流环节,与会者和讲师可零距离互动。  via: http://mp.weixin.qq.com/s?__biz=MzAwNDI4ODcxNA==&mid=2652245658&idx=1&sn=03c63ad0e0657e5272ea2e3c7e346521&scene=0#wechat_redirect

 

爱可可-爱生活   网页版 2017-10-11 12:50
深度学习 视觉
【Luminoth:计算机视觉深度学习工具集(基于TensorFlow/Sonnet)】《Luminoth: Open source toolkit for Computer Vision》 http://t.cn/ROJvzPz GitHub: https ://github .com/tryolabs/luminoth ​

 

爱可可-爱生活   网页版 2017-10-11 06:18
深度学习 视觉 Federico Baldassarre
【灰度图像自动上色(CNN/Inception-ResNet-v2)】’Deep Koalarization – Grayscale Image Colorization using deep CNN and Inception-ResNet-v2 (DD2424 Deep Learning in Science course at KTH 2017)’ by Federico Baldassarre GitHub: https ://github .com/baldassarreFe/deep-koalarization ref:…全文: http://m.weibo.cn/1402400261/4161548450911652…全文: http://m.weibo.cn/1402400261/4161548450911652

 

wx:Non   网页版 2017-10-11 19:44
入门 深度学习 算法 应用 资源 崔立明 代码 行业动态 课程 神经网络 推荐系统
「动态 | 共筑开放AI生态:ONNX标准得到华为、英特尔等更多厂商支持」AI科技评论消息,今年九月,微软和 Facebook 发布了一个全新的开源项目——ONNX,欲借此打造一个开放的深度学习开发工具生态系统。该项目的目的是让不同的神经网络开发框架做到互通互用。详细信息可参见Facebook、微软联合推出 ONNX 标准,号称要解决开发框架碎片化。早前,Microsoft Cognitive Toolkit、PyTorch 和 Caffe2 均已宣布支持 ONNX。而就在今天,AMD、ARM、华为、IBM、英特尔、高通同时宣布支持ONNX。这些公司和Facebook、微软一样,认识到了ONNX开源系统给工程师和研究者提供的便利性,它可以让研究人员轻易地在当前顶尖的机器学习工具之间进行转换,并为项目选择最好的组合方式。与此同时,ONNX还可以让更多的开发人员更容易地进行优化。任何支持ONNX模型的工具都可以受益,因为ONNX兼容不同的运行时间和库,其设计初衷是让业界最好的人工智能硬件的性能最大化发挥。Facebook表示,ONNX是他们的人工智能团队中有关深度学习方法的重要组成部分,他们一直致力于推动人工智能的前沿发展,开发出更好的学习算法。一旦发现新的突破,他们就会试图把这种最先进的技术尽快交付给整个团队。一旦有了ONNX,他们就可以专注于将大量人工智能相关的研究和产品更紧密地结合在一起,这样就能更快地进行创新和展开相关研究。Facebook同时表示,很高兴华为、英特尔、高通等公司加入ONNX开放系统,他们也在邀请其他公司加入到ONNX生态系统中来。ONNX支持在不同的框架之间进行互操作,并能简化从研究到生产的操作,将有助于提高人工智能研究的创新速度。可以在 GitHub 上查看更多细节。地址:https://github.com/onnxvia:Facebook researchAI科技评论编译整理。—————  AI 科技评论招人啦!  —————你即将从事的工作内容:报道海内外人工智能相关学术会议,形成具有影响力的报道内容;采访高校学术青年领袖,输出人工智能领域的深度观点;跟进国内外学术热点,深入剖析学术动态;我们希望你是这样的小伙伴:英语好,有阅读英文科技网站的习惯;兴趣广,对人工智能有关注及了解;态度佳,有求知欲,善于学习;欢迎发送简历到 guoyixin@leiphone.com—————  给爱学习的你的福利  —————3个月,从无人问津到年薪30万的秘密究竟是什么?答案在这里——崔立明授课【推荐系统算法工程师-从入门到就业】3个月算法水平得到快速提升,让你的职业生涯更有竞争力!长按识别下方二维码(或阅读原文戳开链接)抵达课程详细介绍~———————————————————— via: http://mp.weixin.qq.com/s?__biz=MzI5NTIxNTg0OA==&mid=2247487604&idx=3&sn=550db6c5663a2e2d2417d7636e6b38bd&scene=0#wechat_redirect

 

wx:   网页版 2017-10-11 19:41
公告板 会议活动 经验总结 深度学习 视觉 算法 应用 语音 自然语言处理 博客 常佩琦 广告系统 行业动态 活动 机器翻译 机器人 数据质量 王永东 问答系统
「【2018年AI发展8大趋势】创业公司被并购,科技巨头或成最大赢家」【AI WORLD 2017世界人工智能大会倒计时 28天】大会早鸟票已经售罄,现正式进入全额票阶段。还记得去年一票难求的AI WORLD 2016盛况吗?今年,百度副总裁、AI技术平台体系总负责人王海峰、微软全球资深副总裁,微软亚洲互联网工程院院长王永东等产业领袖已经确认出席大会并发表演讲。谷歌、亚马逊、BAT、讯飞、京东和华为等企业重量级嘉宾也已确认出席。本届大会特设智能医疗论坛,并邀请到来自谷歌、卡内基梅隆大学、康奈尔大学等多位相关领域的专家和创业者,就“医疗 AI 在哪些方面已经或即将超越人类医生”、“独立的AI医疗系统何时能够出现”等问题进行展望、分享。智能医疗的真实发展现状如何?技术瓶颈何在?未来最有潜力的应用是哪些?请来世界人工智能大会智能医疗论坛寻求答案。更多大会日程陆续揭晓中……参加大会,请关注新智元微信公众号或访问活动行页面:http://www.huodongxing.com/event/2405852054900?td=4231978320026了解更多 1新智元编译  来源:medium.com编译:常佩琦 【新智元导读】本文综合了IDC和Gartner等机构的预测,对2018 AI领域的发展进行预测,包括大公司、算法、兼并等多个方面。 计算分析大数据绝不是一时性的。随着数据量的不断增长,分析大数据的方式也将改善。涉及到预测性分析(Predictive Analytics)的应用时,我们只看到冰山一角。它通过数据挖掘、机器学习、AI技术帮助组织机构分析现有数据,比如预测销售额、优化营销活动等。这些人工智能技术都在深刻地改变着我们的生活。 以下是AI世界、大数据、预测分析、机器学习的关键数据:2018年,75%的开发商都将在一个或者多个业务或服务中包含AI功能——IDC2019年,AI 将辅助100%的物联网——IDC2020年,30%的公司都将使用AI,至少增加一个主要销售环节——Gartner2020年,算法将改变全球数十亿工人的行为——Gartner2020年,人工智能市场将超过400亿美元——Constellation Research2025年,AI将驱动95%的用户交互——Servion 2018,8大AI趋势 亚马逊、谷歌、Facebook、IBM将成为AI领头羊。大公司拥有大量资源来收集数据,因此会有更多数据为其所用。 以下是AI领域的顶尖玩家: 亚马逊:投资人工智能已超过20年抓取超过50亿网页的数据亚马逊物流中心有超过50万张描述产品的JPEG图像和相应的JSON元数据文件每日监测全球广播、印刷物、网络新闻的记录超过40亿份近1亿图像和具有注释的视频亚马逊的Echo领先语音助理市场 谷歌:是拥有最大存储库的数据集之一,数据达10-15Exabyte——Cirrus Insight专注于应用和产品开发,而非长期AI研究超过1300位研究人员的团队——谷歌大脑占据声控助理市场23.8%的用户份额——Voicebot任何人都能使用的机器学习开源平台TensorFlow谷歌地球数据库大约是3017TB或者近3Petabytes——Google Earth Blog谷歌街景有近20Petabytes的街道照片—— Peta Pixel Facebook每天处理25亿的内容和500多TB的数据——Tech CrunchFacebook有约80名人工智能研究员——FAIR日均生成20亿“赞”和3亿照片——Tech Crunch每30分钟扫描月105TB数据——Tech Crunch建有一个62000平方英尺的数据中心,可以容纳500台机架每天用超过40种语言翻译20亿用户帖,8亿用户可以看到翻译——Fortune 在部署机器学习和产品应用开发方面,谷歌很可能处在最前沿。谷歌的研究范围涵盖机器学习、自然语言处理、机器学习算法和技术、机器人技术等领域。 全球100家最有潜力AI公司 投资人工智能的第二梯队,如英特尔、推特等,将追随拥有数据的大公司,并使用它们的数据算法。数据交易将发生在行业内部,算法和技术将得以巩固。 谷歌、FB等巨头收购小公司后,算法将被集成到其核心平台。谷歌收购了DeepMind以获取竞争优势。FB收购了Wit.ai来提升语音识别和语音接口业务。 所有的人工智能公司都将想方设法获得海量数据集,来实现其AI壮志。这些公司会开始收集众包数据。公司已经找到评估众包数据质量和真实性的不同方法。企业方会从这些数据中受益,消费者也得到了话语权。 谷歌通过众包获取了大量图片,来构建其成像算法。谷歌还通过众包改进翻译等服务。亚马逊通过众包AI来提高Alexa的技能。 CBInsights统计数据显示,收购AI公司的竞赛已经开始。2018年竞争会越发激烈。很多机器学习和AI的小公司都会被大企业收购,原因有二: 首先,AI无法在缺少数据集的情况下独立工作。大公司拥有大量数据,小公司会失去竞争力。其次,没有数据的算法毫无用处。反之亦然。数据是算法的核心,因此获取大量数据将成为重中之重。 大公司将开源算法和工具集来获取市场份额。基于市场的数据访问和算法进入壁垒将会减少,新的AI应用将会增加。通过民主化,此前缺乏AI工具的小公司将更容易获得大量数据,来训练复杂的AI算法。 Siri和Alexa是两个最受欢迎的人机交互工具。将会有更多的类似产品出现。例如,机器能够根据用户讲话的语调识别情绪。2018年,农业和医药领域的人机交互也会增多。 制造业、客服、金融、医疗、交通等行业已经受到人工智能的影响。明年人工智能将会影响更多的垂直行业,包括:保险、法律、传媒、教育、健康等。 与隐私、安全相关的担忧,(如保密银行账户、健康信息),会促进对人工智能安全性的研究。2018年,安全和隐私问题会得到一定的解决,也可能会有新的发展。 伦理问题也值得关注。需要强调的问题包括:人工智能将如何伤害/促进人类。还有一些对于人工智能取代人类的担忧。 总而言之,虽然AI已经存在了很多年,但目前还处于起步阶段。人工智能还有很长的路要走。 原文地址:https://medium.com/@Unfoldlabs/the-world-of-artificial-intelligence-6cec415edc56【扫一扫或点击阅读原文抢购大会门票】AI WORLD 2017 世界人工智能大会购票二维码:  via: http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&mid=2652005992&idx=3&sn=8c78153ef10a6c2a9af97b4c3897d372&scene=0#wechat_redirect

 

wx:   网页版 2017-10-11 19:34
资源 Nick Gravin 盛子夏 邓小铁 黄志毅 课程 陆品燕 唐平 陶曲明
「ADL报名 | 不懂理论何谈应用?」本期CCF学科前沿讲习班《计算经济学的理论与应用》邀请了学术界计算经济学领域以及业界相关应用方向权威专家,将从计算机经济学的基本理论、机制设计的理论、一些具体的前沿研究课题、相关理论在金融和区块链等相关行业的应用等方面对计算经济学的原理及应用进行详尽的解读和讲解。 特邀讲者: 陆品燕:本期学术主任、上海财经大学信息学院教授、理论计算机科学研究中心主任             讲座题目:计算经济学概论 邓小铁:上海交通大学教授、国家千人特聘专家             讲座题目:基于数据的互联网市场定价与资源分配原理所面临的行为学挑战 盛子夏:蚂蚁金服集团人工智能商业决策总监讲座题目:人工智能驱动金融生活 陶曲明:万向区块链股份公司副总经理             讲座题目:区块链与机制设计 黄志毅:香港大学计算机系助理教授             讲座题目:基于数据的机制设计理论 Nick Gravin:上海财经大学副教授、青年千人             讲座题目:Budget Feasible Procurement Mechanisms 唐平中:清华大学交叉信息研究员助理教授,青年千人            讲座题目:最优机制设计 地点:上海财经大学信息学院一楼报告厅(上海杨浦区武东路100号)报名方式:请登录 https://jinshuju.net/f/5rocFH  或长按以下二维码报名       活动详细介绍请点击【阅读原文】 via: http://mp.weixin.qq.com/s?__biz=MjM5MTY5ODE4OQ==&mid=2651448252&idx=2&sn=db888e7f6536c8b5e157126d145d56be&scene=0#wechat_redirect

 

ChatbotsChina   网页版 2017-10-11 15:44
张鹏博
香港科技大学在读博士生张鹏博:借鉴师生互动模式来训练机器学习模型 | 分享总结 http://t.cn/ROi1X5R

 

爱可可-爱生活   网页版 2017-10-11 14:23
Sophia Ciocca
【Spotify每周发现:用机器学习帮你筛选新音乐】《Spotify’s Discover Weekly: How machine learning finds your new music》by Sophia Ciocca http://t.cn/ROi9JUv pdf:http://t.cn/ROi9JUh

 

爱可可-爱生活   网页版 2017-10-11 14:18
经验总结 应用 Huan Liu Kai Shu 博客 社交网络
【社交媒体假新闻检测快速指南】《A Quick Guide to Fake News Detection on Social Media》by Kai Shu, Huan Liu http://t.cn/ROiKyQe

 

PaperWeekly   网页版 2017-10-11 12:07
会议活动 应用 KDD RecSys SIGIR 会议 推荐系统 信息检索
2017年KDD,Sigir以及Recsys会议被接收的论文早已公示,本文对这些会议中Attention Model相关的10篇论文进行了整理,为大家介绍Attention Model的发展和应用。http://t.cn/ROiPQfL

 

IT程序猿   网页版 2017-10-11 12:00
【机器学习实践指南】在今天的文章中,我会列出 7 个步骤(和 50 多个资源)帮助你开启这个令人兴奋的计算机科学领域的大门,并逐渐成为一个机器学习高手。详见http://t.cn/ROvsZ28(来自:Linux中国) ​​​​

 

大众证券报   网页版 2017-10-11 10:53
视觉 算法 行业动态 张建峰
【阿里巴巴宣布成立全球研究院“达摩院”】阿里巴巴首席技术官张建峰称,推出全球技术开发研究项目“达摩院”,未来三年对基础科学研发投资将超过1000亿元。该院由全球实验室,高校联合研究所,全球前沿创新研究计划三大部分组成,研究包括:量子计算、机器学习、基础算法、网络安全、视觉计算、自然语…全文: http://m.weibo.cn/2023821012/4161617455066178

 

一起大数据   网页版 2017-10-11 10:31
算法
高斯过程回归?效果意想不到的好:在R里面你可以用kernlab包的gausspr函数进行预测,高斯过程还能解决分类问题 http://t.cn/RIqdBoe @数据分析招聘

 

微博机器学习   网页版 2017-10-11 10:19
经验总结 算法 博客 神经网络
#热门微博机器学习# Batch Normalization(http://t.cn/R5RQ6EJ)及其在TensorFlow里的实现(http://t.cn/ROJNFgl)。对于连续特征的神经网络挺有效的哦。 ​

张俊林say 网页版 转发于2017-10-11 12:32
大BN目前基本快成为DL的标配了,很有了解的必要,跟风转个去年写的BN导读:(Batch Normalization导读)http://t.cn/R5Zlp7X

 

网路冷眼   网页版 2017-10-11 07:45
会议活动 应用 KDD 会议 推荐系统 赵欢
【港科大KDD 2017录用论文作者详解:基于异构信息网络元结构融合的推荐系统】http://t.cn/ROffeV8 在KDD 2017上,香港科技大学计算机系博士生赵欢作为第一作者的论文 Meta-Graph Based Recommendation Fusion over Heterogeneous Information Networks 被 research track接收并做口头报告。 ​

 

爱可可-爱生活   网页版 2017-10-11 06:06
自然语言处理 Jason Brownlee
【文本词嵌入详解】《What Are Word Embeddings for Text? | Machine Learning Mastery》by Jason Brownlee http://t.cn/ROxeHTf

 

爱可可-爱生活   网页版 2017-10-11 05:59
Adam Grzywaczewski
【自驾车辆AI训练:规模化挑战】《Training AI for Self-Driving Vehicles: the Challenge of Scale | Parallel Forall》by Adam Grzywaczewski http://t.cn/ROxgkLH

 

爱可可-爱生活   网页版 2017-10-11 05:56
资源 幻灯片
【深度增强学习训练营(videos/slides)】“Deep RL Bootcamp – 26-27 August 2017 | Berkeley CA” http://t.cn/ROxgBJX

 

wx:   网页版 2017-10-12 06:51
公告板 算法 资源 自然语言处理 课程 问题
「干货|MIT线性代数课程精细笔记[第六课]-子空间与零空间」MIT线性代数课程精细系列笔记干货|MIT线性代数课程精细笔记[第一课]干货|MIT线性代数课程精细笔记[第二课]干货|MIT线性代数课程精细笔记[第三课]干货|MIT线性代数课程精细笔记[第四课]干货|MIT线性代数课程精细笔记[第五课] 本节从之前学习的子空间开始,介绍了子空间的部分性质。并重点介绍了列 空间与方程 Ax = b 之间的联系。并由此引出了零空间,根据 Ax = b 这个方程给 出了两种构建子空间的方法。 很明显,子空间直线 L 或平面 P 上,任取两个向量相加,得到的向量仍在该 子空间中。而且将其上的向量做数乘伸长或缩短一定倍数,其结果也还在该子空 间中。所以它们都对线性运算封闭。 上面我们都是分别研究的两个子空间,那么接下来我们对两个空间之间联系 部分展开讨论 还是讨论上面𝑅 3 的子空间 P 与 L,首先要研究的就是它们的并空间,即:现 有一集合,包含了 P 与 L 中的所有向量,那么这个集合是子空间吗?答案是否定的。很明显,我们将直线 L 与平面 P 看做同一个集合 P∪L 之后,这个集合对线性 运算并不封闭。比如我们随便在直线 L 上取一个向量 a,在平面 P 上取一个向量 b。此时向量 a+b 方向就会夹在直线 L 与平面 P 之间,脱离了 P∪L 的范围。所以 P∪L 无法构成空间。 那么这个子空间有多大呢?这就需要用 Ax = b 方程来解释了。 转自:机器学习算法与自然语言处理 完整内容请点击“阅读原文” via: http://mp.weixin.qq.com/s?__biz=MzA4NDEyMzc2Mw==&mid=2649678216&idx=2&sn=c15f24357255fa3c29b2c8e80a22421e&scene=0#wechat_redirect

 

回复