否来无数值得梳理记录之情节。还有啊比回顾当时一整年中AI的前进历程还激动的呢。

2017曾经正式离我们多去~ ~
~

图片 1

千古之如出一辙年里,感谢各位Geek朋友等的陪同 ,也来许多值得梳理记录的内容~ ~
~博客WILDML的撰稿人、曾以Google Brain做了相同年Resident的Denny
Britz,就将他眼中的2017年AI和深度上之盛事,进行了一番梳理汇总。

2017年已经终止了,还有啊比回顾当时一整年中AI的上进过程还激动的吧?

小编将概要摘录如下,详情可过去原稿查看:

AI大事件的撰稿人Denny
Britz梳理了2017常年的AI大事,人工智能从研究到应用领域的追忆,都以就首AI超大事件里了。

初稿地址:查看

深化学习以许多玩达到达到了超群表现

强化学习称霸人类游戏

现年AI领域最成功的故事或就是AlphaGo了(Nature论文),AlphaGo是一个深化学习代理,击败了世道上极好的国际象棋大师。

设若说2016年AlphaGo击败李世乭之后,大家对其的棋坛地位还有多少怀疑的语,2017年击败柯洁,让其成了必然的围棋霸主。

AlphaGo的首先只本子采用来源人类专家的教练多少开展引导,并经我对弈和蒙特卡洛树搜索更提升。不久过后,AlphaGo
Zero(Nature论文)更上前了同等步,学习如何从头开始玩国际象棋,不需要其他人工训练多少,使用以前刊登在 Thinking
Fast and Slow with Deep Learning and Tree
Search中的技艺。它轻松击败了AlphaGo的率先只本子。

用作一个强化学习Agent,它的第一只版采用了来人类专家的训多少,然后经自我对合作社与蒙特卡洛树搜索的改良来提高。

倘在今年年底,我们又盼了AlphaGo
Zero算法的旁一个升官,称为AlphaZero,它不只主宰了国际象棋,而且每当以棋上啊下了千篇一律的技能。有意思的是,人工智能代理的游戏策略让广大经验丰富的人类玩家还挺被启发,从而激发玩家从AlphaGo中学习并相应地调自己之玩耍风格。为了要这个读书过程还便于,DeepMind还颁发了AlphaGo
Teach工具。

快自此,AlphaGo Zero更进一步,使用了事先同一首论文Thinking Fast and Slow
with Deep Learning and Tree
Search提出的技能,从零开始下围棋,在教练中莫因此到人类对商厦的多少。

图片 2

设说2016年AlphaGo击败李世乭之后,大家对她的棋坛地位还有多少怀疑的说话,2017年击败柯洁,让它成为了自然的围棋霸主。

可是AlphaGo并无是人工智能取得关键进展的绝无仅有打。来自CMU的钻人员开之Libratus(Science论文)在相同集市为期20龙之顶德州扑克锦标赛中成破了顶级人类玩家。
稍早些时候,由查尔斯大学,捷克技术大学暨艾伯塔大学之钻研人口支出的DeepStack系统成为第一个败专业扑克玩家的系统。
请注意,这简单只体系针对的凡双人扑克,比在差不多单游戏家中玩耍容易。后者很可能会见当2018年获得更的展开。

当一个深化学习Agent,它的首先个本子用了来自人类专家的训练多少,然后经过自身对商家及蒙特卡洛树搜索的精益求精来提高。

强化学习的产一个世界是连多口扑克在内的大多丁游玩。DeepMind正在主动研究“星际争霸2”,并于2017年宣布了研讨环境,而OpenAI已经当1v1
Dota
2上打败了头等人类玩家,目标是于抢之未来受5v5游乐中到击败人类玩家。

快后头,AlphaGo Zero更进一步,使用了事先同一篇论文Thinking Fast and Slow
with Deep Learning and Tree
Search提出的技艺,从零开始下围棋,在教练中绝非用到人类对企业的数据。

遗传算法东山还打

连锁论文:

于监督式学习,使用反向传播算法的依据梯度的办法对研究者来说都充分得心应手了。然而与此同时,在强化学习中,进化策略(ES)似乎正东山再次由。由于数量一般不是iid(独立且分布一致)的,因此错误信号更加稀疏,而且由于需要进行探讨,所以无指让梯度的算法可以更好地工作。此外,遗传算法可以线性扩展及数千华机械,从而实现极快的互动训练,不需昂贵之GPU。

AlphaGo

现年早些时候,来自OpenAI的研究人口证实,遗传算法可以兑现和正式的加重学习算法(如Deep
Q-Learning)相媲美的特性。
今年年底,Uber的一个团组织发布了同样首博文和同样组五篇研究论文,进一步显示了遗传算法的潜力。下面是视频显示了用各种算法玩Atari游戏的得分情况,GA策略得分也10500,而DQN,AC3跟ES在斯玩中得分低于1,000。

https://storage.googleapis.com/deepmind-media/alphago/AlphaGoNaturePaper.pdf

WaveNets,CNN和留心机制

AlphaGo Zero

谷歌的Tacotron
2文本转语音系统发生了不过精准的音频样本,这项技能基于WaveNet。这是一致种植电动回归模型,也吃布置在谷歌助理被,并以过去同样年遭受贯彻了大幅的进度提升。
WaveNet之前为被运被机器翻译,从而减少了经常性架构的教练时间。

https://www.nature.com/articles/nature24270.epdf

起机械学习子领域看,花费十分丰富时进行训练的经常性架构逐渐变为平等栽倾向。研人员全摆脱了复发及卷积,并采用还复杂的注意力机制,达到了于训练成本非常没有之状态下之参天档次。

AlphaZero

深度上框架的同一年

https://arxiv.org/abs/1712.01815

比方本身只能为此平等句话总结2017年,那我会说是“框架的一模一样年”。Facebook使用PyTorch做了一个大跃进。
由于该动态图片结构和Chainer提供的类似,PyTorch从自然语言处理的钻人员那里拿走了再多的重视,他们时常索要处理在Tensorflow等静态图片框架中格外不便声明的动态和循环结构。

Thinking Fast and Slow with Deep Learning and Tree Search

Tensorflow以2017年就相当成功.Tensorflow
1.0当2月份颁了一个安乐都为后相当的API。
目前,Tensorflow的本子是1.4.1。
除主框架之外,还公布了大半个Tensorflow伴随库,包括用于动态计算图的Tensorflow
Fold,用于数据输入管道的Tensorflow
Transform以及DeepMind的重新胜似级别之Sonnet库。
Tensorflow团队还宣布了一个新的拳拳执行模式,其行事方式接近于PyTorch的动态计算图。

https://arxiv.org/abs/1705.08439

除开Google和Facebook之外,还有众多别样商家呢入了机上框架的阵:

AI今年取第一进展的戏不止围棋。CMU研究人员的Libratus(冷扑大师)在20上的如出一辙针对一无限注德州扑克比赛中,击败了人类顶级扑克玩家。

  • 苹果店颁发了CoreML移动机械学习库。

再度早些时候,查尔斯大学、捷克技术大学及加拿大阿尔伯塔大学开支的DeepStack,首先败了专业德扑玩家。

发生一些值得注意,这有限只次玩的且是如出一辙对一扑克,也便是零星称呼玩家中的对弈,这比较多总人口玩再爱。2018年,我们死可能看算法在多玩家扑克上得到部分发展。

  • Uber的一个团伙公布了Pyro,一种植深度概率编程语言(Deep
    Probabilistic Programming Language)。

Libratus论文:

http://science.sciencemag.org/content/early/2017/12/15/science.aao1733.full

  • 亚马逊(Amazon)宣布于MXNet上提供再胜级别之API,即Gluon。

就此强化学习玩乐人类游戏之生一个天地,似乎是双重扑朔迷离的几近人数游戏,除了多人口扑克之外,还有星际争霸、DotA等等。DeepMind正在主动研究星际争霸2,发布了相关的研究环境。

星际争霸2钻环境

  • Uber发布了彼里面米开朗基罗机器上基础设备平台的详细信息。

如果OpenAI在DotA中就比赛被获了开始的功成名就,玩转5v5娱乐,是他俩的产同样步目标

并且由于框架的数码日益泛滥,Facebook和微软披露了ONNX开放格式,以便跨框架共享深度上模式。
例如,您可以一个框架中训练你的模子,然后于其余一个框架中投入生产。

前进算法回归

除此之外通用的深度上框架外,我们尚观看大量底加重学习框架正在发布面临,其中囊括:

对此监督上吧,基于梯度的反向传播算法都好好,而且就或多或少或短期内无见面生出什么变动。

  • OpenAI
    Roboschool是一致迟迟用于机器人仿真的开源软件。

但是,在深化学习着,进化策略(Evolution Strategies,
ES)似乎正在东山更由。因为强化学习的数额一般不是lid(独立和分布)的,错误信号更加稀疏,而且要探索,不依靠梯度的算法表现非常好。另外,进化算法可以线性扩展及数千尊机器,实现充分抢之平训练。它们不欲昂贵之GPU,但好以多便宜的CPU机器上进行训练。

2017年早些时候,OpenAI的研究人员证明了前进策略实现之属性,可以与Deep
Q-Learning等专业强化学习算法相媲美。

  • OpenAI
    Baselines是平仿照强化学习算法的强质量实现库。

有关论文:

https://arxiv.org/abs/1703.03864

  • Tensorflow代理包含优化的基础设备,使用Tensorflow来训练RL代理。

年关,Uber内部一个社而连发5首论文,来展示遗传算法和新颖性搜索的潜力。他们采取非常简单的遗传算法,没有外梯度信息,学会了一日游各种雅达利游戏。他们的向上算法在Frostbite游戏中及了10500区划,而DQN、AC3、ES等算法在平等的玩乐被得分都未交1000。

老大可能,2018年咱们会当斯样子看又多之办事。

  • Unity
    ML Agents允许研究人口以及开发人员使用Unity
    Editor创建游戏和拟,并使用强化学习进行训练。

WaveNets,CNNs以及注意力机制

谷歌的Tacotron
2文本转语音系统机能让人印象深刻。这个体系基于WaveNet,也是一致种电动回归模型,也让部署为Google
Assistant之中,并以过去一致年获得迅捷提升。

  • Nervana
    Coach允许下最先进的深化学习算法进行试验。

远离昂贵且训练漫长的回归架构是一个又老的大势。在舆论Attention is All you
Need里,研究人员完全摆脱了巡回和卷积,使用一个复复杂的注意力机制,只所以了那个有点之训成本,就达成了即极度先进的结果。

论文地址:https://arxiv.org/abs/1706.03762

  • Facebook的玩耍研究ELF平台。

深度上框架这同样年

如果不要是用同句子话总结2017,那只好算得框架的年。

  • DeepMind
    Pycolab是一个可定制的网格世界游乐引擎。

Facebook搞来了PyTorch,这个框架得到了施自然语言处理的钻研人员大爱。

TensorFlow以2017年连续领跑,目前早就昭示到1.4.1本。除了主框架之外,还披露了大多单伴随库。TensorFlow团队还发布了一个簇新的eager
execution模式,类似PyTorch的动态计算图。此外:

  • Geek.ai
    MAgent是一个几近代理强化学习的研讨平台。

苹果宣布了CoreML移动机械上库;

以为深度上还爱部署,我们吧看出了有的Web的框架,比如谷歌的deeplearn.js和MIL
webdnn执行框架。但至少发生一个特别流行的框架在2017年结束了它的人命,那就是是Theano,开发商决定Theano
1.0将变为Theano的尾声一个版本。

Uber的一个组织公布了Pyro,一个深度概率编程语言;

念资源

亚马逊宣布以MXNet上提供再胜似级别之API Gluon;

乘胜深度上与强化学习更是受欢迎,越来越多的讲座,训练营和运动既于2017年在线录制以及发表。以下是本身无比喜爱的片段:

Uber发布了中米开朗基罗机器上基础设备平台的详情;

  • 由OpenAI和加州大学伯克利分校联合主办的Deep
    RL Bootcamp讲授了关于强化学习之基础知识以及最新研究成果。

出于框架已尽多,Facebook和微软披露推出ONNX开放格式,以便跨框架共享深度上型。

除此之外通用的纵深上框架外,我们尚看大量的加深学习框架发布:

  • 斯坦福大学2017年春天版视觉识别卷积神经网络课程。可以翻学科网站。

OpenAI
Roboschool,用于机器人仿真

OpenAI
Baselines,一模拟强化学习算法的赛质量实现

  • 斯坦福大学自然语言处理与深度学课程2017年冬季版。
    可以查学科网站。

Tensorflow
Agents,用TensorFlow来训练RL智能体

Unity ML
Agents,研究人员可用Unity
Editor来创造游戏,并展开强化训练

  • 斯坦福的深上理论课程。

Nervana
Coach,用最好先进的深化学习算法进行考查

Facebook
ELF,游戏研究平台

  • 新的Coursera深度上标准。

DeepMind
Pycolab,定制化的游戏引擎

Geek.ai
MAgent,多智能体强化学习平台

  • 蒙特利尔的深浅上与暑期加强学校。

为吃深度上又便于普及,还有局部面向web的框架,例如谷歌的deeplearn.js和MIL
WebDNN执行框架。

2017,还有一个风行框架和我们告别了,那即便是Theano。

  • 加州大学伯克利分校2017年秋深度加深学习课程。

念资源

差一点只学术会议延续了以网上披露会议的初民俗。
如果你想遇到尖端的研究,您可以观看NIPS 2017,ICLR 2017或者EMNLP
2017底一对照相。

趁深度上及加剧学习更是流行,2017年来进一步多之课、训练营等活动做并享受到网上。以下是自最轻之有些。

研讨人员为开以arXiv上宣告教程以及考察论文。
这是2017年遭受本人的极爱:

Deep RL
Bootcamp,由OpenAI和UC
Berkeley联合主持,主要教授关于深化学习的基础知识和新型研究成果

  • Deep
    Reinforcement Learning: An Overview

斯坦福视觉识别卷积神经网络课程2017情季版

斯坦福自然语言处理与深度上课程2017冬季版

  • A
    Brief Introduction to Machine Learning for Engineers

斯坦福的深浅上理论课程

Coursera上时的深上课程

  • Neural
    Machine Translation

蒙特利尔深上和加深学习暑期学校

UC
Berkeley的纵深加深学习课程2017成熟季版

  • Neural
    Machine Translation and Sequence-to-sequence Models: A
    Tutorial

TensorFlow开发者大会上有关深度上和TensorFlow
API相关的始末

AI应用之“艺术”

几乎格外学术会议,延续了当网上发表会议内容之初民俗。如果你想撞最尖端的钻研,可以查这些甲级会议的摄影资料。

2017年上马得到更多关心之应用是图像,音乐,草图和视频的生成性建模。
NIPS 2017年会议首次于生产了机械上创意以及设计研讨会。

NIPS 2017:

极风靡的应用程序之一是谷歌的QuickDraw,它用神经网络来辨别而的写道。
使用开源的数据集,您还可教机器为您得你的绘图。

https://nips.cc/Conferences/2017/Videos

GANs今年取得了重大进展。
例如,CycleGAN,DiscoGAN和StarGAN等新模型在生成人脸方面取得了使人记忆深刻的硕果。
GANs在过去难以扭转逼真的高分辨率图像,但pix2pixHD底结果表明,研究者们正在解决这些题目。
GANs会成为人类的初画笔吗?让我们在2018年等。

ICLR 2017:

图片 3

https://www.facebook.com/pg/iclr.cc/videos/

AI应用的“自动驾驶”

EMNLP 2017:

打驾车领域的雅玩家是Uber和Lyft,Alphabet的Waymo和Tesla。
由于软件错误,Uber在旧金山夺了几乎海红灯。之后,Uber分享了里使用的汽车可视化平台的底细。Uber的由驾车计划以12月份上了200万英里。

https://ku.cloud.panopto.eu/Panopto/Pages/Sessions/List.aspx

并且,Waymo的从驾车于四月变成了第一批判真正的AI车手,后来当亚利桑那州之凤凰城完全取消了操作人员。
Waymo还颁布了他们之测试与效仿技术的细节。

研究人员为起于arXiv上披露低门槛的学科以及汇总论文。以下是过去同样年自己之顶易。

图片 4

深加深学习:概述

那些酷酷的研究项目

Deep Reinforcement Learning: An
Overview

2017年披露了累累好玩之档次,在此处不容许一一列举。
只能对那些脱颖而出的稍作介绍:

吃工程师的机械上简介

  • Background
    removal with Deep
    Learning

A Brief Introduction to Machine Learning for
Engineers

神经机器翻译

  • Creating
    Anime characters with Deep Learning

Neural Machine
Translation

学科:神经机器翻译和排及队模型

  • Colorizing
    B&W Photos with Neural Networks

Neural Machine Translation and Sequence-to-sequence Models: A
Tutorial

应用:AI和医学

  • Mario
    Kart (SNES) played by a neural network

2017年,有不少口声言用深度上解决了治疗问题,而且还破了人类专家。这之中有真的突破,也闹局部炒作。对当时地方感兴趣的话,推荐关注Luke
Oakden-Rayner的人类医生结束系列博客:

The End of Human Doctors – Introduction

  • A
    Real-time Mario Kart 64 AI

此地大概介绍一些向上。其中最为重点的事件包括:斯坦福的一个团宣布了于是深度上辨识皮肤癌的算法细节。

连锁研究:https://cs.stanford.edu/people/esteva/nature/

  • Spotting
    Forgeries using Deep Learning

另外一个斯坦福的团队则开了一个模型,能比较人类专家还好的意识心律失常。

相关研究:https://stanfordmlgroup.github.io/projects/ecg/

  • Edges
    to Cats

当也闹部分波。例如DeepMind与NHS之间的问题;NIH发布了一个非入训练AI的奶X光片数据集等等。

再也偏于研究的品类:

应用:艺术和GAN

  • The
    Unsupervised Sentiment Neuron –
    一个就学心态的优系统,尽管只有是吃用来预测亚马逊评论文本中的下一个字符。

动被图像、音乐、绘图和视频领域的成形模型,今年吗更加受到关注。NIPS
2017尚首潮生产了面向创意和设计之机器上研讨会

极端风靡的行使之一是谷歌的QuickDraw,使用神经网络来鉴别你的写道。基于已经发表的数据集,你还可吃机器帮你打完草稿。

  • Learning
    to Communicate – 开发自己语言的人为智能代理。

一路去游玩一下:

https://quickdraw.withgoogle.com/

  • The
    Case for Learning Index Structures –
    使用神经网络优化高速缓存的B-树,速度高及70%,同时通过多只实际数据集在内存中节约数额级。

GAN今年得到了成千上万关键进展。例如CycleGAN、DiscoGAN、StarGAN等新模型在生成人脸方面使人记忆深刻。GAN通常难以扭转逼真的高分辨率图像,但pix2pixHD改变了这种现状。

连锁地点: 

  • Attention
    is All You Need

CycleGAN

https://arxiv.org/abs/1703.10593

  • Mask
    R-CNN – 对象实例分割的一般框架

DiscoGAN

https://github.com/carpedm20/DiscoGAN-pytorch

  • Deep
    Image Prior for denoising, superresolution, and inpainting

StarGAN

数据集

https://github.com/yunjey/StarGAN

用来监督上之神经网络以多少饥饿而出名。
所以开源数据集对研究界来说是一个分外主要之贡献。
以下是今年出现的几个数据集:

应用:无人车

  • Youtube
    Bounding Boxes

不论是人车领域的十分玩家包括Uber、Lyft、Waymo和Tesla。Uber这同年都累不绝,但是这家店铺一直无停止在管人车方的步。

Waymo于亚利桑那底凤凰城进行了一如既往系列无人车实验,还揭示了测试与宪章技术的细节。Lyft正在成立和谐之无人车硬件与软件体系。特斯拉底Autopilot没有最好多更新。

  • Google
    QuickDraw Data

当还有一个“新的”入局者,库克证实苹果店为以研机关驾驶。

超酷的钻研和用

  • DeepMind
    Open Source Datasets

本年出许多诙谐的品类和显示,这里不可能提及所有:

通过深度上去背景

  • Google
    Speech Commands Dataset

经过深度上创造动漫角色

用神经网络着色黑白照片

  • Atomic
    Visual Actions

马里奥赛车(SNES)由神经网络发挥

实时马里奥卡丁车64
AI

  • Several
    updates to the Open Images data set

动深度上意识冒用

顺手画猫

  • Nsynth
    dataset of annotated musical notes

每当研讨范围

甭管监督情绪神经元-
一个足学学心态的网,尽管只是被亚马逊训练用于预测评价的产一个字符。

  • Quora
    Question Pairs

学会沟通 – 智能体“开发”了好的言语。

深度上的挑战:可重复性和提炼金术

习得索引结构 –
使用神经网络优化高速缓存B-Tree。

在2017年,一些钻人口对学术论文结果的可重复性提出了令人担忧。深度上型通常需要大量的超参数,必须对那进展优化才能够得到足够好之结果。这种优化通常十分高昂,昂贵到只有像Google和Facebook这样的庄才会负担得起。研究人口并无连续发布他们之代码,并且由于各种原因忘记把关键之底细放到完成的论文被,这令可重复性成为一个死十分的问题。在Reinforcement
Learning That
Matters这篇稿子被,研究人员表明,使用同一之算法和不同的基础代码使得结果出现了特别酷的不比和非常高之方差:

Attention is All You
Need –
Google推出的翻架构Transformer完全放弃了RNN/CNN结构。

图片 5

Mask
R-CNN

于Are
GANs Created Equal? A Large-Scale
Study这首文章被,研究者表明,使用昂贵之超参数搜索进行调的GAN可以击溃更为复杂的措施。同样,在 On
the State of the Art of Evaluation in Neural Language
Models中,研究人口表明,简短的LSTM架构,如果合适规范化和调整,可以强了更多的近期型。

Deep Image
Prior,图像去噪、超分辨率和补。

当过剩研究人员之共同努力下,阿里·拉希米(Ali
Rahimi)将近期之深度上道以及炼金术进行了于,并求进行再严的实验设计。然而Yann
LeCun将他的摆作为对纵深上之侮辱,并在第二龙展开了申辩。

数据集

中原同加拿大之人工智能进化

神经网络需要大量之多寡,因此开放数据集是对行业之显要贡献。以下是当年几只新推出的数据集代表。

乘胜美国移民政策收紧,越来越多的店堂开以天举办办事处,加拿大成重中之重目的地。
Google在多伦多开办了一个新的办公室,DeepMind在加拿大埃德蒙顿办了一个新办公室,Facebook
AI Research也壮大至了蒙特利尔。

Youtube Bounding Boxes

神州凡其它一个蒙受关注的目的地。
由于具备大量之血本,大量底人才库和内阁数据,在人工智能的开拓进取同生安排方面,它在和美国竞争。Google日前颁发将以北京设立一个初实验室。

https://research.google.com/youtube-bb

硬件大战:Nvidia, Intel, Google,
Tesla

Google QuickDraw Data

现代深度上技能要求昂贵之GPU来训练最先进的模子。
到目前为止,NVIDIA一直是极可怜的得主。今年,它揭示了Titan
V旗舰GPU。但是竞争无处不在,
Google的TPU现在足于那语平台达成运,英特尔之Nervana推出了平等效新的芯片,甚至特斯拉也明白表示她正在开发好之AI硬件。竞争也或来华夏,专门从事比特币挖掘的硬件制造商期望入以人工智能为核心的GPU领域。

https://quickdraw.withgoogle.com/data

炒作跟挫折

DeepMind Open Source Datasets

对人工智能的炒作在2017年上了新的终点,主流媒体的简报以及研究实验室或生育体系实际发生的作业几乎从来不相符。IBM
Watson成为了过分营销之传奇,
而她可从没提供相应的、令人满意的果实。今年,每个人还起讨厌Watson,这当其让诊治方面往往失败以后也并无奇怪。

https://deepmind.com/research/open-source/open-source-datasets

当年收获最多炒作的故事或是Facebook的“研究人口关闭发明自己语言的AI”,其实就桩工作的庐山真面目就是钻人员住了一个结果不极端好的规范实验而已。

Google Speech Commands Dataset

而又值得注意的凡,不仅仅媒体应为炒作于吊在历史的耻辱柱上。研究人口为在论文的题目和摘要中大吹特吹,这些题目和摘要不能够反映实际的试结果,比如 natural
language generation paper和 Machine Learning for markets.

https://research.googleblog.com/2017/08/launching-speech-commands-dataset.html

高调招聘和离职

Atomic Visual Actions

Coursera的同创始人Andrew
Ng(他的机械上MOOC可能是最为出名的),在当年频繁叫报道。
Andrew在三月份偏离百度领导之AI集团,筹集了1.5亿美元的本钱,并起了一个在意让制造业的初企业landing.ai。
在旁消息备受,Gary
Marcus辞去了Uber人工智能实验室负责人的职务,Facebook聘请了Siri的自然语言理解部门首长,几位著名的研讨人口离开了OpenAI,开创了一致小新的机器人公司。

https://research.google.com/ava/

学术界的科学家不断消失到业界的动向啊于继承,大学实验室抱怨说,她俩没辙和行业巨头提供的薪金竞争。

Several updates to the Open Images data set

初创企业投资以及买断

https://github.com/openimages/dataset

便像去年同,AI创业的生态系统正在蓬勃发展,并拓展了几不行高调的收购:

Nsynth dataset of annotated musical notes

  • Microsoft收购了深上创业企业MAluuba

https://magenta.tensorflow.org/datasets/nsynt

Quora Question Pairs

  • 谷歌宣布收购全球最深数目对社区KaggleGoogle
    Cloud收购Kaggle

https://data.quora.com/First-Quora-Dataset-Release-Question-Pairs

纵深上,重现性和提炼金术

  • Softbank收购机器人制造商Boston
    Dynamics(以非绝用机器上要名)

千古一模一样年被,研究人员对学术论文结果的可复现性提出了令人担忧。深度上型通常依赖让大量的超参数,必须对该展开优化才能够博得足够好之结果。这种优化代价高昂,可能只有Google和Facebook才会负担得起。

另外,研究人口并无连续同步公开代码,论文被偶然还见面挂一漏万重要的底细,或者采取异乎寻常的评估方法……这些要素都叫可复现性成为一个雅题材。

  • Facebook收购AI助理公司Ozlo

当论文Are GANs Created Equal? A Large-Scale
Study中,使用昂贵之超参数搜索调整GAN,可以打败更为复杂的方。

舆论地址:https://arxiv.org/abs/1711.10337

  • Samsung收购Fluently来建设Bixby

一样,在舆论On the State of the Art of Evaluation in Neural Language
Models中,研究人员表明,简单的LSTM架构在不利调整后,表现即能比较最近底大多数型都吓。

重重创业企业吗拿到了大量风投:

舆论地址:https://arxiv.org/abs/1707.05589

  • Mythic筹集了880万美元,意图用AI集成到芯片上

在NIPS
2017大会上,阿里·拉希米称现之深浅上就像“炼金术”,呼吁更为严谨的学术管理。不过Yann
LeCun随即进行了实名反击。

竞争,炒作跟失败

  • Element
    AI,为合作社树立人工智能解决方案的阳台,筹集了1.02亿美元

加拿大跟九州,正在快马加鞭AI方面的配备。硬件方面,AI芯片竞争提速,英伟达宣布了新星的Titan
V旗舰GPU、Google发布了第二代表TPU、英特尔之Nervana也揭示了新的芯片。就连特斯拉也以开发AI硬件。另外,来自华之竞争者也不肯小觑。

宣传好主要,但略宣传以及实验室实际来的政工不符。IBM沃森就是过度营销之传奇,并不曾拉动相符的结果。大家还不喜沃森,所以他们当治病点反复失败也非意外。

  • Drive.ai筹集了5000万美元,并以Andrew
    Ng加入董事会

Facebook的人造智能发明了温馨之言语那事,其实也与真相不符。这不略是传媒的误导,研究人口所用的题目和摘要也越了线,没能够体现实验的其实结果。

  • Graphcore筹集了3000万美元

  • Appier发布了3300万美元的C系列

  • Prowler.io筹集了1300万美元

  • Sophia
    Genetics筹集了3000万美元援助医生利用AI和基因组数据进行诊断

最后,祝大家新年快乐!感谢大家对AI大风波系列之关怀与支持!

图片 6

志愿者介绍

回复“志愿者”加入我们**


图片 7

往期精彩文章

点击图片看

妙解谷歌压箱底面试题:如何科学的由楼上抛鸡蛋

图片 8图片 9

图片 10