腾讯王者荣耀绝悟AI

机器之心整理

本周 7 Papers 包含多篇 AAAI 2020、ICLR 2020 入选论文,如腾讯 AI Lab 游戏 AI 研究、提高 Transformer 性能的研究等。

目录:

  1. Mastering Complex Control in MOBA Games with Deep Reinforcement Learning
  2. PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive Summarization
  3. BackPACK: Packing more into backprop
  4. Deep Audio Prior
  5. REFORMER: THE EFFICIENT TRANSFORMER
  6. TextTubes for Detecting Curved Text in the Wild
  7. Joint Commonsense and Relation Reasoning for Image and Video Captioning

  • 论文链接:https://arxiv.org/abs/1912.09729
  • 王者荣耀 1v1 游戏 UI 界面。在主屏幕中,左上角的 A 为小地图、右上角 B 为控制面板、左下角 C.1 为移动控制、右下角的 C.2 为技能控制。实验表明,AI 智能体能在多种不同类型的英雄上能击败顶级职业玩家。

    表 4:AI 与不同顶级人类玩家的比赛结果。

    推荐:腾讯王者荣耀人工智能「绝悟」的论文入选 AAAI 2020。在研究测试中,AI 玩露娜和顶级选手单挑时也赢了个 3:0。

  • 论文链接:https://arxiv.org/pdf/1912.08777.pdf
  • 摘要:当在文本摘要等下游 NLP 任务上进行微调时,大规模文本语料库上具有自监督目的(self-supervised objective)的预训练 Transformer 取得了很大的成功。但是,尚未有研究涉及到专门针对抽象式文本摘要(abstractive text summarization)的预训练目的。此外,不同领域之间也缺少系统化评估。

    PEGASUS 的基础架构是一个标准的 Transformer 编码器-解码器。

    在 12 个下游任务数据集上,PEGASUS_LARGE 和 PEGASUS_BASE 与以往 SOTA 的结果对比。

    在 XSum、CNN/DailyMail 和 Gigaword 数据集上,PEGASUS_LARGE 与其他模型的结果对比。 推荐:研究者展示了预训练语料库、gap-sentence ratio 和词汇量对文本生成的影响,并证明提出的 PEGASUS 模型可以非常快速地适应未知的文本摘要数据集。

  • 论文链接:https://arxiv.org/abs/1912.10985
  • 在真实 络上同时计算梯度和一阶或二阶扩展与单独计算梯度的开销基准对比。

    第一版 BackPACK 框架支持的功能。

  • 论文链接:https://arxiv.org/abs/1912.10292
  • 以合成声音混合光谱图表示的 DAP 框架。由于随机噪声作为输入,研究者利用了两个声音预测 络 S_1 和 S_2 以及两个 mask 模块化 络 M_1 和 M_2,以实现声源分离。

    不同盲源分离方法在 Universal-150 基准上的音频效果对比。从定性上来看,DAP 的效果显著优于 NMF、RPCA、KAM 等方法。

  • 论文链接:https://openreview.net/pdf?id=rkgNKkHtvB
  • 摘要:大型的 Transformer 往往可以在许多任务上实现 sota,但训练这些模型的成本很高,尤其是在序列较长的时候。在 ICLR 的入选论文中,我们发现了一篇由谷歌和伯克利研究者发表的优质论文。文章介绍了两种提高 Transformer 效率的技术,最终的 Reformer 模型和 Transformer 模型在性能上表现相似,并且在长序列中拥有更高的存储效率和更快的速度。论文最终获得了「8,8,6」的高分。在最开始,文章提出了将点乘注意力(dot-product attention)替换为一个使用局部敏感哈希(locality-sensitive hashing)的点乘注意力,将复杂度从 O(L2 ) 变为 O(L log L),此处 L 指序列的长度。此外,研究者使用可逆残差(reversible residual layers)代替标准残差(standard residuals),这使得存储在训练过程中仅激活一次,而不是 n 次(此处 n 指层数)。最终的 Reformer 模型和 Transformer 模型在性能上表现相同,同时在长序列中拥有更高的存储效率和更快的速度。

    简化的局部敏感哈希注意力,展示了 hash-bucketing、排序和分块步骤,并最终实现注意力机制。

    图左:在 enwik8 上 LSH 注意力随层数增加的性能变化曲线;图右:全注意力和 LSH 注意力的评估速度呈现出不同的曲线变化。

    推荐:Transformer 是近期 NLP 领域里的经典模型,但因为算力消耗过大,对于个人研究者来说一直不太友好。近日一篇入选 ICLR 2020 的研究提出了「Reformer」,把跑 Transformer 模型的硬件要求压缩到了只需一块 GPU,同时效果不变。

  • 论文链接:https://arxiv.org/pdf/1912.08990.pdf
  • 研究者利用提出的模型和曲线文本检测器 TextTubes 做出的推理。现实生活中的物体通常包含嵌入式和弯曲的文本,检测这些文本往往会采取输出四边形的错误方法。

    不同文本表示三种不同方法的文本检索结果对比。(a)为原始图像,(b)和(c)表示长方形和四边形的检索方法会产生重叠,并且在捕捉文本时往往将大量的背景噪声(background noise)作为文本信息,同时在一个特定的 box 中包含多个文本实例。(d)中绿色的为 ground truth 多边形,品红色的为多边形的中轴线,箭头表示 tube 的半径。

  • 论文链接:https://wuxinxiao.github.io/assets/papers/2020/C-R_reasoning.pdf
  • 基于常识推理的图像视频文字描述生成示例图。

    MSVD 数据集上各方法的对比结果。

    MSCOCO 数据集上各方法的对比结果。

    声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

    上一篇 2019年11月27日
    下一篇 2019年11月27日

    相关推荐