欢迎访问:沃派博客 每天不定时发布IT文章相关资讯
当前位置:沃派博客-沃派网 > IT文章 > 正文

「顶会见闻系列」之 EMNLP 2018 详细参会见闻(下篇)

11-09 IT文章

原标题:「顶会见闻系列」之 EMNLP 2018 详细参会见闻(下篇)

雷锋网 AI 科技评论按:本篇属于「顶会见闻系列」。Patrick Lewis 是 UCL 的自然语言处理博士生,早前参加了 EMNLP 2018,并在个人博客写下了他的参会见闻,雷锋网 AI 科技评论对此进行了有删节的编译。本文为顶会见闻的下篇,上篇可移步《「顶会见闻系列」之 EMNLP 2018 详细参会见闻(上篇)》进行阅读。

「顶会见闻系列」之 EMNLP 2018 详细参会见闻(下篇)

EMNLP Session 2

《Adaptive Document Retrieval for Deep Question Answering》

《用于深度问答的自适应文档检索》

作者: Bernhard Kratzwald,Stefan Feuerriegel

我觉得这项研究很有意思,因为它和我们在 Bloomsbury AI 内部做过的实验很像。他们的发现也和我们的很像,但不完全一样。通常来说问答系统都会包含一个信息检索(information retrieval)步骤,收集相关的文档,然后有一个阅读步骤从候选的文档中提取回答。这篇论文的作者们研究了能否为文档检索设定一个自适应的数目,这个数目的选择取决于语料库大小以及问题的类型。他们的研究动机来自于,他们的实验表明,随着语料库大小增大,首位答案的召回率会变得不稳定,而且需要用到比较多的文档;但是对于小的语料库,比较多的文档反倒会导致准确率下降,因为模型被许多可疑的答案干扰了。在 Bloomsbury AI 的时候我们就发现,在找包含回答的那个自然段的时候,我们的文本阅读器的表现总是比信息检索的表现要好,这个答案干扰对于我们不是什么问题。

EMNLP Session 3

《Generating Syntactic Paraphrases》

《句法释义的生成》

作者:Emilie Colin,Claire Gardent

两名作者研究了句法释义的产生。研究工作表明在句法约束条件下的句法生成将带有独特的句法释义,而这些句法能够从数据、文本或两者的组合中生成。该任务被视为基于输入与句法约束为条件的结构化预测。同样的输入可以映射到多个输出,且保证每个输出可以满足不同的句法约束。它们一共有 4 项任务:

输入 RDF 三元组并生成文本。

输入一个句子和一个约束,并生成文本。

输入文本与 RDF 三元组,并生成含有 RFD 三元组的文本。

输入文本与 RDF 三元组,并生成删去 RDF 三元组的文本。

结果显示,模型在所有的任务上表现良好,且语法约束极大地提升了 BLEU 得分。

EMNLP Session 4

我参加了主题为视觉问答(VQA)的第 4 个 session,可惜我不是很懂这个。会议将 RecipeQA 归纳到多模态 QA 里,这让我觉得很有意思,不过这个成果截止目前还没有得到充分的研究。

《RecipeQA: A Challenge Dataset for Multimodal Comprehension of Cooking Recipes.》

《RecipeQA:多模态理解食谱的挑战数据集》

作者:semh Yagcioglu,Aykut Erdem,Erkut Erdem,Nazli Ikizler-Cinbis

作者留意到了当今业界需要更多 QA 挑战数据集的趋势。他们借助食谱网站上的资料构建了多模式程序化 RecipeQA 数据集。里头的烹饪步骤分别附上了配图,因此可视作多模式问答数据集。数据集只有中等大小(36K 个问-答对),大部分问题的形式是有多种选择的完形填空。数据集中同时包含了视觉 QA 和文本 QA。跟 ProPara(一个类似的实体状态跟踪数据集)的对比让我们发现了一些很有趣的事情。那就是这个数据集包含更多的实例,然而每个文档上的标签却要少得多。

EMNLP Session 5

我们通过 poster 在这个环节向公众展示我们的 ShARC 工作成果。尽管开展的时间有点早(尤其是经过前一天特别有意思的行业招待活动后!),以及 Poster 的位置不太理想,然而我们还是得到了了前来参观的人们的积极反馈。我们希望能有更多人参与到我们的任务中来,很快我会在博客中更新一篇介绍 ShARC 数据集与解决任务的文章!

EMNLP Session 6

《emrQA: A Large Corpus for Question Answering on Electronic Medical Records》

《emrQA:电子病历问答的大型语料库》

作者: Anusri Pampari,Preethi Raghavan,Jennifer Liang , Jian Peng

作者利用来自 i2b2 数据集的专家临床记录注释。他们使用了半自动的数据集创建方法,从而得以根据电子化的医疗档案创建包含了 40 万个问题-证据对的大规模医疗 QA 数据集。他们追加发布了 100 万个提问-逻辑形式对。此外,还增加一些在 SQuad 等流行机器理解数据集中不存在的任务。这些任务更加注重计算与时间顺序推理,这对于医学问题的回答来说至关重要。他们是按以下的方式去构建数据集:

先收集相关领域的问题,然后将问题形成模板。

将模板与经过专家注释的逻辑形式进行关联。

使用现有的数据注释集来批量生成问题和逻辑形式模版,进而获取答案。

目前可供他们使用的问题模板只有 680 个,尚不足以用来大范围生成自然语言问题。

《HotpotQA: A Dataset for Diverse, Explainable Multi-hop Question Answering.》

《HotpotQA:用于多样化、具有可解释性的多跳问答的数据集》

作者: Yang Zhilin Yang,Peng Qi,Saizheng Zhang,Yoshua Bengio,William Cohen,Ruslan Salakhutdinov,Christopher D. Manning

版权保护: 本文由 沃派博客-沃派网 编辑,转载请保留链接: http://www.bdice.cn/html/756.html