您的位置: 专家智库 > >

徐君

作品数:4 被引量:149H指数:4
供职机构:中国科学院计算技术研究所更多>>
发文基金:国家自然科学基金国家重点基础研究发展计划国家杰出青年科学基金更多>>
相关领域:自动化与计算机技术更多>>

文献类型

  • 4篇中文期刊文章

领域

  • 4篇自动化与计算...

主题

  • 2篇卷积
  • 2篇大数据
  • 1篇短时记忆
  • 1篇信息技术
  • 1篇循环神经网络
  • 1篇语言处理
  • 1篇社会媒体
  • 1篇神经网
  • 1篇神经网络
  • 1篇生态
  • 1篇生态体系
  • 1篇随机场
  • 1篇条件随机场
  • 1篇自然语言
  • 1篇自然语言处理
  • 1篇网络
  • 1篇文本分类
  • 1篇文本匹配
  • 1篇媒体
  • 1篇局部化

机构

  • 4篇中国科学院
  • 2篇中国科学院大...
  • 1篇东北大学

作者

  • 4篇程学旗
  • 4篇徐君
  • 2篇兰艳艳
  • 2篇郭嘉丰
  • 2篇庞亮
  • 1篇贾岩涛
  • 1篇杨婧
  • 1篇王元卓
  • 1篇乔建忠
  • 1篇靳小龙
  • 1篇朱继召

传媒

  • 1篇计算机研究与...
  • 1篇科技导报
  • 1篇计算机学报
  • 1篇中文信息学报

年份

  • 2篇2017
  • 2篇2016
4 条 记 录,以下是 1-4
排序方式:
大数据技术进展与发展趋势被引量:56
2016年
随着IT技术的高速发展,世界范围内各行各业都在进行信息化变革,几乎每个行业都在努力发现和利用大数据的价值。为了充分利用大数据带来的机遇,同时有效应对大数据带来的挑战,国内外产业界、科学界和政府部门都在积极布局、制定战略规划。本文介绍大数据背景与动态,描述各国大数据政策实践及中国大数据发展的政策环境和产业界生态发展状况;阐述大数据技术的进展,梳理其生态体系和创新特点;提出大数据可视化、多学科融合、安全与隐私、深度分析等发展趋势和相关建议。
程学旗靳小龙杨婧徐君
关键词:信息技术
深度文本匹配综述被引量:65
2017年
自然语言理解的许多任务,例如信息检索、自动问答、机器翻译、对话系统、复述问题等等,都可以抽象成文本匹配问题.过去研究文本匹配主要集中在人工定义特征之上的关系学习,模型的效果很依赖特征的设计.最近深度学习自动从原始数据学习特征的思想也影响着文本匹配领域,大量基于深度学习的文本匹配方法被提出,作者称这类模型为深度文本匹配模型.相比于传统方法,深度文本匹配模型能够从大量的样本中自动提取出词语之间的关系,并能结合短语匹配中的结构信息和文本匹配的层次化特性,更精细地描述文本匹配问题.根据特征提取的不同结构,深度文本匹配模型可以分为3类:基于单语义文档表达的深度学习模型、基于多语义文档表达的深度学习模型和直接建模匹配模式的深度学习模型.从文本交互的角度,这3类模型具有递进的关系,并且对于不同的应用,具有各自性能上的优缺点.该文在复述问题、自动问答和信息检索3个任务上的经典数据集上对深度文本匹配模型进行了实验,比较并详细分析了各类模型的优缺点.最后该文对深度文本模型未来发展的若干问题进行了讨论和分析.
庞亮兰艳艳徐君郭嘉丰万圣贤程学旗
关键词:文本匹配自然语言处理卷积神经网络循环神经网络社会媒体
SparkCRF:一种基于Spark的并行CRFs算法实现被引量:11
2016年
条件随机场(condition random fields,CRFs)可用于解决各种文本分析问题,如自然语言处理(natural language processing,NLP)中的序列标记、中文分词、命名实体识别、实体间关系抽取等.传统的运行在单节点上的条件随机场在处理大规模文本时,面临一系列挑战.一方面,个人计算机遇到处理的瓶颈从而难以胜任;另一方面,服务器执行效率较低.而通过升级服务器的硬件配置来提高其计算能力的方法,在处理大规模的文本分析任务时,终究不能从根本上解决问题.为此,采用"分而治之"的思想,基于Apache Spark的大数据处理框架设计并实现了运行在集群环境下的分布式CRFs——SparkCRF.实验表明,SparkCRF在文本分析任务中,具有高效的计算能力和较好的扩展性,并且具有与传统的单节点CRF++相同水平的准确率.
朱继召贾岩涛徐君乔建忠王元卓程学旗
关键词:大数据分布式计算SPARK条件随机场
用于文本分类的局部化双向长短时记忆被引量:17
2017年
近年来,深度学习越来越广泛地应用于自然语言处理领域,人们提出了诸如循环神经网络(RNN)等模型来构建文本表达并解决文本分类等任务。长短时记忆(long short term memory,LSTM)是一种具有特别神经元结构的RNN。LSTM的输入是句子的单词序列,模型对单词序列进行扫描并最终得到整个句子的表达。然而,常用的做法是只把LSTM在扫描完整个句子时得到的表达输入到分类器中,而忽略了扫描过程中生成的中间表达。这种做法不能高效地提取一些局部的文本特征,而这些特征往往对决定文档的类别非常重要。为了解决这个问题,该文提出局部化双向LSTM模型,包括MaxBiLSTM和ConvBiLSTM。MaxBiLSTM直接对双向LSTM的中间表达进行max pooling。ConvBiLSTM对双向LSTM的中间表达先卷积再进行max pooling。在两个公开的文本分类数据集上进行了实验。结果表明,局部化双向LSTM尤其是ConvBiLSTM相对于LSTM有明显的效果提升,并取得了目前的最优结果。
万圣贤兰艳艳郭嘉丰徐君庞亮程学旗
关键词:文本分类卷积
共1页<1>
聚类工具0