您的位置: 专家智库 > >

储德军

作品数:11 被引量:58H指数:4
供职机构:中国人民解放军陆军军官学院更多>>
发文基金:国家自然科学基金安徽省自然科学基金更多>>
相关领域:自动化与计算机技术兵器科学与技术更多>>

文献类型

  • 10篇期刊文章
  • 1篇科技成果

领域

  • 10篇自动化与计算...
  • 1篇兵器科学与技...

主题

  • 4篇支持向量
  • 4篇向量
  • 3篇支持向量机
  • 3篇向量机
  • 2篇正则
  • 2篇正则化
  • 2篇收敛速率
  • 2篇稀疏性
  • 2篇L1正则化
  • 1篇动态遗传算法
  • 1篇对偶
  • 1篇信息处理
  • 1篇信息处理技术
  • 1篇遗传算法
  • 1篇支持向量数据...
  • 1篇神经网
  • 1篇神经网络
  • 1篇数据描述
  • 1篇凸优化
  • 1篇炮弹

机构

  • 8篇中国人民解放...
  • 3篇中国人民解放...
  • 2篇中国科学院自...

作者

  • 11篇储德军
  • 9篇陶卿
  • 3篇姜纪远
  • 3篇高乾坤
  • 2篇刘欣
  • 1篇丁俊松
  • 1篇罗强
  • 1篇陈萍
  • 1篇朱烨雷
  • 1篇章显
  • 1篇汪群山
  • 1篇朱小辉
  • 1篇王晓芳
  • 1篇薛美盛
  • 1篇石尉
  • 1篇周柏
  • 1篇陶安
  • 1篇孔康

传媒

  • 3篇模式识别与人...
  • 3篇软件学报
  • 1篇计算机研究与...
  • 1篇兵工学报
  • 1篇弹箭与制导学...
  • 1篇实验科学与技...

年份

  • 2篇2015
  • 2篇2014
  • 1篇2013
  • 3篇2012
  • 1篇2010
  • 1篇2008
  • 1篇2005
11 条 记 录,以下是 1-10
排序方式:
基于Boosting学习算法的雷达弹道识别被引量:4
2010年
弹道外推技术在炮位雷达的侦察和校射中起关键作用,弹道外推的精度直接决定着炮位侦察校射雷达的性能。在文献[1]中,作者提出了将弹道外推分为弹道识别和特定弹道外推两个阶段,并用支持向量机方法对弹道识别进行了系统研究。文中引进Boosting学习算法进行弹道识别。仿真结果表明,基于决策树的Boosting学习算法是一种有效的弹道识别方法,并且识别精度高于基于核技巧的支持向量机方法。
刘欣丁俊松储德军陶卿
关键词:支持向量机BOOSTING
大规模SVDD的坐标下降算法被引量:1
2012年
支持向量数据描述(SVDD)是一种无监督学习算法,在图像识别和信息安全等领域有重要应用.坐标下降方法是求解大规模分类问题的有效方法,具有简洁的操作流程和快速的收敛速率.文中针对大规模SVDD提出一种高效的对偶坐标下降算法,算法每步迭代的子问题都可获得解析解,并可使用加速策略和简便运算减少计算量.同时给出3种子问题的选择方法,并分析对比各自优劣.实验对仿真和真实大规模数据库进行算法验证.与LibSVDD相比,文中方法更具优势,1.4s求解105样本规模的ijcnn文本库.
陶卿罗强朱烨雷储德军
关键词:收敛速率解析解
求解线性SVM的非精确步长搜索割平面方法被引量:1
2014年
割平面方法可高效求解线性支持向量机问题,其主要思路是通过不断添加割平面并利用精确线性搜索实现算法的加速和优化.针对其中的非光滑线性搜索问题,文中提出一种基于非精确步长搜索的加速割平面方法.该方法使用较少的迭代次数就能确定最优步长所在的子区间.在此基础上,用二点二次插值的闭式解逼近最优步长,从而较精确线性搜索方法速度更快、开销更小,且保持同样的收敛边界.大量实验表明,文中方法效率优于基于精确线性搜索的优化割平面方法,在一些数据库上的收敛速度甚至提升50%.
储德军陶安高乾坤姜纪远陶卿
关键词:凸优化线性支持向量机线性搜索
基于随机步长具有最优瞬时收敛速率的稀疏随机优化算法
2015年
几乎所有的稀疏随机算法都来源于在线形式,只能获得平均输出方式的收敛速率,对于强凸优化问题无法达到最优的瞬时收敛速率.文中避开在线形式转到随机模式,直接研究随机优化算法.首先在含有L1正则化项的稀疏优化问题中加入L2正则化项,使之具有强凸特性.然后将黑箱优化方法中的随机步长策略引入到当前通用的结构优化算法COMID中,得到基于随机步长的混合正则化镜面下降稀疏随机优化算法.最后通过分析L1正则化问题中软阈值方法的求解特点,证明算法具有最优的瞬时收敛速率.实验表明,文中算法的稀疏性优于COMID.
周柏陶卿储德军
关键词:稀疏性
基于次梯度的L1正则化Hinge损失问题求解研究被引量:4
2012年
Hinge损失函数是支持向量机(support vector machines,SVM)成功的关键,L1正则化在稀疏学习的研究中起关键作用.鉴于两者均是不可导函数,高阶梯度信息无法使用.利用随机次梯度方法系统研究L1正则化项的Hinge损失大规模数据问题求解.首先描述了直接次梯度方法和投影次梯度方法的随机算法形式,并对算法的收敛性和收敛速度进行了理论分析.大规模真实数据集上的实验表明,投影次梯度方法对于处理大规模稀疏数据具有更快的收敛速度和更好的稀疏性.实验进一步阐明了投影阈值对算法稀疏度的影响.
孔康陶卿汪群山储德军
关键词:L1正则化稀疏性大规模数据
计算机实验室系统维护方法比较被引量:12
2005年
目前计算机实验室中系统维护的三种常用方法是使用ghost软件进行单机维护、使用还原卡对系统进行网络维护以及使用无盘网络技术对系统进行维护。通过对三种方法的介绍和比较,无盘网络系统最适合计算机实验室的系统维护。
储德军石尉
关键词:GHOST还原卡无盘工作站PXE
统计机器学习和神经网络若干问题研究
陶卿刘欣薛美盛储德军章显
该项目系统地研究了连续神经网络在优化和联想记忆中的应用,通过约束区域的设计和能量函数的构造,提出了一种结构简单的基于约束区域的连续神经网络模型分别求解优化、极小极大和联想记忆问题,并对非凸优化问题,提出了一种与神经网络相...
关键词:
关键词:动态遗传算法
求解AUC优化问题的对偶坐标下降方法被引量:1
2014年
AUC被广泛作为衡量不平衡数据分类性能的评价标准.与二分类问题不同,AUC问题的损失函数由来自两个不同类别的样本对组成.如何提高其实际收敛速度,是一个值得研究的问题.目前的研究结果表明:使用reservoir sampling技术的在线方法(OAM)表现出很好的AUC性能,但OAM仍存在诸如收敛速度慢、参数选择复杂等缺点.针对AUC优化问题的对偶坐标下降(AUC-DCD)方法进行了系统的研究,给出3种算法,即AUC-SDCD,AUCSDCDperm和AUC-MSGD,其中,AUC-SDCD和AUC-SDCDperm与样本数目有关,AUC-MSGD与样本数目无关.理论分析指出,OAM是AUC-DCD的一种特殊情形.实验结果表明,AUC-DCD在AUC性能和收敛速度两方面均优于OAM.研究结果表明,AUC-DCD是求解AUC优化问题的首选方法.
姜纪远陶卿高乾坤储德军
关键词:AUC支持向量机
稀疏学习优化问题的求解综述被引量:22
2013年
机器学习正面临着数据规模日益扩大的严峻挑战,如何处理大规模甚至超大规模数据问题,是当前统计学习亟需解决的关键性科学问题.大规模机器学习问题的训练样本集合往往具有冗余和稀疏的特点,机器学习优化问题中的正则化项和损失函数也蕴含着特殊的结构含义,直接使用整个目标函数梯度的批处理黑箱方法不仅难以处理大规模问题,而且无法满足机器学习对结构的要求.目前,依靠机器学习自身特点驱动而迅速发展起来的坐标优化、在线和随机优化方法成为解决大规模问题的有效手段.针对L1正则化问题,介绍了这些大规模算法的一些研究进展.
陶卿高乾坤姜纪远储德军
关键词:L1正则化
一种减小方差求解非光滑问题的随机优化算法被引量:5
2015年
随机优化算法是求解大规模机器学习问题的高效方法之一.随机学习算法使用随机抽取的单个样本梯度代替全梯度,有效节省了计算量,但却会导致较大的方差.近期的研究结果表明:在光滑损失优化问题中使用减小方差策略,能够有效提高随机梯度算法的收敛速率.考虑求解非光滑损失问题随机优化算法COMID(composite objective mirror descent)的方差减小问题.首先证明了COMID具有方差形式的(O1T1/2+σ2/T1/2)收敛速率,其中,T是迭代步数,σ2是方差.该收敛速率保证了减小方差的有效性,进而在COMID中引入减小方差的策略,得到一种随机优化算法α-MDVR(mirror descent with variance reduction).不同于Prox-SVRG(proximal stochastic variance reduced gradient),α-MDVR收敛速率不依赖于样本数目,每次迭代只使用部分样本来修正梯度.对比实验验证了α-MDVR既减小了方差,又节省了计算时间.
朱小辉陶卿邵言剑储德军
关键词:非光滑COMPOSITEMIRROR
共2页<12>
聚类工具0