您的位置: 专家智库 > >

国家自然科学基金(61170083)

作品数:4 被引量:4H指数:1
相关作者:陈顼颢张洋邢座程更多>>
相关机构:国防科学技术大学更多>>
发文基金:国家自然科学基金国家教育部博士点基金中国博士后科学基金更多>>
相关领域:自动化与计算机技术理学电子电信更多>>

文献类型

  • 12篇会议论文
  • 4篇期刊文章

领域

  • 13篇自动化与计算...
  • 9篇电子电信
  • 1篇冶金工程
  • 1篇语言文字
  • 1篇理学

主题

  • 7篇处理器
  • 3篇架构
  • 2篇指令集
  • 2篇体系结构
  • 2篇图形处理器
  • 2篇微处理器
  • 2篇流水线
  • 2篇卷积
  • 2篇架构设计
  • 2篇GPU
  • 1篇多核
  • 1篇多核处理
  • 1篇多核处理器
  • 1篇页表
  • 1篇移植性
  • 1篇译码
  • 1篇译码器
  • 1篇异构
  • 1篇应用程序
  • 1篇指令集模拟器

机构

  • 13篇国防科学技术...

作者

  • 11篇邢座程
  • 3篇张洋
  • 1篇徐长明
  • 1篇赵天磊
  • 1篇欧国东
  • 1篇原略超
  • 1篇赵振宇
  • 1篇张科勋
  • 1篇邓林
  • 1篇王庆林
  • 1篇唐遇星
  • 1篇陈顼颢
  • 1篇唐川
  • 1篇李少青
  • 1篇罗莉
  • 1篇李振涛
  • 1篇孙秀秀
  • 1篇欧阳海燕
  • 1篇王金钟
  • 1篇张艳

传媒

  • 6篇第十七届计算...
  • 1篇计算机工程与...
  • 1篇Nuclea...
  • 1篇Journa...
  • 1篇Fronti...

年份

  • 2篇2018
  • 1篇2015
  • 7篇2013
  • 6篇2012
4 条 记 录,以下是 1-10
排序方式:
基于LBIST与JTAG结合的流水线测试结构设计
随着集成电路设计技术的持续迅速发展,芯片的工作频率已提高到GHz级,微处理器的性能也已达到更高的层次。运算部件是高性能微处理器的核心部件之一,如何保障运算部件的功能和性能达到预期要求,已经成为一个相当重要的课题。然而,传...
欧阳海燕徐长明李少青邢座程盛叶鹏
关键词:JTAG
文献传递
Scalability of 3D deterministic particle transport on the Intel MIC architecture被引量:1
2015年
The key to large-scale parallel solutions of deterministic particle transport problem is single-node computation performance. Hence, single-node computation is often parallelized on multi-core or many-core computer architectures. However, the number of on-chip cores grows quickly with the scale-down of feature size in semiconductor technology. In this paper, we present a scalability investigation of one energy group time-independent deterministic discrete ordinates neutron transport in 3D Cartesian geometry(Sweep3D) on Intel's Many Integrated Core(MIC) architecture, which can provide up to 62 cores with four hardware threads per core now and will own up to 72 in the future. The parallel programming model, Open MP, and vector intrinsic functions are used to exploit thread parallelism and vector parallelism for the discrete ordinates method, respectively. The results on a 57-core MIC coprocessor show that the implementation of Sweep3 D on MIC has good scalability in performance. In addition, the application of the Roofline model to assess the implementation and performance comparison between MIC and Tesla K20 C Graphics Processing Unit(GPU) are also reported.
王庆林刘杰龚春叶邢座程
关键词:计算机体系结构粒子输运离散坐标法
MB64Sim:一款面向MB64体系结构的指令集模拟器
本文以同构通用流多核体系结构处理器的单个RISC核心MB64为目标体系结构,设计实现了面向MB64的指令集模拟器MB64Sim。MB64Sim针对MB64体系结构实现了分支延迟槽和ELF文件格式等特性。实验结果显示,该模...
唐川赵天磊唐遇星邢座程
关键词:模拟器SIMPLESCALAR
文献传递
CWLP:coordinated warp scheduling and locality-protected cache allocation on GPUs被引量:1
2018年
As we approach the exascale era in supercomputing, designing a balanced computer system with a powerful computing ability and low power requirements has becoming increasingly important. The graphics processing unit(GPU) is an accelerator used widely in most of recent supercomputers. It adopts a large number of threads to hide a long latency with a high energy efficiency. In contrast to their powerful computing ability, GPUs have only a few megabytes of fast on-chip memory storage per streaming multiprocessor(SM). The GPU cache is inefficient due to a mismatch between the throughput-oriented execution model and cache hierarchy design. At the same time, current GPUs fail to handle burst-mode long-access latency due to GPU's poor warp scheduling method.Thus, benefits of GPU's high computing ability are reduced dramatically by the poor cache management and warp scheduling methods, which limit the system performance and energy efficiency. In this paper, we put forward a coordinated warp scheduling and locality-protected(CWLP) cache allocation scheme to make full use of data locality and hide latency. We first present a locality-protected cache allocation method based on the instruction program counter(LPC) to promote cache performance. Specifically, we use a PC-based locality detector to collect the reuse information of each cache line and employ a prioritised cache allocation unit(PCAU) which coordinates the data reuse information with the time-stamp information to evict the lines with the least reuse possibility. Moreover, the locality information is used by the warp scheduler to create an intelligent warp reordering scheme to capture locality and hide latency. Simulation results show that CWLP provides a speedup up to 19.8% and an average improvement of 8.8% over the baseline methods.
Yang ZHANGZuo-cheng XINGCang LIUChuan TANG
关键词:LOCALITY
基于GPU的Turbo译码实现技术的研究
的Turbo译码器是通过采用FPGA、ASIC等逻辑器件来进行实现,代价高昂,开发需要的周期较长。利用GPU进行Turbo译码的实现不仅能使译码过程具有可编程性和重复性,利用轻量级的多核可以实现大幅度的并行,而且有利于降...
张洋原略超马虓
关键词:并行级联卷积码译码器图形处理器并行处理能力
并行前缀加法器设计比较
提出一种64位加法器的结构.二进制数加法是微处理器最基本的和常用到的操作.加法器的设计实现直接影响着微处理器的性能.并行前缀加法器是加快二进制数加法的通用技术,这种方法执行组间位是否产生和传播进位的逻辑功能.拟用的64位...
张艳邢座程
关键词:加法器二进制微处理器
基于FPGA的SPI-LPC总线桥的设计与实现
LPC(Low Pin Count)总线是一种重要的总线接口,在慢速设备中应用广泛,但许多处理器并不包含LPC总线接口,需要总线桥与LPC设备连接。本文分析了SPI和LPC两种协议的时序关系,提出数据预读技术解决总线桥无...
葛传智邓林邢座程杨庆娜
关键词:SPILPC总线桥FPGAFLASH
文献传递
一种基于GPU的高性能稀疏卷积神经网络优化被引量:2
2018年
卷积神经网络CNN目前作为神经网络的一个重要分支,相比于其他神经网络方法更适合应用于图像特征的学习和表达。随着CNN的不断发展,CNN将面临更多的挑战。CNN参数规模变得越来越大,这使得CNN对计算的需求量变得非常大。因此,目前产生了许多种方式对CNN的规模进行压缩。然而压缩后的CNN模型往往产生了许多稀疏的数据结构,这种稀疏结构会影响CNN在GPU上的性能。为了解决该问题,采用直接稀疏卷积算法,来加速GPU处理稀疏数据。根据其算法特点将卷积运算转换为稀疏向量与稠密向量内积运算,并将其在GPU平台上实现。本文的优化方案充分利用数据稀疏性和网络结构来分配线程进行任务调度,利用数据局部性来管理内存替换,使得在稀疏卷积神经网络SCNN中的GPU仍能够高效地处理卷积层运算。相比cuBLAS的实现,在AlexNet、GoogleNet、ResNet上的性能提升分别达到1.07×~1.23×、1.17×~3.51×、1.32×~5.00×的加速比。相比cuSPARSE的实现,在AlexNet、GoogleNet、ResNet上的性能提升分别达到1.31×~1.42×、1.09×~2.00×、1.07×~3.22×的加速比。
方程邢座程陈顼颢张洋
关键词:卷积神经网络图形处理器
GPGPU应用程序特征分析
多核处理器实现容易,原理简单,但是根据著名的Amdahl定律,当同类型的CPU内核个数增大到4~8个的时候,系统性能将受限于程序中必须串行的部分.片上异构多核处理器是一种新的发展趋势,对于CPU-GPU异构多核处理器来说...
马虓王庆林张洋邢座程
关键词:多核处理器共享资源应用程序
有用时钟偏差技术的优化与实现
有用时钟偏差技术可以有效提高系统性能,并广泛应用在高性能芯片中。目前EDA工具已集成了有用偏差优化技术,但EDA工具自动的有用时钟偏差存在一些不足:有用时钟偏差利用不充分;有用时钟偏差的借用容易引起保持时间时序的大量违例...
孙秀秀赵振宇邢座程夏婷婷韩雨
文献传递
共2页<12>
聚类工具0