Feng Zhang, Jidong Zhai, Marc Snir, Hai Jin, Hironori Kasahara, Mateo Valero International Journal of Parallel Programming
【抄録】The aim of this special issue is to provide an introduction to the state-of-the-art technology and challenges of the High Performance Computing and Big Data areas. This special issue consists of 12 papers that are briefly discussed as follows.
This special issue has three papers that relate to deep neural networks, “Float-Fix: An Efficient and Hardware-Friendly Data Type for Deep Neural Network”, “BSHIFT: A Low Cost Deep Neural Networks Accelerator”, and “Training Deep Nets with Progressive Batch Normalization on multi-GPUs”.
There are three algorithm papers for accelerating kernels or applications on emerging architectures, “ASW: Accelerating Smith-Waterman Algorithm on Coupled CPU–GPU Architecture”, “Register-Aware Optimizations for Parallel Sparse Matrix–Matrix Multiplication”, “Optimizing Sparse Matrix–Vector Multiplications on An ARMv8-based Many-Core Architecture”.
【抄録日本語訳】本特集の目的は、ハイパフォーマンス・コンピューティングとビッグデータ分野の最先端技術と課題を紹介することである。本特集号は12編の論文から構成されており、その概要は以下のとおりである。
本特集では、ディープニューラルネットワークに関する論文として、「Float-Fix: An Efficient and Hardware-Friendly Data Type for Deep Neural Network」、「BSHIFT: A Low Cost Deep Neural Networks Accelerator」、「Train Deep Nets with Progressive Batch Normalization on multi-GPUs」の3論文を取り上げています。
新興アーキテクチャ上でカーネルやアプリケーションを高速化するアルゴリズム論文として、「ASW: Accelerating Smith-Waterman Algorithm on Coupled CPU-GPU Architecture」、「Register-Aware Optimizations for Parallel Sparse Matrix-Matrix Multiplication」、「Optimizing Sparse Matrix-Vector Multiplications on An ARMv8-based Many-Core Architecture」が発表されています。