HL
Hai Li
Author with expertise in Memristive Devices for Neuromorphic Computing
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
22
(32% Open Access)
Cited by:
2,226
h-index:
59
/
i10-index:
267
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

PipeLayer: A Pipelined ReRAM-Based Accelerator for Deep Learning

Linghao Song et al.Feb 1, 2017
Convolution neural networks (CNNs) are the heart of deep learning applications. Recent works PRIME [1] and ISAAC [2] demonstrated the promise of using resistive random access memory (ReRAM) to perform neural computations in memory. We found that training cannot be efficiently supported with the current schemes. First, they do not consider weight update and complex data dependency in training procedure. Second, ISAAC attempts to increase system throughput with a very deep pipeline. It is only beneficial when a large number of consecutive images can be fed into the architecture. In training, the notion of batch (e.g. 64) limits the number of images can be processed consecutively, because the images in the next batch need to be processed based on the updated weights. Third, the deep pipeline in ISAAC is vulnerable to pipeline bubbles and execution stall. In this paper, we present PipeLayer, a ReRAM-based PIM accelerator for CNNs that support both training and testing. We analyze data dependency and weight update in training algorithms and propose efficient pipeline to exploit inter-layer parallelism. To exploit intra-layer parallelism, we propose highly parallel design based on the notion of parallelism granularity and weight replication. With these design choices, PipeLayer enables the highly pipelined execution of both training and testing, without introducing the potential stalls in previous work. The experiment results show that, PipeLayer achieves the speedups of 42.45x compared with GPU platform on average. The average energy saving of PipeLayer compared with GPU implementation is 7.17x.
0

GraphR: Accelerating Graph Processing Using ReRAM

Linghao Song et al.Feb 1, 2018
Graph processing recently received intensive interests in light of a wide range of needs to understand relationships. It is well-known for the poor locality and high memory bandwidth requirement. In conventional architectures, they incur a significant amount of data movements and energy consumption which motivates several hardware graph processing accelerators. The current graph processing accelerators rely on memory access optimizations or placing computation logics close to memory. Distinct from all existing approaches, we leverage an emerging memory technology to accelerate graph processing with analog computation. This paper presents GRAPHR, the first ReRAM-based graph processing accelerator. GRAPHR follows the principle of near-data processing and explores the opportunity of performing massive parallel analog operations with low hardware and energy cost. The analog computation is suitable for graph processing because: 1) The algorithms are iterative and could inherently tolerate the imprecision; 2) Both probability calculation (e.g., PageRank and Collaborative Filtering) and typical graph algorithms involving integers (e.g., BFS/SSSP) are resilient to errors. The key insight of GRAPHR is that if a vertex program of a graph algorithm can be expressed in sparse matrix vector multiplication (SpMV), it can be efficiently performed by ReRAM crossbar. We show that this assumption is generally true for a large set of graph algorithms. GRAPHR is a novel accelerator architecture consisting of two components: memory ReRAM and graph engine (GE). The core graph computations are performed in sparse matrix format in GEs (ReRAM crossbars). The vector/matrix-based graph computation is not new, but ReRAM offers the unique opportunity to realize the massive parallelism with unprecedented energy efficiency and low hardware cost. With small subgraphs processed by GEs, the gain of performing parallel operations overshadows the wastes due to sparsity. The experiment results show that GRAPHR achieves a 16.01× (up to 132.67×) speedup and a 33.82× energy saving on geometric mean compared to a CPU baseline system. Compared to GPU, GRAPHR achieves 1.69× to 2.19× speedup and consumes 4.77× to 8.91× less energy. GRAPHR gains a speedup of 1.16× to 4.12×, and is 3.67× to 10.96× more energy efficiency compared to PIM-based architecture.
1

Elucidating Compound Mechanism of Action and Polypharmacology with a Large-scale Perturbational Profile Compendium

Lucas Hu et al.Oct 10, 2023
Abstract The Mechanism of Action (MoA) of a drug is generally represented as a small, non-tissue-specific repertoire of high-affinity binding targets. Yet, drug activity and polypharmacology are increasingly associated with a broad range of off-target and tissue-specific effector proteins. To address this challenge, we have implemented an efficient integrative experimental and computational framework leveraging the systematic generation and analysis of drug perturbational profiles representing >700 FDA-approved and experimental oncology drugs, in cell lines selected as high-fidelity models of 23 aggressive tumor subtypes. Protein activity-based analyses revealed highly reproducible, drug-mediated modulation of tissue-specific targets, leading to generation of a proteome-wide polypharmacology map, characterization of MoA-related drug clusters and off-target effects, and identification and experimental validation of novel, tissue-specific inhibitors of undruggable oncoproteins. The proposed framework, which is easily extended to elucidating the MoA of novel small-molecule libraries, could help support more systematic and quantitative approaches to precision oncology.
Load More