PL
Peng Li
Author with expertise in Privacy-Preserving Techniques for Data Analysis and Machine Learning
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
11
(18% Open Access)
Cited by:
1,356
h-index:
36
/
i10-index:
110
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

A Learning-Based Incentive Mechanism for Federated Learning

Yufeng Zhan et al.Jan 21, 2020
Internet of Things (IoT) generates large amounts of data at the network edge. Machine learning models are often built on these data, to enable the detection, classification, and prediction of the future events. Due to network bandwidth, storage, and especially privacy concerns, it is often impossible to send all the IoT data to the data center for centralized model training. To address these issues, federated learning has been proposed to let nodes use the local data to train models, which are then aggregated to synthesize a global model. Most of the existing work has focused on designing learning algorithms with provable convergence time, but other issues, such as incentive mechanism, are unexplored. Although incentive mechanisms have been extensively studied in network and computation resource allocation, yet they cannot be applied to federated learning directly due to the unique challenges of information unsharing and difficulties of contribution evaluation. In this article, we study the incentive mechanism for federated learning to motivate edge nodes to contribute model training. Specifically, a deep reinforcement learning-based (DRL) incentive mechanism has been designed to determine the optimal pricing strategy for the parameter server and the optimal training strategies for edge nodes. Finally, numerical experiments have been implemented to evaluate the efficiency of the proposed DRL-based incentive mechanism.
0
Citation401
0
Save
0

Computation Offloading Toward Edge Computing

Li Lin et al.Jul 9, 2019
We are living in a world where massive end devices perform computing everywhere and everyday. However, these devices are constrained by the battery and computational resources. With the increasing number of intelligent applications (e.g., augmented reality and face recognition) that require much more computational power, they shift to perform computation offloading to the cloud, known as mobile cloud computing (MCC). Unfortunately, the cloud is usually far away from end devices, leading to a high latency as well as the bad quality of experience (QoE) for latency-sensitive applications. In this context, the emergence of edge computing is no coincidence. Edge computing extends the cloud to the edge of the network, close to end users, bringing ultra-low latency and high bandwidth. Consequently, there is a trend of computation offloading toward edge computing. In this paper, we provide a comprehensive perspective on this trend. First, we give an insight into the architecture refactoring in edge computing. Based on that insight, this paper reviews the state-of-the-art research on computation offloading in terms of application partitioning, task allocation, resource management, and distributed execution, with highlighting features for edge computing. Then, we illustrate some disruptive application scenarios that we envision as critical drivers for the flourish of edge computing, such as real-time video analytics, smart “things” (e.g., smart city and smart home), vehicle applications, and cloud gaming. Finally, we discuss the opportunities and future research directions.
0

Deep Recurrent Models with Fast-Forward Connections for Neural Machine Translation

Jie Zhou et al.Dec 1, 2016
Neural machine translation (NMT) aims at solving machine translation (MT) problems using neural networks and has exhibited promising results in recent years. However, most of the existing NMT models are shallow and there is still a performance gap between a single NMT model and the best conventional MT system. In this work, we introduce a new type of linear connections, named fast-forward connections, based on deep Long Short-Term Memory (LSTM) networks, and an interleaved bi-directional architecture for stacking the LSTM layers. Fast-forward connections play an essential role in propagating the gradients and building a deep topology of depth 16. On the WMT’14 English-to-French task, we achieve BLEU=37.7 with a single attention model, which outperforms the corresponding single shallow model by 6.2 BLEU points. This is the first time that a single NMT model achieves state-of-the-art performance and outperforms the best conventional model by 0.7 BLEU points. We can still achieve BLEU=36.3 even without using an attention mechanism. After special handling of unknown words and model ensembling, we obtain the best score reported to date on this task with BLEU=40.4. Our models are also validated on the more difficult WMT’14 English-to-German task.
0

A Survey of Incentive Mechanism Design for Federated Learning

Yufeng Zhan et al.Jan 1, 2021
Federated learning is promising in enabling large-scale machine learning by massive clients without exposing their raw data. It can not only enable the clients to preserve the privacy information, but also achieve high learning performance. Existing works of federated learning mainly focus on improving learning performance in terms of model accuracy and learning task completion time. However, in practice, clients are reluctant to participate in the learning process without receiving compensation. Therefore, how to effectively motivate the clients to actively and reliably participate in federated learning is paramount. As compared to the current incentive mechanism design in other fields, such as crowdsourcing, cloud computing, smart grid, etc., the incentive mechanism for federated learning is more challenging. First, it is hard to evaluate the training data value of each client. Second, it is difficult to model the learning performance of different federated learning algorithms. In this paper, we survey the incentive mechanism design for federated learning. In particular, we present a taxonomy of existing incentive mechanisms for federated learning, which are subsequently discussed in depth by comparing and contrasting different approaches. Finally, some future directions of how to incentivize clients in federated learning have been discussed.
Load More