Wei CaiVerified
Verified Account
Verified
Assistant Professor at University of Washington
Electrical and Computer Engineering PhD '16, University of British Columbia
+ 2 more
Member for 1 year, 1 month and 15 days
Dr. Wei Cai is a tenure-track Assistant Professor of Computer Science and Systems at the School of Engineering and Technology, University of Washington, Tacoma, WA, USA. He is now leading the Decentralized Computing Laboratory. He holds a Ph.D. in Electrical and Computer Engineering from The Univers...
Show more
Achievements
Cited Author
Key Stats
Upvotes received:
1
Publications:
129
(22% Open Access)
Cited by:
2,849
h-index:
27
/
i10-index:
52
Reputation
Human-Computer Interaction
76%
Information Systems
76%
Hardware And Architecture
76%
Show more
How is this calculated?
Publications
0

A Survey on Security Threats and Defensive Techniques of Machine Learning: A Data Driven View

Qiang Liu et al.Jan 1, 2018
Machine learning is one of the most prevailing techniques in computer science, and it has been widely applied in image processing, natural language processing, pattern recognition, cybersecurity, and other fields.Regardless of successful applications of machine learning algorithms in many scenarios, e.g., facial recognition, malware detection, automatic driving, and intrusion detection, these algorithms and corresponding training data are vulnerable to a variety of security threats, inducing a significant performance decrease.Hence, it is vital to call for further attention regarding security threats and corresponding defensive techniques of machine learning, which motivates a comprehensive survey in this paper.Until now, researchers from academia and industry have found out many security threats against a variety of learning algorithms, including naive Bayes, logistic regression, decision tree, support vector machine (SVM), principle component analysis, clustering, and prevailing deep neural networks.Thus, we revisit existing security threats and give a systematic survey on them from two aspects, the training phase and the testing/inferring phase.After that, we categorize current defensive techniques of machine learning into four groups: security assessment mechanisms, countermeasures in the training phase, those in the testing or inferring phase, data security, and privacy.Finally, we provide five notable trends in the research on security threats and defensive techniques of machine learning, which are worth doing in-depth studies in future.
0

T-PBFT: An EigenTrust-based practical Byzantine fault tolerance consensus algorithm

Sheng Gao et al.Dec 1, 2019
Blockchain with these characteristics of decentralized structure, transparent and credible, time-series and immutability, has been considering as a promising technology. Consensus algorithm as one of the core techniques of blockchain directly affects the scalability of blockchain systems. Existing probabilistic finality blockchain consensus algorithms such as PoW, PoS, suffer from power consumptions and low efficiency; while absolute finality blockchain consensus algorithms such as PBFT, HoneyBadgerBFT, could not meet the scalability requirement in a large-scale network. In this paper, we propose a novel optimized practical Byzantine fault tolerance consensus algorithm based on EigenTrust model, namely T-PBFT, which is a multi-stage consensus algorithm. It evaluates node trust by the transactions between nodes so that the high quality of nodes in the network will be selected to construct a consensus group. To reduce the probability of view change, we propose to replace a single primary node with a primary group. By group signature and mutual supervision, we can enhance the robustness of the primary group further. Finally, we analyze T-PBFT and compare it with the other Byzantine fault tolerant consensus algorithms. Theoretical analysis shows that our T-PBFT can optimize the Byzantine fault-tolerant rate, reduce the probability of view change and communication complexity.
Load More