YL
Yue Liu
Author with expertise in Ethical Implications of Artificial Intelligence
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
11
(45% Open Access)
Cited by:
223
h-index:
21
/
i10-index:
34
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Blockchain-Based Federated Learning for Device Failure Detection in Industrial IoT

Weishan Zhang et al.Oct 21, 2020
Device failure detection is one of most essential problems in Industrial Internet of Things (IIoT). However, in conventional IIoT device failure detection, client devices need to upload raw data to the central server for model training, which might lead to disclosure of sensitive business data. Therefore, in this article, to ensure client data privacy, we propose a blockchain-based federated learning approach for device failure detection in IIoT. First, we present a platform architecture of blockchain-based federated learning systems for failure detection in IIoT, which enables verifiable integrity of client data. In the architecture, each client periodically creates a Merkle tree in which each leaf node represents a client data record, and stores the tree root on a blockchain. Furthermore, to address the data heterogeneity issue in IIoT failure detection, we propose a novel centroid distance weighted federated averaging (CDW_FedAvg) algorithm taking into account the distance between positive class and negative class of each client data set. In addition, to motivate clients to participate in federated learning, a smart contact-based incentive mechanism is designed depending on the size and the centroid distance of client data used in local model training. A prototype of the proposed architecture is implemented with our industry partner, and evaluated in terms of feasibility, accuracy, and performance. The results show that the approach is feasible, and has satisfactory accuracy and performance.
0

Study on the risk assessment of Pedestrian-Vehicle conflicts in channelized Right-Turn lanes based on the Hierarchical-Grey Entropy-Cloud model

Ziyu Chen et al.Jun 14, 2024
Channelized right-turn lanes (CRTLs) in urban areas have been effective in improving the efficiency of right-turning vehicles but have also presented negative impacts on pedestrian movement. Pedestrians experience confusion regarding the allocation of road space when crossing crosswalks within these areas, leading to frequent conflicts between pedestrians and motor vehicles. In this paper, considering the characteristics of pedestrian-vehicle conflicts at channelized right-turn lanes as well as the ambiguity and uncertainty of the causes, a comprehensive assignment combined with a cloud model is proposed as a risk evaluation model for pedestrian-vehicle conflicts. The study established a risk indicator system based on three aspects of the transportation system: pedestrians, motor vehicles, and the road environment. Combining the analytic hierarchy process (AHP), grey relational analysis (GRA), and entropy weighting method (EWM) to get the weights of indicator combinations, and then using the cloud model to realize quantitative and qualitative language transformation to complete the risk evaluation. This study employs specific road segments in Qingdao as a validation case for model analysis. The results indicate that the model's evaluation outcomes exhibited a significant level of agreement with the findings from field investigations during both peak and off-peak periods. It is demonstrated that the model has good performance for the safety assessment of pedestrian-vehicle conflicts at CRTL, and it also reflects the ability of the model to assess fuzzy randomness problems. It provides participation value for urban pedestrian-vehicle safety problems as well as applications in other fields.
0

Towards a Responsible AI Metrics Catalogue: A Collection of Metrics for AI Accountability

Boming Xia et al.Apr 14, 2024
Artificial Intelligence (AI), particularly through the advent of large-scale generative AI (GenAI) models such as Large Language Models (LLMs), has become a transformative element in contemporary technology. While these models have unlocked new possibilities, they simultaneously present significant challenges, such as concerns over data privacy and the propensity to generate misleading or fabricated content. Current frameworks for Responsible AI (RAI) often fall short in providing the granular guidance necessary for tangible application, especially for Accountability---a principle that is pivotal for ensuring transparent and auditable decision-making, bolstering public trust, and meeting increasing regulatory expectations. This study bridges the Accountability gap by introducing our effort towards a comprehensive metrics catalogue, formulated through a systematic multivocal literature review (MLR) that integrates findings from both academic and grey literature. Our catalogue delineates process metrics that underpin procedural integrity, resource metrics that provide necessary tools and frameworks, and product metrics that reflect the outputs of AI systems. This tripartite framework is designed to operationalize Accountability in AI, with a special emphasis on addressing the intricacies of GenAI.
0
Citation1
0
Save
Load More