HX
Haoli Xu
Author with expertise in Infrared Small Target Detection and Tracking
Achievements
This user has not unlocked any achievements yet.
Key Stats
Upvotes received:
0
Publications:
5
(40% Open Access)
Cited by:
0
h-index:
0
/
i10-index:
0
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Trusted Artificial Intelligence for Environmental Assessments: An Explainable High-precision Model with Multi-Source Big Data

Haoli Xu et al.Aug 24, 2024
Environmental assessments are critical for ensuring the sustainable development of human civilization. The integration of artificial intelligence (AI) in these assessments has shown great promise, yet the "black box" nature of AI models often undermines trust due to the lack of transparency in their decision-making processes, even when these models demonstrate high accuracy. To address this challenge, we evaluated the performance of a transformer model against other AI approaches, utilizing extensive multivariate and spatiotemporal environmental datasets encompassing both natural and anthropogenic indicators. We further explored the application of saliency maps as a novel explainability tool in multi-source AI-driven environmental assessments, enabling the identification of individual indicators' contributions to the model's predictions. We find that the transformer model outperforms others, achieving an accuracy of about 98% and an area under the receiver operating characteristic curve (AUC) of 0.891. Regionally, the environmental assessment values are predominantly classified as level II or III in the central and southwestern study areas, level IV in the northern region, and level V in the western region. Through explainability analysis, we identify that water hardness, total dissolved solids, and arsenic concentrations are the most influential indicators in the model. Our AI-driven environmental assessment model is accurate and explainable, offering actionable insights for targeted environmental management. Furthermore, this study advances the application of AI in environmental science by presenting a robust, explainable model that bridges the gap between machine learning and environmental governance, enhancing both understanding and trust in AI-assisted environmental assessments.
0

Adversarial sample attacks algorithm based on cycle-consistent generative networks

Jie Li et al.May 27, 2024
In recent years, the application of deep neural networks in the field of image classification has become increasingly widespread. However, existing researches have exposed the inherent vulnerabilities and opacity of these network models, rendering them susceptible to carefully crafted adversarial attacks. This poses significant security risks to their practical deployment. Given that the majority of models in real-world applications operate in a black-box manner, current research on black-box attacks targeting classification models remains inadequate, facing significant challenges such as incomplete robustness evaluations, low success rates of black-box attacks, and excessive resource consumption during the attack process. To address these challenges, this paper innovatively proposes a black-box attack algorithm based on a cycle-consistent generative network. This algorithm directly generates adversarial perturbations through a generative network that integrates an attention mechanism, deeply learning the complex relationship between adversarial samples and clean sample data. It supports both targeted and untargeted attack modes. Experimental validation on the SAT dataset demonstrates that our method achieves an average white-box attack success rate exceeding 96% in classification tasks and an average success rate of up to 69.4% in black-box transfer attacks, exhibiting excellent transferability across different models. This research contributes significantly to enhancing the effectiveness of black-box attacks, reducing attack costs, and providing novel ideas and methods for enhancing the security of deep learning models.