LF
Lu Fang
Author with expertise in Stereo Vision and Depth Estimation
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
7
(43% Open Access)
Cited by:
269
h-index:
34
/
i10-index:
87
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Large data density peak clustering based on sparse auto-encoder and data space meshing via evidence probability distribution

Lu FangNov 20, 2024
The development of big data analysis technology has brought new development opportunities to the production and management of various industries. Through the mining and analysis of various data in the operation process of enterprises by big data technology, the internal associated data of the enterprises and even the entire industry can be obtained. As a common method for large-scale data statistical analysis, clustering technology can effectively mine the relationship within massive heterogeneous multidimensional data, complete unlabeled data classification, and provide data support for various model analysis of big data. Common big data density clustering methods are time-consuming and easy to cause errors in data density allocation, which affects the accuracy of data clustering. Therefore we propose a novel large data density peak clustering based on sparse auto-encoder and data space meshing via evidence probability distribution. Firstly, the sparse auto-encoder in deep learning is used to achieve feature extraction and dimensionality reduction for input high-dimensional data matrix through training. Secondly, the data space is meshed to reduce the calculation of the distance between the sample data points. When calculating the local density, not only the density value of the grid itself, but also the density value of the nearest neighbors are considered, which reduces the influence of the subjective selection truncation distance on the clustering results and improves the clustering accuracy. The grid density threshold is set to ensure the stability of the clustering results. Using the K-nearest neighbor information of the sample points, the transfer probability distribution strategy and evidence probability distribution strategy are proposed to optimize the distribution of the remaining sample points, so as to avoid the joint error of distribution. The experimental results show that the proposed algorithm has higher clustering accuracy and better clustering performance than other advanced clustering algorithms on artificial and real data sets.
1

A Unified Platform for At-Home Post-Stroke Rehabilitation Enabled by Wearable Technologies and Artificial Intelligence

Chenyu Tang et al.Nov 28, 2024
At-home rehabilitation for post-stroke patients presents significant challenges, as continuous, personalized care is often limited outside clinical settings. Additionally, the absence of comprehensive solutions addressing diverse rehabilitation needs in home environments complicates recovery efforts. Here, we introduce a smart home platform that integrates wearable sensors, ambient monitoring, and large language model (LLM)-powered assistance to provide seamless health monitoring and intelligent support. The system leverages machine learning enabled plantar pressure arrays for motor recovery assessment (94% classification accuracy), a wearable eye-tracking module for cognitive evaluation, and ambient sensors for precise smart home control (100% operational success, <1 s latency). Additionally, the LLM-powered agent, Auto-Care, offers real-time interventions, such as health reminders and environmental adjustments, enhancing user satisfaction by 29%. This work establishes a fully integrated platform for long-term, personalized rehabilitation, offering new possibilities for managing chronic conditions and supporting aging populations.
0

Distributionally Robust Optimal Scheduling of Hybrid Ship Microgrids Considering Uncertain Wind and Wave Conditions

Lu Fang et al.Nov 19, 2024
A hybrid ship uses integrated generators, an energy storage system (ESS), and photovoltaics (PV) to match its propulsion and service loads, and together with optimal power and voyage scheduling, this can lead to a substantial improvement in ship operation cost, ensuring compliance with the environmental constraints and enhancing ship sustainability. During the operation, significant uncertainties such as waves, wind, and PV result in considerable speed loss, which may lead to voyage delays and operation cost increases. To address this issue, a distributionally robust optimization (DRO) model is proposed to schedule power generation and voyage. The problem is decoupled into a bi-level optimization model, the slave level can be solved directly by commercial solvers, the master level is further formulated as a two-stage DRO model, and linear decision rules and column and constraint generation algorithms are adopted to solve the model. The algorithm aims at minimizing the operation cost, limiting greenhouse gas (GHG) emissions, and satisfying the technical and operational constraints considering the uncertainty. Extensive simulations demonstrate that the expected total cost under the worst-case distribution is minimized, and compared with the conventional robust optimization methods, some distribution information can be incorporated into the ambiguity sets to generate fewer conservative results. This method can fully ensure the on-time arrival of hybrid ships in various uncertain scenarios while achieving expected operation cost minimization and limiting greenhouse gas (GHG) emissions.