LZ
Lin Zhao
Author with expertise in Fuel Cell Membrane Technology
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
12
(67% Open Access)
Cited by:
310
h-index:
19
/
i10-index:
41
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Mask-Guided Vision Transformer for Few-Shot Learning

Yuzhong Chen et al.Jan 1, 2024
Learning with little data is challenging but often inevitable in various application scenarios where the labeled data are limited and costly. Recently, few-shot learning (FSL) gained increasing attention because of its generalizability of prior knowledge to new tasks that contain only a few samples. However, for data-intensive models such as vision transformer (ViT), current fine-tuning-based FSL approaches are inefficient in knowledge generalization and, thus, degenerate the downstream task performances. In this article, we propose a novel mask-guided ViT (MG-ViT) to achieve an effective and efficient FSL on the ViT model. The key idea is to apply a mask on image patches to screen out the task-irrelevant ones and to guide the ViT focusing on task-relevant and discriminative patches during FSL. Particularly, MG-ViT only introduces an additional mask operation and a residual connection, enabling the inheritance of parameters from pretrained ViT without any other cost. To optimally select representative few-shot samples, we also include an active learning-based sample selection method to further improve the generalizability of MG-ViT-based FSL. We evaluate the proposed MG-ViT on classification, object detection, and segmentation tasks using gradient-weighted class activation mapping (Grad-CAM) to generate masks. The experimental results show that the MG-ViT model significantly improves the performance and efficiency compared with general fine-tuning-based ViT and ResNet models, providing novel insights and a concrete approach toward generalizing data-intensive and large-scale deep learning models for FSL.
0

Fuzzy Neural Network Model for Intelligent Course Development in Music and Dance Education

Lin Zhao et al.Jun 6, 2024
Abstract Interactions are mandatory for online or offline music and dance education to improve understandability and learning efficacy. The course designed for such artistic education incorporates multi-point interactions and monotonous presentations. The validation of the key factor: interactivity is thus mandatory for enhancing efficiency. This article introduces an interactivity validation method (IVM) using combined fuzzy neural network (FNN) to aid artistic course development. The output of the existing course and its evaluation criteria are considered in enhancing its grade. The fuzzy performs interaction classification as mandatory and trivial based on the student’s performance. The neural network identifies the chances for maximum performance by increasing or decreasing the interaction rate. If a saturated performance is achieved at a high or low interactivity, then the further course design is performed based on the saturated interactivity factor. The failing factors are used for training the neural network for modifying the interactivity rate from the current course development suggestion. Such a process is keen on classifying and validating the impact of interactivity over artistic course design.
0

Fourier Ptychographic Microscopy with Optical Aberration Correction and Phase Unwrapping Based on Semi-Supervised Learning

Xu‐Hui Zhou et al.Jan 5, 2025
Fourier ptychographic microscopy (FPM) has recently emerged as an important non-invasive imaging technique which is capable of simultaneously achieving high resolution, wide field of view, and quantitative phase imaging. However, FPM still faces challenges in the image reconstruction due to factors such as noise, optical aberration, and phase wrapping. In this work, we propose a semi-supervised Fourier ptychographic transformer network (SFPT) for improved image reconstruction, which employs a two-stage training approach to enhance the image quality. First, self-supervised learning guided by low-resolution amplitudes and Zernike modes is utilized to recover pupil function. Second, a supervised learning framework with augmented training datasets is applied to further refine reconstruction quality. Moreover, the unwrapped phase is recovered by adjusting the phase distribution range in the augmented training datasets. The effectiveness of the proposed method is validated by using both the simulation and experimental data. This deep-learning-based method has potential applications for imaging thicker biology samples.
Load More