ZY
Zhan Yang
Author with expertise in Image Feature Retrieval and Recognition Techniques
Achievements
This user has not unlocked any achievements yet.
Key Stats
Upvotes received:
0
Publications:
6
(0% Open Access)
Cited by:
0
h-index:
12
/
i10-index:
15
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Fast unsupervised multi-modal hashing based on piecewise learning

Yinan Li et al.Sep 1, 2024
Unsupervised hashing has been extensively applied in large-scale multi-modal retrieval by mapping original data from heterogeneous modalities into unified binary codes. However, there still remain challenges especially how to balance the individual modality-specific representations and common representation preserving intrinsic linkages among heterogeneous modalities. In this paper, we propose a novel fast Unsupervised Multi-modal Hashing based on Piecewise Learning, denoted as UMHPL, to deal with the mentioned issue. Initially, we formulate the problem as matrix factorization to derive the individual modality-specific latent representations and common latent representation with consensus matrices in a brief time. To maintain the integrality of multi-modal data, we integrate them by adaptive weight factors and nuclear norm minimization. Subsequently, we establish a connection between the individual modality-specific latent representations and common latent representation based on the piecewise hash learning framework to reinforce the discriminative competency of model, which leads the hash codes more compact. Finally, an effective discrete optimization algorithm in mathematical logic and functional analysis is proposed. Comprehensive experiments on Wiki, MIRFlirck, NUS-WIDE, and MSCOCO datasets demonstrate the superior performance of UMHPL to state-of-the-art hashing methods.
0

Supervised Semantic-Embedded Hashing for Multimedia Retrieval

Yunfei Chen et al.May 31, 2024
With the rapid development of multimedia technologies, the efficient retrieval of large-scale multimedia information is regarded as a critical area to research. Hashing methods have achieved superiority as an effective solution for multimedia retrieval while offering the advantages of reduced storage demands and faster retrieval speeds. However, traditional hashing methods face challenges in addressing cross-modal heterogeneity and associating modal features with label information. In this paper, we introduce a novel supervised cross-modal hashing method named Supervised Semantic-Embedded Hashing (SSEH) for Multimedia Retrieval. Firstly, we designed a Semantic-Enhanced Representation module based on label mapping, which achieved deep integration of label information with multimedia features to ensure the completeness of semantic information in the hash codes. Secondly, a Class Structure Preservation module was constructed to comprehensively extract precise semantic information and association relationships from the labels, thereby ensuring the accuracy of semantic information and association relationships in the hash codes. We conducted extensive experiments on widely recognized datasets to demonstrate our SSEH method's efficacy and robustness. The code for our experiments is available at https://github.com/YunfeiChenMY/SSEH.