HQ
Hong Qu
Author with expertise in Natural Language Processing
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
10
(30% Open Access)
Cited by:
425
h-index:
27
/
i10-index:
59
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

A Novel Deep Learning-Based Collaborative Filtering Model for Recommendation System

Mingsheng Fu et al.Feb 2, 2018
The collaborative filtering (CF) based models are capable of grasping the interaction or correlation of users and items under consideration. However, existing CF-based methods can only grasp single type of relation, such as restricted Boltzmann machine which distinctly seize the correlation of user-user or item-item relation. On the other hand, matrix factorization explicitly captures the interaction between them. To overcome these setbacks in CF-based methods, we propose a novel deep learning method which imitates an effective intelligent recommendation by understanding the users and items beforehand. In the initial stage, corresponding lowdimensional vectors of users and items are learned separately, which embeds the semantic information reflecting the user- user and item-item correlation. During the prediction stage, a feed-forward neural networks is employed to simulate the interaction between user and item, where the corresponding pretrained representational vectors are taken as inputs of the neural networks. Several experiments based on two benchmark datasets (MovieLens 1M and MovieLens 10M) are carried out to verify the effectiveness of the proposed method, and the result shows that our model outperforms previous methods that used feed-forward neural networks by a significant margin and performs very comparably with state-of-the-art methods on both datasets.
0

sAMDGCN: sLSTM-Attention-Based Multi-Head Dynamic Graph Convolutional Network for Traffic Flow Forecasting

S. Zhang et al.Jan 8, 2025
Accurate traffic flow prediction plays a vital role in intelligent transportation systems, helping traffic management departments maintain stable traffic order, reduce traffic congestion, and improve road safety. Existing prediction methods focus on dynamic modeling of the spatiotemporal dependencies of traffic flow, capturing the periodicity and spatial heterogeneity in traffic data. However, they still suffer from a lack of focus on the important local information in long-term predictions, leading to overly smooth results that fail to effectively capture sudden changes in traffic patterns. To address these limitations, we propose the sLSTM-Attention-Based Multi-Head Dynamic Graph Convolutional Network (sAMDGCN) model. Specifically, we extend sLSTM and introduce temporal trend-aware multi-head attention to jointly capture the complex temporal dependencies. We propose a multi-head dynamic graph convolutional network to capture a wider range of dynamic spatial dependencies. To validate the effectiveness of sAMDGCN, we perform extensive experiments on four real-world traffic flow datasets. Experimental results show that our proposed sAMDGCN model outperforms the advanced baseline methods in long-term traffic flow prediction tasks, demonstrating its superior performance in capturing complex and dynamic traffic patterns.
0

Class-agnostic counting and localization with feature augmentation and scale-adaptive aggregation

Chao Zhai et al.Jun 1, 2024
Compared to traditional class-specific counting, class-agnostic counting (CAC) enables the counting of arbitrary novel categories with only a few exemplars. The core issue of CAC lies in feature matching between the query image and exemplars. However, the scarce user-given exemplars make it difficult to adequately cover the diverse appearance of target objects, which poses challenges for feature matching. In this paper, we propose a Class-Agnostic Counting and Localization model (CACL) to enrich the exemplars by mining more inherent instances from the query feature. Specifically, CACL consists mainly of Self-Augment Feature Matching (SAFM) and Scale-Adaptive Spatial Aggregation (SASA). SAFM collects features of target instances frequently occurring in the query feature to augment the limited user-given exemplar, thus producing more comprehensive semantic features of the target category. To improve the robustness against scale variation, we design the SASA to enable the model to aggregate multiscale features adaptively. Compared to previous density map-based approaches, our method can locate the target objects which is more practical in real-world applications. Extensive experiments on FSC-147 suggest that our method achieves a competitive counting performance compared to state-of-the-art methods. Moreover, cross-dataset experiments demonstrate superior generalization in class-specific counting tasks.
0

Unified Training for Cross-Lingual Abstractive Summarization by Aligning Parallel Machine Translation Pairs

Shaohuan Cheng et al.Jul 4, 2024
Cross-lingual summarization (CLS) is essential for enhancing global communication by facilitating efficient information exchange across different languages. However, owing to the scarcity of CLS data, recent studies have employed multi-task frameworks to combine parallel monolingual summaries. These methods often use independent decoders or models with non-shared parameters because of the mismatch in output languages, which limits the transfer of knowledge between CLS and its parallel data. To address this issue, we propose a unified training method for CLS that combines parallel machine translation (MT) pairs with CLS pairs, jointly training them within a single model. This design ensures consistent input and output languages and promotes knowledge sharing between the two tasks. To further enhance the model’s capability to focus on key information, we introduce two additional loss terms to align the hidden representations and probability distributions between the parallel MT and CLS pairs. Experimental results demonstrate that our method outperforms competitive methods in both full-dataset and low-resource scenarios on two benchmark datasets, Zh2EnSum and En2ZhSum.
0

Q-ADER: An Effective Q-Learning for Recommendation With Diminishing Action Space

Liu Fan et al.Jan 1, 2024
Deep reinforcement learning (RL) has been widely applied to personalized recommender systems (PRSs) as they can capture user preferences progressively. Among RL-based techniques, deep Q-network (DQN) stands out as the most popular choice due to its simple update strategy and superior performance. Typically, many recommendation scenarios are accompanied by the diminishing action space setting, where the available action space will gradually decrease to avoid recommending duplicate items. However, existing DQN-based recommender systems inherently grapple with a discrepancy between the fixed full action space inherent in the Q-network and the diminishing available action space during recommendation. This article elucidates how this discrepancy induces an issue termed action diminishing error in the vanilla temporal difference (TD) operator. Due to this discrepancy, standard DQN methods prove impractical for learning accurate value estimates, rendering them ineffective in the context of diminishing action space. To mitigate this issue, we propose the Q-learning-based action diminishing error reduction (Q-ADER) algorithm to modify the value estimate error at each step. In practice, Q-ADER augments the standard TD learning with an error reduction term which is straightforward to implement on top of the existing DQN algorithms. Experiments are conducted on four real-world datasets to verify the effectiveness of our proposed algorithm.