JW
Jun Wang
Author with expertise in Statistical Machine Translation and Natural Language Processing
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
4
(25% Open Access)
Cited by:
379
h-index:
28
/
i10-index:
72
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Long Text Generation via Adversarial Training with Leaked Information

Jiaxian Guo et al.Apr 27, 2018
Automatically generating coherent and semantically meaningful text has many applications in machine translation, dialogue systems, image captioning, etc. Recently, by combining with policy gradient, Generative Adversarial Nets(GAN) that use a discriminative model to guide the training of the generative model as a reinforcement learning policy has shown promising results in text generation. However, the scalar guiding signal is only available after the entire text has been generated and lacks intermediate information about text structure during the generative process. As such, it limits its success when the length of the generated text samples is long (more than 20 words). In this paper, we propose a new framework, called LeakGAN, to address the problem for long text generation. We allow the discriminative net to leak its own high-level extracted features to the generative net to further help the guidance. The generator incorporates such informative signals into all generation steps through an additional MANAGER module, which takes the extracted features of current generated words and outputs a latent vector to guide the WORKER module for next-word generation.Our extensive experiments on synthetic data and various real-world tasks with Turing test demonstrate that LeakGAN is highly effective in long text generation and also improves the performance in short text generation scenarios. More importantly, without any supervision, LeakGAN would be able to implicitly learn sentence structures only through the interaction between MANAGER and WORKER.
0
Citation379
0
Save
0

AN-IHP: Incompatible Herb Pairs Prediction by Attention Networks

Longfei Ma et al.Jan 1, 2025
The adverse drug-drug interaction (DDI) is a crucial safety concern in drug development. The intricate combinations of traditional Chinese medicine (TCM), while powerful in their therapeutic potentials, also harbor potential risks when incompatibly paired. Some methods have been proposed to infer incompatible herb pairs (IHPs), but most of them focus on revealing and analyzing the adverse reactions of known IHPs, despite that there are still a number of undiscovered IHPs at intervals. This paper introduces a deep attention network (AN-IHP) that effectively exploits diverse types of data for IHPs prediction. AN-IHP designs an attention-aggregation block to learn the ingredient-level features towards herbs and use similarity profiles to represent the efficacy and property. Then it defines commonality and specificity constraints to enhance the representations from different types of features. After that, it makes dynamic representation fusion across herb pairs using a gated attention unit (GAU) and leverages a deep neural network (DNN) to predict IHPs. The experimental results on the collected IHPTCM dataset demonstrate that AN-IHP outperforms competitive methods. AN-IHP provides interpretability for analyzing IHPs at the ingredient level, proves beneficial for wet-lab experiments. It is also capable of predicting DDIs.