JC
Jing Chen
Author with expertise in Applications of Remote Sensing in Geoscience and Agriculture
Achievements
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
4
(50% Open Access)
Cited by:
2
h-index:
27
/
i10-index:
70
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

A multi-scale feature fusion model based on biological knowledge graph and transformer-encoder for drug-drug interaction prediction

Tao Wang et al.Jan 15, 2024
Abstract Drug-Drug Interaction (DDI) refers to the combined effects that occur when a patient takes multiple medications simultaneously or within the same period. This interaction can either enhance the therapeutic effects of the drugs or inhibit their efficacy, and in severe cases, it can even lead to adverse drug reactions (ADRs). Thus, it is crucial to identify potential DDIs, as this information is significant for both biological research and clinical medicine. However, most existing works only consider the information of individual drugs or focus on the local correlation between a few medical entities, thus overlooking the global performance of the entire human medical system and the potential synergistic effects of multi-scale information. Consequently, these limitations hinder the predictive ability of models. In this paper, we propose an innovative multi-scale feature fusion model called ALG-DDI, which can comprehensively incorporate attribute information, local biological information, and global semantic information. To achieve this, we first employ the Attribute Masking method to obtain the embedding vector of the molecular graph. Next, ALG-DDI leverages heterogeneous graphs to capture the local biological information between drugs and several highly related biological entities. The global semantic information is also learned from the medicine-oriented large knowledge graphs. Finally, we employ a transformer encoder to fuse the multi-scale drug representations and feed the resulting drug pair vector into a fully connected neural network for prediction. Experimental evaluations on datasets of varying sizes and different classification tasks demonstrate that ALG-DDI outperforms other state-of-the-art models.
0

Fault detection and isolation for multi-type sensors in nuclear power plants via a knowledge-guided spatial-temporal model

Weiqing Lin et al.Jun 1, 2024
Sensor faults in nuclear power plants (NPPs) have the potential to propagate negative impacts on system stability, leading to false alarms and accident misdiagnosis. Existing methods seldom concurrently consider complex spatial–temporal correlations among multi-type sensors in the primary circuit. This study presents a novel sensor fault detection and isolation scheme named the knowledge-guided spatial–temporal model (KGSTM), using the knowledge-guided recurrent unit (KGRU) and the concurrent detection strategy. To organically express part and whole interdependencies from inherent sensor layout, several graphs are specifically designed with pertinent domain knowledge. KGRU consists of the multi-graph convolutional network (MGCN) for fusing various spatial information and the gate recurrent unit (GRU) for extracting dynamic temporal features, further obtaining precise reconstructed signals and residuals. The concurrent detection strategy can explicitly quantify abnormal behaviors to detect and isolate faulty sensors by characterizing spatial–temporal signal variation. Numerical results on two real-world datasets from a pressurized water reactor (PWR) with simulated faults illustrate that the KGSTM has superior performance over various state-of-the-art methods in terms of signal reconstruction and fault detection.
0

Internet street view image fusion method using convolutional neural network

Jing Chen et al.Jun 17, 2024
The use of image fusion technology in the area of information processing is continuing to advance in depth thanks to ongoing hardware advancements and related research. An enhanced convolutional neural network approach is developed to fuse visible and infrared images, and image pre-processing is carried out utilising an image alignment method with edge detection in order to gain more accurate and trustworthy image information. The performance of the fast wavelet decomposition, convolutional neural network, and modified convolutional neural network techniques is compared and examined using four objective assessment criteria. The experimental findings demonstrated that the picture alignment was successful with an offset error of fewer than 3 pixels in the horizontal direction and an angle error of less than 0.3∘ in both directions. The revised convolutional neural network method increased the information entropy, mean gradient, standard deviation, and edge detection information by an average of 46.13%, 39.40%, 19.91%, and 3.72%. The runtime of the modified approach was lowered by 19.42% when compared to the convolutional neural network method, which enhanced the algorithm’s performance and boosted the effectiveness of picture fusion. The image fusion accuracy reached 98.61%, indicating that the method has better fusion performance and is of practical value for improving image fusion quality.
0

Efficient integration of multiple spatial transcriptomics data for 3D domain detection, matching, and alignment with stMSA

Han Shu et al.Jul 30, 2024
Abstract Spatial transcriptomics (ST) is a powerful methodology that enables the study of genes within tissue architecture by providing gene expression information along with spatial location data. With the increasing availability of ST datasets, researchers are now inclined to explore potential biological features across larger datasets simultaneously, aiming for a more comprehensive understanding. However, existing methods primarily focus on cross-batch feature learning, often overlooking the intricate spatial patterns within individual slices. This limitation poses a significant challenge in effectively integrating features across different slices while considering slice-specific patterns. To address this challenge and enhance the integration performance of multi-slice data, we propose stMSA, a deep graph contrastive-learning model that incorporates graph auto-encoder techniques. stMSA is specifically designed to generate batch-corrected representations while preserving the unique spatial patterns within each slice, simultaneously considering both inner-batch and cross-batch patterns during the integration process. Our extensive evaluations demonstrate that stMSA outperforms state-of-the-art methods in discerning tissue structures across different slices, even when confronted with diverse experimental protocols and sequencing technologies. Furthermore, stMSA exhibits remarkable performance in cross-slice matching and alignment for three-dimensional reconstruction. The source code for stMSA is available at https://github.com/hannshu/stMSA .