XZ
Xianyang Zhang
Author with expertise in Learning with Noisy Labels in Machine Learning
Achievements
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
4
(50% Open Access)
Cited by:
2
h-index:
6
/
i10-index:
4
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
1

STAREG: an empirical Bayesian approach to detect replicable spatially variable genes in spatial transcriptomic studies

Yan Li et al.May 30, 2023
Abstract Identifying replicable genes that display spatial expression patterns from different yet related spatially resolved transcriptomic studies provides stronger scientific evidence and more powerful inference. We present an empirical Bayesian method, STAREG, for identifying replicable spatially variable genes in data generated from various spatially resolved transcriptomic techniques. STAREG models the joint distribution of p -values from different studies with a mixture model and accounts for the heterogeneity of different studies. It provides effective control of the false discovery rate and has higher power by borrowing information across genes and different studies. Moreover, it provides different rankings of important spatially variable genes. With the EM algorithm in combination with pool-adjacent-violator-algorithm (PAVA), STAREG is scalable to datasets with tens of thousands of genes measured on tens of thousands of spatial spots without any tuning parameters. Analyzing three pairs of spatially resolved transcriptomic datasets using STAREG, we show that it makes biological discoveries that otherwise cannot be obtained by using existing methods.
1
Citation2
0
Save
0

Distributed unsupervised meta-learning algorithm over multi-agent systems

Zhenzhen Wang et al.Aug 1, 2024
Multi-Agent Systems (MAS), which consist of multiple interacting agents, are crucial in Cyber-Physical Systems (CPS), because they improve system adaptability, efficiency, and robustness through parallel processing and collaboration. However, most existing unsupervised meta-learning methods are centralized and not suitable for multi-agent systems where data are distributed stored and inaccessible to all agents. Meta-GMVAE, based on Variational Autoencoder (VAE) and set-level variational inference, represents a sophisticated unsupervised meta-learning model that improves generative performance by efficiently learning data representations across various tasks, increasing adaptability and reducing sample requirements. Inspired by these advancements, we propose a novel Distributed Unsupervised Meta-Learning (DUML) framework based on Meta-GMVAE and a fusion strategy. Furthermore, we present a DUML algorithm based on Gaussian Mixture Model (DUMLGMM), where the parameters of the Gaussian-mixture is solved by an Expectation-Maximization algorithm. Simulations on Omniglot and MiniImageNet datasets show that DUMLGMM can achieve the performance of the corresponding centralized algorithm and outperform non-cooperative algorithm.