JV
Joshua Vogelstein
Author with expertise in Analysis of Brain Functional Connectivity Networks
Achievements
Open Access Advocate
Cited Author
Key Stats
Upvotes received:
0
Publications:
17
(76% Open Access)
Cited by:
82
h-index:
11
/
i10-index:
13
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
169

Suboptimal phenotypic reliability impedes reproducible human neuroscience

Aki Nikolaidis et al.Jul 23, 2022
+4
M
J
A
Summary Paragraph Biomarkers of behavior and psychiatric illness for cognitive and clinical neuroscience remain out of reach 1–4 . Suboptimal reliability of biological measurements, such as functional magnetic resonance imaging (fMRI), is increasingly cited as a primary culprit for discouragingly large sample size requirements and poor reproducibility of brain-based biomarker discovery 1,5–7 . In response, steps are being taken towards optimizing MRI reliability and increasing sample sizes 8–11 , though this will not be enough. Optimizing biological measurement reliability and increasing sample sizes are necessary but insufficient steps for biomarker discovery; this focus has overlooked the ‘other side of the equation’ - the reliability of clinical and cognitive assessments - which are often suboptimal or unassessed. Through a combination of simulation analysis and empirical studies using neuroimaging data, we demonstrate that the joint reliability of both biological and clinical/cognitive phenotypic measurements must be optimized in order to ensure biomarkers are reproducible and accurate. Even with best-case scenario high reliability neuroimaging measurements and large sample sizes, we show that suboptimal reliability of phenotypic data (i.e., clinical diagnosis, behavioral and cognitive measurements) will continue to impede meaningful biomarker discovery for the field. Improving reliability through development of novel assessments of phenotypic variation is needed, but it is not the sole solution. We emphasize the potential to improve the reliability of established phenotypic methods through aggregation across multiple raters and/or measurements 12–15 , which is becoming increasingly feasible with recent innovations in data acquisition (e.g., web- and smart-phone-based administration, ecological momentary assessment, burst sampling, wearable devices, multimodal recordings) 16–20 . We demonstrate that such aggregation can achieve better biomarker discovery for a fraction of the cost engendered by large-scale samples. Although the current study has been motivated by ongoing developments in neuroimaging, the prioritization of reliable phenotyping will revolutionize neurobiological and clinical endeavors that are focused on brain and behavior.
169
Citation47
0
Save
0

Eliminating accidental deviations to minimize generalization error and maximize replicability: applications in connectomics and genomics

Eric Bridgeford et al.Oct 13, 2019
+14
C
J
E
Abstract Replicability, the ability to replicate scientific findings, is a prerequisite for scientific discovery and clinical utility. Troublingly, we are in the midst of a replicability crisis. A key to replicability is that multiple measurements of the same item (e.g., experimental sample or clinical participant) under fixed experimental constraints are relatively similar to one another. Thus, statistics that quantify the relative contributions of accidental deviations—such as measurement error—as compared to systematic deviations—such as individual differences—are critical. We demonstrate that existing replicability statistics, such as intra-class correlation coefficient and fingerprinting, fail to adequately differentiate between accidental and systematic deviations in very simple settings. We therefore propose a novel statistic, discriminability , which quantifies the degree to which an individual’s samples are relatively similar to one another, without restricting the data to be univariate, Gaussian, or even Euclidean. Using this statistic, we introduce the possibility of optimizing experimental design via increasing discriminability and prove that optimizing discriminability improves performance bounds in subsequent inference tasks. In extensive simulated and real datasets (focusing on brain imaging and demonstrating on genomics), only optimizing data discriminability improves performance on all subsequent inference tasks for each dataset. We therefore suggest that designing experiments and analyses to optimize discriminability may be a crucial step in solving the replicability crisis, and more generally, mitigating accidental measurement error. Author Summary In recent decades, the size and complexity of data has grown exponentially. Unfortunately, the increased scale of modern datasets brings many new challenges. At present, we are in the midst of a replicability crisis, in which scientific discoveries fail to replicate to new datasets. Difficulties in the measurement procedure and measurement processing pipelines coupled with the influx of complex high-resolution measurements, we believe, are at the core of the replicability crisis. If measurements themselves are not replicable, what hope can we have that we will be able to use the measurements for replicable scientific findings? We introduce the “discriminability” statistic, which quantifies how discriminable measurements are from one another, without limitations on the structure of the underlying measurements. We prove that discriminable strategies tend to be strategies which provide better accuracy on downstream scientific questions. We demonstrate the utility of discriminability over competing approaches in this context on two disparate datasets from both neuroimaging and genomics. Together, we believe these results suggest the value of designing experimental protocols and analysis procedures which optimize the discriminability.
3

The connectome of an insect brain

Michael Winding et al.Nov 28, 2022
+18
V
R
M
Abstract Brains contain networks of interconnected neurons, so knowing the network architecture is essential for understanding brain function. We therefore mapped the synaptic-resolution connectome of an insect brain ( Drosophila larva) with rich behavior, including learning, value-computation, and action-selection, comprising 3,013 neurons and 544,000 synapses. We characterized neuron-types, hubs, feedforward and feedback pathways, and cross-hemisphere and brain-nerve cord interactions. We found pervasive multisensory and interhemispheric integration, highly recurrent architecture, abundant feedback from descending neurons, and multiple novel circuit motifs. The brain’s most recurrent circuits comprised the input and output neurons of the learning center. Some structural features, including multilayer shortcuts and nested recurrent loops, resembled powerful machine learning architectures. The identified brain architecture provides a basis for future experimental and theoretical studies of neural circuits. One-Sentence Summary We generated a synaptic-resolution brain connectome and characterized its connection types, neuron types, and circuit motifs.
1

When no answer is better than a wrong answer: a causal perspective on batch effects

Eric Bridgeford et al.Sep 6, 2021
+8
G
M
E
Abstract Batch effects, undesirable sources of variability across multiple experiments, present significant challenges for scientific and clinical discoveries. Batch effects can (i) produce spurious signals and/or (ii) obscure genuine signals, contributing to the ongoing reproducibility crisis. Because batch effects are typically modeled as classical statistical effects, they often cannot differentiate between sources of variability, which leads them to erroneously conclude batch effects are present (or not). We formalize batch effects as causal effects, and introduce algorithms leveraging causal machinery, to address these concerns. Simulations illustrate that when non-causal methods provide the wrong answer, our methods either produce more accurate answers or “no answer”, meaning they assert the data are an inadequate to confidently conclude on the presence of a batch effect. Applying our causal methods to a 27 neuroimaging datasets yields qualitatively similar results: in situations where it is unclear whether batch effects are present, non-causal methods confidently identify (or fail to identify) batch effects, whereas our causal methods assert that it is unclear whether there are batch effects or not. This work therefore provides a causal framework for understanding the potential capabilities and limitations of analysis of multi-site data.
1

A Guide for Quantifying and Optimizing Measurement Reliability for the Study of Individual Differences

Ting Xu et al.Jan 28, 2022
+3
E
G
T
Abstract Characterizing individual variations is central to interpreting individual differences in neuroscience and clinical studies. While the field has examined multifaceted individual differences in brain functional organization, it is only in recent years that neuroimaging researchers have begun to place a priority on its quantification and optimization. Here, we highlight a potential analytic pitfall that can lead to contaminated estimates of inter-individual differences. We define a two-dimensional individual variation field map to decipher sources of individual variation and their relation to fingerprinting and measures of reliability. We illustrate theoretical gradient flow that represents the most effective direction for optimization when measuring individual differences. We propose to use this general framework for dissecting within- and between-individual variation and provide a supporting online tool for the purposes of guiding optimization efforts in biomarker discovery.
1

Bisected graph matching improves automated pairing of bilaterally homologous neurons from connectomes

Benjamin Pedigo et al.May 20, 2022
J
C
M
B
Abstract Graph matching algorithms attempt to find the best correspondence between the nodes of two networks. These techniques have been used to match individual neurons in nanoscale connectomes – in particular, to find pairings of neurons across hemispheres. However, since graph matching techniques deal with two isolated networks, they have only utilized the ipsilateral (same hemisphere) subgraphs when performing the matching. Here, we present a modification to a state-of-the-art graph matching algorithm which allows it to solve what we call the bisected graph matching problem. This modification allows us to leverage the connections between the brain hemispheres when predicting neuron pairs. Via simulations and experiments on real connectome datasets, we show that this approach improves matching accuracy when sufficient edge correlation is present between the contralateral (between hemisphere) subgraphs. We also show how matching accuracy can be further improved by combining our approach with previously proposed extensions to graph matching, which utilize edge types and previously known neuron pairings. We expect that our proposed method will improve future endeavors to accurately match neurons across hemispheres in connectomes, and be useful in other applications where the bisected graph matching problem arises.
0

An optimized tissue clearing protocol for rat brain labeling, imaging, and high throughput analysis

Audrey Branch et al.May 17, 2019
+4
A
D
A
Abstract The advent of whole brain clearing and imaging methods extends the breadth and depth at which brain-wide neural populations and structures can be studied. However, these methods have yet to be applied to larger brains, such as the brains of the common laboratory rat, despite the importance of these models in behavioral neuroscience research. Here we introduce AdipoClear+, an optimized immunolabeling and clearing methodology for application to adult rat brain hemispheres, and validate its application through the testing of common antibodies and electrode tract visualization. In order to extend the accessibility of this methodology for general use, we have developed an open source platform for the registration of rat brain volumes to standard brain atlases for high throughput analysis.
6

A low-resource reliable pipeline to democratize multi-modal connectome estimation and analysis

Jaewon Chung et al.Nov 3, 2021
+17
D
A
J
Abstract Connectomics—the study of brain networks—provides a unique and valuable opportunity to study the brain. Research in human connectomics, leveraging functional and diffusion Magnetic Resonance Imaging (MRI), is a resource-intensive practice. Typical analysis routines require significant computational capabilities and subject matter expertise. Establishing a pipeline that is low-resource, easy to use, and off-the-shelf (can be applied across multifarious datasets without parameter tuning to reliably estimate plausible connectomes), would significantly lower the barrier to entry into connectomics, thereby democratizing the field by empowering a more diverse and inclusive community of connectomists. We therefore introduce ‘MRI to Graphs’ ( m2g ). To illustrate its properties, we used m2g to process MRI data from 35 different studies (≈ 6,000 scans) from 15 sites without any manual intervention or parameter tuning. Every single scan yielded an estimated connectome that adhered to established properties, such as stronger ipsilateral than contralateral connections in structural connectomes, and stronger homotopic than heterotopic correlations in functional connectomes. Moreover, the connectomes estimated by m2g are more similar within individuals than between them, suggesting that m2g preserves biological variability. m2g is portable, and can run on a single CPU with 16 GB of RAM in less than a couple hours, or be deployed on the cloud using its docker container. All code is available on https://github.com/neurodata/m2g and documentation is available on docs.neurodata.io/m2g.
54

Modern Machine Learning: Partition & Vote

Carey Priebe et al.Apr 30, 2020
C
J
F
C
Abstract We present modern machine learning, focusing on the state-of-the-art classification methods of decision forests and deep networks, as partition and vote schemes. This illustrative presentation allows for both a unified basic understanding of how these methods work from the perspective of classical statistical pattern recognition as well as useful basic insight into their relationship with each other … and potentially with brain functioning.
3

BrainLine: An Open Pipeline for Connectivity Analysis of Heterogeneous Whole-Brain Fluorescence Volumes

Thomas Athey et al.Mar 1, 2023
+4
M
M
T
Whole-brain fluorescence images require several stages of computational processing to fully reveal the neuron morphology and connectivity information they contain. However, these computational tools are rarely part of an integrated pipeline. Here we present BrainLine, an open-source pipeline that interfaces with existing software to provide registration, axon segmentation, soma detection, visualization and analysis of results. By implementing a feedback based training paradigm with BrainLine, we were able to use a single learning algorithm to accurately process a diverse set of whole-brain images generated by light-sheet microscopy. BrainLine is available as part of our Python package brainlit: http://brainlit.neurodata.io/ .
Load More