AR
Ariel Rokem
Author with expertise in Diffusion Magnetic Resonance Imaging
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
46
(61% Open Access)
Cited by:
3,685
h-index:
42
/
i10-index:
81
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
1

Dipy, a library for the analysis of diffusion MRI data

Eleftherios Garyfallidis et al.Feb 21, 2014
Diffusion Imaging in Python (Dipy) is a free and open source software project for the analysis of data from diffusion magnetic resonance imaging (dMRI) experiments. dMRI is an application of MRI that can be used to measure structural features of brain white matter. Many methods have been developed to use dMRI data to model the local configuration of white matter nerve fiber bundles and infer the trajectory of bundles connecting different parts of the brain. Dipy gathers implementations of many different methods in dMRI, including: diffusion signal pre-processing; reconstruction of diffusion distributions in individual voxels; fiber tractography and fiber track post-processing, analysis and visualization. Dipy aims to provide transparent implementations for all the different steps of dMRI analysis with a uniform programming interface. We have implemented classical signal reconstruction techniques, such as the diffusion tensor model and deterministic fiber tractography. In addition, cutting edge novel reconstruction techniques are implemented, such as constrained spherical deconvolution and diffusion spectrum imaging (DSI) with deconvolution, as well as methods for probabilistic tracking and original methods for tractography clustering. Many additional utility functions are provided to calculate various statistics, informative visualizations, as well as file-handling routines to assist in the development and use of novel techniques. In contrast to many other scientific software projects, Dipy is not being developed by a single research group. Rather, it is an open project that encourages contributions from any scientist/developer through GitHub and open discussions on the project mailing list. Consequently, Dipy today has an international team of contributors, spanning seven different academic institutions in five countries and three continents, which is still growing.
0

GABA Concentration Is Reduced in Visual Cortex in Schizophrenia and Correlates with Orientation-Specific Surround Suppression

Jangho Yoon et al.Mar 10, 2010
The neural mechanisms underlying cognitive deficits in schizophrenia remain essentially unknown. The GABA hypothesis proposes that reduced neuronal GABA concentration and neurotransmission results in cognitive impairments in schizophrenia. However, few in vivo studies have directly examined this hypothesis. We used magnetic resonance spectroscopy (MRS) at high field to measure visual cortical GABA levels in 13 subjects with schizophrenia and 13 demographically matched healthy control subjects. We found that the schizophrenia group had an approximately 10% reduction in GABA concentration. We further tested the GABA hypothesis by examining the relationship between visual cortical GABA levels and orientation-specific surround suppression (OSSS), a behavioral measure of visual inhibition thought to be dependent on GABAergic synaptic transmission. Previous work has shown that subjects with schizophrenia exhibit reduced OSSS of contrast discrimination (Yoon et al., 2009). For subjects with both MRS and OSSS data (n = 16), we found a highly significant positive correlation (r = 0.76) between these variables. GABA concentration was not correlated with overall contrast discrimination performance for stimuli without a surround (r = -0.10). These results suggest that a neocortical GABA deficit in subjects with schizophrenia leads to impaired cortical inhibition and that GABAergic synaptic transmission in visual cortex plays a critical role in OSSS.
68

QSIPrep: An integrative platform for preprocessing and reconstructing diffusion MRI

Matthew Cieslak et al.Sep 4, 2020
ABSTRACT Diffusion-weighted magnetic resonance imaging (dMRI) has become the primary method for non-invasively studying the organization of white matter in the human brain. While many dMRI acquisition sequences have been developed, they all sample q-space in order to characterize water diffusion. Numerous software platforms have been developed for processing dMRI data, but most work on only a subset of sampling schemes or implement only parts of the processing workflow. Reproducible research and comparisons across dMRI methods are hindered by incompatible software, diverse file formats, and inconsistent naming conventions. Here we introduce QSIPrep, an integrative software platform for the processing of diffusion images that is compatible with nearly all dMRI sampling schemes. Drawing upon a diverse set of software suites to capitalize upon their complementary strengths, QSIPrep automatically applies best practices for dMRI preprocessing, including denoising, distortion correction, head motion correction, coregistration, and spatial normalization. Throughout, QSIPrep provides both visual and quantitative measures of data quality as well as “glass-box” methods reporting. Taken together, these features facilitate easy implementation of best practices for processing of diffusion images while simultaneously ensuring reproducibility.
32

Evaluating the reliability of human brain white matter tractometry

John Kruper et al.Feb 24, 2021
The validity of research results depends on the reliability of analysis methods. In recent years, there have been concerns about the validity of research that uses diffusion-weighted MRI (dMRI) to understand human brain white matter connections in vivo , in part based on reliability of the analysis methods used in this field. We defined and assessed three dimensions of reliability in dMRI-based tractometry, an analysis technique that assesses the physical properties of white matter pathways: (1) reproducibility, (2) test-retest reliability and (3) robustness. To facilitate reproducibility, we provide software that automates tractometry ( https://yeatmanlab.github.io/pyAFQ ). In measurements from the Human Connectome Project, as well as clinical-grade measurements, we find that tractometry has high test-retest reliability that is comparable to most standardized clinical assessment tools. We find that tractometry is also robust: showing high reliability with different choices of analysis algorithms. Taken together, our results suggest that tractometry is a reliable approach to analysis of white matter connections. The overall approach taken here both demonstrates the specific trustworthiness of tractometry analysis and outlines what researchers can do to demonstrate the reliability of computational analysis pipelines in neuroimaging.
32
Citation18
0
Save
46

Numerical Uncertainty in Analytical Pipelines Lead to Impactful Variability in Brain Networks

Gregory Kiar et al.Oct 15, 2020
Abstract The analysis of brain-imaging data requires complex processing pipelines to support findings on brain function or pathologies. Recent work has shown that variability in analytical decisions, small amounts of noise, or computational environments can lead to substantial differences in the results, endangering the trust in conclusions 1-7 . We explored the instability of results by instrumenting a connectome estimation pipeline with Monte Carlo Arithmetic 8,9 to introduce random noise throughout. We evaluated the reliability of the connectomes, their features 10,11 , and the impact on analysis 12,13 . The stability of results was found to range from perfectly stable to highly unstable. This paper highlights the potential of leveraging induced variance in estimates of brain connectivity to reduce the bias in networks alongside increasing the robustness of their applications in the classification of individual differences. We demonstrate that stability evaluations are necessary for understanding error inherent to brain imaging experiments, and how numerical analysis can be applied to typical analytical workflows both in brain imaging and other domains of computational science. Overall, while the extreme variability in results due to analytical instabilities could severely hamper our understanding of brain organization, it also leads to an increase in the reliability of datasets.
0

Automated detection of glaucoma with interpretable machine learning using clinical data and multi-modal retinal images

Parmita Mehta et al.Feb 27, 2020
Abstract Glaucoma, the leading cause of irreversible blindness worldwide, is a disease that damages the optic nerve. Current machine learning (ML) approaches for glaucoma detection rely on features such as retinal thickness maps; however, the high rate of segmentation errors when creating these maps increase the likelihood of faulty diagnoses. This paper proposes a new, comprehensive, and more accurate ML-based approach for population-level glaucoma screening. Our contributions include: (1) a multi-modal model built upon a large data set that includes demographic, systemic and ocular data as well as raw image data taken from color fundus photos (CFPs) and macular Optical Coherence Tomography (OCT) scans, (2) model interpretation to identify and explain data features that lead to accurate model performance, and (3) model validation via comparison of model output with clinician interpretation of CFPs. We also validated the model on a cohort that was not diagnosed with glaucoma at the time of imaging but eventually received a glaucoma diagnosis. Results show that our model is highly accurate (AUC 0.97) and interpretable. It validated biological features known to be related to the disease, such as age, intraocular pressure and optic disc morphology. Our model also points to previously unknown or disputed features, such as pulmonary capacity and retinal outer layers.
Load More