OC
Olivier Collignon
Author with expertise in Multisensory Integration in Human Perception and Cognition
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
35
(49% Open Access)
Cited by:
1,544
h-index:
41
/
i10-index:
91
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
1

Variability in the analysis of a single neuroimaging dataset by many teams

Rotem Botvinik‐Nezer et al.May 20, 2020
Data analysis workflows in many scientific domains have become increasingly complex and flexible. Here we assess the effect of this flexibility on the results of functional magnetic resonance imaging by asking 70 independent teams to analyse the same dataset, testing the same 9 ex-ante hypotheses1. The flexibility of analytical approaches is exemplified by the fact that no two teams chose identical workflows to analyse the data. This flexibility resulted in sizeable variation in the results of hypothesis tests, even for teams whose statistical maps were highly correlated at intermediate stages of the analysis pipeline. Variation in reported results was related to several aspects of analysis methodology. Notably, a meta-analytical approach that aggregated information across teams yielded a significant consensus in activated regions. Furthermore, prediction markets of researchers in the field revealed an overestimation of the likelihood of significant findings, even by researchers with direct knowledge of the dataset2–5. Our findings show that analytical flexibility can have substantial effects on scientific conclusions, and identify factors that may be related to variability in the analysis of functional magnetic resonance imaging. The results emphasize the importance of validating and sharing complex analysis workflows, and demonstrate the need for performing and reporting multiple analyses of the same data. Potential approaches that could be used to mitigate issues related to analytical variability are discussed. The results obtained by seventy different teams analysing the same functional magnetic resonance imaging dataset show substantial variation, highlighting the influence of analytical choices and the importance of sharing workflows publicly and performing multiple analyses.
0

Functional specialization for auditory–spatial processing in the occipital cortex of congenitally blind humans

Olivier Collignon et al.Feb 28, 2011
The study of the congenitally blind (CB) represents a unique opportunity to explore experience-dependant plasticity in a sensory region deprived of its natural inputs since birth. Although several studies have shown occipital regions of CB to be involved in nonvisual processing, whether the functional organization of the visual cortex observed in sighted individuals (SI) is maintained in the rewired occipital regions of the blind has only been recently investigated. In the present functional MRI study, we compared the brain activity of CB and SI processing either the spatial or the pitch properties of sounds carrying information in both domains (i.e., the same sounds were used in both tasks), using an adaptive procedure specifically designed to adjust for performance level. In addition to showing a substantial recruitment of the occipital cortex for sound processing in CB, we also demonstrate that auditory-spatial processing mainly recruits the right cuneus and the right middle occipital gyrus, two regions of the dorsal occipital stream known to be involved in visuospatial/motion processing in SI. Moreover, functional connectivity analyses revealed that these reorganized occipital regions are part of an extensive brain network including regions known to underlie audiovisual spatial abilities (i.e., intraparietal sulcus, superior frontal gyrus). We conclude that some regions of the right dorsal occipital stream do not require visual experience to develop a specialization for the processing of spatial information and to be functionally integrated in a preexisting brain network dedicated to this ability.
0

Direct structural connections between auditory and visual motion selective regions in humans

Ane Gurtubay-Antolín et al.Jun 12, 2020
ABSTRACT In humans, the occipital middle-temporal region (hMT+/V5) specializes in the processing of visual motion, while the Planum Temporale (hPT) specializes in auditory motion processing. It has been hypothesized that these regions might communicate directly to achieve fast and optimal exchange of multisensory motion information. In this study, we investigated for the first time in humans the existence of direct white matter connections between visual and auditory motion-selective regions using a combined functional- and diffusion-MRI approach. We found reliable evidence supporting the existence of direct white matter connections between individually and functionally defined hMT+/V5 and hPT. We show that projections between hMT+/V5 and hPT do not overlap with large white matter bundles such as the Inferior Longitudinal Fasciculus (ILF) nor the Inferior Frontal Occipital Fasciculus (IFOF). Moreover, we did not find evidence for the existence of reciprocal projections between the face fusiform area and hPT, supporting the functional specificity of hMT+/V5 – hPT connections. Finally, evidence supporting the existence of hMT+/V5 – hPT connections was corroborated in a large sample of participants (n=114) from the human connectome project. Altogether, this study provides first evidence supporting the existence of direct occipito-temporal projections between hMT+/V5 and hPT which may support the exchange of motion information between functionally specialized auditory and visual regions and that we propose to name the middle (or motion) occipito-temporal track (MOTT).
1

Visual motion processing recruits regions selective for auditory motion in early deaf individuals

Stefania Benetti et al.Nov 27, 2020
Abstract In early deaf individuals, the auditory deprived temporal brain regions become engaged in visual processing. In our study we tested further the hypothesis that intrinsic functional specialization guides the expression of cross-modal responses in the deprived auditory cortex. We used functional MRI to characterize the brain response to horizontal, radial and stochastic visual motion in early deaf and hearing individuals matched for the use of oral or sign language. Visual motion showed enhanced response in the ‘deaf’ mid-lateral planum temporale , a region selective to auditory motion as demonstrated by a separate auditory motion localizer in hearing people. Moreover, multivariate pattern analysis revealed that this reorganized temporal region showed enhanced decoding of motion categories in the deaf group, while visual motion-selective region hMT+/V5 showed reduced decoding when compared to hearing people. Dynamic Causal Modelling revealed that the ‘deaf’ motion-selective temporal region shows a specific increase of its functional interactions with hMT+/V5 and is now part of a large-scale visual motion selective network. In addition, we observed preferential responses to radial, compared to horizontal, visual motion in the ‘deaf’ right superior temporal cortex region that also show preferential response to approaching/receding sounds in the hearing brain. Overall, our results suggest that the early experience of auditory deprivation interacts with intrinsic constraints and triggers a large-scale reallocation of computational load between auditory and visual brain regions that typically support the multisensory processing of motion information. Highlights Auditory motion-sensitive regions respond to visual motion in the deaf Reorganized auditory cortex can discriminate between visual motion trajectories Part of the deaf auditory cortex shows preference for in-depth visual motion Deafness might lead to computational reallocation between auditory/visual regions.
1

Structural and functional network-level reorganization in the coding of auditory motion directions and sound source locations in the absence of vision

Ceren Battal et al.Jul 28, 2021
Abstract hMT+/V5 is a region in the middle occipito-temporal cortex that responds preferentially to visual motion in sighted people. In case of early visual deprivation, hMT+/V5 enhances its response to moving sounds. Whether hMT+/V5 contains information about motion directions and whether the functional enhancement observed in the blind is motion specific, or also involves sound source location, remains unsolved. Moreover, the impact of this crossmodal reorganization of hMT+/V5 on the regions typically supporting auditory motion processing, like the human Planum Temporale (hPT), remains equivocal. We used a combined functional and diffusion MRI approach and individual in-ear recordings to study the impact of early blindness on the brain networks supporting spatial hearing, in male and female humans. Whole-brain univariate analysis revealed that the anterior portion of hMT+/V5 responded to moving sounds in sighted and blind people, while the posterior portion was selective to moving sounds only in blind participants. Multivariate decoding analysis revealed that the presence of motion directions and sound positions information was higher in hMT+/V5 and lower in hPT in the blind group. While both groups showed axis-of-motion organization in hMT+/V5 and hPT, this organization was reduced in the hPT of blind people. Diffusion MRI revealed that the strength of hMT+/V5 – hPT connectivity did not differ between groups, whereas the microstructure of the connections was altered by blindness. Our results suggest that the axis-of-motion organization of hMT+/V5 does not depend on visual experience, but that blindness alters the response properties of occipito-temporal networks supporting spatial hearing in the sighted. Significance Statement Spatial hearing helps living organisms navigate their environment. This is certainly even more true in people born blind. How does blindness affect the brain network supporting auditory motion and sound source location? Our results show that the presence of motion directions and sound positions information was higher in hMT+/V5 and lower in hPT in blind relative to sighted people; and that this functional reorganization is accompanied by microstructural (but not macrostructural) alterations in their connections. These findings suggest that blindness alters crossmodal responses between connected areas that share the same computational goals.
0

Visual cortical entrainment to unheard acoustic speech reflects intelligibility of lip movements and is mediated by dorsal stream regions

Anne Hauswald et al.Jan 7, 2018
Abstract Successful lip reading requires a mapping from visual to phonological information [1]. Recently, visual and motor cortices have been implicated in tracking lip movements (e.g. [2]). It remains unclear, however, whether visuo-phonological mapping occurs already at the level of the visual cortex, that is, whether this structure tracks the acoustic signal in a functionally relevant manner. In order to elucidate this, we investigated how the cortex tracks (i.e. entrains) absent acoustic speech signals carried by silent lip movements. Crucially, we contrasted the entrainment to unheard forward (intelligible) and backward (unintelligible) acoustic speech. We observed that the visual cortex exhibited stronger entrainment to the unheard forward acoustic speech envelope compared to the unheard backward acoustic speech envelope. Supporting the notion of a visuo-phonological mapping process, this forward-backward difference of occipital entrainment was not present for actually observed lip movements. Importantly, the respective occipital region received more top-down input especially from left premotor, primary motor, somatosensory regions and, to a lesser extent, also from posterior temporal cortex. Strikingly, across participants, the extent of top-down modulation of visual cortex stemming from these regions partially correlates with the strength of entrainment to absent acoustic forward speech envelope but not to present forward lip movements. Our findings demonstrate that a distributed cortical network, including key dorsal stream auditory regions [3–5], influence how the visual cortex shows sensitivity to the intelligibility of speech while tracking silent lip movements. Highlights Visual cortex tracks better forward than backward unheard acoustic speech envelope Effects not “trivially” caused by correlation of visual with acoustic signal Stronger top-down control of visual cortex during forward display of lip movements Top-down influence correlates with visual cortical entrainment effect Results seem to reflect visuo-phonological mapping processes
Load More