CA
Claude Alain
Author with expertise in Neural Mechanisms of Auditory Processing and Perception
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
16
(63% Open Access)
Cited by:
1,784
h-index:
66
/
i10-index:
189
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

“What” and “where” in the human auditory system

Claude Alain et al.Sep 25, 2001
The extent to which sound identification and sound localization depend on specialized auditory pathways was examined by using functional magnetic resonance imaging and event-related brain potentials. Participants performed an S1–S2 match-to-sample task in which S1 differed from S2 in its pitch and/or location. In the pitch task, participants indicated whether S2 was lower, identical, or higher in pitch than S1. In the location task, participants were asked to localize S2 relative to S1 (i.e., leftward, same, or rightward). Relative to location, pitch processing generated greater activation in auditory cortex and the inferior frontal gyrus. Conversely, identifying the location of S2 relative to S1 generated greater activation in posterior temporal cortex, parietal cortex, and the superior frontal sulcus. Differential task-related effects on event-related brain potentials (ERPs) were seen in anterior and posterior brain regions beginning at 300 ms poststimulus and lasting for several hundred milliseconds. The converging evidence from two independent measurements of dissociable brain activity during identification and localization of identical stimuli provides strong support for specialized auditory streams in the human brain. These findings are analogous to the “what” and “where” segregation of visual information processing, and suggest that a similar functional organization exists for processing information from the auditory modality.
0

Effects of Attention on Neuroelectric Correlates of Auditory Stream Segregation

Joel Snyder et al.Jan 1, 2006
A general assumption underlying auditory scene analysis is that the initial grouping of acoustic elements is independent of attention. The effects of attention on auditory stream segregation were investigated by recording event-related potentials (ERPs) while participants either attended to sound stimuli and indicated whether they heard one or two streams or watched a muted movie. The stimuli were pure-tone ABA--patterns that repeated for 10.8 sec with a stimulus onset asynchrony between A and B tones of 100 msec in which the A tone was fixed at 500 Hz, the B tone could be 500, 625, 750, or 1000 Hz, and--was a silence. In both listening conditions, an enhancement of the auditory-evoked response (P1-N1-P2 and N1c) to the B tone varied with Deltaf and correlated with perception of streaming. The ERP from 150 to 250 msec after the beginning of the repeating ABA- patterns became more positive during the course of the trial and was diminished when participants ignored the tones, consistent with behavioral studies indicating that streaming takes several seconds to build up. The N1c enhancement and the buildup over time were larger at right than left temporal electrodes, suggesting a right-hemisphere dominance for stream segregation. Sources in Heschl's gyrus accounted for the ERP modulations related to Deltaf-based segregation and buildup. These findings provide evidence for two cortical mechanisms of streaming: automatic segregation of sounds and attention-dependent buildup process that integrates successive tones within streams over several seconds.
0

Musical Training Orchestrates Coordinated Neuroplasticity in Auditory Brainstem and Cortex to Counteract Age-Related Declines in Categorical Vowel Perception

Gavin Bidelman et al.Jan 21, 2015
Musicianship in early life is associated with pervasive changes in brain function and enhanced speech-language skills. Whether these neuroplastic benefits extend to older individuals more susceptible to cognitive decline, and for whom plasticity is weaker, has yet to be established. Here, we show that musical training offsets declines in auditory brain processing that accompanying normal aging in humans, preserving robust speech recognition late into life. We recorded both brainstem and cortical neuroelectric responses in older adults with and without modest musical training as they classified speech sounds along an acoustic–phonetic continuum. Results reveal higher temporal precision in speech-evoked responses at multiple levels of the auditory system in older musicians who were also better at differentiating phonetic categories. Older musicians also showed a closer correspondence between neural activity and perceptual performance. This suggests that musicianship strengthens brain-behavior coupling in the aging auditory system. Last, “neurometric” functions derived from unsupervised classification of neural activity established that early cortical responses could accurately predict listeners' psychometric speech identification and, more critically, that neurometric profiles were organized more categorically in older musicians. We propose that musicianship offsets age-related declines in speech listening by refining the hierarchical interplay between subcortical/cortical auditory brain representations, allowing more behaviorally relevant information carried within the neural code, and supplying more faithful templates to the brain mechanisms subserving phonetic computations. Our findings imply that robust neuroplasticity conferred by musical training is not restricted by age and may serve as an effective means to bolster speech listening skills that decline across the lifespan.
0
Paper
Citation242
0
Save
0

Noise differentially impacts phoneme representations in the auditory and speech motor systems

Yi Du et al.Apr 28, 2014
Although it is well accepted that the speech motor system (SMS) is activated during speech perception, the functional role of this activation remains unclear. Here we test the hypothesis that the redundant motor activation contributes to categorical speech perception under adverse listening conditions. In this functional magnetic resonance imaging study, participants identified one of four phoneme tokens (/ba/, /ma/, /da/, or /ta/) under one of six signal-to-noise ratio (SNR) levels (-12, -9, -6, -2, 8 dB, and no noise). Univariate and multivariate pattern analyses were used to determine the role of the SMS during perception of noise-impoverished phonemes. Results revealed a negative correlation between neural activity and perceptual accuracy in the left ventral premotor cortex and Broca's area. More importantly, multivoxel patterns of activity in the left ventral premotor cortex and Broca's area exhibited effective phoneme categorization when SNR ≥ -6 dB. This is in sharp contrast with phoneme discriminability in bilateral auditory cortices and sensorimotor interface areas (e.g., left posterior superior temporal gyrus), which was reliable only when the noise was extremely weak (SNR > 8 dB). Our findings provide strong neuroimaging evidence for a greater robustness of the SMS than auditory regions for categorical speech perception in noise. Under adverse listening conditions, better discriminative activity in the SMS may compensate for loss of specificity in the auditory system via sensorimotor integration.
0

Enhancing speech perception in noise through articulation

Maxime Perron et al.Jun 26, 2024
Abstract Considerable debate exists about the interplay between auditory and motor speech systems. Some argue for common neural mechanisms, whereas others assert that there are few shared resources. In four experiments, we tested the hypothesis that priming the speech motor system by repeating syllable pairs aloud improves subsequent syllable discrimination in noise compared with a priming discrimination task involving same–different judgments via button presses. Our results consistently showed that participants who engaged in syllable repetition performed better in syllable discrimination in noise than those who engaged in the priming discrimination task. This gain in accuracy was observed for primed and new syllable pairs, highlighting increased sensitivity to phonological details. The benefits were comparable whether the priming tasks involved auditory or visual presentation. Inserting a 1‐h delay between the priming tasks and the syllable‐in‐noise task, the benefits persisted but were confined to primed syllable pairs. Finally, we demonstrated the effectiveness of this approach in older adults. Our findings substantiate the existence of a speech production–perception relationship. They also have clinical relevance as they raise the possibility of production‐based interventions to improve speech perception ability. This would be particularly relevant for older adults who often encounter difficulties in perceiving speech in noise.
0

Accumulated reserves hold back age-related neural compensation in speech-in-noise perception

Lei Zhang et al.Jun 1, 2024
Abstract Recruitment of neural activity or functional connectivity is commonly observed in older adults but poorly understood. We measured brain activity with fMRI during speech-in-noise tasks and assessed whether accumulated reserve accrued through musical training bolsters or holds back age-related neural compensation. Older musicians exhibited less upregulation of task-induced functional connectivity than older non-musicians in dorsal regions, which predicted better behavioral performance in older musicians. The findings suggest that accumulated reserve may hold back neural recruitment. Besides functional connectivity strength, we also found that older musicians showed more youth-like fine spatial patterns of functional connectivity than older non-musicians. However, benefits from visual lip movements were not specific to either hypothesis. Aligning with enhanced benefits in behavioral performance, older musicians showed more extensive functional connectivity enhancement, specifically in the right hemisphere, than older non-musicians. Our findings enlightened the intricate interplay between accumulated reserve and age-related neural compensation during speech in noise perception.
0

Neural Mechanism Underlying Successful Classification of Amnestic Mild Cognitive Impairment Using Multi-Sensory-Evoked Potentials

Lei Zhang et al.Aug 10, 2024
Abstract Introduction The diagnosis, prognosis, and management of amnestic mild cognitive impairment (aMCI) remains challenging. Early detection of aMCI is crucial for timely interventions. Method This study combines scalp recordings of auditory, visual, and somatosensory stimuli with a flexible and interpretable support vector machine classification pipeline to differentiate individuals diagnosed with aMCI from healthy controls. Results Event-related potentials (ERPs) and functional connectivity (FC) matrices from each modality successfully predicted aMCI. We got optimal classification accuracy (96.1%), sensitivity (97.7%) and specificity (94.3%) when combining information from all sensory conditions than when using information from a single modality. Reduced ERP amplitude, higher FC in frontal region which predicted worse cognitive performance, and lower FC in posterior regions from delta to alpha frequency in aMCI contributed to classification. Conclusions The results highlight the clinical potential of sensory-evoked potentials in detecting aMCI, with optimal classification using both amplitude and oscillatory-based FC measures from multiple modalities.
Load More