IC
Inyong Choi
Author with expertise in Impact of Hearing Loss on Cognitive Function
University of Iowa, University of Iowa Hospitals and Clinics, Seoul National University of Science and Technology
+ 3 more
Achievements
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
8
(50% Open Access)
Cited by:
2
h-index:
12
/
i10-index:
14
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
1

Immediate neural network impact after the loss of a semantic hub

Zsuzsanna Kocsis et al.Oct 24, 2023
+15
T
R
Z
SUMMARY The human brain extracts meaning from the world using an extensive neural system for semantic knowledge. Whether such broadly distributed systems 1–3 crucially depend on or can compensate for the loss of one of their highly interconnected hubs 4–6 is controversial 4 . The strongest level of causal evidence for the role of a brain hub is to evaluate its acute network-level impact following disconnection and any rapid functional compensation that ensues. We report rare neurophysiological data from two patients who underwent awake intracranial recordings during a speech prediction task immediately before and after neurosurgical treatment that required disconnection of the left anterior temporal lobe (ATL), a crucial hub for semantic knowledge 4–6 . Informed by a predictive coding framework, we tested three sets of hypotheses including diaschisis causing disruption in interconnected sites 7 and incomplete or complete compensation by other language-critical and speech processing sites 8–10 . Immediately after ATL disconnection, we observed highly specific neurophysiological alterations in the recorded fronto-temporal network, including abnormally magnified high gamma responses to the speech sounds in auditory cortex. We also observed evidence for rapid compensation, seen as focal increases in effective connectivity involving language-critical sites in the inferior frontal gyrus and speech processing sites in auditory cortex. However, compensation was incomplete, in part because after ATL disconnection speech prediction signals were depleted in auditory cortex. This study provides direct causal evidence for a semantic hub in the human brain and shows striking neural impact and a rapid attempt at compensation in a neural network after the loss of one of its hubs.
1
Citation1
0
Save
0

Pre- and post-target cortical processes predict speech-in-noise performance

Subong Kim et al.May 7, 2020
+4
A
A
S
Abstract Understanding speech in noise (SiN) is a complex task that recruits multiple cortical subsystems. There is a variance in individuals’ ability to understand SiN that cannot be explained by simple hearing profiles, which suggests that central factors may underlie the variance in SiN ability. Here, we elucidated a few cortical functions involved during a SiN task and their contributions to individual variance using both within- and across-subject approaches. Through our within-subject analysis of source-localized electroencephalography, we investigated how acoustic signal-to-noise ratio (SNR) alters cortical evoked responses to a target word across the speech recognition areas, finding stronger responses in left supramarginal gyrus (SMG, BA40 the dorsal lexicon area) with quieter noise. Through an individual differences approach, we found that listeners show different neural sensitivity to the background noise and target speech, reflected in the amplitude ratio of earlier auditory-cortical responses to speech and noise, named as an internal SNR . Listeners with better internal SNR showed better SiN performance. Further, we found that the post-speech time SMG activity explains a further amount of variance in SiN performance that is not accounted for by internal SNR . This result demonstrates that at least two cortical processes contribute to SiN performance independently: pre-target time processing to attenuate neural representation of background noise and post-target time processing to extract information from speech sounds.
0

Topographic specificity of alpha power during auditory spatial attention

Yuqi Deng et al.May 7, 2020
B
I
Y
Visual and somatosensory spatial attention both induce parietal alpha (7-14 Hz) oscillations whose topographical distribution depends on the direction of spatial attentional focus. In the auditory domain, contrasts of parietal alpha power for leftward and rightward attention reveal a qualitatively similar lateralization; however, it is not clear whether alpha lateralization changes monotonically with the direction of auditory attention as it does for visual spatial attention. In addition, most previous studies of alpha oscillation did not consider subject-specific differences in alpha frequency, but simply analyzed power in a fixed spectral band. Here, we recorded electroencephalography in human subjects when they directed attention to one of five azimuthal locations. After a cue indicating the direction of an upcoming target sequence of spoken syllables (yet before the target began), alpha power changed in a task specific manner. Subject-specific peak alpha frequencies differed consistently between frontocentral electrodes and parieto-occipital electrodes, suggesting multiple neural generators of task-related alpha. Parieto-occipital alpha increased over the hemisphere ipsilateral to attentional focus compared to the contralateral hemisphere, and changed systematically as the direction of attention shifted from far left to far right. These results showing that parietal alpha lateralization changes smoothly with the direction of auditory attention as in visual spatial attention provide further support to the growing evidence that the frontoparietal attention network is supramodal.
10

Neurofeedback training of auditory selective attention enhances speech-in-noise perception

Subong Kim et al.Oct 24, 2023
I
C
S
Abstract Selective attention enhances cortical responses to attended sensory inputs while suppressing others, which can be an effective strategy for speech-in-noise (SiN) understanding. Here, we introduce a training paradigm designed to reinforce attentional modulation of auditory evoked responses. Subjects attended one of two speech streams while our EEG-based attention decoder provided online feedback. After four weeks of this neurofeedback training, subjects exhibited enhanced cortical response to target speech and improved performance during a SiN task. Such training effects were not found in the Placebo group that underwent attention training without neurofeedback. These results suggest an effective rehabilitation for SiN deficits.
0

Impoverished auditory cues limit engagement of brain networks controlling spatial selective attention

Yuqi Deng et al.May 7, 2020
R
B
I
Y
Spatial selective attention enables listeners to process a signal of interest in natural settings. However, most past studies on auditory spatial attention used impoverished spatial cues: presenting competing sounds to different ears, using only interaural differences in time (ITDs) and/or intensity (IIDs), or using non-individualized head-related transfer functions (HRTFs). Here we tested the hypothesis that impoverished spatial cues impair spatial auditory attention by only weakly engaging relevant cortical networks. Eighteen normal-hearing listeners reported the content of one of two competing syllable streams simulated at roughly +30 ° and −30° azimuth. The competing streams consisted of syllables from two different-sex talkers. Spatialization was based on natural spatial cues (individualized HRTFs), individualized IIDs, or generic ITDs. We measured behavioral performance as well as electroencephalographic markers of selective attention. Behaviorally, subjects recalled target streams most accurately with natural cues. Neurally, spatial attention significantly modulated early evoked sensory response magnitudes only for natural cues, not in conditions using only ITDs or IIDs. Consistent with this, parietal oscillatory power in the alpha band (8-14 Hz; associated with filtering out distracting events from unattended directions) showed significantly less attentional modulation with isolated spatial cues than with natural cues. Our findings support the hypothesis that spatial selective attention networks are only partially engaged by impoverished spatial auditory cues. These results not only suggest that studies using unnatural spatial cues underestimate the neural effects of spatial auditory attention, they also illustrate the importance of preserving natural spatial cues in assistive listening devices to support robust attentional control.Highlights
0

Non-Invasive Assays of Cochlear Synaptopathy -- Candidates and Considerations

Hari Bharadwaj et al.May 7, 2020
+3
J
R
H
Studies in multiple species, including in post-mortem human tissue, have shown that normal aging and/or acoustic overexposure can lead to a significant loss of afferent synapses innervating the cochlea. Hypothetically, this cochlear synaptopathy can lead to perceptual deficits in challenging environments and can contribute to central neural effects such as tinnitus. However, because cochlear synaptopathy can occur without any measurable changes in audiometric thresholds, synaptopathy can remain hidden from standard clinical diagnostics. To understand the perceptual sequelae of synaptopathy and to evaluate the efficacy of emerging therapies, sensitive and specific non-invasive measures at the individual patient level need to be established. Pioneering experiments in specific mice strains have helped identify many candidate assays. These include auditory brainstem responses, the middle-ear muscle reflex, envelope-following responses, and extended high-frequency audiograms. Unfortunately, because these non-invasive measures can be also affected by extraneous factors other than synaptopathy, their application and interpretation in humans is not straightforward. Here, we systematically examine six extraneous factors through a series of interrelated human experiments aimed at understanding their effects. Using strategies that may help mitigate the effects of such extraneous factors, we then show that these suprathreshold physiological assays exhibit across-individual correlations with each other indicative of contributions from a common physiological source consistent with cochlear synaptopathy. Finally, we discuss the application of these assays to two key outstanding questions, and discuss some barriers that still remain. Keywords: Cochlear synaptopathy; Middle-ear muscle reflex; hidden-hearing loss; auditory brainstem response; envelope-following response; individual differences
3

Neural correlates of individual differences in speech-in-noise performance in a large cohort of cochlear implant users

Joel Berger et al.Oct 24, 2023
+11
S
P
J
Abstract Objectives Understanding speech in noise (SiN) is a complex task that recruits multiple cortical subsystems. Individuals vary in their ability to understand SiN. This cannot be explained by simple peripheral hearing profiles, but recent work by our group (Kim et al., 2021, Neuroimage) highlighted central neural factors underlying the variance in SiN ability in normal hearing (NH) subjects. The current study examined neural predictors of speech-in-noise ability in a large cohort of cochlear-implant (CI) users, with the long-term goal of developing a simple electrophysiological correlate that could be implemented in clinics. Design We recorded electroencephalography (EEG) in 114 post-lingually deafened CI users while they completed the California Consonant Test (CCT): a word-in-noise task. In many subjects, data were also collected on two other commonly used clinical measures of speech perception: a word-in-quiet task (Consonant-Nucleus-Consonant [CNC]) word and a sentence-in-noise task (AzBio sentences). Neural activity was assessed at a single vertex electrode (Cz), to maximize generalizability to clinical situations. The N1-P2 complex of event-related potentials (ERPs) at this location were included in multiple linear regression analyses, along with several other demographic and hearing factors as predictors of speech in noise performance. Results In general, there was a good agreement between the scores on the three speech perception tasks. ERP amplitudes did not predict AzBio performance which was predicted by the duration of device use, low-frequency hearing thresholds, and age. However, ERP amplitudes were strong predictors for performance for both word recognition tasks: the CCT (which was conducted simultaneously with EEG recording), and the CNC (conducted offline). These correlations held even after accounting for known predictors of performance including residual low-frequency hearing thresholds. In CI-users, better performance was predicted by an increased cortical response to the target word, in contrast to previous reports in normal-hearing subjects in whom speech perception ability was accounted for by the ability to suppress noise. Conclusions These data indicate a neurophysiological correlate of speech-in-noise performance that can be relatively easily captured within the clinic, thereby revealing a richer profile of an individual’s hearing performance than shown by psychoacoustic measures alone. These results also highlight important differences between sentence and word recognition measures of performance and suggest that individual differences in these measures may be underwritten by different mechanisms. Finally, the contrast with prior reports of NH listeners in the same task suggests CI-users performance may be explained by a different weighting of neural processes than NH listeners.
0

Causal links between parietal alpha activity and spatial auditory attention

Yuqi Deng et al.May 7, 2020
B
I
R
Y
Both visual and auditory spatial selective attention result in lateralized alpha (8-14 Hz) oscillatory power in parietal cortex: alpha increases in the hemisphere ipsilateral to attentional focus. Brain stimulation studies suggest a causal relationship between parietal alpha and suppression of the representation of contralateral visual space. However, there is no evidence that parietal alpha controls auditory spatial attention. Here, we performed high definition transcranial alternating current stimulation (HD-tACS) on human subjects performing an auditory task in which they attended either spatial or nonspatial features. Alpha (10 Hz) but not theta (6 Hz) HD-tACS of right parietal cortex interfered with attending left but not right auditory space. Parietal stimulation had no effect for nonspatial auditory attention. Moreover, performance in post-stimulation trials returned rapidly to baseline. These results demonstrate a causal, frequency-, hemispheric-, and task-specific effect of parietal alpha brain stimulation on top-down control of auditory spatial attention.