AM
Ashesh Mehta
Author with expertise in Neuronal Oscillations in Cortical Networks
Feinstein Institute for Medical Research, Hofstra University, Donald & Barbara Zucker School of Medicine at Hofstra/Northwell
+ 7 more
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
22
(50% Open Access)
Cited by:
68
h-index:
50
/
i10-index:
81
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Adaptation of the human auditory cortex to changing background noise

Bahar Khalighinejad et al.Jun 27, 2024
N
A
J
B
Abstract Speech communication in real-world environments requires adaptation to changing acoustic conditions. How the human auditory cortex adapts as a new noise source appears in or disappears from the acoustic scene remain unclear. Here, we directly measured neural activity in the auditory cortex of six human subjects as they listened to speech with abruptly changing background noises. We report rapid and selective suppression of acoustic features of noise in the neural responses. This suppression results in enhanced representation and perception of speech acoustic features. The degree of adaptation to different background noises varies across neural sites and is predictable from the tuning properties and speech specificity of the sites. Moreover, adaptation to background noise is unaffected by the attentional focus of the listener. The convergence of these neural and perceptual effects reveals the intrinsic dynamic mechanisms that enable a listener to filter out irrelevant sound sources in a changing acoustic scene.
16

Functional characterization of human Heschl’s gyrus in response to natural speech

Bahar Khalighinejad et al.Oct 24, 2023
+2
S
J
B
Abstract Heschl’s gyrus (HG) is a brain area that includes the primary auditory cortex in humans. Due to the limitations in obtaining direct neural measurements from this region during naturalistic speech listening, the functional organization and the role of HG in speech perception remains uncertain. Here, we used intracranial EEG to directly record the neural activity in HG in eight neurosurgical patients as they listened to continuous speech stories. We studied the spatial distribution of acoustic tuning and the organization of linguistic feature encoding. We found a main gradient of change from posteromedial to anterolateral parts of HG. Along this direction, we observed a decrease in frequency and temporal modulation tuning, and an increase in phonemic representation, speaker normalization, speech-sensitivity, and response latency. We did not observe a difference between the two brain hemispheres. These findings reveal a functional role for HG in processing and transforming simple to complex acoustic features and informs neurophysiological models of speech processing in the human auditory cortex.
1

Intracranial electroencephalography reveals effector-independent evidence accumulation dynamics in multiple human brain regions

Sabina Gherman et al.Oct 24, 2023
+5
G
N
S
Abstract Neural representations of perceptual decision formation that are abstracted from specific motor requirements have previously been identified in humans using non-invasive electrophysiology, however, it is currently unclear where these originate in the brain. Here, we capitalized on the high spatiotemporal precision of intracranial EEG to localize such abstract decision signals. Presurgical epilepsy patients judged the direction of random-dot stimuli and responded either with a speeded button press (N=23), or vocally, after a randomized delay (N=11). We found a widely distributed motor-independent network of regions where high-frequency activity exhibited key characteristics consistent with evidence accumulation, including a gradual build-up that was modulated by the strength of the sensory evidence, and an amplitude that predicted subjects’ choice accuracy and response time. Our findings offer a new view on the brain networks governing human decision making.
0

Towards reconstructing intelligible speech from the human auditory cortex

Hassan Akbari et al.May 6, 2020
+2
J
B
H
Auditory stimulus reconstruction is a technique that finds the best approximation of the acoustic stimulus from the population of evoked neural activity. Reconstructing speech from the human auditory cortex creates the possibility of a speech neuroprosthetic to establish a direct communication with the brain and has been shown to be possible in both overt and covert conditions. However, the low quality of the reconstructed speech has severely limited the utility of this method for brain-computer interface (BCI) applications. To advance the state-of-the-art in speech neuroprosthesis, we combined the recent advances in deep learning with the latest innovations in speech synthesis technologies to reconstruct closed-set intelligible speech from the human auditory cortex. We investigated the dependence of reconstruction accuracy on linear and nonlinear regression methods and the acoustic representation that is used as the target of reconstruction, including spectrogram and speech synthesis parameters. In addition, we compared the reconstruction accuracy from low and high neural frequency ranges. Our results show that a deep neural network model that directly estimates the parameters of a speech synthesizer from all neural frequencies achieves the highest subjective and objective scores on a digit recognition task, improving the intelligibility by 65% over the baseline. These results demonstrate the efficacy of deep learning and speech synthesis algorithms for designing the next generation of speech BCI systems, which not only can restore communications for paralyzed patients but also have the potential to transform human-computer interaction technologies.
0

Phase resetting in human auditory cortex to visual speech

Pierre Mégevand et al.May 7, 2020
+5
D
M
P
Natural conversation is multisensory: when we can see the speaker’s face, visual speech cues influence our perception of what is being said. The neuronal basis of this phenomenon remains unclear, though there is indication that phase modulation of neuronal oscillations—ongoing excitability fluctuations of neuronal populations in the brain—provides a mechanistic contribution. Investigating this question using naturalistic audiovisual speech with intracranial recordings in humans, we show that neuronal populations in auditory cortex track the temporal dynamics of unisensory visual speech using the phase of their slow oscillations and phase-related modulations in high-frequency activity. Auditory cortex thus builds a representation of the speech stream’s envelope based on visual speech alone, at least in part by resetting the phase of its ongoing oscillations. Phase reset could amplify the representation of the speech stream and organize the information contained in neuronal activity patterns.SIGNIFICANCE STATEMENT Watching the speaker can facilitate our understanding of what is being said. The mechanisms responsible for this influence of visual cues on the processing of speech remain incompletely understood. We studied those mechanisms by recording the human brain’s electrical activity through electrodes implanted surgically inside the skull. We found that some regions of cerebral cortex that process auditory speech also respond to visual speech even when it is shown as a silent movie without a soundtrack. This response can occur through a reset of the phase of ongoing oscillations, which helps augment the response of auditory cortex to audiovisual speech. Our results contribute to discover the mechanisms by which the brain merges auditory and visual speech into a unitary perception.### Competing Interest StatementThe authors have declared no competing interest.
14

Saccadic modulation of neural excitability in auditory areas of the neocortex

Marcin Leszczyński et al.Oct 24, 2023
+5
M
S
M
Summary In natural “active” vision, humans and other primates use eye movements (saccades) to sample bits of information from visual scenes. In this process, nonretinal signals linked to saccades shift visual cortical neurons to a high excitability state as each saccade ends. The extent of this saccadic modulation outside of the visual system is unknown. Here, we show that during natural viewing, saccades modulate excitability in numerous auditory cortical areas, with a pattern complementary to that seen in visual areas. Bi-directional functional connectivity patterns suggest that these effects may arise from regions involved in saccade generation. By using saccadic signals to yoke excitability states in auditory areas to those in visual areas, the brain can improve information processing in complex natural settings.
0

Deep Convolutional modeling of human face selective columns reveals their role in pictorial face representation

Shany Grossman et al.May 7, 2020
+8
E
G
S
Despite the massive accumulation of systems neuroscience findings, their functional meaning remains tentative, largely due to the absence of realistically performing models. The discovery that deep convolutional networks achieve human performance in realistic tasks offers fresh opportunities for such modeling. Here we show that the face-space topography of face-selective columns recorded intra-cranially in 32 patients significantly matches that of a DCNN having human-level face recognition capabilities. Three modeling aspects converge in pointing to a role of human face areas in pictorial rather than person identification: First, the match was confined to intermediate layers of the DCNN. Second, identity preserving image manipulations abolished the brain to DCNN correlation. Third, DCNN neurons matching face-column tuning displayed view-point selective receptive fields. Our results point to a "convergent evolution" of pattern similarities in biological and artificial face perception. They demonstrate DCNNs as a powerful modeling approach for deciphering the function of human cortical networks.
0

iELVis: An open source MATLAB toolbox for localizing and visualizing human intracranial electrode data

David Groppe et al.May 6, 2020
+6
A
S
D
Background: Intracranial electrical recordings (iEEG) and brain stimulation (iEBS) are invaluable human neuroscience methodologies. However, the value of such data is often unrealized as many laboratories lack tools for localizing electrodes relative to anatomy. To remedy this, we have developed a MATLAB toolbox for intracranial electrode localization and visualization, iELVis. New Method: iELVis uses existing tools (BioImage Suite, FSL, and FreeSurfer) for preimplant magnetic resonance imaging (MRI) segmentation, neuroimaging coregistration, and manual identification of electrodes in postimplant neuroimaging. Subsequently, iELVis implements methods for correcting electrode locations for postimplant brain shift with millimeter-scale accuracy and provides interactive visualization on 3D surfaces or in 2D slices with optional functional neuroimaging overlays. iELVis also localizes electrodes relative to FreeSurfer-based atlases and can combine data across subjects via the FreeSurfer average brain. Results: It takes 30-60 minutes of user time and 12-24 hours of computer time to localize and visualize electrodes from one brain. We demonstrate iELVis's functionality by showing that three methods for mapping primary hand somatosensory cortex (iEEG, iEBS, and functional MRI) provide highly concordant results. Comparison with Existing Methods iELVis is the first public software for electrode localization that corrects for brain shift, maps electrodes to an average brain, and supports neuroimaging overlays. Moreover, its interactive visualizations are powerful and its tutorial material is extensive. Conclusions: iELVis promises to speed the progress and enhance the robustness of intracranial electrode research. The software and extensive tutorial materials are freely available as part of the EpiSurg software project: https://github.com/episurg/episurg
0

Spatiotemporal structure of intracranial electric fields induced by transcranial electric stimulation in human and nonhuman primates

Alexander Opitz et al.May 7, 2020
+7
Y
A
A
Transcranial electric stimulation (TES) is an emerging technique, developed to non-invasively modulate brain function. However, the spatiotemporal distribution of the intracranial electric fields induced by TES remains poorly understood. In particular, it is unclear how much current actually reaches the brain, and how it distributes across the brain. Lack of this basic information precludes a firm mechanistic understanding of TES effects. In this study we directly measure the spatial and temporal characteristics of the electric field generated by TES using stereotactic EEG (s-EEG) electrode arrays implanted in cebus monkeys and surgical epilepsy patients. We found a small frequency dependent decrease (10%) in magnitudes of TES induced potentials and negligible phase shifts over space. Electric field strengths were strongest in superficial brain regions with maximum values of about 0.5 mV/mm. Our results provide crucial information for the interpretation of human TES studies and the optimization and design of TES stimulation protocols. In addition, our findings have broad implications concerning electric field propagation in non-invasive recording techniques such as EEG/MEG.
0

Intracortical dynamics underlying repetitive stimulation predicts changes in network connectivity

Yuhao Huang et al.May 7, 2020
+4
L
B
Y
Targeted stimulation can be used to modulate the activity of brain networks. Previously we demonstrated that direct electrical stimulation produces predictable post-stimulation changes in brain excitability. However, understanding the neural dynamics during stimulation and its relationship to post-stimulation effects is limited but critical for treatment optimization. Here, we applied 10Hz direct electrical stimulation across several cortical regions in 14 patients implanted with intracranial electrodes for seizure monitoring. The stimulation train was characterized by a consistent increase in high gamma (70-170Hz) power. Immediately post-train, low-frequency (1-8Hz) power increased, resulting in an evoked response that was highly correlated with the neural response during stimulation. Using two measures of network connectivity, cortico-cortical evoked potentials (indexing effective connectivity) and theta coherence (indexing functional connectivity), we found a stronger response to stimulation in regions that were highly connected to the stimulation site. In these regions, repeated cycles of stimulation trains and rest progressively altered the stimulation response. Finally, after just 2 minutes (10%) of repetitive stimulation, we were able to predict post-stimulation connectivity changes with high discriminability. Taken together, this work reveals a relationship between stimulation dynamics and post-stimulation connectivity changes in humans. Thus, measuring neural activity during stimulation can inform future plasticity-inducing protocols.
Load More