NM
Nima Mesgarani
Author with expertise in Neuronal Oscillations in Cortical Networks
Columbia University, Allen Institute for Brain Science, Johns Hopkins University
+ 10 more
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
14
(64% Open Access)
Cited by:
94
h-index:
38
/
i10-index:
75
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Adaptation of the human auditory cortex to changing background noise

Bahar Khalighinejad et al.Jun 27, 2024
N
A
J
B
Abstract Speech communication in real-world environments requires adaptation to changing acoustic conditions. How the human auditory cortex adapts as a new noise source appears in or disappears from the acoustic scene remain unclear. Here, we directly measured neural activity in the auditory cortex of six human subjects as they listened to speech with abruptly changing background noises. We report rapid and selective suppression of acoustic features of noise in the neural responses. This suppression results in enhanced representation and perception of speech acoustic features. The degree of adaptation to different background noises varies across neural sites and is predictable from the tuning properties and speech specificity of the sites. Moreover, adaptation to background noise is unaffected by the attentional focus of the listener. The convergence of these neural and perceptual effects reveals the intrinsic dynamic mechanisms that enable a listener to filter out irrelevant sound sources in a changing acoustic scene.
1

Large-scale single-neuron speech sound encoding across the depth of human cortex

Matthew Leonard et al.Dec 14, 2023
+7
K
L
M
Abstract Understanding the neural basis of speech perception requires that we study the human brain both at the scale of the fundamental computational unit of neurons and in their organization across the depth of cortex. Here we used high-density Neuropixels arrays 1–3 to record from 685 neurons across cortical layers at nine sites in a high-level auditory region that is critical for speech, the superior temporal gyrus 4,5 , while participants listened to spoken sentences. Single neurons encoded a wide range of speech sound cues, including features of consonants and vowels, relative vocal pitch, onsets, amplitude envelope and sequence statistics. Neurons at each cross-laminar recording exhibited dominant tuning to a primary speech feature while also containing a substantial proportion of neurons that encoded other features contributing to heterogeneous selectivity. Spatially, neurons at similar cortical depths tended to encode similar speech features. Activity across all cortical layers was predictive of high-frequency field potentials (electrocorticography), providing a neuronal origin for macroelectrode recordings from the cortical surface. Together, these results establish single-neuron tuning across the cortical laminae as an important dimension of speech encoding in human superior temporal gyrus.
29

Multiscale integration organizes hierarchical computation in human auditory cortex

Sam Norman-Haignere et al.Oct 24, 2023
+8
O
L
S
Abstract To derive meaning from sound, the brain must integrate information across tens (e.g. phonemes) to hundreds (e.g. words) of milliseconds, but the neural computations that enable multiscale integration remain unclear. Prior evidence suggests that human auditory cortex analyzes sound using both generic acoustic features (e.g. spectrotemporal modulation) and category-specific computations, but how these putatively distinct computations integrate temporal information is unknown. To answer this question, we developed a novel method to estimate neural integration periods and applied the method to intracranial recordings from human epilepsy patients. We show that integration periods increase three-fold as one ascends the auditory cortical hierarchy. Moreover, we find that electrodes with short integration periods (~50-150 ms) respond selectively to spectrotemporal modulations, while electrodes with long integration periods (~200-300 ms) show prominent selectivity for sound categories such as speech and music. These findings reveal how multiscale temporal analysis organizes hierarchical computation in human auditory cortex.
1

Does the phase of ongoing EEG oscillations predict auditory perception?

Idan Tal et al.Oct 24, 2023
C
N
M
I
Summary Effective processing of information from the environment requires the brain to selectively sample relevant inputs. The visual perceptual system has been shown to sample information rhythmically, oscillating rapidly between more and less input-favorable states. Evidence of parallel effects in auditory perception is inconclusive. Here, we combined a bilateral pitch-identification task with electroencephalography (EEG) to investigate whether the phase of ongoing EEG predicts auditory discrimination accuracy. We compared prestimulus phase distributions between correct and incorrect trials. Shortly before stimulus onset, each of these distributions showed significant phase concentration, but centered at different phase angles. The effects were strongest in theta and beta frequency bands. The divergence between phase distributions showed a linear relation with accuracy, accounting for at least 10% of inter-individual variance. Discrimination performance oscillated rhythmically at a rate predicted by the neural data. These findings indicate that auditory discrimination threshold oscillates over time along with the phase of ongoing EEG activity. Thus, it appears that auditory perception is discrete rather than continuous, with the phase of ongoing EEG oscillations shaping auditory perception by providing a temporal reference frame for information processing.
0

Neural representation of linguistic feature hierarchy reflects second-language proficiency

Giovanni Liberto et al.Jun 5, 2024
+3
J
J
G
Abstract Acquiring a new language requires a simultaneous and gradual learning of multiple levels of linguistic attributes. Here, we investigated how this process changes the neural encoding of natural speech by assessing the encoding of the linguistic feature hierarchy in second-language listeners. Electroencephalography (EEG) signals were recorded during English story listening from native Mandarin speakers with varied English proficiency and from native English speakers. We measured the temporal response functions (TRF) for acoustic, phonemic, phonotactic, and semantic features in individual participants and found a main effect of proficiency on the linguistic encoding. This effect of second-language proficiency was particularly prominent on the neural encoding of phonemes, showing stronger encoding of “new” phonemic contrasts (i.e. English contrasts that do not exist in Mandarin) with increasing proficiency. Overall, we found that linguistic feature representation in nonnative listeners progressively converged to that of native listeners with proficiency, which enabled accurate decoding of language proficiency. This detailed view advances our understanding of the cortical processing of linguistic information in second-language learners and provides an objective measure of language proficiency.
16

Functional characterization of human Heschl’s gyrus in response to natural speech

Bahar Khalighinejad et al.Oct 24, 2023
+2
S
J
B
Abstract Heschl’s gyrus (HG) is a brain area that includes the primary auditory cortex in humans. Due to the limitations in obtaining direct neural measurements from this region during naturalistic speech listening, the functional organization and the role of HG in speech perception remains uncertain. Here, we used intracranial EEG to directly record the neural activity in HG in eight neurosurgical patients as they listened to continuous speech stories. We studied the spatial distribution of acoustic tuning and the organization of linguistic feature encoding. We found a main gradient of change from posteromedial to anterolateral parts of HG. Along this direction, we observed a decrease in frequency and temporal modulation tuning, and an increase in phonemic representation, speaker normalization, speech-sensitivity, and response latency. We did not observe a difference between the two brain hemispheres. These findings reveal a functional role for HG in processing and transforming simple to complex acoustic features and informs neurophysiological models of speech processing in the human auditory cortex.
0

Comparison of Two-Talker Attention Decoding from EEG with Nonlinear Neural Networks and Linear Methods

Gregory Ciccarelli et al.May 7, 2020
+6
J
M
G
Auditory attention decoding (AAD) through a brain-computer interface has had a flowering of developments since it was first introduced by Mesgarani and Chang (2012) using electrocorticograph recordings. AAD has been pursued for its potential application to hearing-aid design in which an attention-guided algorithm selects, from multiple competing acoustic sources, which should be enhanced for the listener and which should be suppressed. Traditionally, researchers have separated the AAD problem into two stages: reconstruction of a representation of the attended audio from neural signals, followed by determining the similarity between the candidate audio streams and the reconstruction. In this work, we compare the traditional two-stage approach with a novel neural-network architecture that subsumes the explicit similarity step. We compare this new architecture against linear and non-linear (neural-network) baselines using both wet and dry electroencephalogram (EEG) systems. Our results indicate that the wet and dry systems can deliver comparable results despite the latter having one third as many EEG channels as the former, and that the new architecture outperforms the baseline stimulus-reconstruction methods for both EEG modalities. The 14-subject, wet-electrode AAD dataset for two competing, co-located talkers, the 11-subject, dry-electrode AAD dataset, and our software are available to download for further validation, experimentation, and modification.
1

The Spatial Reach of Neuronal Coherence and Spike-field Coupling across the Human Neocortex

John Myers et al.Oct 24, 2023
+7
M
E
J
SUMMARY Neuronal coherence is thought to be a fundamental mechanism of communication in the brain, where synchronized field potentials coordinate synaptic and spiking events to support plasticity and learning. Although the spread of field potentials has garnered great interest, little is known about the spatial reach of phase synchronization, or neuronal coherence. Functional connectivity between different brain regions is known to occur across long distances, but the locality of coherence within a brain region is understudied. Here we used simultaneous recordings from electrocorticography (ECoG) grids and high-density microelectrode arrays to estimate the spatial reach of neuronal coherence and spike-field coherence (SFC) across frontal, temporal, and occipital cortices during cognitive tasks in humans. We observed the strongest coherence within a 2-3 cm distance from the microelectrode arrays, potentially defining an effective range for local communication. This range was relatively consistent across brain regions, spectral frequencies, and cognitive tasks. The magnitude of coherence showed power law decay with increasing distance from the microelectrode arrays, where the highest coherence occurred between ECoG contacts, followed by coherence between ECoG and deep cortical LFP, and then SFC (i.e., ECoG > LFP > SFC). The spectral frequency of coherence also affected its magnitude. Alpha coherence (8-14 Hz) was generally higher than other frequencies for signals nearest the microelectrode arrays, whereas delta coherence (1-3 Hz) was higher for signals that were farther away. Action potentials in all brain regions were most coherent with the phase of alpha oscillations, which suggests that alpha waves could play a larger, more spatially local role in spike timing than other frequencies. These findings provide a deeper understanding of the spatial and spectral dynamics of neuronal coherence, further advancing knowledge about how activity propagates across the human brain.
0

Estimating and interpreting nonlinear receptive fields of sensory responses with deep neural network models

Menoua Keshishian et al.May 7, 2020
+3
B
H
M
Sensory processing by neural circuits includes numerous nonlinear transformations that are critical to perception. Our understanding of these nonlinear mechanisms, however, is hindered by the lack of a comprehensive and interpretable computational framework that can model and explain nonlinear signal transformations. Here, we propose a data-driven framework based on deep neural network regression models that can directly learn any nonlinear stimulus-response mapping. A key component of this approach is an analysis method that reformulates the exact function of the trained neural network as a collection of stimulus-dependent linear functions. This locally linear receptive field interpretation of the network function enables straightforward comparison with conventional receptive field models and uncovers nonlinear encoding properties. We demonstrate the efficacy of this framework by predicting the neural responses recorded invasively from the auditory cortex of neurosurgical patients as they listened to speech. Our method significantly improves the prediction accuracy of auditory cortical responses particularly in nonprimary areas. Moreover, interpreting the functions learned by neural networks uncovered three distinct types of nonlinear transformations of speech that varied considerably in primary and nonprimary auditory regions. By combining two desired properties of a computational sensory-response model; the ability to capture arbitrary stimulus-response mappings and maintaining model interpretability, this data-driven method can lead to better neurophysiological models of the sensory processing.
0

Joint population coding and temporal coherence link an attended talker's voice and location features in naturalistic multi-talker scenes.

Kiki Heijden et al.May 28, 2024
+3
S
P
K
Listeners readily extract multi–dimensional auditory objects such as a ´localized talker´ from complex acoustic scenes with multiple talkers. Yet, the neural mechanisms underlying simultaneous encoding and linking of different sound features — for example, a talker´s voice and location — are poorly understood. We analyzed invasive intracranial recordings in neurosurgical patients attending to a localized talker in real–life cocktail party scenarios. We found that sensitivity to an individual talker´s voice and location features was distributed throughout auditory cortex and that neural sites exhibited a gradient from sensitivity to a single feature to joint sensitivity to both features. On a population level, cortical response patterns of both dual–feature sensitive sites but also single–feature sensitive sites revealed simultaneous encoding of an attended talker´s voice and location features. However, for single–feature sensitive sites, the representation of the primary feature was more precise. Further, sites which selective tracked an attended speech stream concurrently encoded an attended talker´s voice and location features, indicating that such sites combine selective tracking of an attended auditory object with encoding of the object´s features. Finally, we found that attending a localized talker selectively enhanced temporal coherence between single–feature voice sensitive sites and single–feature location sensitive sites, providing an additional mechanism for linking voice and location features in multi–talker scenes. These results demonstrate that a talker´s voice and location features are linked during multi-dimensional object formation in naturalistic multi–talker scenes by joint population coding as well as by temporal coherence between neural sites.
Load More