SP
Satyabrata Parida
Author with expertise in Impact of Hearing Loss on Cognitive Function
Achievements
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
7
(100% Open Access)
Cited by:
3
h-index:
4
/
i10-index:
2
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
1

Vocalization categorization behavior explained by a feature-based auditory categorization model

Manaswini Kar et al.Mar 10, 2022
Abstract Vocal animals produce multiple categories of calls with high between- and within-subject variability, over which listeners must generalize to accomplish call categorization. The behavioral strategies and neural mechanisms that support this ability to generalize are largely unexplored. We previously proposed a theoretical model that accomplished call categorization by detecting features of intermediate complexity that best contrasted each call category from all other categories. We further demonstrated that some neural responses in the primary auditory cortex were consistent with such a model. Here, we asked whether a feature-based model could predict call categorization behavior. We trained both the model and guinea pigs on call categorization tasks using natural calls. We then tested categorization by the model and guinea pigs using temporally and spectrally altered calls. Both the model and guinea pigs were surprisingly resilient to temporal manipulations, but sensitive to moderate frequency shifts. Critically, model performance quantitatively matched guinea pig behavior to a remarkable degree. By adopting different model training strategies and examining features that contributed to solving specific tasks, we could gain insight into possible strategies used by animals to categorize calls. Our results validate a model that uses the detection of intermediate-complexity contrastive features to accomplish call categorization.
1
Citation1
0
Save
1

Estimation of cochlear frequency selectivity using a convolution model of forward-masked compound action potentials

François Deloche et al.Apr 16, 2022
Abstract Frequency selectivity is a fundamental property of the peripheral auditory system; however, the invasiveness of auditory nerve (AN) experiments limits its study in the human ear. Compound action potentials (CAPs) associated with forward-masking have been suggested as an alternative means to assess cochlear frequency selectivity. Previous methods relied on an empirical comparison of AN and CAP tuning curves in animal models, arguably not taking full advantage of the information contained in forward-masked CAPs. In this work, we seek to provide a direct estimate of the quality factor characterizing AN frequency tuning using many forward-masked CAP responses. The method is based on a convolution model of the CAP that takes into account the masking of AN populations induced by notched-noise maskers with various notch widths and attenuations. The model produces masking patterns that, once convolved by a unitary response, predict forward-masked CAP waveforms. Model parameters, including those characterizing frequency selectivity, are fine-tuned by minimizing waveform prediction errors across the different masking conditions, yielding robust estimates. The method was applied to click-evoked CAPs at the round window of anesthetized chinchillas. The estimated quality factor Q10 as a function of center frequency is shown to closely match the average quality factor obtained from AN-fiber tuning curves, without the need for an empirical correction factor. Beyond the estimation of frequency selectivity, the proposed model proves to be accurate in predicting forward-masked CAP responses, and therefore could be extended to study more complex aspects of cochlear signal processing using a similar experimental approach.
0

Rapid and objective assessment of auditory temporal processing using dynamic amplitude-modulated stimuli

Satyabrata Parida et al.Jan 29, 2024
Abstract Auditory neural coding of speech-relevant temporal cues can be noninvasively probed using envelope following responses (EFRs), neural ensemble responses phase-locked to the stimulus amplitude envelope. EFRs emphasize different neural generators, such as the auditory brainstem or auditory cortex, by altering the temporal modulation rate of the stimulus. EFRs can be an important diagnostic tool to assess auditory neural coding deficits that go beyond traditional audiometric estimations. Existing approaches to measure EFRs use discrete amplitude modulated (AM) tones of varying modulation frequencies, which is time consuming and inefficient, impeding clinical translation. Here we present a faster and more efficient framework to measure EFRs across a range of AM frequencies using stimuli that dynamically vary in modulation rates, combined with spectrally specific analyses that offer optimal spectrotemporal resolution. EFRs obtained from several species (humans, Mongolian gerbils, Fischer-344 rats, and Cba/CaJ mice) showed robust, high-SNR tracking of dynamic AM trajectories (up to 800Hz in humans, and 1.4 kHz in rodents), with a fivefold decrease in recording time and thirtyfold increase in spectrotemporal resolution. EFR amplitudes between dynamic AM stimuli and traditional discrete AM tokens within the same subjects were highly correlated (94% variance explained) across species. Hence, we establish a time-efficient and spectrally specific approach to measure EFRs. These results could yield novel clinical diagnostics for precision audiology approaches by enabling rapid, objective assessment of temporal processing along the entire auditory neuraxis.
1

Adaptive mechanisms facilitate robust performance in noise and in reverberation in an auditory categorization model

Satyabrata Parida et al.Sep 27, 2022
Abstract For robust vocalization perception, the auditory system must generalize over variability in vocalization production as well as variability arising from the listening environment (e.g., noise and reverberation). We previously demonstrated that a hierarchical model generalized over production variability by detecting sparse intermediate-complexity features that are maximally informative about vocalization category from a dense spectrotemporal input representation. Here, we explore three biologically feasible model extensions to generalize over environmental variability: (1) training in degraded conditions, (2) adaptation to sound statistics in the spectrotemporal stage and (3) sensitivity adjustment at the feature detection stage. All mechanisms improved vocalization categorization performance, but improvement trends varied across degradation type and vocalization type. One or both adaptive mechanisms were required for model performance to approach the behavioral performance of guinea pigs on a vocalization categorization task. These results highlight the contributions of adaptive mechanisms at multiple auditory processing stages to achieve robust auditory categorization.
2

Distorted tonotopy severely degrades neural representations of natural speech in noise following acoustic trauma

Satyabrata Parida et al.Apr 23, 2021
SUMMARY Listeners with sensorineural hearing loss (SNHL) struggle to understand speech, especially in noise, despite audibility compensation. These real-world suprathreshold deficits are hypothesized to arise from degraded frequency tuning and reduced temporal-coding precision; however, peripheral neurophysiological studies testing these hypotheses have been largely limited to in-quiet artificial vowels. Here, we measured single auditory-nerve-fiber responses to a natural speech sentence in noise from anesthetized chinchillas with normal hearing (NH) or noise-induced hearing loss (NIHL). Our results demonstrate that temporal precision was not degraded, and broader tuning was not the major factor affecting peripheral coding of natural speech in noise. Rather, the loss of cochlear tonotopy, a hallmark of normal hearing, had the most significant effects (both on vowels and consonants). Because distorted tonotopy varies in degree across etiologies (e.g., noise exposure, age), these results have important implications for understanding and treating individual differences in speech perception for people suffering from SNHL.
3

Spectrally specific temporal analyses of spike-train responses to complex sounds: A unifying framework

Satyabrata Parida et al.Jul 17, 2020
Abstract Significant scientific and translational questions remain in auditory neuroscience surrounding the neural correlates of perception. Relating perceptual and neural data collected from humans can be useful; however, human-based neural data are typically limited to evoked far-field responses, which lack anatomical and physiological specificity. Laboratory-controlled preclinical animal models offer the advantage of comparing single-unit and evoked responses from the same animals. This ability provides opportunities to develop invaluable insight into proper interpretations of evoked responses, which benefits both basic-science studies of neural mechanisms and translational applications, e.g., diagnostic development. However, these comparisons have been limited by a disconnect between the types of spectrotemporal analyses used with single-unit spike trains and evoked responses, which results because these response types are fundamentally different (point-process versus continuous-valued signals) even though the responses themselves are related. Here, we describe a unifying framework to study temporal coding of complex sounds that allows spike-train and evoked-response data to be analyzed and compared using the same advanced signal-processing techniques. The framework uses alternating-polarity peristimulus-time histograms computed from single-unit spike trains to allow advanced spectral analyses of both slow (envelope) and rapid (temporal fine structure) response components. Demonstrated benefits include: (1) novel spectrally specific temporal-coding measures that are less corrupted by analysis distortions due to hair-cell transduction, synaptic rectification, and neural stochasticity compared to previous metrics, e.g., the correlogram peak-height, (2) spectrally specific analyses of spike-train modulation coding (magnitude and phase), which can be directly compared to modern perceptually based models of speech intelligibility (e.g., that depend on modulation filter banks), and (3) superior spectral resolution in analyzing the neural representation of nonstationary sounds, such as speech and music. This unifying framework significantly expands the potential of preclinical animal models to advance our understanding of the physiological correlates of perceptual deficits in real-world listening following sensorineural hearing loss. Author summary Despite major technological and computational advances, we remain unable to match human auditory perception using machines, or to restore normal-hearing communication for those with sensorineural hearing loss. An overarching reason for these limitations is that the neural correlates of auditory perception, particularly for complex everyday sounds, remain largely unknown. Although neural responses can be measured in humans noninvasively and compared with perception, these evoked responses lack the anatomical and physiological specificity required to reveal underlying neural mechanisms. Single-unit spike-train responses can be measured from preclinical animal models with well-specified pathology; however, the disparate response types (point-process versus continuous-valued signals) have limited application of the same advanced signal-processing analyses to single-unit and evoked responses required for direct comparison. Here, we fill this gap with a unifying framework for analyzing both spike-train and evoked neural responses using advanced spectral analyses of both the slow and rapid response components that are known to be perceptually relevant for speech and music, particularly in challenging listening environments. Numerous benefits of this framework are demonstrated here, which support its potential to advance the translation of spike-train data from animal models to improve clinical diagnostics and technological development for real-world listening.