KD
Keith Doelling
Author with expertise in Neural Mechanisms of Auditory Processing and Perception
Achievements
Open Access Advocate
Cited Author
Key Stats
Upvotes received:
0
Publications:
5
(100% Open Access)
Cited by:
547
h-index:
7
/
i10-index:
6
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Acoustic landmarks drive delta–theta oscillations to enable speech comprehension by facilitating perceptual parsing

Keith Doelling et al.Jun 19, 2013
D
O
L
K
A growing body of research suggests that intrinsic neuronal slow (< 10 Hz) oscillations in auditory cortex appear to track incoming speech and other spectro-temporally complex auditory signals. Within this framework, several recent studies have identified critical-band temporal envelopes as the specific acoustic feature being reflected by the phase of these oscillations. However, how this alignment between speech acoustics and neural oscillations might underpin intelligibility is unclear. Here we test the hypothesis that the ‘sharpness’ of temporal fluctuations in the critical band envelope acts as a temporal cue to speech syllabic rate, driving delta–theta rhythms to track the stimulus and facilitate intelligibility. We interpret our findings as evidence that sharp events in the stimulus cause cortical rhythms to re-align and parse the stimulus into syllable-sized chunks for further decoding. Using magnetoencephalographic recordings, we show that by removing temporal fluctuations that occur at the syllabic rate, envelope-tracking activity is reduced. By artificially reinstating these temporal fluctuations, envelope-tracking activity is regained. These changes in tracking correlate with intelligibility of the stimulus. Together, the results suggest that the sharpness of fluctuations in the stimulus, as reflected in the cochlear output, drive oscillatory activity to track and entrain to the stimulus, at its syllabic rate. This process likely facilitates parsing of the stimulus into meaningful chunks appropriate for subsequent decoding, enhancing perception and intelligibility.
0
Citation538
0
Save
23

Adaptive oscillators provide a hard-coded Bayesian mechanism for rhythmic inference

Keith Doelling et al.Jun 19, 2022
M
L
K
Abstract Bayesian theories of perception suggest that the human brain internalizes a model of environmental patterns to reduce sensory noise and improve stimulus processing. The internalization of external regularities is particularly manifest in the time domain: humans excel at predictively synchronizing their behavior with external rhythms, as in dance or music performance. The neural processes underlying rhythmic inferences are debated: whether predictive perception relies on high-level generative models or whether it can readily be implemented locally by hard-coded intrinsic oscillators synchronizing to rhythmic input remains unclear. Here, we propose that these seemingly antagonistic accounts can be conceptually reconciled. In this view, neural oscillators may constitute hard-coded physiological priors – in a Bayesian sense – that reduce temporal uncertainty and facilitate the predictive processing of noisy rhythms. To test this, we asked human participants to track pseudo-rhythmic tone sequences and assess whether the final tone was early or late. Using a Bayesian model, we account for various aspects of participants’ performance and demonstrate that the classical distinction between absolute and relative mechanisms can be unified under this framework. Next, using a dynamical systems perspective, we successfully model this behavior using an adaptive frequency oscillator which adjusts its spontaneous frequency based on the rate of stimuli. This model better reflects human behavior than a canonical nonlinear oscillator and a predictive ramping model, both widely used for temporal estimation and prediction. Our findings suggest that an oscillator may be considered useful as a potential heuristic for a rhythmic prior in the Bayesian sense. Together, the results show that adaptive oscillators provide an elegant and biologically plausible means to subserve (bayesian) rhythmic inference, thereby reconciling numerous empirical observations and a priori incompatible frameworks for temporal inferential processes.
23
Citation9
0
Save
1

Predictable sequential structure enhances auditory sensitivity in clinical audiograms

Norman Marin et al.Oct 5, 2023
+5
H
G
N
Abstract Human hearing is highly sensitive and allows us to detect acoustic events at low levels and at great distances. However, sensitivity is not only a function of the integrity of cochlear mechanisms, but also constrained by central processes such as attention and expectation. While the effects of distraction and attentional orienting are generally acknowledged, the extent to which probabilistic expectations influence sensitivity is not clear. Classical audiological assessment, commonly used to assess hearing sensitivity, does not distinguish between bottom-up sensitivity and top-down gain/filtering. In this study, we aim to decipher the influence of various types of expectations on hearing sensitivity and how this information can be used to improve the assessment of sensitivity to sound. Our results raise important critiques regarding common practices in the assessment of sound sensitivity, both in fundamental research and in audiological clinical assessment. Significance Statement The principal clinical measure of ear function is the pure-tone audiogram in which a clinician will test for the softest tones one can detect across the frequency range. Clinicians have long known listener strategy can influence these measures whereby patients can guess when tones may occur based on regularities in the tone presentation structure. Our results demonstrate that this predictability and other forms influence not only listener strategy but also the sensitivity of the peripheral auditory system itself. This finding that prediction not only biases low-level perception but also enhances it has wide-ranging consequences for the fields of audiology and cognitive neuroscience, and furthermore suggests that prediction ability should be tracked as well as ear sensitivity as patients age.
0

Deciphering the Rhythmic Symphony of Speech: A Neural Framework for Robust and Time-Invariant Speech Comprehension

Olesia Dogonasheva et al.Jan 20, 2024
+2
A
D
O
Abstract Unraveling the mysteries of how humans effortlessly grasp speech despite diverse environmental challenges has long intrigued researchers in systems and cognitive neuroscience. This study explores the neural intricacies underpinning robust speech comprehension, giving computational mechanistic proof for the hypothesis proposing a pivotal role for rhythmic, predictive top-down contextualization facilitated by the delta rhythm in achieving time-invariant speech processing. Our Brain-Rhythm-based Inference model, BRyBI, integrates three key rhythmic processes – theta-gamma interactions for parsing phoneme sequences, dynamic delta rhythm for inferred prosodic-phrase context, and resilient speech representations. Demonstrating mechanistic proof-of-principle, BRyBI replicates human behavioral experiments, showcasing its ability to handle pitch variations, time-warped speech, interruptions, and silences in non-comprehensible contexts. Intriguingly, the model aligns with human experiments, revealing optimal silence time scales in the theta- and delta-frequency ranges. Comparative analysis with deep neural network language models highlights distinctive performance patterns, emphasizing the unique capabilities of a rhythmic framework. In essence, our study sheds light on the neural underpinnings of speech processing, emphasizing the role of rhythmic brain mechanisms in structured temporal signal processing – an insight that challenges prevailing artificial intelligence paradigms and hints at potential advancements in compact and robust computing architectures.
1

Salient 40 Hz sounds probe affective aversion and neural excitability

Felix Schneefeld et al.Mar 1, 2022
+4
S
K
F
Abstract The human auditory system is not equally reactive to all frequencies of the audible spectrum. Emotional and behavioral reactions to loud or aversive acoustic features can vary from one individual to another, to the point that some exhibit exaggerated or even pathological responses to certain sounds. The neural mechanisms underlying these interindividual differences remain unclear. Whether distinct aversion profiles map onto neural excitability at the individual level needs to be tested. Here, we measured behavioral and EEG responses to click trains (from 10 to 250 Hz, spanning the roughness and pitch perceptual ranges) to test the hypothesis that interindividual variability in aversion to rough sounds is reflected in neural response differences between participants. Linking subjective aversion to 40 Hz steady-state EEG responses, we demonstrate that participants experiencing enhanced aversion to roughness also show stronger neural responses to this attribute. Interestingly, this pattern also correlates with inter-individual anxiety levels, suggesting that this personality trait might interact with subjective sensitivity and neural excitability to these sounds. These results support the idea that 40 Hz sounds can probe the excitability of non-canonical auditory systems involved in exogenous salience processing and aversive responses at the individual level. By linking subjective aversion to neural excitability, 40 Hz sounds provide neuromarkers relevant to a variety of pathological conditions, such as those featuring enhanced emotional sensitivity (hyperacusis, anxiety) or aberrant neural responses at 40 Hz (autism, schizophrenia).