LF
Lorenz Fiedler
Author with expertise in Neuronal Oscillations in Cortical Networks
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
8
(25% Open Access)
Cited by:
18
h-index:
15
/
i10-index:
17
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
74

Modality-specific tracking of attention and sensory statistics in the human electrophysiological spectral exponent

Leonhard Waschke et al.Jan 14, 2021
Abstract A hallmark of electrophysiological brain activity is its 1/f-like spectrum – power decreases with increasing frequency. The steepness of this “roll-off” is approximated by the spectral exponent, which in invasively recorded neural populations reflects the balance of excitatory to inhibitory neural activity (E:I balance). Here, we first establish that the spectral exponent of non-invasive electroencephalography (EEG) recordings is highly sensitive to general (i.e., anaesthesia-driven) changes in E:I balance. Building on the EEG spectral exponent as a viable marker of E:I, we then demonstrate its sensitivity to the focus of selective attention in an EEG experiment during which participants detected targets in simultaneous audio-visual noise. In addition to these endogenous changes in E:I balance, EEG spectral exponents over auditory and visual sensory cortices also tracked auditory and visual stimulus spectral exponents, respectively. Individuals’ degree of this selective stimulus–brain coupling in spectral exponents predicted behavioural performance. Our results highlight the rich information contained in 1/f-like neural activity, providing a window into diverse neural processes previously thought to be inaccessible in non-invasive human recordings.
1

Neural attentional-filter mechanisms of listening success in middle-aged and older individuals

Sarah Tune et al.May 22, 2020
Abstract Successful listening crucially depends on intact attentional filters that separate relevant from irrelevant information. Research into their neurobiological implementation has focused on two potential auditory filter strategies: the lateralization of alpha power and selective neural speech tracking. However, the functional interplay of the two neural filter strategies and their potency to index listening success in an ageing population remains unclear. Using electroencephalography and a dual-talker task in a representative sample of listeners (N=155; age=39–80 years), we here demonstrate an often-missed link from single-trial behavioural outcomes back to trial-by-trial changes in neural attentional filtering. First, we observe preserved attentional–cue-driven modulation of both neural filters across chronological age and hearing levels. Second, neural filter states vary independently of one another, demonstrating complementary neurobiological solutions of spatial selective attention. Stronger neural speech tracking but not alpha lateralization boosts trial-to-trial behavioural performance. Our results highlight the translational potential of neural speech tracking as an individualized neural marker of adaptive listening behaviour.
0

Salience-dependent disruption of sustained auditory attention can be inferred from evoked pupil responses and neural tracking of task-irrelevant sounds

Lorenz Fiedler et al.Jan 1, 2023
Stimulus-driven attention allows us to react to relevant stimuli (and imminent danger!) outside our current focus of attention. But irrelevant stimuli can disrupt attention as well, for example during listening to speech. The degree to which sound captures attention is called salience, which can be estimated by existing, behaviorally validated, computational models (Huang & Elhilali, 2017). Here we examined whether neurophysiological responses to task-irrelevant sounds indicate the degree of distraction during a sustained listening task and how much this depends on individual hearing thresholds. To this end, we asked N = 47 Danish speaking adults (28/19 female/male, 24 hearing aid users) to listen to continuous speech while one-second-long, task-irrelevant natural sounds (distractors) of varying computed salience were presented at unpredictable times and locations. The task-irrelevant sounds evoked a consistent pupil dilation (PD), neural distractor-tracking (DT) and a drop of neural target-speech-tracking (ΔTT). Within-subject statistical modelling showed that PD and DT are enhanced for sounds with higher computed salience (salience sensitivity), independent of hearing thresholds. Participants with generally larger PD showed stronger ΔTT and performed worse in target speech comprehension. Participants who exhibited a stronger ΔTT for more salient sounds (salience sensitivity) understood less of the target speech. Beyond hearing loss, PD, target speech tracking (and its salience sensitivity) explained 43% of variance in target speech comprehension. We conclude that distraction can be inferred from neurophysiological responses to task-irrelevant stimuli. Our findings represent a step towards neurophysiological assessment of attention dynamics during continuous listening with potential applications in hearing care diagnostics.
0

Late cortical tracking of ignored speech facilitates neural selectivity in acoustically challenging conditions

Lorenz Fiedler et al.Dec 22, 2017
Listening requires selective neural processing of the incoming sound mixture, which in humans is borne out by a surprisingly clean representation of attended-only speech in auditory cortex. How this neural selectivity is achieved even at negative signal-to-noise ratios (SNR) remains unclear. We show that, under such conditions, a late cortical representation (i.e., neural tracking) of the ignored acoustic signal is key to successful separation of attended and distracting talkers (i.e., neural selectivity). We recorded and modelled the electroencephalographic response of 18 participants who attended to one of two simultaneously presented stories, while the SNR between the two talkers varied dynamically. The neural tracking showed an increasing early-to-late attention-biased selectivity. Importantly, acoustically dominant ignored talkers were tracked neurally by late involvement of fronto-parietal regions, which contributed to enhanced neural selectivity. This neural selectivity by way of representing the ignored talker poses a mechanistic neural account of attention under real-life acoustic conditions.
0

Individual listening success explained by synergistic interaction of two distinct neural filters

Sarah Tune et al.Jan 4, 2019
Successful speech comprehension requires the listener to differentiate relevant from irrelevant sounds. Recent neurophysiological studies have typically addressed one of two candidate neural filter solutions for this problem: the selective neural tracking of speech in auditory cortex via the modulation of phase-locked cortical responses, or the suppression of irrelevant inputs via alpha power modulations in parieto-occipital cortex. However, empirical evidence on their relationship and direct relevance to behavior is scarce. Here, a large, age-varying sample (N=76, 39-70 years) underwent a challenging dichotic listening task. Irrespective of listeners' age, measures of behavioral performance, neural speech tracking, and alpha power lateralization all increased in response to spatial-attention cues. Under most challenging conditions, individual listening success was predicted best by the synergistic interaction of these two distinct neural filter strategies. Trial-by-trial fluctuations of lateralized alpha power and ignored-speech tracking did not co-vary, which demonstrates two neurobiologically distinct filter mechanisms.
0

Tracking temporal hazard in the human electroencephalogram using a forward encoding model

Sophie Herbst et al.Dec 14, 2017
Human observers automatically extract temporal contingencies from the environment and predict the onset of future events. Temporal predictions are modelled by the hazard function, which describes the instantaneous probability for an event to occur given it has not occurred yet. Here, we tackle the question of whether and how the human brain tracks continuous temporal hazard on a moment-to-moment basis, and how flexibly it adjusts to strictly implicit variations in the hazard function. We applied an encoding-model approach to human electroencephalographic (EEG) data recorded during a pitch-discrimination task, in which we implicitly manipulated temporal predictability of the target tones by varying the interval between cue and target tone (the foreperiod). Critically, temporal predictability was either solely driven by the passage of time (resulting in a monotonic hazard function), or was modulated to increase at intermediate foreperiods (resulting in a modulated hazard function with a peak at the intermediate foreperiod). Forward encoding models trained to predict the recorded EEG signal from different temporal hazard functions were able to distinguish between experimental conditions, showing that implicit variations of temporal hazard bear tractable signatures in the human electroencephalogram. Notably, this tracking signal was reconstructed best from the supplementary motor area (SMA), underlining this area's link to cognitive processing of time. Our results underline the relevance of temporal hazard to cognitive processing, and show that the predictive accuracy of the encoding-model approach can be utilised to track abstract time-resolved stimuli.
0

Single-channel in-Ear-EEG detects the focus of auditory attention to concurrent tone streams and mixed speech

Lorenz Fiedler et al.Dec 15, 2016
Objective: Conventional, multi-channel scalp electroencephalography (EEG) allows the identification of the attended speaker in concurrent-listening (″cocktail party″) scenarios. This implies that EEG might provide valuable information to complement hearing aids with some form of EEG and to install a level of neuro-feedback. Approach: To investigate whether a listener′s attentional focus can be detected from single-channel hearing-aid-compatible EEG configurations, we recorded EEG from three electrodes inside the ear canal (″in-Ear-EEG″) and additionally from 64 electrodes on the scalp. In two different, concurrent listening tasks, participants (n = 7) were fitted with individualized in-Ear-EEG pieces and were either asked to attend to one of two dichotically-presented, concurrent tone streams or to one of two diotically-presented, concurrent audiobooks. A forward encoding model was trained to predict the EEG response at single EEG channels. Main results: Each individual participants′ attentional focus could be detected from single-channel EEG response recorded from short-distance configurations consisting only of a single in-Ear-EEG electrode and an adjacent scalp-EEG electrode. The differences in neural responses to attended and ignored stimuli were consistent in morphology (i.e., polarity and latency of components) across subjects. Significance: In sum, our findings show that the EEG response from a single-channel, hearing-aid-compatible configuration provides valuable information to identify a listener′s focus of attention.
0

Quantifying the individual auditory and visual brain response in 7- month-old infants watching a brief cartoon movie

Sarah Jessen et al.Apr 17, 2019
Electroencephalography (EEG) continues to be the most popular method to investigate cognitive brain mechanisms in young children and infants. Most infant studies rely on the well-established and easy-to-use event-related brain potential (ERP). As a severe disadvantage, ERP computation requires a large number of repetitions of items from the same stimulus-category, compromising both ERPs’ reliability and their ecological validity in infant research. We here explore a way to investigate infant continuous EEG responses to an ongoing, engaging signal (i.e., “neural tracking”) by using multivariate temporal response functions (mTRFs), an approach increasingly popular in adult-EEG research. N =52 infants watched a 5-min episode of an age-appropriate cartoon while the EEG signal was recorded. We estimated and validated forward encoding models of auditory-envelope and visual-motion features. We compared individual and group-based (‘generic’) models of the infant brain response to comparison data from N =28 adults. The generic model yielded clearly defined response functions for both, the auditory and the motion regressor. Importantly, this response profile was present also on an individual level, albeit with lower precision of the estimate but above-chance predictive accuracy for the modelled individual brain responses. In sum, we demonstrate that mTRFs are a feasible way of analyzing continuous EEG responses in infants. We observe robust response estimates both across and within participants from only five minutes of recorded EEG signal. Our results open ways for incorporating more engaging and more ecologically valid stimulus materials when probing cognitive, perceptual, and affective processes in infants and young children.