YZ
Yang Zhang
Author with expertise in Neural Mechanisms of Auditory Processing and Perception
Achievements
This user has not unlocked any achievements yet.
Key Stats
Upvotes received:
0
Publications:
9
(33% Open Access)
Cited by:
6
h-index:
37
/
i10-index:
110
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Age and Sex Differences in Infants' Neural Sensitivity to Emotional Prosodies in Spoken Words: A Multifeature Oddball Study

Chieh Kao et al.Dec 5, 2024
Purpose: This study aimed to investigate infants' neural responses to changes in emotional prosody in spoken words. The focus was on understanding developmental changes and potential sex differences, aspects that were not consistently observed in previous behavioral studies. Method: A modified multifeature oddball paradigm was used with emotional deviants (angry, happy, and sad) presented against neutral prosody (standard) within varying spoken words during a single electroencephalography recording session. The reported data included 34 infants (18 males, 16 females; age range: 3–12 months, average age: 7 months 26 days). Results: Infants exhibited distinct patterns of mismatch responses (MMRs) to different emotional prosodies in both early (100–200 ms) and late (300–500 ms) time windows following the speech onset. While both happy and angry prosodies elicited more negative early MMRs than the sad prosody across all infants, older infants showed more negative early MMRs than their younger counterparts. The distinction between early MMRs to angry and sad prosodies was more pronounced in younger infants. In the late time window, angry prosody elicited a more negative late MMR than the sad prosody, with younger infants showing more distinct late MMRs to sad and angry prosodies compared to older infants. Additionally, a sex effect was observed as male infants displayed more negative early MMRs compared to females. Conclusions: These findings demonstrate the feasibility of the modified multifeature oddball protocol in studying neural sensitivities to emotional speech in infancy. The observed age and sex effects on infants' auditory neural responses to vocal emotions underscore the need for further research to distinguish between acoustic and emotional processing and to understand their roles in early socioemotional and language development. Supplemental Material: https://doi.org/10.23641/asha.27914553
0
Citation2
0
Save
0

Sex Differences in Processing Emotional Speech Prosody: Preliminary Findings from a Multi-Feature Oddball Study

Chieh Kao et al.Nov 30, 2024
Background/Objectives: Emotional prosody, the intonation and rhythm of speech that conveys emotions, is vital for speech communication as it provides essential context and nuance to the words being spoken. This study explored how listeners automatically process emotional prosody in speech, focusing on different neural responses for the prosodic categories and potential sex differences. Methods: The pilot data here involved 11 male and 11 female adult participants (age range: 18–28). A multi-feature oddball paradigm was used, in which participants were exposed to sequences of non-repeating English words with emotional (angry, happy, sad) or neutral prosody while watching a silent movie. Results: Both mismatch negativity (MMN) and P3a components were observed, indicating automatic perceptual grouping and neural sensitivity to emotional variations in speech. Women showed stronger MMN to angry than sad prosody, while men showed stronger MMN to angry than happy prosody. Happy prosody elicited the strongest P3a, but only in men. Conclusions: The findings challenge the notion that all facets of emotion processing are biased toward female superiority. However, these results from 22 young adult native English speakers should be interpreted with caution, as data from a more adequate sample size are needed to test the generalizability of the findings. Combined with results from studies on children and elderly adults, these preliminary data underscore the need to explore the complexities of emotional speech processing mechanisms to account for category and sex differences across the lifespan in a longitudinal perspective.
0

Similarities and differences in neural processing of emotional prosody in speech and nonspeech contexts

Yi Lin et al.Jan 7, 2025
This study investigated the neural mechanisms underlying the pre-attentive processing of emotional prosody in speech and nonspeech contexts. Participants completed a double-oddball electroencephalography experiment by passively listening to speech sounds spoken in neutral or two alternating emotional (i.e. angry and happy) prosody and the acoustically matched nonspeech hums. Mismatched Negativity, P3a and their associated neural oscillatory activities were analysed. Results showed that speech (relative to nonspeech) sounds produced greater and faster brain responses especially for anger compared to happiness. Anger also triggered greater brain responses than happiness for both speech and nonspeech during auditory change detection, but this emotion-specific effect was only preserved for speech and reversed for nonspeech during involutionary attentional orientation. Together, these findings showcase highly complex interactions between speech dominance and emotion specificity effects during different stages of pre-attentive processing. Our study provides evidence for the specialised mechanisms involved in emotional speech perception, which may have practical implications for understanding and treating clinical populations with altered speech sensitivity and emotion processing.
0

Auditory Challenges and Listening Effort in School-Age Children With Autism: Insights From Pupillary Dynamics During Speech-in-Noise Perception

Suyun Xu et al.Jul 9, 2024
Purpose: This study aimed to investigate challenges in speech-in-noise (SiN) processing faced by school-age children with autism spectrum conditions (ASCs) and their impact on listening effort. Method: Participants, including 23 Mandarin-speaking children with ASCs and 19 age-matched neurotypical (NT) peers, underwent sentence recognition tests in both quiet and noisy conditions, with a speech-shaped steady-state noise masker presented at 0-dB signal-to-noise ratio in the noisy condition. Recognition accuracy rates and task-evoked pupil responses were compared to assess behavioral performance and listening effort during auditory tasks. Results: No main effect of group was found on accuracy rates. Instead, significant effects emerged for autistic trait scores, listening conditions, and their interaction, indicating that higher trait scores were associated with poorer performance in noise. Pupillometric data revealed significantly larger and earlier peak dilations, along with more varied pupillary dynamics in the ASC group relative to the NT group, especially under noisy conditions. Importantly, the ASC group's peak dilation in quiet mirrored that of the NT group in noise. However, the ASC group consistently exhibited reduced mean dilations than the NT group. Conclusions: Pupillary responses suggest a different resource allocation pattern in ASCs: An initial sharper and larger dilation may signal an intense, narrowed resource allocation, likely linked to heightened arousal, engagement, and cognitive load, whereas a subsequent faster tail-off may indicate a greater decrease in resource availability and engagement, or a quicker release of arousal and cognitive load. The presence of noise further accentuates this pattern. This highlights the unique SiN processing challenges children with ASCs may face, underscoring the importance of a nuanced, individual-centric approach for interventions and support.