CM
Clara Martin
Author with expertise in Neural Mechanisms of Language Processing
Achievements
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
7
(86% Open Access)
Cited by:
2
h-index:
29
/
i10-index:
52
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
7

Activating words without language: Beta and theta oscillations reflect lexical access and control processes during verbal and non-verbal object recognition tasks

Francesca Branzi et al.Sep 22, 2022
E
C
F
Abstract The intention to name an object modulates neural responses during object recognition tasks. However, the nature of this modulation is still unclear. We established whether a core operation in language, i.e., lexical access, can be observed even when the task does not require language (size-judgment task), and whether response selection in verbal versus non-verbal semantic tasks relies on similar neuronal processes. We measured and compared neuronal oscillatory activities and behavioural responses to the same set of pictures of meaningful objects, while the type of task participants had to perform (picture-naming versus size-judgment) and the type of stimuli to measure lexical access (cognate versus non-cognate) were manipulated. Despite activation of words was facilitated when the task required explicit word-retrieval (picture-naming task), lexical access occurred even without the intention to name the object (non-verbal size-judgment task). Activation of words and response selection were accompanied by beta (25-35 Hz) desynchronisation and theta (3-7 Hz) synchronisation, respectively. These effects were observed in both picture-naming and size-judgment tasks, suggesting that words became activated via similar mechanisms, irrespective of whether the task involves language explicitly. This finding has important implications to understand the link between core linguistic operations and performance in verbal and non-verbal semantic tasks.
7
Citation1
0
Save
3

An ERP investigation of accented isolated single word processing

Trisha Thomas et al.Jul 8, 2022
C
S
T
Abstract Previous studies show that there are differences in native and non-native speech processing (Lev-Ari, 2018). However, less is known about the differences between processing native and dialectal accents. Is dialectal processing more similar to foreign or native speech? To address this, two theories have been proposed. The Perceptual Distance Hypothesis states that the mechanisms underlying dialectal accent processing are attenuated versions of those of foreign (Clarke & Garrett, 2004). Conversely, the Different Processes Hypothesis argues that the mechanisms of foreign and dialectal accent processing are qualitatively different (Floccia et al, 2009). The present study addresses these hypotheses. Electroencephalographic data was recorded from 25 participants who listened to 40 isolated words in different accents. Event-Related Potential mean amplitudes were extracted: P2 [150-250 ms], PMN [250-400 ms] and N400 [400-600 ms]. Support for the Different Processes Hypothesis was found in different time windows. Results show that early processing mechanisms distinguish only between native and non-native speech, with a reduced P2 amplitude for foreign accent processing, supporting the Different Processes Hypothesis. Furthermore, later processing mechanisms show a similar binary difference in the processing of the accents, with a larger PMN negativity elicited in the foreign accent than the others, further supporting the Different Processes Hypothesis. Results contribute to the understanding of single word processing, in which it is uniquely difficult to extract acoustic characteristics from foreign accent, and in which foreign accented speech is associated with the largest cost, as compared to native and dialectal speech, of phonological matching between representations and acoustic input. Highlights Accent affects early speech processing mechanisms at the level of the isolated word Acoustic characteristic extraction is more difficult for foreign-accented speech Phonological normalization of foreign-accented speech is uniquely difficult Accent no longer affects later speech processing mechanisms at the isolated word
3
Citation1
0
Save
0

The impact of speaker accent on discourse processing: a frequency investigation

Trisha Thomas et al.Dec 19, 2023
S
C
T
Abstract Previous studies show that there are differences in native and foreign speech processing (Lev-Ari, 2018) while mixed evidence has been found regarding differences between dialectal and foreign accent processing (see: Adank et al., 2009; Floccia et al. 2006 but see also: Floccia et al., 2009; Girard et al., 2008). Within this field, two theories have been proposed. The Perceptual Distance Hypothesis states that the mechanisms underlying dialectal accent processing are attenuated versions of those of foreign (Clarke & Garrett, 2004). While, the Different Processes Hypothesis argues that the mechanisms of foreign and dialectal accent processing are qualitatively different (Floccia et al, 2009). A recent study looking at single-word EEG data, suggested that there may be flexibility in processing mechanisms (Thomas et al., 2022). The present study deepens this investigation by addressing in which frequency bands native, dialectal and foreign accent processing differ when listening to extended speech. Electroencephalographic data was recorded from 30 participants who listened to dialogues of approximately six minutes spoken in native, dialectal and foreign accents. Power spectral density estimation (1-35 hz) was performed. Linear mixed models were done in frequency windows of particular relevance to discourse processing. Frequency bands associated with phoneme [gamma], syllable [theta], and prosody [delta] were considered along with those of general cognitive mechanisms [alpha and beta]. Results show power differences in the Gamma frequency range. While in higher frequency ranges foreign accent processing is differentiated from power amplitudes of native and dialectal accent processing, in low frequencies we do not see any accent-related power amplitude modulations. This suggests that there may be a difference in phoneme processing for native accent types and foreign accent, while we speculate that top-down mechanisms during discourse processing may mitigate the effects observed with short units of speech.
1

Language experience shapes predictive coding of rhythmic sound sequences

Piermatteo Morucci et al.Apr 28, 2023
+3
S
S
P
ABSTRACT Perceptual systems heavily rely on prior knowledge and predictions to make sense of the environment. Predictions can originate from multiple sources of information, including contextual short-term priors, based on isolated temporal situations, and context-independent long-term priors, arising from extended exposure to statistical regularities. While the effects of short-term predictions on auditory perception have been well-documented, how long-term predictions shape early auditory processing is poorly understood. To address this, we recorded magnetoencephalography data from native speakers of two languages with different word orders (Spanish: functor-initial versus Basque: functor-final) listening to simple sequences of binary sounds alternating in duration with occasional omissions. We hypothesized that, together with contextual transition probabilities, the auditory system uses the characteristic prosodic cues (duration) associated with the native language’s word order as an internal model to generate long-term predictions about incoming non-linguistic sounds. Consistent with our hypothesis, we found that the amplitude of the mismatch negativity elicited by sound omissions varied orthogonally depending on the speaker’s linguistic background and was most pronounced in the left auditory cortex. Importantly, listening to binary sounds alternating in pitch instead of duration did not yield group differences, confirming that the above results were driven by the hypothesized long-term “duration” prior. These findings show that experience with a given language can shape a fundamental aspect of human perception – the neural processing of rhythmic sounds – and provides direct evidence for a long-term predictive coding system in the auditory cortex that uses auditory schemes learned over a lifetime to process incoming sound sequences.
0

Are you talking to me? How the choice of speech register impacts listeners' hierarchical encoding of speech.

Giorgio Piazza et al.Sep 3, 2024
+4
E
S
G
Speakers accommodate their speech to meet the needs of their listeners, producing different speech registers. One such register is Foreigner-Directed Speech (FDS), which is the way native speakers address non-native listeners, typically characterized by features such as slow speech rate and phonetic exaggeration. Here, we investigated how register impacts the cortical encoding of speech at different levels of language integration. Specifically, we tested the hypothesis that enhanced comprehension of FDS compared with Native-Directed Speech (NDS) involves more than just a slower speech rate, influencing speech processing from acoustic to semantic levels. Electroencephalography (EEG) signals were recorded from Spanish native listeners, who were learning English (L2 learners), and English native listeners (L1 listeners) as they were presented with audio-stories. Speech was presented in English in three different speech registers: FDS, NDS and a control register (Slow-NDS) which is slowed down version of NDS. We measured the cortical tracking of acoustic, phonological, and semantic information with a multivariate temporal response function analysis (TRF) on the EEG signals. We found that FDS promoted L2 learners' cortical encoding at all the levels of speech and language processing considered. First, FDS led to a more pronounced encoding of the speech envelope. Second, phonological encoding was more refined when listening to FDS, with phoneme perception getting closer to that of L1 listeners. Finally, FDS also enhanced the TRF-N400, a neural signature of lexical expectations. Conversely FDS impacted acoustic but not linguistic speech encoding in L1 listeners. Taken together, these results support our hypothesis that FDS accommodates speech processing in L2 listeners beyond what can be achieved by simply speaking slowly, impacting the cortical encoding of sound and language at different abstraction levels. In turn, this study provides objective metrics that are sensitive to the impact of register on the hierarchical encoding of speech, which could be extended to other registers and cohorts.
0

Functional connectivity reveals dissociable ventrolateral prefrontal mechanisms for the control of multilingual word retrieval

Francesca Branzi et al.Jun 27, 2018
P
M
C
F
Abstract A fundamental cognitive operation involved in speech production is word retrieval from the mental lexicon, which in monolinguals is supported by dissociable ventro-lateral prefrontal cortex (vlPFC) mechanisms associated with proactive and reactive control. This functional magnetic resonance imaging (fMRI) study established whether in multilinguals word retrieval is supported by the same prefrontal mechanisms, and whether proactive modulation consists in suppression of the non-target lexicon. Healthy multilingual volunteers participated in a task that required them to name pictures alternatively in their dominant and less-dominant language. Two crucial variables were manipulated: the cue-target interval (CTI) to either engage (long CTI) or prevent proactive control processes (short CTI), and the cognate status of the pictures to-be-named (non-cognates versus cognates) to capture the presence of selective pre-activation of the target language. Results support the two-process account of vlPFC and indicate that multilinguals engage in proactive control to prepare the target language. This proactive modulation, enacted by anterior vlPFC, is achieved by boosting the activation of lexical representations of the target language. Control processes supported by mid-vlPFC and left inferior parietal lobe together, are similarly engaged in pre-and post-word retrieval, possibly exerted on phonological representations to reduce cross-language interference. Significance Statement Word retrieval in monolingual speech production is enacted by left ventro-lateral prefrontal cortex (vlPFC) supporting controlled access to conceptual representations (proactive control), and left mid-vlPFC supporting post-retrieval lexical selection (reactive control). In this functional magnetic resonance imaging (fMRI) study we demonstrate that multilingual word retrieval is supported by similar prefrontal mechanisms. However, differently from monolinguals, multilingual speakers retrieve words by applying proactive control on lexical representations to reduce cross-language interference. Alternatively to what it has been proposed by one of the most influential models, here we show that this proactive modulation is achieved by boosting the activation of lexical representations of the target language.