IC
Ivan Camponogara
Author with expertise in Tactile Perception and Cross-modal Plasticity
Achievements
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
7
(86% Open Access)
Cited by:
2
h-index:
8
/
i10-index:
7
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

The impact of face masks on face-to-face neural tracking of speech: auditory and visual obstacles

Marta Fantoni et al.Jul 20, 2024
Face masks provide fundamental protection against the transmission of respiratory viruses but hamper communication. We estimated auditory and visual obstacles generated by face masks on communication by measuring the neural tracking of speech. To this end, we recorded the EEG while participants were exposed to naturalistic audio-visual speech, embedded in 5-talker noise, in three contexts: (i) no-mask (audio-visual information was fully available), (ii) virtual mask (occluded lips, but intact audio), and (iii) real mask (occluded lips and degraded audio). Neural tracking of lip movements and of the sound envelope of speech was measured through backward modeling, that is, by reconstructing stimulus properties from neural activity. Behaviorally, face masks increased perceived listening difficulty and phonological errors in speech content retrieval. At the neural level, we observed that the occlusion of the mouth abolished lip tracking and dampened neural tracking of the speech envelope at the earliest processing stages. By contrast, degraded acoustic information related to face mask filtering altered neural tracking of speech envelope at later processing stages. Finally, a consistent link emerged between the increment of perceived listening difficulty and the drop in reconstruction performance of speech envelope when attending to a speaker wearing a face mask. Results clearly dissociated the visual and auditory impact of face masks on the neural tracking of speech. While the visual obstacle related to face masks hampered the ability to predict and integrate audio-visual speech, the auditory filter generated by face masks impacted neural processing stages typically associated with auditory selective attention. The link between perceived difficulty and neural tracking drop also provides evidence of the impact of face masks on the metacognitive levels subtending face-to-face communication.
0

Actions obey Weber's law when precision is evaluated at goal attainment

Ivan Camponogara et al.Jul 17, 2024
Weber's law, the psychophysical principle stating that the just noticeable difference (JND), which is inversely related to sensory precision, increases proportionally with the magnitude of a stimulus, impacts all domains of human perception, but it is violated in visually guided grasping actions. The underlying reasons for this dissociation between perception and action are still debated, and various hypotheses have been put forward, including a different coding of visual size information for perception and action, the use of positional information to guide grasping, biomechanical factors, or sensorimotor calibration. To contrast these hypotheses, we investigated Weber's law in a new action task, the two-finger pointing task. Participants reached and touched two targets positioned at different distances apart by using their index finger and thumb. Consistent with Weber's law, we found that the standard deviation (SD) of the final inter-finger separation, serving as a measure analogous to the JND, increased with larger inter-target distances. These findings suggest that, when considering measures strongly related with the attainment of the action goal, Weber's law is regularly at play.
0

The impact of face masks on face-to-face neural tracking of speech: auditory and visual obstacles

Marta Fantoni et al.Feb 12, 2024
Abstract Face masks provide fundamental protection against the transmission of respiratory viruses but hamper communication. We estimated auditory and visual obstacles generated by face masks on communication by measuring the neural tracking of face-to-face speech. To this end, we recorded the EEG while participants were exposed to naturalistic audio-visual speech, embedded in multi-talker noise, in three contexts: (i) no-mask (audio-visual information was fully available), (ii) virtual mask (occluded lips, but intact audio), and (iii) real mask (occluded lips and degraded audio). The neural tracking of lip movements and the sound envelope of speech was measured through backward modeling, that is, by reconstructing stimulus properties from neural activity. Behaviorally, face masks increased listening -phonological-errors in speech content retrieval and perceived listening difficulty. At the neural level, we observed that the occlusion of the mouth abolished lip tracking and dampened neural tracking of the speech envelope at the earliest processing stages. Degraded acoustic information due to face mask filtering altered neural tracking at later processing stages instead. Finally, a consistent link emerged between the increment of listening perceived difficulty and the drop in reconstruction performance of speech envelope when attending to a speaker wearing a face mask. Results clearly dissociated the visual and auditory impacts of face masks on face-to-face neural tracking of speech. While face masks hampered the ability to predict and integrate audio-visual speech, the auditory filter generated by face masks impacted the neural processing stages typically associated with auditory selective attention. The link between perceived difficulty and neural tracking drop provided evidence of a major impact of face masks on the metacognitive levels subtending speech processing.
1

Visual uncertainty unveils the distinct role of haptic cues in multisensory grasping

Ivan Camponogara et al.Jan 25, 2022
Abstract Multisensory grasping movements (i.e., seeing and feeling a handheld object while grasping it with the contralateral hand) are superior to movements guided by each separate modality. This multisensory advantage might be driven by the integration of vision with either the haptic position only or with both position and size cues. To contrast these two hypotheses, we manipulated visual uncertainty (central vs. peripheral vision) and the availability of haptic cues during multisensory grasping. We showed a multisensory benefit irrespective of the degree of visual uncertainty suggesting that the integration process involved in multisensory grasping can be flexibly modulated by the contribution of each modality. Increasing visual uncertainty revealed the role of the distinct haptic cues. The haptic position cue was sufficient to promote multisensory benefits evidenced by faster actions with smaller grip apertures, whereas the haptic size was fundamental in fine-tuning the grip aperture scaling. These results support the hypothesis that, in multisensory grasping, vision is integrated with all haptic cues, with the haptic position cue playing the key part. Our findings highlight the important role of non-visual sensory inputs in sensorimotor control and hint at the potential contributions of the haptic modality in developing and maintaining visuomotor functions.
13

A brief glimpse at a haptic target is sufficient for multisensory integration in reaching movements

Ivan Camponogara et al.Oct 5, 2020
Abstract Goal-directed aiming movements toward visuo-haptic targets (i.e., seen and handheld targets) are generally more precise than those toward visual only or haptic only targets. This multisensory advantage stems from a continuous inflow of haptic and visual target information during the movement planning and execution phases. However, in everyday life, multisensory movements often occur without the support of continuous visual information. Here we investigated whether and to what extent limiting visual information to the initial stage of the action still leads to a multisensory advantage. Participants were asked to reach a handheld target while vision was briefly provided during the movement planning phase (50 ms, 100 ms, 200 ms of vision before movement onset), or during the planning and early execution phases (400 ms of vision), or during the entire movement. Additional conditions were performed in which only haptic target information was provided, or, only vision was provided either briefly (50 ms, 100 ms, 200 ms, 400 ms) or throughout the entire movement. Results showed that 50 ms of vision before movement onset were sufficient to trigger a direction-specific visuo-haptic integration process that increased endpoint precision. We conclude that, when a continuous support of vision is not available, endpoint precision is determined by the less recent, but most reliable multisensory information rather than by the latest unisensory (haptic) inputs.
11

Tool-sensed object information effectively supports vision for multisensory grasping

Ivan Camponogara et al.Jan 4, 2023
Abstract Tools enable humans to extend their sensing abilities beyond the natural limits of their hands, allowing them to sense objects as if they were using their hands directly. The similarities between tool-mediated and hand-based sensing entail the existence of comparable processes for integrating tool- and hand-sensed information with vision, raising the intriguing question of whether tools can support vision in bimanual object manipulations. Here we investigated this question by measuring participants’ performance while reaching for and grasping objects either held with a tool or with their hand. We found that tool-mediated sensing effectively supports vision in multisensory grasping. Even more intriguingly, tool-mediated sensing resembled hand-based sensing. In addition, by manipulating the object features (availability of position and size versus position only), we found that both tool- and hand-mediated action performance was not hindered by the absence of size information. Thus, integrating the tool-sensed position of the object with its vision is sufficient to promote a multisensory advantage in grasping. In sum, our findings indicate that multisensory integration mechanisms significantly improve grasping actions, fine-tuning contralateral hand movements even when object information is only indirectly sensed through the hand operating a tool. Significance statement Tools allow extending the hands sensing capabilities beyond their anatomical limits. Here we show that object information sensed through a tool can guide bimanual object manipulations as effectively as when directly sensed by the hand. Both tool and hand sensing provide relevant object positional information that are merged with vision to improve action performance. Our findings provide evidence about the interchangeable use of tools and hands for skilled actions and open new perspectives for prosthetic applications and rehabilitative plans.