AF
Alessandro Farnè
Author with expertise in Tactile Perception and Cross-modal Plasticity
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
22
(68% Open Access)
Cited by:
2,899
h-index:
55
/
i10-index:
140
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Hemispatial neglect

Laurel Buxbaum et al.Mar 9, 2004
Objective: To assess the relative frequency of occurrence of motor, perceptual, peripersonal, and personal neglect subtypes, the association of neglect and other related deficits (e.g., deficient nonlateralized attention, anosognosia), and the neuroanatomic substrates of neglect in patients with right hemisphere stroke in rehabilitation settings. Methods: The authors assessed 166 rehabilitation inpatients and outpatients with right hemisphere stroke with measures of neglect and neglect subtypes, attention, motor and sensory function, functional disability, and family burden. Detailed lesion analyses were also performed. Results: Neglect was present in 48% of right hemisphere stroke patients. Patients with neglect had more motor impairment, sensory dysfunction, visual extinction, basic (nonlateralized) attention deficit, and anosognosia than did patients without neglect. Personal neglect occurred in 1% and peripersonal neglect in 27%, motor neglect in 17%, and perceptual neglect in 21%. Neglect severity predicted scores on the Functional Independence Measure and Family Burden Questionnaire more accurately than did number of lesioned regions. Conclusions: The neglect syndrome per se, rather than overall stroke severity, predicts poor outcome in right hemisphere stroke. Dissociations between tasks assessing neglect subtypes support the existence of these subtypes. Finally, neglect results from lesions at various loci within a distributed system mediating several aspects of attention and spatiomotor performance.
1

Peripersonal and reaching space differ: evidence from their spatial extent and multisensory facilitation pattern

Alessandro Zanini et al.Jun 2, 2020
Abstract Peripersonal space (PPS) is a multisensory representation of the space near body parts facilitating interactions with the close environment. Studies on non-human and human primates converge in showing that PPS is a body-part-centred representation that guides actions. Because of these characteristics, growing confusion conflates peripersonal and arm-reaching space (ARS), that is the space one’s arm can reach. Despite neuroanatomical evidence favors their distinction, no study has contrasted directly their respective extent and behavioral features. Here, in five experiments (N=140) we found that PPS differs from ARS, as evidenced both by participants’ spatial and temporal performance and its modeling. We mapped PPS and ARS using both their respective gold standard tasks and a novel multisensory facilitation paradigm. Results show that 1) PPS is smaller than ARS; 2) multivariate analyses of spatial patterns of multisensory facilitation predict participants’ hand locations within ARS; 3) the multisensory facilitation map shifts isomorphically following hand positions, revealing hand-centred coding of PPS, therefore pointing to a functional similarity to the receptive fields of monkeys’ multisensory neurons. A control experiment further corroborated these results and additionally ruled out the orienting of attention as driving mechanism for the increased multisensory facilitation near the hand. In sharp contrast, ARS mapping results in a larger spatial extent, with undistinguishable patterns across hand positions, cross-validating the conclusion that PPS and ARS are distinct spatial representations. These findings urge for a refinement of theoretical models of PPS, which is relevant to constructs as diverse as self-representation, social interpersonal distance, and motor control.
22

Implicit motor adaptation and perceived hand position without proprioception: A kinesthetic error may be derived from efferent signals

Jonathan Tsay et al.Jan 20, 2023
Abstract Our ability to produce successful goal-directed actions involves multiple learning processes. Among these, implicit adaptation is of utmost importance, keeping our sensorimotor system well-calibrated in response to changes in the body and environment. Implicit adaptation is assumed to be driven by a sensory prediction error, the difference between the predicted and actual sensory consequences of a movement. Whereas most models of implicit adaptation have focused on how visual information defines the sensory prediction error, we have recently proposed that this error signal is kinesthetic, the difference between the desired and perceived hand position, with adaptation serving to align these two signals and restore optimal motor performance (Tsay et al., 2022). Here, we examined implicit adaptation and kinesthetic perception in rare individuals who lack proprioceptive signals from the upper limbs. We used a visuomotor rotation task designed to isolate implicit adaptation while simultaneously probing the participants’ perceived hand position. Consistent with prior work, control participants exhibited robust implicit adaptation and the signature of kinesthetic re-alignment, an initial bias in perceived hand position towards the visual cursor and a gradual shift back to the movement goal. Strikingly, the time course of both implicit adaptation and kinesthetic re-alignment was preserved in the deafferented group, suggesting that proprioceptive afferents are not necessary for implicit adaptation and kinesthetic re-alignment. We propose that a kinesthetic prediction error derived from efferent motor signals is sufficient to drive implicit adaptation and to re-algin a biased percept of hand position with the movement goal.
0

Visual perceptual learning is enhanced by training in the illusory far space

Antonio Zafarana et al.May 24, 2024
Visual objects in the peripersonal space (PPS) are perceived faster than farther ones appearing in the extrapersonal space (EPS). This shows preferential processing for visual stimuli near our body. Such an advantage should favour visual perceptual learning occurring near, as compared with far from observers, but opposite evidence has been recently provided from online testing protocols, showing larger perceptual learning in the far space. Here, we ran two laboratory-based experiments investigating whether visual training in PPS and EPS has different effects. We used the horizontal Ponzo Illusion to create a lateralized depth perspective while participants completed a visual search task in which they reported whether or not a specific target object orientation (e.g., a triangle pointing upwards) was present among distractors. This task was completed before and after a training phase in either the (illusory) near or far space for 1 h. In Experiment 1, the near space was in the left hemispace, whereas in Experiment 2, it was in the right. Results showed that, in both experiments, participants were more accurate after training in the far space, whereas training in the near space led to either improvement in the far space (Experiment 1), or no change (Experiment 2). Moreover, we found a larger visual perceptual learning when stimuli were presented in the left compared with the right hemispace. Differently from visual processing, visual perceptual learning is more effective in the far space. We propose that depth is a key dimension that can be used to improve human visual learning.
1

A somatosensory computation that unifies limbs and tools

Luke Miller et al.Dec 13, 2021
Abstract It is often claimed that tools are embodied by the user, but whether the brain actually repurposes its body-based computations to perform similar tasks with tools is not known. A fundamental computation for localizing touch on the body is trilateration . Here, the location of touch on a limb is computed by integrating estimates of the distance between sensory input and its boundaries (e.g., elbow and wrist of the forearm). As evidence of this computational mechanism, tactile localization on a limb is most precise near its boundaries and lowest in the middle. We show that the brain repurposes trilateration to localize touch on a tool. In a large sample of participants, we found that localizing touch on a tool produced the signature of trilateration, with highest precision close to the base and tip of the tool. A computational model of trilateration provided a good fit to the observed localization behavior. To further demonstrate the computational plausibility of repurposing trilateration, we implemented it in a three-layer neural network that was based on principles of probabilistic population coding. This network determined hit location in tool-centered coordinates by using a tool’s unique pattern of vibrations when contacting an object. Simulations demonstrated the expected signature of trilateration, in line with the behavioral patterns. Our results have important implications for how trilateration may be implemented by somatosensory neural populations. We conclude that trilateration is a fundamental spatial computation that unifies limbs and tools.
1

Alpha oscillations are involved in localizing touch on hand-held tools

Cécile Fabio et al.Nov 2, 2021
ABSTRACT The sense of touch is not restricted to the body but can also extend to external objects. When we use a hand-held tool to contact an object, we feel the touch on the tool and not in the hand holding the tool. The ability to perceive touch on a tool actually extends along its entire surface, allowing the user to accurately localize where it is touched similarly as they would on their body. While the neural mechanisms underlying the ability to localize touch on the body have been largely investigated, those allowing to localize touch on a tool are still unknown. We aimed to fill this gap by recording the EEG signal of participants while they localized tactile stimuli on a hand-held rod. We focused on oscillatory activity in the alpha (7-14 Hz) and beta (15-30 Hz) range, as they have been previously linked to distinct spatial codes used to localize touch on the body. Beta activity reflects the mapping of touch in skin-based coordinates, whereas alpha activity reflects the mapping of touch in external space. We found that alpha activity was solely modulated by the location of tactile stimuli applied on a hand-held rod. Source reconstruction suggested that this alpha power modulation was localized in a network of fronto-parietal regions previously implicated in higher-order tactile and spatial processing. These findings are the first to implicate alpha oscillations in tool-extended sensing and suggest an important role for processing touch in external space when localizing touch on a tool.
Load More