NL
Nathan Lepora
Author with expertise in Fabric Defect Detection in Industrial Applications
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
6
(67% Open Access)
Cited by:
403
h-index:
34
/
i10-index:
81
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

The TacTip Family: Soft Optical Tactile Sensors with 3D-Printed Biomimetic Morphologies

Benjamin Ward-Cherrier et al.Jan 3, 2018
+4
L
N
B
Tactile sensing is an essential component in human-robot interaction and object manipulation. Soft sensors allow for safe interaction and improved gripping performance. Here we present the TacTip family of sensors: a range of soft optical tactile sensors with various morphologies fabricated through dual-material 3D printing. All of these sensors are inspired by the same biomimetic design principle: transducing deformation of the sensing surface via movement of pins analogous to the function of intermediate ridges within the human fingertip. The performance of the TacTip, TacTip-GR2, TacTip-M2, and TacCylinder sensors is here evaluated and shown to attain submillimeter accuracy on a rolling cylinder task, representing greater than 10-fold super-resolved acuity. A version of the TacTip sensor has also been open-sourced, enabling other laboratories to adopt it as a platform for tactile sensing and manipulation research. These sensors are suitable for real-world applications in tactile perception, exploration, and manipulation, and will enable further research and innovation in the field of soft tactile sensing.
0

Deep learning-based location decoding reveals that across-day representational drift is better predicted by rewarded experience than time

Kipp Freud et al.Feb 4, 2024
C
M
N
K
ABSTRACT Neural representations of space in the hippocampus and related brain areas change over timescales of days-weeks, even in familiar contexts and when behavior appears stable. It is unclear whether this ‘representational drift’ is primarily driven by the passage of time or by behavioral experience. Here we present a novel deep-learning approach for measuring network-level representational drift, quantifying drift as the rate of change in decoder error of deep neural networks as a function of train-test lag. Using this method, we analyse a longitudinal dataset of 0.5–475 Hz broadband local field potential (LFP) data recorded from dorsal hippocampal CA1, medial prefrontal cortex and parietal cortex of six rats over ∼ 30 days, during learning of a spatial navigation task in an unfamiliar environment. All three brain regions contained clear spatial representations which improve and drift over training sessions. We find that the rate of drift slows for later training sessions. Finally, we find that drift is statistically better explained by task-relevant rewarded experiences within the maze, rather than the passage of time or number of sessions the animal spent on the maze. Our use of deep neural networks to quantify drift in broadband neural time series unlocks new possibilities for testing which aspects of behavior drive representational drift.
0

ViTacTip: Design and Verification of a Novel Biomimetic Physical Vision-Tactile Fusion Sensor

Wen Fan et al.May 13, 2024
+3
W
H
W
0

TacShade: A New 3D-printed Soft Optical Tactile Sensor Based on Light, Shadow and Greyscale for Shape Reconstruction

Zhenyu Lu et al.May 13, 2024
+4
H
J
Z
0

Behavioural and computational evidence for memory consolidation biased by reward-prediction errors

Emma Roscow et al.Jul 26, 2019
N
M
E
Neural activity encoding recent experiences is replayed during sleep and rest to promote consolidation of the corresponding memories. However, precisely which features of experience influence replay prioritisation to optimise adaptive behaviour remains unclear. Here, we trained adult male rats on a novel maze-based reinforcement learning task designed to dissociate reward outcomes from reward-prediction errors. Four variations of a reinforcement learning model were fitted to the rats' behaviour over multiple days. Behaviour was best predicted by a model incorporating replay biased by reward-prediction error, compared to the same model with no replay; random replay or reward-biased replay produced poorer predictions of behaviour. This insight disentangles the influences of salience on replay, suggesting that reinforcement learning is tuned by post-learning replay biased by reward-prediction error, not by reward per se. This work therefore provides a behavioural and theoretical toolkit with which to measure and interpret replay in striatal, hippocampal and neocortical circuits.
0

Self-Supervised Bayesian Visual Imitation Learning Applied to Robotic Pouring

Dandan Zhang et al.Mar 25, 2024
+2
W
Y
D