JP
Jasper Poort
Author with expertise in Neuronal Oscillations in Cortical Networks
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
8
(75% Open Access)
Cited by:
1,290
h-index:
14
/
i10-index:
15
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Alpha and gamma oscillations characterize feedback and feedforward processing in monkey visual cortex

Timo Kerkoerle et al.Sep 9, 2014
+4
B
M
T
Significance One of the main unresolved questions in cognitive neuroscience is how low-level and high-level areas of the visual cortex interact with each other during perception and cognition. We investigated whether cortical oscillations can be used to distinguish feedforward from feedback processing. We studied the propagation of α- and γ-oscillations through the cortical layers and between different visual cortical areas. We induced oscillations in different areas with microstimulation and influenced them using a pharmacological approach. The results of these experiments demonstrate that γ-oscillations propagate in the feedforward direction, whereas α-oscillations propagate in the feedback direction. We conclude that high- and low-frequency oscillations provide markers of feedforward and feedback processing, respectively.
0

Learning Enhances Sensory and Multiple Non-sensory Representations in Primary Visual Cortex

Jasper Poort et al.Jun 1, 2015
+8
M
A
J
We determined how learning modifies neural representations in primary visual cortex (V1) during acquisition of a visually guided behavioral task. We imaged the activity of the same layer 2/3 neuronal populations as mice learned to discriminate two visual patterns while running through a virtual corridor, where one pattern was rewarded. Improvements in behavioral performance were closely associated with increasingly distinguishable population-level representations of task-relevant stimuli, as a result of stabilization of existing and recruitment of new neurons selective for these stimuli. These effects correlated with the appearance of multiple task-dependent signals during learning: those that increased neuronal selectivity across the population when expert animals engaged in the task, and those reflecting anticipation or behavioral choices specifically in neuronal subsets preferring the rewarded stimulus. Therefore, learning engages diverse mechanisms that modify sensory and non-sensory representations in V1 to adjust its processing to task requirements and the behavioral relevance of visual stimuli.
0

Kinetic features dictate sensorimotor alignment in the superior colliculus

Ana González-Rueda et al.Jul 3, 2024
+8
M
K
A
Abstract The execution of goal-oriented behaviours requires a spatially coherent alignment between sensory and motor maps. The current model for sensorimotor transformation in the superior colliculus relies on the topographic mapping of static spatial receptive fields onto movement endpoints 1–6 . Here, to experimentally assess the validity of this canonical static model of alignment, we dissected the visuo-motor network in the superior colliculus and performed in vivo intracellular and extracellular recordings across layers, in restrained and unrestrained conditions, to assess both the motor and the visual tuning of individual motor and premotor neurons. We found that collicular motor units have poorly defined visual static spatial receptive fields and respond instead to kinetic visual features, revealing the existence of a direct alignment in vectorial space between sensory and movement vectors, rather than between spatial receptive fields and movement endpoints as canonically hypothesized. We show that a neural network built according to these kinetic alignment principles is ideally placed to sustain ethological behaviours such as the rapid interception of moving and static targets. These findings reveal a novel dimension of the sensorimotor alignment process. By extending the alignment from the static to the kinetic domain this work provides a novel conceptual framework for understanding the nature of sensorimotor convergence and its relevance in guiding goal-directed behaviours.
1

Learning shapes cortical dynamics to enhance integration of relevant sensory input

Angus Chadwick et al.Aug 4, 2021
+4
J
A
A
Summary Adaptive sensory behavior is thought to depend on processing in recurrent cortical circuits, but how dynamics in these circuits shapes the integration and transmission of sensory information is not well understood. Here, we study neural coding in recurrently connected networks of neurons driven by sensory input. We show analytically how information available in the network output varies with the alignment between feedforward input and the integrating modes of the circuit dynamics. In light of this theory, we analyzed neural population activity in the visual cortex of mice that learned to discriminate visual features. We found that over learning, slow patterns of network dynamics realigned to better integrate input relevant to the discrimination task. This realignment of network dynamics could be explained by changes in excitatory-inhibitory connectivity amongst neurons tuned to relevant features. These results suggest that learning tunes the temporal dynamics of cortical circuits to optimally integrate relevant sensory input. Highlights A new theoretical principle links recurrent circuit dynamics to optimal sensory coding Predicts that high-SNR input dimensions activate slowly decaying modes of dynamics Population dynamics in primary visual cortex realign during learning as predicted Stimulus-specific changes in E-I connectivity in recurrent circuits explain realignment
0

The impact of parvalbumin interneurons on visual discrimination depends on strength and timing of activation and task difficulty

Lilia Kukovska et al.Jun 8, 2024
J
L
SUMMARY Parvalbumin-expressing (PV) cells are the most common class of inhibitory interneurons in the visual cortex. They are densely connected to excitatory cells and play important roles in balancing cortical circuit activity and learning. PV cell activation is a tool to inactivate cortical regions to establish their role in visual processing. However, it is not established how moderate activation affects behaviour and how effects depend on activation strength, timing and task difficulty. We therefore investigated how these three major factors affect performance of mice in a go/no-go orientation discrimination task. We tested discrimination performance with different strength and timing of PV cell activation in V1 and with different task difficulty levels. We found that PV cell activation improved performance in easy discriminations when stimulating with moderate laser powers only during the initial 120 ms from stimulus onset, corresponding to the initial feedforward processing sweep across the cortical hierarchy. In the same animals, PV cell activation did not aid performance in difficult discriminations. However, in both easy and difficult discriminations, optimal behavioural performance required undisturbed late phase activity beyond 120 ms, highlighting the importance of sustained activity in V1. Combining the optogenetic activation of PV cells with two-photon imaging showed that behavioural changes were associated with changes in stimulus response selectivity in V1. Thus, our results demonstrate that early and sustained activity in V1 is crucial for perceptual discrimination and delineate specific conditions when PV cell activation shapes neuronal selectivity to improve behaviour. Effects of moderate optogenetic PV cell activation on behaviour are time window specific Benefits of increased PV cell-mediated inhibition depend on task difficulty Optimal behavioural performance requires sustained V1 activity in both easy and difficult discriminations Behavioural changes with PV cell activation are reflected by changes in the selectivity of V1 neurons
0

An ultralight head-mounted camera system integrates detailed behavioral monitoring with multichannel electrophysiology in freely moving mice

Arne Meyer et al.Apr 3, 2018
+2
J
J
A
Breakthroughs in understanding the neural basis of natural behavior require neural recording and intervention to be paired with high-fidelity multimodal behavioral monitoring. An extensive genetic toolkit for neural circuit dissection, and well-developed neural recording technology, make the mouse a powerful model organism for systems neuroscience. However, methods for high-bandwidth acquisition of behavioral signals in mice remain limited to fixed-position cameras and other off-animal devices, complicating the monitoring of animals freely engaged in natural behaviors. Here, we report the development of an ultralight head-mounted camera system combined with head-movement sensors to simultaneously monitor eye position, pupil dilation, whisking, and pinna movements along with head motion in unrestrained, freely behaving mice. The power of the combined technology is demonstrated by observations linking eye position to head orientation; whisking to non-tactile stimulation; and, in electrophysiological experiments, visual cortical activity to volitional head movements.
118

Learning and attention increase visual response selectivity through distinct mechanisms

Jasper Poort et al.Feb 2, 2021
+6
A
K
J
Summary Selectivity of cortical neurons for sensory stimuli can increase across days as animals learn their behavioral relevance, and across seconds when animals switch attention. While both phenomena are expressed in the same cortical circuit, it is unknown whether they rely on similar mechanisms. We imaged activity of the same neuronal populations in primary visual cortex as mice learned a visual discrimination task and subsequently performed an attention switching task. Selectivity changes due to learning and attention were uncorrelated in individual neurons. Selectivity increases after learning mainly arose from selective suppression of responses to one of the task relevant stimuli but from selective enhancement and suppression during attention. Learning and attention differentially affected interactions between excitatory and PV, SOM and VIP inhibitory cell classes. Circuit modelling revealed that cell class-specific top-down inputs best explained attentional modulation, while the reorganization of local functional connectivity accounted for learning related changes. Thus, distinct mechanisms underlie increased discriminability of relevant sensory stimuli across longer and shorter time scales.
0

Two distinct types of eye-head coupling in freely moving mice

Arne Meyer et al.Feb 20, 2020
J
J
A
Animals actively interact with their environment to gather sensory information. There is conflicting evidence about how mice use vision to sample their environment. During head restraint, mice make rapid eye movements strongly coupled between the eyes, similar to conjugate saccadic eye movements in humans. However, when mice are free to move their heads, eye movement patterns are more complex and often non-conjugate, with the eyes moving in opposite directions. Here, we combined eye tracking with head motion measurements in freely moving mice and found that both observations can be explained by the existence of two distinct types of coupling between eye and head movements. The first type comprised non-conjugate eye movements which systematically compensated for changes in head tilt to maintain approximately the same visual field relative to the horizontal ground plane. The second type of eye movements were conjugate and coupled to head yaw rotation to produce a "saccade and fixate" gaze pattern. During head initiated saccades, the eyes moved together in the same direction as the head, but during subsequent fixation moved in the opposite direction to the head to compensate for head rotation. This "saccade and fixate" pattern is similar to that seen in humans who use eye movements (with or without head movement) to rapidly shift gaze but in mice relies on combined eye and head movements. Indeed, the two types of eye movements very rarely occurred in the absence of head movements. Even in head-restrained mice, eye movements were invariably associated with attempted head motion. Both types of eye-head coupling were seen in freely moving mice during social interactions and a visually-guided object tracking task. Our results reveal that mice use a combination of head and eye movements to sample their environment and highlight the similarities and differences between eye movements in mice and humans.