CC
Claudia Clopath
Author with expertise in Neuronal Oscillations in Cortical Networks
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
73
(75% Open Access)
Cited by:
7,989
h-index:
42
/
i10-index:
84
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
6

A deep learning framework for neuroscience

Blake Richards et al.Oct 28, 2019
Systems neuroscience seeks explanations for how the brain implements a wide variety of perceptual, cognitive and motor tasks. Conversely, artificial intelligence attempts to design computational systems based on the tasks they will have to solve. In artificial neural networks, the three components specified by design are the objective functions, the learning rules and the architectures. With the growing success of deep learning, which utilizes brain-inspired architectures, these three designed components have increasingly become central to how we model, engineer and optimize complex artificial learning systems. Here we argue that a greater focus on these components would also benefit systems neuroscience. We give examples of how this optimization-based framework can drive theoretical and experimental progress in neuroscience. We contend that this principled perspective on systems neuroscience will help to generate more rapid progress. A deep network is best understood in terms of components used to design it—objective functions, architecture and learning rules—rather than unit-by-unit computation. Richards et al. argue that this inspires fruitful approaches to systems neuroscience.
0

Connectivity reflects coding: a model of voltage-based STDP with homeostasis

Claudia Clopath et al.Jan 24, 2010
The authors develop a model of synaptic plasticity that can account for a large body of experimental data on connection patterns in the cortex. This model uses multiple parameters, including presynaptic spike interval and postsynaptic membrane potential. Electrophysiological connectivity patterns in cortex often have a few strong connections, which are sometimes bidirectional, among a lot of weak connections. To explain these connectivity patterns, we created a model of spike timing–dependent plasticity (STDP) in which synaptic changes depend on presynaptic spike arrival and the postsynaptic membrane potential, filtered with two different time constants. Our model describes several nonlinear effects that are observed in STDP experiments, as well as the voltage dependence of plasticity. We found that, in a simulated recurrent network of spiking neurons, our plasticity rule led not only to development of localized receptive fields but also to connectivity patterns that reflect the neural code. For temporal coding procedures with spatio-temporal input correlations, strong connections were predominantly unidirectional, whereas they were bidirectional under rate-coded input with spatial correlations only. Thus, variable connectivity patterns in the brain could reflect different coding principles across brain areas; moreover, our simulations suggested that plasticity is fast.
0

The emergence of functional microcircuits in visual cortex

Ho Ko et al.Apr 1, 2013
A study of mouse visual cortex relating patterns of excitatory synaptic connectivity to visual response properties of neighbouring neurons shows that, after eye opening, local connectivity reorganizes extensively: more connections form selectively between neurons with similar visual responses and connections are eliminated between visually unresponsive neurons, but the overall connectivity rate does not change. Intrinsic and experiential factors guide the patterning of neural pathways and the establishment of sensory response properties during postnatal development. Although sensory processing is known to depend on the precise wiring of cortical microcircuits, how this functional connectivity develops remains unclear. Based on electrical recordings of neighbouring neurons and changing network dynamics measures using calcium imaging, Thomas Mrsic-Flogel and colleagues offer a proposal that neuronal feature preference is initially acquired before sensory experience in a feed-forward manner, and with patterned input later driving the formation of precision within the network following the appropriate re-arrangement of synaptic connections. Sensory processing occurs in neocortical microcircuits in which synaptic connectivity is highly structured1,2,3,4 and excitatory neurons form subnetworks that process related sensory information5,6. However, the developmental mechanisms underlying the formation of functionally organized connectivity in cortical microcircuits remain unknown. Here we directly relate patterns of excitatory synaptic connectivity to visual response properties of neighbouring layer 2/3 pyramidal neurons in mouse visual cortex at different postnatal ages, using two-photon calcium imaging in vivo and multiple whole-cell recordings in vitro. Although neural responses were already highly selective for visual stimuli at eye opening, neurons responding to similar visual features were not yet preferentially connected, indicating that the emergence of feature selectivity does not depend on the precise arrangement of local synaptic connections. After eye opening, local connectivity reorganized extensively: more connections formed selectively between neurons with similar visual responses and connections were eliminated between visually unresponsive neurons, but the overall connectivity rate did not change. We propose a sequential model of cortical microcircuit development based on activity-dependent mechanisms of plasticity whereby neurons first acquire feature preference by selecting feedforward inputs before the onset of sensory experience—a process that may be facilitated by early electrical coupling between neuronal subsets7,8,9—and then patterned input drives the formation of functional subnetworks through a redistribution of recurrent synaptic connections.
190

A rapid and efficient learning rule for biological neural circuits

Eren Sezener et al.Mar 12, 2021
Abstract The dominant view in neuroscience is that changes in synaptic weights underlie learning. It is unclear, however, how the brain is able to determine which synapses should change, and by how much. This uncertainty stands in sharp contrast to deep learning, where changes in weights are explicitly engineered to optimize performance. However, the main tool for that, backpropagation, has two problems. One is neuro-science related: it is not biologically plausible. The other is inherent: networks trained with this rule tend to forget old tasks when learning new ones. Here we introduce the Dendritic Gated Network (DGN), a variant of the Gated Linear Network, which offers a biologically plausible alternative to backpropagation. DGNs combine dendritic ‘gating’ (whereby interneurons target dendrites to shape neuronal responses) with local learning rules to yield provably efficient performance. They are significantly more data efficient than conventional artificial networks, and are highly resistant to forgetting. Consequently, they perform well on a variety of tasks, in some cases better than backpropagation. Importantly, DGNs have structural and functional similarities to the cerebellum, a link that we strengthen by using in vivo two-photon calcium imaging to show that single interneurons suppress activity in individual dendritic branches of Purkinje cells, a key feature of the model. Thus, DGNs leverage targeted dendritic inhibition and local learning – two features ubiquitous in the brain – to achieve fast and efficient learning.
190
Citation21
0
Save
Load More