WS
Walter Senn
Author with expertise in Neuronal Oscillations in Cortical Networks
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
16
(63% Open Access)
Cited by:
1,005
h-index:
39
/
i10-index:
76
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Learning Real-World Stimuli in a Neural Network with Spike-Driven Synaptic Dynamics

Joseph Brader et al.Sep 20, 2007
We present a model of spike-driven synaptic plasticity inspired by experimental observations and motivated by the desire to build an electronic hardware device that can learn to classify complex stimuli in a semisupervised fashion. During training, patterns of activity are sequentially imposed on the input neurons, and an additional instructor signal drives the output neurons toward the desired activity. The network is made of integrate-and-fire neurons with constant leak and a floor. The synapses are bistable, and they are modified by the arrival of presynaptic spikes. The sign of the change is determined by both the depolarization and the state of a variable that integrates the postsynaptic action potentials. Following the training phase, the instructor signal is removed, and the output neurons are driven purely by the activity of the input neurons weighted by the plastic synapses. In the absence of stimulation, the synapses preserve their internal state indefinitely. Memories are also very robust to the disruptive action of spontaneous activity. A network of 2000 input neurons is shown to be able to classify correctly a large number (thousands) of highly overlapping patterns (300 classes of preprocessed Latex characters, 30 patterns per class, and a subset of the NIST characters data set) and to generalize with performances that are better than or comparable to those of artificial neural networks. Finally we show that the synaptic dynamics is compatible with many of the experimental observations on the induction of long-term modifications (spike-timing-dependent plasticity and its dependence on both the postsynaptic depolarization and the frequency of pre- and postsynaptic neurons).
0

Learning temporal integration from internal feedback

Erik Nygren et al.Dec 30, 2019
Abstract There has been much focus on the mechanisms of temporal integration, but little on how circuits learn to integrate. In the adult oculomotor system, where a neural integrator maintains fixations, changes in integration dynamics can be driven by visual error signals. However, we show through dark-rearing experiments that visual inputs are not necessary for initial integrator development. We therefore propose a vision-independent learning mechanism whereby a recurrent network learns to integrate via a ‘teaching’ signal formed by low-pass filtered feedback of its population activity. The key is the segregation of local recurrent inputs onto a dendritic compartment and teaching inputs onto a somatic compartment of an integrator neuron. Model instantiation for oculomotor control shows how a self-corrective teaching signal through the cerebellum can generate an integrator with both the dynamical and tuning properties necessary to drive eye muscles and maintain gaze angle. This bootstrap learning paradigm may be relevant for development and plasticity of temporal integration more generally. Highlights - A neuronal architecture that learns to integrate saccadic commands for eye position. - Learning is based on the recurrent dendritic prediction of somatic teaching signals. - Experiment and model show that no visual feedback is required for initial integrator learning. - Cerebellum is an internal teacher for motor nuclei and integrator population.
0

Data-driven reduction of dendritic morphologies with preserved dendro-somatic responses

Willem Wybo et al.Apr 7, 2020
Dendrites shape information flow in neurons. Yet, there is little consensus on the level of spatial complexity at which they operate. We present a flexible and fast method to obtain simplified neuron models at any level of complexity. Through carefully chosen parameter fits, solvable in the least squares sense, we obtain optimal reduced compartmental models. We show that (back-propagating) action potentials, calcium-spikes and NMDA-spikes can all be reproduced with few compartments. We also investigate whether afferent spatial connectivity motifs admit simplification by ablating targeted branches and grouping the affected synapses onto the next proximal dendrite. We find that voltage in the remaining branches is reproduced if temporal conductance fluctuations stay below a limit that depends on the average difference in input impedance between the ablated branches and the next proximal dendrite. Further, our methodology fits reduced models directly from experimental data, without requiring morphological reconstructions. We provide a software toolbox that automatizes the simplification, eliminating a common hurdle towards including dendritic computations in network models.
Load More