JZ
Joel Zylberberg
Author with expertise in Neuronal Oscillations in Cortical Networks
Canadian Institute for Advanced Research, York University, Artificial Intelligence in Medicine (Canada)
+ 7 more
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
11
(45% Open Access)
Cited by:
717
h-index:
20
/
i10-index:
26
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
6

A deep learning framework for neuroscience

Blake Richards et al.Jul 9, 2020
+29
P
T
B
Systems neuroscience seeks explanations for how the brain implements a wide variety of perceptual, cognitive and motor tasks. Conversely, artificial intelligence attempts to design computational systems based on the tasks they will have to solve. In artificial neural networks, the three components specified by design are the objective functions, the learning rules and the architectures. With the growing success of deep learning, which utilizes brain-inspired architectures, these three designed components have increasingly become central to how we model, engineer and optimize complex artificial learning systems. Here we argue that a greater focus on these components would also benefit systems neuroscience. We give examples of how this optimization-based framework can drive theoretical and experimental progress in neuroscience. We contend that this principled perspective on systems neuroscience will help to generate more rapid progress. A deep network is best understood in terms of components used to design it—objective functions, architecture and learning rules—rather than unit-by-unit computation. Richards et al. argue that this inspires fruitful approaches to systems neuroscience.
99

Learning from unexpected events in the neocortical microcircuit

Colleen Gillon et al.Oct 24, 2023
+20
J
J
C
Abstract Scientists have long conjectured that the neocortex learns the structure of the environment in a predictive, hierarchical manner. According to this conjecture, expected, predictable features are differentiated from unexpected ones by comparing bottom-up and top-down streams of information. It is theorized that the neocortex then changes the representation of incoming stimuli, guided by differences in the responses to expected and unexpected events. In line with this conjecture, different responses to expected and unexpected sensory features have been observed in spiking and somatic calcium events. However, it remains unknown whether these unexpected event signals occur in the distal apical dendrites where many top-down signals are received, and whether these signals govern subsequent changes in the brain’s stimulus representations. Here, we show that both somata and distal apical dendrites of cortical pyramidal neurons exhibit distinct unexpected event signals that systematically change over days. These findings were obtained by tracking the responses of individual somata and dendritic branches of layer 2/3 and layer 5 pyramidal neurons over multiple days in primary visual cortex of awake, behaving mice using two-photon calcium imaging. Many neurons in both layers 2/3 and 5 showed large differences between their responses to expected and unexpected events. Interestingly, these responses evolved in opposite directions in the somata and distal apical dendrites. These differences between the somata and distal apical dendrites may be important for hierarchical computation, given that these two compartments tend to receive bottom-up and top-down information, respectively.
99
Citation23
0
Save
0

A Self-Organizing Short-Term Dynamical Memory Network

Callie Federer et al.May 7, 2020
J
C
Abstract Working memory requires information about external stimuli to be represented in the brain even after those stimuli go away. This information is encoded in the activities of neurons, and neural activities change over timescales of tens of milliseconds. Information in working memory, however, is retained for tens of seconds , suggesting the question of how time-varying neural activities maintain stable representations. Prior work shows that, if the neural dynamics are in the ‘null space’ of the representation - so that changes to neural activity do not affect the downstream read-out of stimulus information - then information can be retained for periods much longer than the time-scale of individual-neuronal activities. The prior work, however, requires precisely constructed synaptic connectivity matrices, without explaining how this would arise in a biological neural network. To identify mechanisms through which biological networks can self-organize to learn memory function, we derived biologically plausible synaptic plasticity rules that dynamically modify the connectivity matrix to enable information storing. Networks implementing this plasticity rule can successfully learn to form memory representations even if only 10% of the synapses are plastic, they are robust to synaptic noise, and they can represent information about multiple stimuli.
0

Models of the ventral stream that categorize and visualize images

Elijah Christensen et al.May 7, 2020
J
E
A widely held view in visual systems neuroscience is that the ventral stream (VS) of mammalian visual cortex maps visual inputs onto firing patterns that specify object identities. Recent experiments, however, showed that information about object positions, sizes, etc. is encoded with increasing explicitness along this pathway. Here, we show that computational models that identify objects while also retaining enough information about the input image to allow its reconstruction, can provide a better description of how primate VS represents this category-orthogonal information, than do models that "just" identify objects. A thorough understanding of VS computations might thus require considerations beyond object recognition.
1

Stimulus-dependent functional network topology in mouse visual cortex

Deborah Tang et al.Oct 24, 2023
H
X
J
D
Information is processed by networks of neurons in the brain. On the timescale of sensory processing, those neuronal networks have relatively fixed anatomical connectivity, while functional connectivity, which defines the interactions between neurons, can vary depending on the ongoing activity of the neurons within the network. We thus hypothesized that different types of stimuli, which drive different neuronal activities in the network, could lead those networks to display stimulus-dependent functional connectivity patterns. To test this hypothesis, we analyzed electrophysiological data from the Allen Brain Observatory, which utilized Neuropixels probes to simultaneously record stimulus-evoked activity from hundreds of neurons across 6 different regions of mouse visual cortex. The recordings had single-cell resolution and high temporal fidelity, enabling us to determine fine-scale functional connectivity. Comparing the functional connectivity patterns observed when different stimuli were presented to the mice, we made several nontrivial observations. First, while the frequencies of different connectivity motifs (i.e., the patterns of connectivity between triplets of neurons) were preserved across stimuli, the identities of the neurons within those motifs changed. This means that functional connectivity dynamically changes along with the input stimulus, but does so in a way that preserves the motif frequencies. Secondly, we found that the degree to which functional modules are contained within a single brain region (as opposed to being distributed between regions) increases with increasing stimulus complexity. This suggests a mechanism for how the brain could dynamically alter its computations based on its inputs. Altogether, our work reveals unexpected stimulus-dependence to the way groups of neurons interact to process incoming sensory information.
0

Global motion processing by populations of direction-selective retinal ganglion cells

Jon Cafaro et al.May 7, 2020
G
J
J
Simple stimuli have been critical to understanding neural population codes in sensory systems. Yet it remains necessary to determine the extent to which this understanding generalizes to more complex conditions. To explore this problem, we measured how populations of direction-selective ganglion cells (DSGCs) from mouse retina respond to a global motion stimulus with its direction and speed changing dynamically. We then examined the encoding and decoding of motion direction in both individual and populations of DSGCs. Individual cells integrated global motion over ~200 ms, and responses were tuned to direction. However, responses were sparse and broadly tuned, which severely limited decoding performance from small DSGC populations. In contrast, larger populations compensated for response sparsity, enabling decoding with high temporal precision (<100 ms). At these timescales, correlated spiking was minimal and had little impact on decoding performance, unlike results obtained using simpler local motion stimuli decoded over longer timescales. We use these data to define different DSGC population decoding regimes that utilize or mitigate correlated spiking to achieve high spatial versus high temporal resolution.
0

A Moment-Based Maximum Entropy Model for Fitting Higher-Order Interactions in Neural Data

N. Cayco-Gajic et al.May 7, 2020
E
J
N
Correlations in neural activity have been demonstrated to have profound consequences for sensory encoding. To understand how neural populations represent stimulus information, it is therefore necessary to model how pairwise and higher-order spiking correlations between neurons contribute to the collective structure of population-wide spiking patterns. Maximum entropy models are an increasingly popular method for capturing collective neural activity by including successively higher-order interaction terms. However, incorporating higher-order interactions in these models is difficult in practice due to two factors. First, the number of parameters exponentially increases as higher orders are added. Second, because triplet (and higher) spiking events occur infrequently, estimates of higher-order statistics may be contaminated by sampling noise. To address this, we extend previous work on the Reliable Interaction class of models [1] to develop a normalized variant that adaptively identifies the specific pairwise and higher-order moments that can be estimated from a given dataset for a specified confidence level. The resulting "Reliable Moment" model is able to capture cortical-like distributions of population spiking patterns. Finally, we show that, compared with the Reliable Interaction model, the Reliable Moment model infers fewer strong spurious higher-order interactions and is better able to predict the frequencies of previously unobserved spiking patterns.
0

Transformation of population code from dLGN to V1 facilitates linear decoding

N. Gajic et al.May 7, 2020
+4
M
S
N
How neural populations represent sensory information, and how that representation is transformed from one brain area to another, are fundamental questions of neuroscience. The dorsolateral geniculate nucleus (dLGN) and primary visual cortex (V1) represent two distinct stages of early visual processing. Classic sparse coding theories propose that V1 neurons represent local features of images. More recent theories have argued that the visual pathway transforms visual representations to become increasingly linearly separable. To test these ideas, we simultaneously recorded the spiking activity of mouse dLGN and V1 in vivo. We find strong evidence for both sparse coding and linear separability theories. Surprisingly, the correlations between neurons in V1 (but not dLGN) were shaped as to be irrelevant for stimulus decoding, a feature which we show enables linear separability. Therefore, our results suggest that the dLGN-V1 transformation reshapes correlated variability in a manner that facilitates linear decoding while producing a sparse code.
0

Ignoring correlated activity causes a failure of retinal population codes under moonlight conditions

Kiersten Ruda et al.May 7, 2020
G
J
K
The retina encodes visual stimuli across light intensities spanning 10-12 orders of magnitude from starlight to sunlight. To accommodate this enormous range, adaptation alters retinal output, changing both the signal and noise among populations of retinal ganglion cells (RGCs). Here we determine how these light level-dependent changes in signal and noise impact decoding of retinal output. In particular, we consider the importance of accounting for noise correlations among RGCs to optimally read out retinal activity. We find that at moonlight conditions, correlated noise is greater and assuming independent noise severely diminished decoding performance. In fact, assuming independence among a local population of RGCs produced worse decoding than using a single RGC, demonstrating a failure of population codes when correlated noise is substantial and ignored. We generalize these results with a simple model to determine the signal and noise conditions under which this failure of population processing can occur. This work elucidates the circumstances in which accounting for noise correlations is necessary to take advantage of population-level codes and shows that sensory adaptation can strongly impact decoding requirements on downstream brain areas.
1

Biophysical neural adaptation mechanisms enable deep learning models to capture dynamic retinal computation

Saad Idrees et al.Oct 24, 2023
+2
F
M
S
Neural adaptation is a universal feature of neural systems that modulates the output based on input conditions, enabling efficient encoding of sensory inputs without saturation or loss. In contrast, conventional artificial neural networks (ANNs) lack these adaptational mechanisms, resulting in inaccurate neural predictions under changing input conditions. Can embedding neural adaptive mechanisms in ANNs improve their performance and generate biologically-plausible models? To address this question, we introduce a new type of convolutional neural network (CNN) layer incorporating photoreceptor biophysics and adaptation mechanisms to model light-dependent photoreceptor sensitivity and kinetics. Under changing input light conditions, CNNs that include the new photoreceptor layer integrated as a front-end perform better than conventional CNN models at predicting: (1) monkey and rat retinal ganglion cell responses; and (2) context-dependent changes in neural sensitivity. This study demonstrates the potential of embedding neural adaptive mechanisms in deep learning models, enabling them to adapt dynamically to evolving inputs.
Load More