MH
Matthias Hennig
Author with expertise in Neuronal Oscillations in Cortical Networks
Achievements
This user has not unlocked any achievements yet.
Key Stats
Upvotes received:
0
Publications:
10
(40% Open Access)
Cited by:
4
h-index:
24
/
i10-index:
33
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
20

Spatiotemporal organization of movement-invariant and movement-specific signaling in the output layer of motor cortex

Stephen Currie et al.Oct 27, 2020
Abstract Motor cortex generates descending output necessary for executing a wide range of limb movements. Although movement-related activity has been described throughout motor cortex, the spatiotemporal organization of movement-specific signaling in deep layers remains largely unknown. Here, we recorded layer 5B population dynamics in the caudal forelimb area of motor cortex while mice performed a forelimb push/pull task and found that most neurons show movement-invariant responses, with a minority displaying movement specificity. Cell-type-specific imaging identified that movement-invariant responses dominated pyramidal tract (PT) neuron activity, with a small subpopulation representing movement type, whereas a larger proportion of intratelencephalic (IT) neurons displayed movement-specific signaling. The proportion of IT neurons decoding movement-type peaked prior to movement initiation, while for PT neurons this occurred during movement execution. Our data suggest that layer 5B population dynamics largely reflect movement-invariant signaling, with information related to movement-type being differentially routed through relatively small, distributed subpopulations of projection neurons.
20
Citation2
0
Save
10

The Information Theory of Developmental Pruning: Optimizing Global Network Architecture Using Local Synaptic Rules

Carolin Scholl et al.Nov 30, 2020
Abstract During development, biological neural networks produce more synapses and neurons than needed. Many of these synapses and neurons are later removed in a process known as neural pruning. Why networks should initially be over-populated, and processes that determine which synapses and neurons are ultimately pruned, remains unclear. We study the mechanisms and significance of neural pruning in model neural network. In a deep Boltzmann machine model of sensory encoding, we find that (1) synaptic pruning is necessary to learn efficient network architectures that retain computationally-relevant connections, (2) pruning by synaptic weight alone does not optimize network size and (3) pruning based on a locally-available proxy for “sloppiness” based on Fisher Information allows the network to identify structurally important vs. unimportant connections and neurons. This locally-available measure of importance has a biological interpretation in terms of the correlations between presynaptic and postsynaptic neurons, and implies an efficient activity-driven pruning rule. Overall, we show how local activity-dependent synaptic pruning can solve the global problem of optimizing a network architecture. We relate these findings to biology as follows: (I) Synaptic over-production is necessary for activity-dependent connectivity optimization. (II) In networks that have more neurons than needed, cells compete for activity, and only the most important and selective neurons are retained. (III) Cells may also be pruned due to a loss of synapses on their axons. This occurs when the information they convey is not relevant to the target population.
0

Neural Field Models for Latent State Inference: Application to Large-Scale Neuronal Recordings

Michael Rule et al.Feb 8, 2019
Large-scale neural recording methods now allow us to observe large populations of identified single neurons simultaneously, opening a window into neural population dynamics in living organisms. However, distilling such large-scale recordings to build theories of emergent collective dynamics remains a fundamental statistical challenge. The neural field models of Wilson, Cowan, and colleagues remain the mainstay of mathematical population modeling owing to their interpretable, mechanistic parameters and amenability to mathematical analysis. Inspired by recent advances in biochemical modelling, we develop a method based on moment closure to interpret neural field models as latent state-space point-process models, making them amenable to statistical inference. With this approach we can infer the intrinsic states of neurons, such as active and refractory, solely from spiking activity in large populations. After validating this approach with synthetic data, we apply it to high-density recordings of spiking activity in the developing mouse retina. This confirms the essential role of a long lasting refractory state in shaping spatio-temporal properties of neonatal retinal waves. This conceptual and methodological advance opens up new theoretical connections between mathematical theory and point-process state-space models in neural data analysis.Significance Developing statistical tools to connect single-neuron activity to emergent collective dynamics is vital for building interpretable models of neural activity. Neural field models relate single-neuron activity to emergent collective dynamics in neural populations, but integrating them with data remains challenging. Recently, latent state-space models have emerged as a powerful tool for constructing phenomenological models of neural population activity. The advent of high-density multi-electrode array recordings now enables us to examine large-scale collective neural activity. We show that classical neural field approaches can yield latent state-space equations and demonstrate that this enables inference of the intrinsic states of neurons from recorded spike trains in large populations.
0

Pan-retinal characterisation of Light Responses from Ganglion Cells in the Developing Mouse Retina

Gerrit Hilgen et al.Apr 26, 2016
We have investigated the ontogeny of light-driven responses in mouse retinal ganglion cells (RGCs). Using a large-scale, high-density multielectrode array, we recorded from hundreds to thousands of RGCs simultaneously at pan-retinal level, including dorsal and ventral locations. Responses to different contrasts not only revealed a complex developmental profile for ON, OFF and ON-OFF RGC types, but also unveiled differences between dorsal and ventral RGCs. At eye-opening, dorsal RGCs of all types were more responsive to light, perhaps indicating an environmental priority to nest viewing for pre-weaning pups. The developmental profile of ON and OFF RGCs exhibited antagonistic behavior, with the strongest ON responses shortly after eye-opening, followed by an increase in the strength of OFF responses later on. Further, we found that with maturation receptive field (RF) center sizes decrease, responses to light get stronger, and centers become more circular while seeing differences in all of them between RGC types. These findings show that retinal functionality is not spatially homogeneous, likely reflecting ecological requirements that favour the early development of dorsal retina, and reflecting different roles in vision in the mature animal.
0

A diffusive homeostatic signal maintains neural heterogeneity and responsiveness in cortical networks

Yann Sweeney et al.Nov 29, 2014
Gaseous neurotransmitters such as nitric oxide (NO) provide a unique and often overlooked mechanism for neurons to communicate through diffusion within a network, independent of synaptic connectivity. NO provides homeostatic control of intrinsic excitability. Here we conduct a theoretical investigation of the distinguishing roles of NO-mediated diffusive homeostasis in comparison with canonical non-diffusive homeostasis in cortical networks. We find that both forms of homeostasis provide a robust mechanism for maintaining stable activity following perturbations. However, the resulting networks differ, with diffusive homeostasis maintaining substantial heterogeneity in activity levels of individual neurons, a feature disrupted in networks with non-diffusive homeostasis. This results in networks capable of representing input heterogeneity, and linearly responding over a broader range of inputs than those undergoing non-diffusive homeostasis. We further show that these properties are preserved when homeostatic and Hebbian plasticity are combined. These results suggest a mechanism for dynamically maintaining neural heterogeneity, and expose computational advantages of non-local homeostatic processes.