JM
Jakob Macke
Author with expertise in Neuronal Oscillations in Cortical Networks
Achievements
Open Access Advocate
Cited Author
Key Stats
Upvotes received:
0
Publications:
22
(82% Open Access)
Cited by:
648
h-index:
34
/
i10-index:
65
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Painfree and accurate Bayesian estimation of psychometric functions for (potentially) overdispersed data

Heiko Schütt et al.May 1, 2016
The psychometric function describes how an experimental variable, such as stimulus strength, influences the behaviour of an observer. Estimation of psychometric functions from experimental data plays a central role in fields such as psychophysics, experimental psychology and in the behavioural neurosciences. Experimental data may exhibit substantial overdispersion, which may result from non-stationarity in the behaviour of observers. Here we extend the standard binomial model which is typically used for psychometric function estimation to a beta-binomial model. We show that the use of the beta-binomial model makes it possible to determine accurate credible intervals even in data which exhibit substantial overdispersion. This goes beyond classical measures for overdispersion-goodness-of-fit-which can detect overdispersion but provide no method to do correct inference for overdispersed data. We use Bayesian inference methods for estimating the posterior distribution of the parameters of the psychometric function. Unlike previous Bayesian psychometric inference methods our software implementation-psignifit 4-performs numerical integration of the posterior within automatically determined bounds. This avoids the use of Markov chain Monte Carlo (MCMC) methods typically requiring expert knowledge. Extensive numerical tests show the validity of the approach and we discuss implications of overdispersion for experimental design. A comprehensive MATLAB toolbox implementing the method is freely available; a python implementation providing the basic capabilities is also available.
0

Quantifying the effect of intertrial dependence on perceptual decisions

Ingo Fründ et al.Jun 18, 2014
Abstract In the perceptual sciences, experimenters study the causal mechanisms of perceptual systems by probing observers with carefully constructed stimuli. It has long been known, however, that perceptual decisions are not only determined by the stimulus, but also by internal factors. Internal factors could lead to a statistical influence of previous stimuli and responses on the current trial, resulting in serial dependencies, which complicate the causal inference between stimulus and response. However, the majority of studies do not take serial dependencies into account, and it has been unclear how strongly they influence perceptual decisions. We hypothesize that one reason for this neglect is that there has been no reliable tool to quantify them and to correct for their effects. Here we develop a statistical method to detect, estimate, and correct for serial dependencies in behavioral data. We show that even trained psychophysical observers suffer from strong history dependence. A substantial fraction of the decision variance on difficult stimuli was independent of the stimulus but dependent on experimental history. We discuss the strong dependence of perceptual decisions on internal factors and its implications for correct data interpretation.
48

Phase of firing does not reflect temporal order in sequence memory of humans and recurrent neural networks

S Liebe et al.Sep 27, 2022
Abstract A prominent theory proposes that the temporal order of a sequence of items held in memory is reflected in ordered firing of neurons at different phases of theta oscillations 1 . We probe this theory by directly measuring single neuron activity (1420 neurons) and local field potentials (LFP, 921 channels) in the medial temporal lobe of 16 epilepsy patients performing a working memory task for temporal order. We observe theta oscillations and preferential firing of single neurons at theta phase during memory maintenance. We find that - depending on memory performance - phase of firing is related to item position within a sequence. However, in contrast to the theory, phase order did not match item order. To investigate underlying mechanisms, we subsequently trained recurrent neural networks (RNNs) to perform an analogous task. Similar to recorded neural activity, we show that RNNs generate theta oscillations during memory maintenance. Importantly, model neurons exhibit theta phase-dependent firing related to item position, where phase of firing again did not match item order. Instead, we observed a mechanistic link between phase order, stimulus timing and oscillation frequency - a relationship we subsequently confirmed in our neural recordings. Taken together, in both biological and artificial neural networks we provide validating evidence for the role of phase-of-firing in memory processing while at the same time challenging a long-held theory about the functional role of spiking and oscillations in sequence memory.
48
Citation5
0
Save
1

Combined statistical-mechanistic modeling links ion channel genes to physiology of cortical neuron types

Yves Bernaerts et al.Mar 2, 2023
ABSTRACT Neural cell types have classically been characterized by their anatomy and electrophysiology. More recently, single-cell transcriptomics has enabled an increasingly finer genetically defined taxonomy of cortical cell types but the link between the gene expression of individual cell types and their physiological and anatomical properties remains poorly understood. Here, we develop a hybrid modeling approach to bridge this gap. Our approach combines statistical and mechanistic models to predict cells’ electrophysiological activity from their gene expression pattern. To this end, we fit biophysical Hodgkin-Huxley models for a wide variety of cortical cell types using simulation-based inference, while overcoming the challenge posed by the model mismatch between the mathematical model and the data. Using multimodal Patch-seq data, we link the estimated model parameters to gene expression using an interpretable sparse linear regression model. Our approach recovers specific ion channel gene expressions as predictive of Hodgkin-Huxley ion channel densities, directly implicating their mechanistic role in determining neural firing.
1
Citation5
0
Save
60

Energy efficient network activity from disparate circuit parameters

Michael Deistler et al.Aug 2, 2021
Abstract Neural circuits can produce similar activity patterns from vastly different combinations of channel and synaptic conductances. These conductances are tuned for specific activity patterns but might also reflect additional constraints, such as metabolic cost or robustness to perturbations. How do such constraints influence the range of permissible conductances? Here, we investigate how metabolic cost affects the parameters of neural circuits with similar activity in a model of the pyloric network of the crab Cancer borealis . We use a novel machine learning method to identify a range of network models that can generate activity patterns matching experimental data, and find that neural circuits can consume largely different amounts of energy despite similar circuit activity. Furthermore, a reduced but still significant range of circuit parameters gives rise to energy-efficient circuits. We then examine the space of parameters of energy-efficient circuits and identify potential tuning strategies for low metabolic cost. Finally, we investigate the interaction between metabolic cost and temperature robustness. We show that metabolic cost can vary across temperatures, but that robustness to temperature changes does not necessarily incur an increased metabolic cost. Our analyses show that, despite metabolic efficiency and temperature robustness constraining circuit parameters, neural systems can generate functional, efficient, and robust network activity with widely disparate sets of conductances.
0

Modeling conditional distributions of neural and behavioral data with masked variational autoencoders

Auguste Schulz et al.Apr 25, 2024
Extracting the relationship between high-dimensional recordings of neural activity and complex behavior is a ubiquitous problem in systems neuroscience. Toward this goal, encoding and decoding models attempt to infer the conditional distribution of neural activity given behavior and vice versa, while dimensionality reduction techniques aim to extract interpretable low-dimensional representations. Variational autoencoders (VAEs) are flexible deep-learning models commonly used to infer low-dimensional embeddings of neural or behavioral data. However, it is challenging for VAEs to accurately model arbitrary conditional distributions, such as those encountered in neural encoding and decoding, and even more so simultaneously. Here, we present a VAE-based approach for accurately calculating such conditional distributions. We validate our approach on a task with known ground truth and demonstrate the applicability to high-dimensional behavioral time series by retrieving the conditional distributions over masked body parts of walking flies. Finally, we probabilistically decode motor trajectories from neural population activity in a monkey reach task and query the same VAE for the encoding distribution of neural activity given behavior. Our approach provides a unifying perspective on joint dimensionality reduction and learning conditional distributions of neural and behavioral data, which will allow for scaling common analyses in neuroscience to today's high-dimensional multi-modal datasets.
Load More