KK
Konrad Kording
Author with expertise in Neuronal Oscillations in Cortical Networks
University of Pennsylvania, California University of Pennsylvania, Canadian Institute for Advanced Research
+ 12 more
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
27
(44% Open Access)
Cited by:
846
h-index:
72
/
i10-index:
217
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
6

A deep learning framework for neuroscience

Blake Richards et al.Jul 9, 2020
+29
P
T
B
Systems neuroscience seeks explanations for how the brain implements a wide variety of perceptual, cognitive and motor tasks. Conversely, artificial intelligence attempts to design computational systems based on the tasks they will have to solve. In artificial neural networks, the three components specified by design are the objective functions, the learning rules and the architectures. With the growing success of deep learning, which utilizes brain-inspired architectures, these three designed components have increasingly become central to how we model, engineer and optimize complex artificial learning systems. Here we argue that a greater focus on these components would also benefit systems neuroscience. We give examples of how this optimization-based framework can drive theoretical and experimental progress in neuroscience. We contend that this principled perspective on systems neuroscience will help to generate more rapid progress. A deep network is best understood in terms of components used to design it—objective functions, architecture and learning rules—rather than unit-by-unit computation. Richards et al. argue that this inspires fruitful approaches to systems neuroscience.
0

Catalyzing next-generation Artificial Intelligence through NeuroAI

Anthony Zador et al.Aug 29, 2024
+24
B
S
A
Abstract Neuroscience has long been an essential driver of progress in artificial intelligence (AI). We propose that to accelerate progress in AI, we must invest in fundamental research in NeuroAI. A core component of this is the embodied Turing test, which challenges AI animal models to interact with the sensorimotor world at skill levels akin to their living counterparts. The embodied Turing test shifts the focus from those capabilities like game playing and language that are especially well-developed or uniquely human to those capabilities – inherited from over 500 million years of evolution – that are shared with all animals. Building models that can pass the embodied Turing test will provide a roadmap for the next generation of AI.
0

Deep learning for brains?: Different linear and nonlinear scaling in UK Biobank brain images vs. machine-learning datasets

Marc‐Andre Schulz et al.May 7, 2020
+5
J
B
M
Abstract In recent years, deep learning has unlocked unprecedented success in various domains, especially in image, text, and speech processing. These breakthroughs may hold promise for neuroscience and especially for brain-imaging investigators who start to analyze thousands of participants. However, deep learning is only beneficial if the data have nonlinear relationships and if they are exploitable at currently available sample sizes. We systematically profiled the performance of deep models, kernel models, and linear models as a function of sample size on UK Biobank brain images against established machine learning references. On MNIST and Zalando Fashion, prediction accuracy consistently improved when escalating from linear models to shallow-nonlinear models, and further improved when switching to deep-nonlinear models. The more observations were available for model training, the greater the performance gain we saw. In contrast, using structural or functional brain scans, simple linear models performed on par with more complex, highly parameterized models in age/sex prediction across increasing sample sizes. In fact, linear models kept improving as the sample size approached ∼10,000 participants. Our results indicate that the increase in performance of linear models with additional data does not saturate at the limit of current feasibility. Yet, nonlinearities of common brain scans remain largely inaccessible to both kernel and deep learning methods at any examined scale.
0

Toward Next-Generation Artificial Intelligence: Catalyzing the NeuroAI Revolution

Anthony Zador et al.Aug 29, 2024
+24
B
B
A
Neuroscience has long been an essential driver of progress in artificial intelligence (AI). We propose that to accelerate progress in AI, we must invest in fundamental research in NeuroAI. A core component of this is the embodied Turing test, which challenges AI animal models to interact with the sensorimotor world at skill levels akin to their living counterparts. The embodied Turing test shifts the focus from those capabilities like game playing and language that are especially well-developed or uniquely human to those capabilities, inherited from over 500 million years of evolution, that are shared with all animals. Building models that can pass the embodied Turing test will provide a roadmap for the next generation of AI.
141

Bayesball: Bayesian Integration in Professional Baseball Batters

Justin Brantley et al.Oct 24, 2023
K
J
Pitchers in baseball throw the ball with such high velocity and varying movement that batters only have a few hundred milliseconds to estimate whether to swing and how high to swing--contacting the ball too high or too low may produce hit balls that easily result in an out. Even before the pitcher releases the ball, the batter has some belief, or estimated distribution (a 'prior'), of where the ball may land in the zone. Batters will update this prior belief with information from observing the pitch (the 'likelihood') to calculate their final estimate (the 'posterior'). These models of behavior, called Bayesian models within movement science, predict that when players have better prior information, e.g. because they know the upcoming pitch due to 'tipping', that they will rely more on prior information; by contrast if their prior is less informative, e.g. because the pitch is very random as in the case of a knuckleball, they will instead rely more on the observation. Here we test these models using information from more than a million pitches from professional baseball. We find that batters integrate prior information with noisy observations to manage pitch uncertainty. Moreover, as predicted by a Bayesian model, a batter's estimate of where to swing is biased towards the prior when the pitch is tipped and biased towards the likelihood in the case of pitches with high uncertainty. These results demonstrate that Bayesian ideas are relevant well beyond laboratory experiments and matter in the world of sports.
141
Paper
Citation6
0
Save
20

A three-dimensional thalamocortical dataset for characterizing brain heterogeneity

Judy Prasad et al.Oct 24, 2023
+12
E
A
J
Abstract Neural cytoarchitecture is heterogeneous, varying both across and within brain regions. The consistent identification of regions of interest is one of the most critical aspects in examining neurocircuitry, as these structures serve as the vital landmarks with which to map brain pathways. Access to continuous, three-dimensional volumes that span multiple brain areas not only provides richer context for identifying such landmarks, but also enables a deeper probing of the microstructures within. Here, we describe a three-dimensional X-ray microtomography imaging dataset of a well-known and validated thalamocortical sample, encompassing a range of cortical and subcortical structures. In doing so, we provide the field with access to a micron-scale anatomical imaging dataset ideal for studying heterogeneity of neural structure.
0

Population Coding Of Conditional Probability Distributions In Dorsal Premotor Cortex

Joshua Glaser et al.May 7, 2020
+2
P
M
J
Our bodies and the environment constrain our movements. For example, when our arm is fully outstretched, we cannot extend it further. More generally, the distribution of possible movements is conditioned on the state of our bodies in the environment, which is constantly changing. However, little is known about how the brain represents such distributions, and uses them in movement planning. Here, we recorded from dorsal premotor cortex (PMd) and primary motor cortex (M1) while monkeys reached to randomly placed targets. The hand's position within the workspace created probability distributions of possible upcoming targets, which affected movement trajectories and latencies. PMd, but not M1, neurons had increased activity when the monkey's hand position made it likely the upcoming movement would be in the neurons' preferred directions. Across the population, PMd activity represented probability distributions of individual upcoming reaches, which depended on rapidly changing information about the body's state in the environment.
0

Inferring causal connectivity from pairwise recordings and optogenetics

Mikkel Lepperød et al.May 7, 2020
+2
T
T
M
To study how the brain works, it is crucial to identify causal interactions between neurons, which is thought to require perturbations. However, when using optogenetics we typically perturb multiple neurons, producing a confound - any of the stimulated neurons can have affected the target. Here we show how this produces large biases, and how they can be reduced using the instrumental variable (IV) framework from econometrics. The interaction between stimulation and the absolute refractory period produces a weak, approximately random signal which can be exploited to estimate causality. When simulating integrate-and-fire neurons, we find that causal connectivity estimates from IV are better than naive techniques (R2=0.77 vs R2=0.01). The difference is important as the estimates differ when applied to experimental data from stimulated neurons with recorded spiking activity. Our IV approach is easy to implement in the context of current experimental paradigms.
0

Hue tuning curves in V4 change with visual context

Ari Benjamin et al.May 7, 2020
+2
H
P
A
To understand activity in the visual cortex, researchers typically investigate how parametric changes in stimuli affect neural activity. A fundamental tenet of this approach is that the response properties of neurons in one context, e.g. color stimuli, are representative of responses in other contexts, e.g. natural scenes. This assumption is not often tested. Here, for neurons in macaque area V4, we first estimated tuning curves for hue by presenting artificial stimuli of varying hue, and then tested whether these would correlate with hue tuning curves estimated from responses to natural images. We found that neurons' hue tuning on artificial stimuli was not representative of their hue tuning on natural images, even if the neurons were strongly color-responsive. One explanation of this result is that neurons in V4 respond to interactions between hue and other visual features. This finding exemplifies how tuning curves estimated by varying a small number of stimulus features can communicate a small and potentially unrepresentative slice of the neural response function.
2

When Neural Activity Fails to Reveal Causal Contributions

Kayson Fakhar et al.Jun 11, 2023
+2
F
S
K
Abstract Neuroscientists rely on distributed spatio-temporal patterns of neural activity to understand how neural units contribute to cognitive functions and behavior. However, the extent to which neural activity reliably indicates a unit’s causal contribution to the behavior is not well understood. To address this issue, we provide a systematic multi-site perturbation framework that captures time-varying causal contributions of elements to a collectively produced outcome. Applying our framework to intuitive toy examples and artificial neuronal networks revealed that recorded activity patterns of neural elements may not be generally informative of their causal contribution due to activity transformations within a network. Overall, our findings emphasize the limitations of inferring causal mechanisms from neural activities and offer a rigorous lesioning framework for elucidating causal neural contributions.
Load More