RD
Ran Darshan
Author with expertise in Neuronal Oscillations in Cortical Networks
Achievements
Open Access Advocate
Cited Author
Key Stats
Upvotes received:
0
Publications:
11
(91% Open Access)
Cited by:
33
h-index:
7
/
i10-index:
5
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
34

Learning to represent continuous variables in heterogeneous neural networks

Ran Darshan et al.Jun 2, 2021
A
R
Animals must monitor continuous variables such as position or head direction. Manifold attractor networks—which enable a continuum of persistent neuronal states—provide a key framework to explain this monitoring ability. Neural networks with symmetric synaptic connectivity dominate this framework, but are inconsistent with the diverse synaptic connectivity and neuronal representations observed in experiments. Here, we developed a theory for manifold attractors in trained neural networks, which approximate a continuum of persistent states, without assuming unrealistic symmetry. We exploit the theory to predict how asymmetries in the representation and heterogeneity in the connectivity affect the formation of the manifold via training, shape network response to stimulus, and govern mechanisms that possibly lead to destabilization of the manifold. Our work suggests that the functional properties of manifold attractors in the brain can be inferred from the overlooked asymmetries in connectivity and in the low-dimensional representation of the encoded variable.
9

Reward expectations direct learning and drive operant matching inDrosophila

Adithya Rajagopalan et al.May 25, 2022
+2
K
R
A
Abstract Foraging animals must use decision-making strategies that dynamically adapt to the changing availability of rewards in the environment. A wide diversity of animals do this by distributing their choices in proportion to the rewards received from each option, Herrnstein’s operant matching law. Theoretical work suggests an elegant mechanistic explanation for this ubiquitous behavior, as operant matching follows automatically from simple synaptic plasticity rules acting within behaviorally relevant neural circuits. However, no past work has mapped operant matching onto plasticity mechanisms in the brain, leaving the biological relevance of the theory unclear. Here we discovered operant matching in Drosophila and showed that it requires synaptic plasticity that acts in the mushroom body and incorporates the expectation of reward. We began by developing a novel behavioral paradigm to measure choices from individual flies as they learn to associate odor cues with probabilistic rewards. We then built a model of the fly mushroom body to explain each fly’s sequential choice behavior using a family of biologically-realistic synaptic plasticity rules. As predicted by past theoretical work, we found that synaptic plasticity rules could explain fly matching behavior by incorporating stimulus expectations, reward expectations, or both. However, by optogenetically bypassing the representation of reward expectation, we abolished matching behavior and showed that the plasticity rule must specifically incorporate reward expectations. Altogether, these results reveal the first synaptic level mechanisms of operant matching and provide compelling evidence for the role of reward expectation signals in the fly brain.
9
Citation8
0
Save
0

Neuronal activity and learning in local cortical networks are modulated by the action-perception state

Ben Engelhard et al.Feb 1, 2019
+5
N
R
B
Summary During sensorimotor learning, neuronal networks change to optimize the associations between action and perception. In this study, we examine how the brain harnesses neuronal patterns that correspond to the current action-perception state during learning. To this end, we recorded activity from motor cortex while monkeys either performed a familiar motor task (movement-state) or learned to control the firing rate of a target neuron using a brain-machine interface (BMI-state). Before learning, monkeys were placed in an observation-state, where no action was required. We found that neuronal patterns during the BMI-state were markedly different from the movement-state patterns. BMI-state patterns were initially similar to those in the observation-state and evolved to produce an increase in the firing rate of the target neuron. The overall activity of the non-target neurons remained similar after learning, suggesting that excitatory-inhibitory balance was maintained. Indeed, a novel neural-level reinforcement-learning network model operating in a chaotic regime of balanced excitation and inhibition predicts our results in detail. We conclude that during BMI learning, the brain can adapt patterns corresponding to the current action-perception state to gain rewards. Moreover, our results show that we can predict activity changes that occur during learning based on the pre-learning activity. This new finding may serve as a key step toward clinical brain-machine interface applications to modify impaired brain activity.
0

Idiosyncratic choice bias in decision tasks naturally emerges from intrinsic stochasticity in neuronal network dynamics

Lior Lebovich et al.Mar 19, 2018
+2
Y
R
L
Idiosyncratic tendency to choose one alternative over others in the absence of an identified reason is a common observation in two-alternative forced-choice experiments. It is tempting to account for it as resulting from the (unknown) participant-specific history and thus treat it as a measurement noise. Here we quantify idiosyncratic choice biases in a perceptual discrimination task and a motor task. We report substantial and significant biases in both cases that cannot be accounted for by the experimental context. Then, we present theoretical evidence that even in idealized experiments, in which the settings are symmetric, idiosyncratic choice bias is expected to emerge from the dynamics of competing neuronal networks. We thus argue that idiosyncratic choice bias reflects the microscopic dynamics of choice and therefore is virtually inevitable in any comparison or decision task.
0
Citation4
0
Save
19

Distributing task-related neural activity across a cortical network through task-independent connections

Christopher Kim et al.Jun 18, 2022
+3
K
C
C
Task-related neural activity is widespread across populations of neurons during goal-directed behaviors. However, little is known about the synaptic reorganization and circuit mechanisms that lead to broad activity changes. Here we trained a limited subset of neurons in a spiking network with strong synaptic interactions to reproduce the activity of neurons in the motor cortex during a decision-making task. We found that task-related activity, resembling the neural data, emerged across the network, even in the untrained neurons. Analysis of trained networks showed that strong untrained synapses, which were independent of the task and determined the dynamical state of the network, mediated the spread of task-related activity. Optogenetic perturbations suggest that the motor cortex is strongly-coupled, supporting the applicability of the mechanism to cortical networks. Our results reveal a cortical mechanism that facilitates distributed representations of task-variables by spreading the activity from a subset of plastic neurons to the entire network through task-independent strong synapses.
4

Sub-threshold neuronal activity and the dynamical regime of cerebral cortex

Oren Amsalem et al.Jul 16, 2022
+3
H
H
O
Cortical neurons exhibit temporally irregular spiking patterns and heterogeneous firing rates. These features arise in model circuits operating in a ‘fluctuation-driven regime’, in which fluctuations in membrane potentials emerge from the network dynamics. However, it is still unclear whether the cortex operates in this regime. We evaluated the fluctuation-driven hypothesis by analyzing spiking and sub-threshold membrane potentials of neurons in the sensory and frontal cortex recorded during a decision-making task. Standard fluctuation-driven models account for spiking statistics but fail to capture the heterogeneity in sub-threshold activity. We address this issue by effectively incorporating dendritic conductances into the standard models. Our model suggests that the frontal cortex operates in a fluctuation-driven regime. In contrast, excitatory neurons in layer 4 of the barrel cortex are not fluctuation-driven; they spike in response to occasional synchronous inputs. Our work reveals fundamental differences between cortical areas, suggesting that they operate in different dynamical regimes.
0

A Canonical Neural Mechanism for Behavioral Variability

Ran Darshan et al.Nov 7, 2016
+2
S
W
R
The ability to generate variable movements is essential for learning and adjusting complex behaviors. This variability has been linked to the temporal irregularity of neuronal activity in the central nervous system. However, how neuronal irregularity actually translates into behavioral variability is unclear. Here we combine modeling, electrophysiological and behavioral studies to address this issue. We demonstrate that a model circuit comprising topographically organized and strongly recurrent neural networks can autonomously generate irregular motor behaviors. Simultaneous recordings of neurons in singing finches reveal that neural correlations increase across the circuit driving song variability, in agreement with the model predictions. Analyzing behavioral data, we find remarkable similarities in the babbling statistics of 5-6 month-old human infants and juveniles from three songbird species, and show that our model naturally accounts for these 'universal' statistics.
3

How strong are correlations in strongly recurrent neuronal networks?

Ran Darshan et al.Mar 2, 2018
D
C
R
ABSTRACT Cross-correlations in the activity in neural networks are commonly used to characterize their dynamical states and their anatomical and functional organizations. Yet, how these latter network features affect the spatiotemporal structure of the correlations in recurrent networks is not fully understood. Here, we develop a general theory for the emergence of correlated neuronal activity from the dynamics in strongly recurrent networks consisting of several populations of binary neurons. We apply this theory to the case in which the connectivity depends on the anatomical or functional distance between the neurons. We establish the architectural conditions under which the system settles into a dynamical state where correlations are strong, highly robust and spatially modulated. We show that such strong correlations arise if the network exhibits an effective feedforward structure. We establish how this feedforward structure determines the way correlations scale with the network size and the degree of the connectivity. In networks lacking an effective feedforward structure correlations are extremely small and only weakly depend on the number of connections per neuron. Our work shows how strong correlations can be consistent with highly irregular activity in recurrent networks, two key features of neuronal dynamics in the central nervous system.
1

A scalable implementation of the recursive least-squares algorithm for training spiking neural networks

Benjamin Arthur et al.Sep 27, 2022
+2
S
C
B
Abstract Training spiking recurrent neural networks on neuronal recordings or behavioral tasks has become a popular way to study computations performed by the nervous system. As the size and complexity of neural recordings increase, there is a need for efficient algorithms that can train models in a short period of time using minimal resources. We present optimized CPU and GPU implementations of the recursive least-squares algorithm in spiking neural networks. The GPU implementation can train networks of one million neurons, with 100 million plastic synapses and a billion static synapses, about 1000 times faster than an unoptimized reference CPU implementation. We demonstrate the code’s utility by training a network, in less than an hour, to reproduce the activity of > 66, 000 recorded neurons of a mouse performing a decision-making task. The fast implementation enables a more interactive in-silico study of the dynamics and connectivity underlying multi-area computations. It also admits the possibility to train models as in-vivo experiments are being conducted, thus closing the loop between modeling and experiments.
0

Research Paper on Blind Assist System Using Ml And Image Processing

Prof. G et al.May 17, 2024
+2
R
N
P
This paper presents a Blind Assist System (BAS) leveraging Machine Learning (ML) and Image Processing (IP) techniques to enhance the autonomy and safety of visually impaired individuals.The system utilizes a convolutional neural network (CNN) to process real-time image inputs from a wearable camera device.Through ML classification, it identifies objects, obstacles, and environmental cues.The IP module further refines data, providing depth perception and spatial awareness.Leveraging ML's adaptability, the system continuously learns and improves its recognition accuracy.Integration with auditory feedback facilitates intuitive interaction, conveying vital information to users.In evaluations, the BAS demonstrates promising results in aiding navigation and increasing users' independence.The fusion of ML and IP offers a robust solution for empowering the visually impaired in navigating complex environments.
Load More