BA
Bruno Averbeck
Author with expertise in Neuronal Oscillations in Cortical Networks
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
20
(60% Open Access)
Cited by:
712
h-index:
58
/
i10-index:
129
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Dopamine modulates novelty seeking behavior during decision making.

Vincent Costa et al.Jan 1, 2014
Novelty seeking refers to the tendency of humans and animals to explore novel and unfamiliar stimuli and environments. The idea that dopamine modulates novelty seeking is supported by evidence that novel stimuli excite dopamine neurons and activate brain regions receiving dopaminergic input. In addition, dopamine is shown to drive exploratory behavior in novel environments. It is not clear whether dopamine promotes novelty seeking when it is framed as the decision to explore novel options versus the exploitation of familiar options. To test this hypothesis, we administered systemic injections of saline or GBR-12909, a selective dopamine transporter (DAT) inhibitor, to monkeys and assessed their novelty seeking behavior during a probabilistic decision making task. The task involved pseudorandom introductions of novel choice options. This allowed monkeys the opportunity to explore novel options or to exploit familiar options that they had already sampled. We found that DAT blockade increased the monkeys' preference for novel options. A reinforcement learning (RL) model fit to the monkeys' choice data showed that increased novelty seeking after DAT blockade was driven by an increase in the initial value the monkeys assigned to novel options. However, blocking DAT did not modulate the rate at which the monkeys learned which cues were most predictive of reward or their tendency to exploit that knowledge. These data demonstrate that dopamine enhances novelty-driven value and imply that excessive novelty seeking-characteristic of impulsivity and behavioral addictions-might be caused by increases in dopamine, stemming from less reuptake.
1

Fast synaptic-like axo-axonal transmission from striatal cholinergic interneurons onto dopaminergic fibers

P. Kramer et al.Mar 27, 2022
Summary Transmission from striatal cholinergic interneurons (CINs) controls dopamine release through nicotinic acetylcholine receptors (nAChRs) on dopaminergic axons. Anatomical studies suggest that cholinergic terminals signal predominantly through non-synaptic volume transmission. However, the influence of cholinergic transmission on electrical signaling in axons remains unclear. We examined axo-axonal transmission from CINs onto dopaminergic axons using perforated-patch recordings which revealed rapid spontaneous EPSPs with properties characteristic of fast synapses. Pharmacology showed that axonal EPSPs (axEPSPs) were mediated primarily by high-affinity α6-containing receptors. Remarkably, axEPSPs triggered spontaneous action potentials locally in dopaminergic axons, suggesting these axons perform integration to convert synaptic input into spiking, a function associated with somatodendritic compartments. We investigated cross-species validity of cholinergic axo-axonal transmission by recording dopaminergic axons in macaque putamen and found similar axEPSPs. Thus, we reveal that fast synaptic-like neurotransmission underlies cholinergic signaling onto dopaminergic axons, providing insight into how nicotinic receptors shape electrical signaling directly in axon terminals.
1
Citation3
0
Save
0

Divergent opioid-mediated suppression of inhibition between hippocampus and neocortex across species and development

Adam Caccavano et al.Jan 21, 2024
SUMMARY Opioid receptors within the CNS regulate pain sensation and mood and are key targets for drugs of abuse. Within the adult rodent hippocampus (HPC), μ-opioid receptor agonists suppress inhibitory parvalbumin-expressing interneurons (PV-INs), thus disinhibiting the circuit. However, it is uncertain if this disinhibitory motif is conserved in other cortical regions, species, or across development. We observed that PV-IN mediated inhibition is robustly suppressed by opioids in HPC but not neocortex in mice and nonhuman primates, with spontaneous inhibitory tone in resected human tissue also following a consistent dichotomy. This hippocampal disinhibitory motif was established in early development when immature PV-INs and opioids already influence primordial network rhythmogenesis. Acute opioid-mediated modulation was partially occluded with morphine pretreatment, with implications for the effects of opioids on hippocampal network activity during circuit maturation as well as learning and memory. Together, these findings demonstrate that PV-INs exhibit a divergence in opioid sensitivity across brain regions that is remarkably conserved across evolution and highlights the underappreciated role of opioids acting through immature PV-INs in shaping hippocampal development.
0

A latent variable approach to decoding neural population activity

Matthew Whiteway et al.Jan 7, 2020
Decoding is a powerful approach for measuring the information contained in the activity of neural populations. As a result, decoding analyses are now used across a wide range of model organisms and experimental paradigms. However, typical analyses employ general purpose decoding algorithms that do not explicitly take advantage of the structure of neural variability, which is often low-dimensional and can thus be effectively characterized using latent variables. Here we propose a new decoding framework that exploits the low-dimensional structure of neural population variability by removing correlated variability that is unrelated to the decoded variable, then decoding the resulting denoised activity. We demonstrate the efficacy of this framework using simulated data, where the true upper bounds for decoding performance are known. A linear version of our decoder provides an estimator for the decoded variable that can be more efficient than other commonly used linear estimators such as linear discriminant analysis. In addition, our proposed decoding framework admits a simple extension to nonlinear decoding that compares favorably to standard feed-forward neural networks. By explicitly modeling shared population variability, the success of the resulting linear and nonlinear decoders also offers a new perspective on the relationship between shared variability and information contained in large neural populations.
5

Correlates of auditory decision making in prefrontal, auditory, and basal lateral amygdala cortical areas

Julia Napoli et al.May 16, 2020
Abstract Auditory selective listening and decision making underlies important processes, including attending to a single speaker in a crowded room, often referred to as the cocktail party problem. To examine the neural mechanisms underlying these behaviors, we developed a novel auditory selective listening paradigm for monkeys. In this task, monkeys had to detect a difficult to discriminate target embedded in noise when presented in a pre-cued location (either left or right) and ignore it if it was in the opposite location. While the animals carried out the task we recorded neural activity in primary auditory cortex (AC), dorsal lateral prefrontal cortex (dlPFC) and the basal lateral amygdala (BLA), given that these areas have been implicated in auditory decision making, selective listing, and/or reward-guided decision making. There were two main findings in the neural data. First, primary AC encoded the side of the cue and target, and the monkey’s choice, before either dlPFC or the amygdala. The BLA encoded cue and target variables negligibly, but was engaged at the time of the monkey’s choice. Second, decoding analyses suggested that errors followed primarily from a failure to encode the target stimulus in both AC and PFC, but earlier in AC. Thus, AC neural activity is poised to represent the sensory volley and decision making during selective listening before dlPFC, and they both precede activity in BLA.
1

Computational mechanisms underlying motivation to earn symbolic reinforcers

Diana Burk et al.Oct 11, 2023
Abstract Reinforcement learning (RL) is a theoretical framework that describes how agents learn to select options that maximize rewards and minimize punishments over time. We often make choices, however, to obtain symbolic reinforcers (e.g. money, points) that can later be exchanged for primary reinforcers (e.g. food, drink). Although symbolic reinforcers are motivating, little is understood about the neural or computational mechanisms underlying the motivation to earn them. In the present study, we examined how monkeys learn to make choices that maximize fluid rewards through reinforcement with tokens. The question addressed here is how the value of a state, which is a function of multiple task features (e.g. current number of accumulated tokens, choice options, task epoch, trials since last delivery of primary reinforcer, etc.), drives value and affects motivation. We constructed a Markov decision process model that computes the value of task states given task features to capture the motivational state of the animal. Fixation times, choice reaction times, and abort frequency were all significantly related to values of task states during the tokens task (n=5 monkeys). Furthermore, the model makes predictions for how neural responses could change on a moment-by-moment basis relative to changes in state value. Together, this task and model allow us to capture learning and behavior related to symbolic reinforcement. Significance statement Symbolic reinforcers, like money and points, play a critical role in our lives. Like rewards, symbolic reinforcers can be motivating and can even lead to compulsive behaviors like gambling addiction. However, we lack an understanding of how symbolic reinforcement can drive fluctuations in motivation. Here we investigated the effect of symbolic reinforcers on behaviors related to motivation during a token reinforcement learning task, using a novel reinforcement learning model and data from five monkeys. Our findings suggest that the value of a task state can affect willingness to initiate a trial, speed to choose, and persistence to complete a trial. Our model makes testable predictions for within trial fluctuations of neural activity related to values of task states.
Load More