IR
Ivan Raikov
Author with expertise in Neuronal Oscillations in Cortical Networks
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
6
(67% Open Access)
Cited by:
432
h-index:
11
/
i10-index:
10
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Persistently modified h-channels after complex febrile seizures convert the seizure-induced enhancement of inhibition to hyperexcitability

Kang Chen et al.Mar 1, 2001
+5
N
I
K
Febrile seizures are the most common type of developmental seizures, affecting up to 5% of children. Experimental complex febrile seizures involving the immature rat hippocampus led to a persistent lowering of seizure threshold despite an upregulation of inhibition. Here we provide a mechanistic resolution to this paradox by showing that, in the hippocampus of rats that had febrile seizures, the long-lasting enhancement of the widely expressed intrinsic membrane conductance Ih converts the potentiated synaptic inhibition to hyperexcitability in a frequency-dependent manner. The altered gain of this molecular inhibition–excitation converter reveals a new mechanism for controlling the balance of excitation–inhibition in the limbic system. In addition, here we show for the first time that h-channels are modified in a human neurological disease paradigm.
10

Maximally selective single cell target for circuit control in epilepsy

Darian Hadjiabadi et al.Oct 21, 2020
+7
I
M
D
Abstract Neurological and psychiatric disorders are associated with pathological neural dynamics. The fundamental connectivity patterns of cell-cell communication networks that enable pathological dynamics to emerge remain unknown. We studied epileptic circuits using a newly developed integrated computational pipeline applied to cellular resolution functional imaging data. Control and preseizure neural dynamics in larval zebrafish and in chronically epileptic mice were captured using large-scale cellular-resolution calcium imaging. Biologically constrained effective connectivity modeling extracted the underlying cell-cell communication network. Novel analysis of the higher-order network structure revealed the existence of ‘superhub’ cells that are unusually richly connected to the rest of the network through feedforward motifs. Instability in epileptic networks was causally linked to superhubs whose involvement in feedforward motifs critically enhanced downstream excitation. Disconnecting individual superhubs was significantly more effective in stabilizing epileptic networks compared to disconnecting hub cells defined traditionally by connection count. Collectively, these results predict a new, maximally selective and minimally invasive cellular target for seizure control. Highlights Higher-order connectivity patterns of large-scale neuronal communication networks were studied in zebrafish and mice Control and epileptic networks were modeled from in vivo cellular resolution calcium imaging data Rare ‘superhub’ cells unusually richly connected to the rest of the network through higher-order feedforward motifs were identified Disconnecting single superhub neurons more effectively stabilized epileptic networks than targeting conventional hub cells defined by high connection count. These data predict a maximally selective novel single cell target for minimally invasive seizure control
10
Citation2
0
Save
1

Towards a general framework for modeling large-scale biophysical neuronal networks: a full-scale computational model of the rat dentate gyrus

Ivan Raikov et al.Nov 4, 2021
+5
P
A
I
Abstract Large-scale computational models of the brain are necessary to accurately represent anatomical and functional variability in neuronal biophysics across brain regions and also to capture and study local and global interactions between neuronal populations on a behaviorally-relevant temporal scale. We present the methodology behind and an initial implementation of a novel open-source computational framework for construction, simulation, and analysis of models consisting of millions of neurons on high-performance computing systems, based on the NEURON and CoreNEURON simulators (Carnevale and Hines, 2006, Kumbhar et al., 2019). This framework uses the HDF5 data format and software library (HDF Group, 2021) and includes a data format for storing morphological, synaptic, and connectivity information of large neuronal network models, and an accompanying open-source software library that provides efficient, scalable parallel storage and MPI-based data movement capabilities. We outline our approaches for constructing detailed large-scale biophysical models with topographical connectivity and input stimuli, and present simulation results obtained with a full-scale model of the dentate gyrus constructed with our framework. The model generates sparse and spatially selective population activity that fits well with in-vivo experimental data. Moreover, our approach is fully general and can be applied to modeling other regions of the hippocampal formation in order to rapidly evaluate specific hypotheses about large-scale neural architectural features.
0

SimTracker tool and code template to design, manage and analyze neural network model simulations in parallel NEURON

Marianne Bezaire et al.Oct 19, 2016
+2
K
I
M
Advances in technical computing enable larger and more detailed neural models that can incorporate ever more of the rapidly expanding body of quantitative neuroscience data. In principle, such complex network models that are strongly constrained by experimental data could direct experimental research and provide novel insights into experimental observations. However, as network models grow in complexity and scale, the necessary tasks of development and organization become unwieldy. Further, the models risk becoming inaccessible to experimentalists and other modelers, and their results may then be seen as less relevant to experimental work. To address these obstacles, we developed a tool for managing simulations called SimTracker. It supports users at each step of the modeling process, including execution of large scale parallel models on supercomputers. SimTracker is suitable for users with a range of modeling experience. SimTracker can be a valuable modeling resource that promotes iterative progress between experiment and model.
0

Interneuronal mechanisms of hippocampal theta oscillation in a full-scale model of the rodent CA1 circuit

Marianne Bezaire et al.Nov 12, 2016
+2
K
I
M
The hippocampal theta rhythm plays important roles in information processing; however, the mechanisms of its generation are not well understood. We developed a data-driven, supercomputer-based, full-scale (1:1) model of the rodent CA1 area and studied its interneurons during theta oscillations. Theta rhythm with phase-locked gamma oscillations and phase-preferential discharges of distinct interneuronal types spontaneously emerged from the isolated CA1 circuit without rhythmic inputs. Perturbation experiments identified parvalbumin-expressing interneurons and neurogliaform cells, as well as interneuronal diversity itself, as important factors in theta generation. These simulations reveal new insights into the spatiotemporal organization of the CA1 circuit during theta oscillations.
0

LoCS-Net: Localizing Convolutional Spiking Neural Network for Fast Visual Place Recognition

M. Akcal et al.Mar 16, 2024
+4
E
I
M
Abstract Visual place recognition (VPR) is the ability to recognize locations in a physical environment based only on visual inputs. It is a challenging task due to perceptual aliasing, viewpoint and appearance variations and complexity of dynamic scenes. Despite promising demonstrations, many state-of-the-art VPR approaches based on artificial neural networks (ANNs) suffer from computational inefficiency. Spiking neural networks (SNNs), on the other hand, implemented on neuromorphic hardware, are reported to have remarkable potential towards more efficient solutions computationally, compared to ANNs. However, the training of the state-of-the-art (SOTA) SNNs for the VPR task is often intractable on large and diverse datasets. To address this, we develop an end-to-end convolutional SNN model for VPR, that leverages back-propagation for tractable training. Rate-based approximations of leaky integrate-and-fire (LIF) neurons are employed during training to enable back-propagation, and the approximation units are replaced with spiking LIF neurons during inference. The proposed method outperforms the SOTA ANNs and SNNs by achieving 78.2% precision at 100% recall on the challenging Nordland dataset, compared with 53% SOTA performance, and exhibits competitive performance on the Oxford RobotCar dataset while being easier to train and faster in both training and inference when compared to other ANN and SNN-based methods.