CO
Christian Olivers
Author with expertise in Neuronal Oscillations in Cortical Networks
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
20
(50% Open Access)
Cited by:
1,008
h-index:
54
/
i10-index:
134
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Perceptual integration without conscious access

Johannes Fahrenfort et al.Jun 21, 2016
Abstract The visual system has the remarkable ability to integrate fragmentary visual input into a perceptually organized collection of surfaces and objects, a process we refer to as perceptual integration. Despite a long tradition of perception research, it is not known whether access to consciousness is required to complete perceptual integration. To investigate this question, we manipulated access to consciousness using the attentional blink. We show that behaviorally, the attentional blink impairs perceptual decisions about the presence of integrated surface structure from fragmented input. However, when applying a multivariate classifier to electroencephalogram (EEG) data, the ability to decode the presence of integrated percepts remains intact when conscious access is impaired. In contrast, when disrupting consciousness through masking, decisions about integrated percepts and decoding of integrated percepts are impaired in concert with each other, while leaving feedforward representations intact. Together, these data show a dissociation between access to consciousness and perceptual integration. Significance statement Our brain constantly selects salient and/or goal-relevant objects from the visual environment, so that it can operate on neural representations of these objects. But what is the fate of objects that are not selected? Are these discarded, so that the brain only has an impoverished non-perceptual representation of them? Or does the brain construct perceptually rich representations, even when objects are not consciously accessed by our cognitive system? Here we answer that question by manipulating the information that enters into awareness, while simultaneously measuring cortical activity using EEG. We show that objects that do not enter consciousness can nevertheless have a neural signature that is indistinguishable from perceptually rich representations that occur for objects that do enter into conscious awareness.
6

Neural repetition suppression modulates time perception: Evidence from electrophysiology and pupillometry

Wouter Kruijne et al.Jul 31, 2020
Abstract Human time perception is malleable and subject to many biases. For example, it has repeatedly been shown that stimuli that are physically intense or that are unexpected seem to last longer. Two hypotheses have been proposed to account for such biases: one states that these temporal illusions are the result of heightened arousal which speeds up neural clock dynamics, whereas the alternative ‘magnitude coding’ account states that the magnitude of sensory responses causally modulates perceived durations. Common experimental paradigms used to study temporal biases can not dissociate between these accounts, as arousal and sensory magnitude covary and modulate each other. Here, we present two temporal discrimination experiments where flashing stimuli demarcated the start and end of a to-be-timed interval. These stimuli could either be in the same or in a different location, which led to different sensory responses due to neural repetition suppression. Crucially, changes and repetitions were fully predictable, allowing us to explore effects of sensory response magnitude without changes in arousal or surprise. Intervals with changing markers were perceived as lasting longer than those with repeating markers. We measured EEG (Experiment 1) and pupil size (Experiment 2), and found that temporal perception related to changes in event-related potentials (P2) and pupil constriction, both of which have been related to responses in the sensory cortex. Conversely, correlates of surprise and arousal (P3 amplitude and pupil dilation) were unaffected by stimulus repetitions and changes. These results demonstrate that sensory magnitude affects time perception even under constant levels of arousal.
5

Memory for stimulus duration is not bound to spatial information

Wouter Kruijne et al.Aug 4, 2020
Abstract Different theories have been proposed to explain how the human brain derives an accurate sense of time. One specific class of theories, intrinsic clock theories, postulate that temporal information of a stimulus is represented much like other features such as color and location, bound together to form a coherent percept. Here we explored to what extent this holds for temporal information after it has been perceived and is held in working memory for subsequent comparison. We recorded EEG of participants who were asked to time stimuli at lateral positions of the screen followed by comparison stimuli presented in the center. Using well-established markers of working memory maintenance, we investigated whether the usage of temporal information evoked neural signatures that were indicative of the location where the stimuli had been presented, both during maintenance and during comparison. Behavior and neural measures including the contralateral delay activity, lateralized alpha suppression and decoding analyses through time all supported the same conclusion: the representation of location was strongly involved during perception of temporal information, but when temporal information was to be used for comparison it no longer showed a relation to spatial information. These results support a model where the initial perception of a stimulus involves intrinsic computations, but that this information is subsequently translated to a stimulus-independent format to be used to further guide behavior.
3

A matter of availability: Neural representations of task-relevant stimulus features are sharper when stimuli are memorized rather than perceived

Samson Chota et al.Sep 5, 2022
Abstract Our visual environment is relatively stable over time and an optimized visual system ought to capitalize on this by not devoting any representational resources to objects that are still present. Subjective experience, however, suggests that externally available (i.e., perceived) information is more strongly represented in neural signals than memorized information. To distinguish between these possibilities, we use EEG multivariate pattern analysis to quantify the strength of representation of task-relevant features (color or spatial frequency) in anticipation of a change-detection task. Perceptual availability was manipulated between experimental blocks by either keeping the stimulus on the screen during a two second delay period (perception) or removing it shortly after its initial presentation for the same time period (memory). We find that task-relevant (i.e., attended) memorized features are more strongly represented than irrelevant features. More importantly, we find significantly weaker representations for available (perceived and attended) features than for unavailable (memorized and attended) features. Contrary to what subjective experience suggests, our findings demonstrate that vividly perceived and attended stimuli elicit weaker neural representations (in terms of detectable multivariate information) than stimuli maintained in visual working memory. We hypothesize that an efficient visual system spends little of its limited resources on the internal representation of information that is externally available anyway.
0

Flexible working memory through selective gating and attentional tagging

Wouter Kruijne et al.Nov 18, 2019
Working memory is essential for intelligent behavior as it serves to guide behavior of humans and nonhuman primates when task-relevant stimuli are no longer present to the senses. Moreover, complex tasks often require that multiple working memory representations can be flexibly and independently maintained, prioritized, and updated according to changing task demands. Thus far, neural network models of working memory have been unable to offer an integrative account of how such control mechanisms are implemented in the brain and how they can be acquired in a biologically plausible manner. Here, we present WorkMATe, a neural network architecture that models cognitive control over working memory content and learns the appropriate control operations needed to solve complex working memory tasks. Key components of the model include a gated memory circuit that is controlled by internal actions, encoding sensory information through untrained connections, and a neural circuit that matches sensory inputs to memory content. The network is trained by means of a biologically plausible reinforcement learning rule that relies on attentional feedback and reward prediction errors to guide synaptic updates. We demonstrate that the model successfully acquires policies to solve classical working memory tasks, such as delayed match-to-sample and delayed pro-saccade/antisaccade tasks. In addition, the model solves much more complex tasks including the hierarchical 12-AX task or the ABAB ordered recognition task, which both demand an agent to independently store and updated multiple items separately in memory. Furthermore, the control strategies that the model acquires for these tasks subsequently generalize to new task contexts with novel stimuli. As such, WorkMATe provides a new solution for the neural implementation of flexible memory control.
0

Frontal Cortex Differentiates Between Free and Imposed Target Selection in Multiple-Target Search

Eduard Ort et al.Feb 24, 2019
Cognitive control can involve proactive (preparatory) and reactive (corrective) mechanisms. Using a gaze-contingent eye tracking paradigm combined with fMRI, we investigated the involvement of these different modes of control and their underlying neural networks, when switching between different targets in multiple-target search. Participants simultaneously searched for two possible targets presented among distractors, and selected one of them. In one condition, only one of the targets was available in each display, so that the choice was imposed, and reactive control would be required. In the other condition, both targets were present, giving observers free choice over target selection, and allowing for proactive control. Switch costs emerged only when targets were imposed and not when target selection was free. We found differential levels of activity in the frontoparietal control network depending on whether target switches were free or imposed. Furthermore, we observed core regions of the default mode network to be active during target repetitions, indicating reduced control on these trials. Free and imposed switches jointly activated parietal and posterior frontal cortices, while free switches additionally activated anterior frontal cortices. These findings highlight unique contributions of proactive and reactive control during visual search.
Load More