JE
James Enns
Author with expertise in Neural Mechanisms of Visual Perception and Processing
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
9
(78% Open Access)
Cited by:
1,700
h-index:
60
/
i10-index:
190
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Competition for consciousness among visual events: The psychophysics of reentrant visual processes.

Vincent Lollo et al.Jan 1, 2000
Advances in neuroscience implicate reentrant signaling as the predominant form of communication between brain areas.This principle was used in a series of masking experiments that defy explanation by feed-forward theories.The masking occurs when a brief display of target plus mask is continued with the mask alone.Two masking processes were found: an early process affected by physical factors such as adapting luminance and a later process affected by attentional factors such as set size.This later process is called masking by object substitution, because it occurs whenever there is a mismatch between the reentrant visual representation and the ongoing lower level activity.Iterative reentrant processing was formalized in a computational model that provides an excellent fit to the data.The model provides a more comprehensive account of all forms of visual masking than do the long-held feed-forward views based on inhibitory contour interactions.From the time a stimulus first enters the eye to the time a percept emerges into consciousness, the initial stimulus has been coded at several levels in the visual system.One of the main goals in studying visual information processing is to specify the representations at each level and the temporal sequence between them (Lachman, Lachman, & Butterfield, 1979).Historically, that sequence was regarded as being mainly feed forward, with processing advancing from simple to increasingly complex attributes, along brain pathways that converge to a common area in which conscious perception occurs.Here, we present an alternative approach, one more in keeping with recent advances in visual neurophysiology.Because we now know that reentrant signals are a major form of communication between brain regions, it is time to begin making explicit use of reentrant processing in theories of perception.To show that this can be done effectively in one domain, we report on a series of psychophysical experiments involving visual masking.In our view, a similar approach could be adopted in other areas of visual perception, especially those in which temporal aspects of processing are at issue.
0
Paper
Citation550
0
Save
7

The Comprehensive Autistic Trait Inventory (CATI): development and validation of a new measure of autistic traits in the general population

Michael English et al.May 17, 2021
Traits and characteristics qualitatively similar to those seen in diagnosed autism spectrum disorder can be found to varying degrees in the general population. To measure these traits and facilitate their use in autism research, several questionnaires have been developed that provide broad measures of autistic traits [e.g. Autism-Spectrum Quotient (AQ), Broad Autism Phenotype Questionnaire (BAPQ)]. However, since their development, our understanding of autism has grown considerably, and it is arguable that existing measures do not provide an ideal representation of the trait dimensions currently associated with autism. Our aim was to create a new measure of autistic traits that reflects our current understanding of autism, the Comprehensive Autism Trait Inventory (CATI).In Study 1, 107 pilot items were administered to 1119 individuals in the general population and exploratory factor analysis of responses used to create the 42-item CATI comprising six subscales: Social Interactions, Communication, Social Camouflage, Repetitive Behaviours, Cognitive Rigidity, and Sensory Sensitivity. In Study 2, the CATI was administered to 1068 new individuals and confirmatory factor analysis used to verify the factor structure. The AQ and BAPQ were administered to validate the CATI, and additional autistic participants were recruited to compare the predictive ability of the measures. In Study 3, to validate the CATI subscales, the CATI was administered to 195 new individuals along with existing valid measures qualitatively similar to each CATI subscale.The CATI showed convergent validity at both the total-scale (r ≥ .79) and subscale level (r ≥ .68). The CATI also showed superior internal reliability for total-scale scores (α = .95) relative to the AQ (α = .90) and BAPQ (α = .94), consistently high reliability for subscales (α > .81), greater predictive ability for classifying autism (Youden's Index = .62 vs .56-.59), and demonstrated measurement invariance for sex.Analyses of predictive ability for classifying autism depended upon self-reported diagnosis or identification of autism. The autistic sample was not large enough to test measurement invariance of autism diagnosis.The CATI is a reliable and economical new measure that provides observations across a wide range of trait dimensions associated with autism, potentially precluding the need to administer multiple measures, and to our knowledge, the CATI is also the first broad measure of autistic traits to have dedicated subscales for social camouflage and sensory sensitivity.
7
Citation46
1
Save
0

Neural dynamics of the attentional blink revealed by encoding orientation selectivity during rapid visual presentation

Matthew Tang et al.Apr 1, 2019
Abstract The human brain is inherently limited in the information it can make consciously accessible. When people monitor a rapid stream of visual items for two targets, they can typically report the first, but not the second target, if these appear within 200-500 ms of each other, a phenomenon known as the attentional blink (AB). No work has determined the neural basis for the AB, partly because conventional neuroimaging approaches lack the temporal resolution to adequately characterise the neural activity elicited by each item in a rapid stream. Here we introduce a new approach that can identify the precise effect of the AB on behaviour and neural activity. Specifically, we employed a multivariate encoding approach to extract feature-selective information carried by randomly-oriented gratings within a rapid serial stream. We show that feature selectivity is enhanced for correctly reported targets and suppressed when the same items are missed. By contrast, no such effects were apparent for irrelevant distractor items. Our findings point to a new theoretical account that involves both short- and long-range temporal interactions between visual items competing for consciousness.
0
Citation2
0
Save
6

Visual awareness during the attentional blink is determined by representational similarity

Matthew Tang et al.Oct 27, 2022
Abstract Our visual perception seems effortless, but the brain has a limited processing capacity which curtails the amount of sensory information that can be brought into conscious awareness at any moment in time. A widely studied exemplar of this limitation is the ‘attentional blink’ (AB), in which observers are unable to report the second of two rapidly sequential targets if it appears within 200-500 ms of the first. Despite the apparent ubiquity of the AB effect, its computational and neurophysiological underpinnings have remained elusive. Here we propose a simple computational model of temporal attention that unifies the AB with spatial and feature-based attention. We took a novel, integrative approach involving human psychophysics and functional brain imaging, along with neuronal recordings in mice to test this model. Specifically, we demonstrate that the AB only arises when visual targets have dissimilar representations in the brain but is absent when both targets have the same representation. Similarity in this context can be determined either by elementary features such as edge orientation, or by acquired, high-level factors such as numerical or alphabetical order. In this parsimonious model of the AB, attention to an initial target establishes a perceptual filter that is tuned to its unique representation in the brain. Subsequent items that match the filter remain available for conscious report, whereas those that do not match elude awareness altogether.
0

The “What” and “How” of Pantomime Actions

Raymond MacNeil et al.Sep 26, 2024
Pantomimes are human actions that simulate ideas, objects, and events, commonly used in conversation, performance art, and gesture-based interfaces for computing and controlling robots. Yet, their underlying neurocognitive mechanisms are not well understood. In this review, we examine pantomimes through two parallel lines of research: (1) the two visual systems (TVS) framework for visually guided action, and (2) the neuropsychological literature on limb apraxia. Historically, the TVS framework has considered pantomime actions as expressions of conscious perceptual processing in the ventral stream, but an emerging view is that they are jointly influenced by ventral and dorsal stream processing. Within the apraxia literature, pantomimes were historically viewed as learned motor schemas, but there is growing recognition that they include creative and improvised actions. Both literatures now recognize that pantomimes are often created spontaneously, sometimes drawing on memory and always requiring online cognitive control. By highlighting this convergence of ideas, we aim to encourage greater collaboration across these two research areas, in an effort to better understand these uniquely human behaviors.