MH
Margaret Henderson
Author with expertise in Neural Mechanisms of Visual Perception and Processing
Achievements
Open Access Advocate
Cited Author
Key Stats
Upvotes received:
0
Publications:
10
(80% Open Access)
Cited by:
19
h-index:
7
/
i10-index:
5
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Biased orientation representations can be explained by experience with non-uniform training set statistics

Margaret Henderson et al.Jul 18, 2020
Abstract Visual acuity is better for vertical and horizontal compared to other orientations. This cross-species phenomenon is often explained by “efficient coding”, whereby more neurons show sharper tuning for the orientations most common in natural vision. However, it is unclear if experience alone can account for such biases. Here, we measured orientation representations in a convolutional neural network, VGG-16, trained on modified versions of ImageNet (rotated by 0°, 22.5°, or 45° counter-clockwise of upright). Discriminability for each model was highest near the orientations that were most common in the network’s training set. Furthermore, there was an over-representation of narrowly tuned units selective for the most common orientations. These effects emerged in middle layers and increased with depth in the network. Biases emerged early in training, consistent with the possibility that non-uniform representations may play a functional role in the network’s task performance. Together, our results suggest that biased orientation representations can emerge through experience with a non-uniform distribution of orientations, supporting the efficient coding hypothesis.
15

A texture statistics encoding model reveals hierarchical feature selectivity across human visual cortex

Margaret Henderson et al.Sep 26, 2022
Abstract Mid-level visual features, such as contour and texture, provide a computational link between low- and high-level visual representations. While the detailed nature of mid-level representations in the brain is not yet fully understood, past work has suggested that a texture statistics model (P-S model; Portilla and Simoncelli, 2000) is a candidate for predicting neural responses in areas V1-V4 as well as human behavioral data. However, it is not currently known how well this model accounts for the responses of higher visual cortex regions to natural scene images. To examine this, we constructed single voxel encoding models based on P-S statistics and fit the models to fMRI data from human subjects (male and female) from the Natural Scenes Dataset (Allen et al., 2021). We demonstrate that the texture statistics encoding model can predict the held-out responses of individual voxels in early retinotopic areas as well as higher-level category-selective areas. The ability of the model to reliably predict signal in higher visual cortex voxels suggests that the representation of texture statistics features is widespread throughout the brain, potentially playing a role in higher-order processes like object recognition. Furthermore, we use variance partitioning analyses to identify which features are most uniquely predictive of brain responses, and show that the contributions of higher-order texture features increases from early areas to higher areas on the ventral and lateral surface of the brain. These results provide a key step forward in characterizing how mid-level feature representations emerge hierarchically across the visual system. Significance Statement Intermediate visual features, like texture, play an important role in cortical computations and may contribute to tasks like object and scene recognition. Here, we used a texture model proposed in past work to construct encoding models that predict the responses of neural populations in human visual cortex (measured with fMRI) to natural scene stimuli. We show that responses of neural populations at multiple levels of the visual system can be predicted by this model, and that the model is able to reveal an increase in the complexity of feature representations from early retinotopic cortex to higher areas of ventral and lateral visual cortex. These results support the idea that texture-like representations may play a broad underlying role in visual processing.
15
Citation2
0
Save
9

Flexible utilization of spatial- and motor-based codes for the storage of visuo-spatial information

Margaret Henderson et al.Jul 9, 2021
Abstract Working memory provides flexible storage of information in service of upcoming behavioral goals. Some models propose specific fixed loci and mechanisms for the storage of visual information in working memory, such as sustained spiking in parietal and prefrontal cortex during working memory maintenance. An alternative view is that information can be remembered in a flexible format that best suits current behavioral goals. For example, remembered visual information might be stored in sensory areas for easier comparison to future sensory inputs, or might be re-coded into a more abstract action-oriented format and stored in motor areas. Here, we tested this hypothesis using a visuo-spatial working memory task where the required behavioral response was either known or unknown during the memory delay period. Using fMRI and multivariate decoding, we found that there was less information about remembered spatial position in early visual and parietal regions when the required response was known versus unknown. Further, a representation of the planned motor action emerged in primary somatosensory, primary motor, and premotor cortex during the same task condition where spatial information was reduced in early visual cortex. These results suggest that the neural networks supporting working memory can be strategically reconfigured depending on specific behavioral requirements during a canonical visual working memory paradigm.
8

Low-level tuning biases in higher visual cortex reflect the semantic informativeness of visual features

Margaret Henderson et al.Aug 6, 2022
Abstract Representations of visual and semantic information can overlap in human visual cortex, with the same neural populations exhibiting sensitivity to low-level features (orientation, spatial frequency, retinotopic position), and high-level semantic categories (faces, scenes). It has been hypothesized that this relationship between low-level visual and high-level category neural selectivity reflects natural scene statistics, such that neurons in a given category-selective region are tuned for low-level features or spatial positions that are diagnostic of the region’s preferred category. To address the generality of this “natural scene statistics” hypothesis, as well as how well it can account for responses to complex naturalistic images across visual cortex, we performed two complementary analyses. First, across a large set of rich natural scene images, we demonstrated reliable associations between low-level (Gabor) features and high-level semantic dimensions (indoor-outdoor, animacy, real-world size), with these relationships varying spatially across the visual field. Second, we used a large-scale fMRI dataset (the Natural Scenes Dataset) and a voxelwise forward encoding model to estimate the feature and spatial selectivity of neural populations throughout visual cortex. We found that voxels in category-selective visual regions exhibit systematic biases in their feature and spatial selectivity which are consistent with their hypothesized roles in category processing. We further showed that these low-level tuning biases are largely independent of viewed image category. Together, our results are consistent with a framework in which low-level feature selectivity contributes to the computation of high-level semantic category information in the brain.
8
Citation2
0
Save
2

Why is human vision so poor in early development? The impact of initial sensitivity to low spatial frequencies on visual category learning

Omisa Jinsi et al.Jun 23, 2022
Humans are born with very low contrast sensitivity, meaning that developing infants experience the world "in a blur". Is this solely a byproduct of maturational processes or is there some functional advantage for beginning life with poor vision? We explore whether reduced visual acuity as a consequence of low contrast sensitivity facilitates the acquisition of basic-level visual categories and, if so, whether this advantage also enhances subordinate-level category learning as visual acuity improves. Using convolutional neural networks (CNNs) and the ecoset dataset to simulate basic-level category learning, we manipulated model training curricula along three dimensions: presence of blurred inputs early in training, rate of blur removal over time, and grayscale versus color inputs. We found that a training regimen where blur starts high and is gradually reduced over time - as in human development - improves basic-level categorization performance relative to a regimen in which non-blurred inputs are used throughout. However, this pattern was observed only when grayscale images were used (analogous to the low sensitivity to color infants experience during early development). Importantly, the observed improvements in basic-level performance generalized to subordinate-level categorization as well: when models were fine-tuned on a dataset including subordinate-level categories (ImageNet), we found that models initially trained with blurred inputs showed a greater performance benefit than models trained solely on non-blurred inputs. Consistent with several other recent studies, we conclude that poor visual acuity in human newborns confers multiple advantages, including, as demonstrated here, more rapid and accurate acquisition of visual object categories at multiple hierarchical levels.
3

Neural Selectivity for Real-World Object Size In Natural Images

Andrew Luo et al.Mar 18, 2023
1 Abstract Real-world size is a functionally important high-level visual property of objects that supports interactions with our physical environment. Critically, real-world-size is robust over changes in visual appearance as projected onto our retinae such that large and small objects are correctly perceived to have different real-world sizes. To better understand the neural basis of this phenomenon, we examined whether the neural coding of real-world size holds for objects embedded in complex natural scene images, as well as whether real-world size effects are present for both inanimate and animate objects, whether low- and mid-level visual features can account for size selectivity, and whether neural size tuning is best described by a linear, logarithmic, or exponential neural coding function. To address these questions, we used a large-scale dataset of fMRI responses to natural images combined with per-voxel regression and contrasts. Importantly, the resultant pattern of size selectivity for objects embedded in natural scenes was aligned with prior results using isolated objects. Extending this finding, we also found that size coding exists for both animate and inanimate objects, that low-level visual features cannot account for neural size preferences, and size tuning functions have different shapes for large versus small preferring voxels. Together, these results indicate that real-world size is an ecologically significant dimension in the larger space of behaviorally-relevant cortical representations that support interactions with the world around us.
25

Categorization dynamically alters representations in human visual cortex

Margaret Henderson et al.Sep 13, 2023
Abstract Everyday visual search tasks require objects to be categorized according to behavioral goals. For example, when searching for an apple at the supermarket, one might first find the Granny Smith apples by separating all visible apples into the categories “green” and “non-green”. However, suddenly remembering that your family actually likes Fuji apples would necessitate reconfiguring the boundary to separate “red” from “red-yellow” objects. Despite this need for flexibility, prior research on categorization has largely focused on understanding neural changes related to overlearning a single category boundary that bifurcates an object space. At the same time, studies of feature-based attention have provided some insight into flexible selection of features, but have mainly focused on selection of a single, usually low-level, feature, which is rarely sufficient to capture the complexity of categorizing higher-dimensional object sets. Here we addressed these gaps by asking human participants to categorize novel shape stimuli according to different linear and non-linear boundaries, a task that requires dynamically reconfiguring selective attention to emphasize different sets of abstract features. Using fMRI and multivariate analyses of retinotopically-defined visual areas, we found that shape representations in visual cortex became more distinct across relevant category boundaries in a context-dependent manner, with the largest changes in discriminability observed for stimuli near the category boundary. Importantly, these attention-induced modulations were linked to categorization performance. Together, these findings demonstrate that adaptive attentional modulations can alter representations of abstract feature dimensions in visual cortex to optimize object separability based on currently relevant category boundaries.