ZL
Zitong Lu
Author with expertise in Neuronal Oscillations in Cortical Networks
Achievements
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
5
(60% Open Access)
Cited by:
2
h-index:
10
/
i10-index:
10
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
1

Dynamic saccade context triggers more stable object-location binding

Zitong Lu et al.Apr 28, 2023
Abstract Our visual systems rapidly perceive and integrate information about object identities and locations. There is long-standing debate about how we achieve world-centered (spatiotopic) object representations across eye movements, with many studies reporting persistent retinotopic (eye-centered) effects even for higher-level object-location binding. But these studies are generally conducted in fairly static experimental contexts. Might spatiotopic object-location binding only emerge in more dynamic saccade contexts? In the present study, we investigated this using the Spatial Congruency Bias paradigm in healthy adults. In the static (single saccade) context, we found purely retinotopic binding, as before. However, robust spatiotopic binding emerged in the dynamic (multiple frequent saccades) context. We further isolated specific factors that modulate retinotopic and spatiotopic binding. Our results provide strong evidence that dynamic saccade context can trigger more stable object-location binding in ecologically-relevant spatiotopic coordinates, perhaps via a more flexible brain state which accommodates improved visual stability in the dynamic world. Significance Statement One of the most fundamental challenges for human behavior is how we integrate and stabilize perceptual information in our ever-changing sensory environments. In particular, we make multiple eye movements every second, constantly displacing and distorting our visual input. Yet despite receiving visual input in these disjointed, eye-centered (retinotopic) coordinates, we perceive the world as stable, based on objects’ world-centered (spatiotopic) locations. Our study provides strong evidence for a previously unstudied cue – dynamic saccade context – in triggering more stable object-location binding, which offers a novel step forward in understanding how we form a stable perception of the dynamic world. More broadly, these findings suggest the importance of considering dynamic saccade context in visual perception and cognitive neuroscience studies.
0

NeuroRA: A Python Toolbox of Representational Analysis from Multi-modal Neural Data

Zitong Lu et al.Mar 26, 2020
In studies of cognitive neuroscience, multivariate pattern analysis (MVPA) is widely used as it offers richer information than traditional univariate analysis. Representational similarity analysis (RSA), as one method of MVPA, has become an effective decoding method based on neural data by calculating the similarity between different representations in the brain under different conditions. Moreover, RSA is suitable for researchers to compare data from different modalities, and even bridge data from different species. However, previous toolboxes have been made to fit for specific datasets. Here, we develop a novel and easy-to-use toolbox based on Python named NeuroRA for representational analysis. Our toolbox aims at conducting cross-modal data analysis from multi-modal neural data (e.g. EEG, MEG, fNIRS, ECoG, sEEG, neuroelectrophysiology, fMRI), behavioral data, and computer simulated data. Compared with previous software packages, our toolbox is more comprehensive and powerful. By using NeuroRA, users can not only calculate the representational dissimilarity matrix (RDM), which reflects the representational similarity between different conditions, but also conduct a representational analysis among different RDMs to achieve a cross-modal comparison. In addition, users can save the results as NIfTI files based on fMRI data and plot the results as they wish. We introduce the structure, modules, features, and algorithms of NeuroRA in this paper, as well as examples applying the toolbox in published datasets.
0

An easy‐to‐follow handbook for electroencephalogram data analysis with Python

Zitong Lu et al.Jun 1, 2024
Abstract This easy‐to‐follow handbook offers a straightforward guide to electroencephalogram (EEG) analysis using Python, aimed at all EEG researchers in cognitive neuroscience and related fields. It spans from single‐subject data preprocessing to advanced multisubject analyses. This handbook contains four chapters: Preprocessing Single‐Subject Data, Basic Python Data Operations, Multiple‐Subject Analysis, and Advanced EEG Analysis. The Preprocessing Single‐Subject Data chapter provides a standardized procedure for single‐subject EEG data preprocessing, primarily using the MNE‐Python package. The Basic Python Data Operations chapter introduces essential Python operations for EEG data handling, including data reading, storage, and statistical analysis. The Multiple‐Subject Analysis chapter guides readers on performing event‐related potential and time‐frequency analyses and visualizing outcomes through examples from a face perception task dataset. The Advanced EEG Analysis chapter explores three advanced analysis methodologies, Classification‐based decoding, Representational Similarity Analysis, and Inverted Encoding Model, through practical examples from a visual working memory task dataset using NeuroRA and other powerful packages. We designed our handbook for easy comprehension to be an essential tool for anyone delving into EEG data analysis with Python (GitHub website: https://github.com/ZitongLu1996/Python‐EEG‐Handbook ; For Chinese version: https://github.com/ZitongLu1996/Python‐EEG‐Handbook‐CN ).
1

Human EEG and artificial neural networks reveal disentangled representations of object real-world size in natural images

Zitong Lu et al.Aug 21, 2023
Human brains have the ability to accurately perceive and process the real-world size of objects, despite vast differences in distance and perspective, which is a remarkable feat of cognitive processing. While previous studies have delved into this phenomenon, our study uses an innovative approach to disentangle neural representations of object real-world size from visual size and perceived real-world depth in a way that was not previously possible. Our multi-modal approach incorporates computational modeling and the THINGS EEG2 dataset, which offers both high time-resolution human brain recordings and more ecologically valid naturalistic stimuli. Leveraging this state-of-the-art dataset, our EEG representational similarity results revealed a pure representation of object real-world size in human brains. We report a representational timeline of visual object processing: pixel-wise differences appeared first, then real-world depth and visual size, and finally, real-world size. Furthermore, representational comparisons with different artificial neural networks reveal real-world size as a stable and higher-level dimension in object space incorporating both visual and semantic information.
0

Bridging the Gap: Exploring Neural Mechanisms of Facial Repetition Suppression through EEG and DCNNs

Zitong Lu et al.Jan 1, 2023
Facial repetition suppression, a well-studied phenomenon characterized by decreased neural responses to repeated faces in visual cortices, remains a subject of ongoing debate regarding its underlying neural mechanisms. Recent advancements have seen deep convolutional neural networks (DCNNs) achieve human-level performance in face recognition. In our present study, we sought to compare brain activation patterns derived from human electroencephalogram (EEG) data with those generated by DCNNs. Employing reverse engineering techniques, we aimed to provide a novel perspective on the neural mechanisms underlying facial repetition suppression. Our approach involved employing brain decoding methods to investigate how representations of faces change with their familiarity in the human brain. Subsequently, we constructed two models for repetition suppression within DCNNs: the Fatigue model, which posits that stronger activation leads to greater suppression, and the Sharpening model, which suggests that weaker activation results in more pronounced suppression. To elucidate the neural mechanisms at play, we conducted cross-modal representational similarity analysis (RSA) comparisons between human EEG signals and DCNN activations. Our results revealed a striking similarity between human brain representations and those of the Fatigue DCNN, favoring the Fatigue model over the Sharpening hypothesis in explaining the facial repetition suppression effect. These representation analyses, bridging the human brain and DCNNs, offer a promising tool for simulating brain activity and making inferences regarding the neural mechanisms underpinning complex human behaviors.