TL
Thierry Lefebvre
Author with expertise in Advances in Photoacoustic Imaging and Tomography
Achievements
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
6
(83% Open Access)
Cited by:
2
h-index:
9
/
i10-index:
9
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Unsupervised Segmentation of 3D Microvascular Photoacoustic Images Using Deep Generative Learning

Paul Sweeney et al.Jun 23, 2024
Abstract Mesoscopic photoacoustic imaging (PAI) enables label‐free visualization of vascular networks in tissues with high contrast and resolution. Segmenting these networks from 3D PAI data and interpreting their physiological and pathological significance is crucial yet challenging due to the time‐consuming and error‐prone nature of current methods. Deep learning offers a potential solution; however, supervised analysis frameworks typically require human‐annotated ground‐truth labels. To address this, an unsupervised image‐to‐image translation deep learning model is introduced, the Vessel Segmentation Generative Adversarial Network (VAN‐GAN). VAN‐GAN integrates synthetic blood vessel networks that closely resemble real‐life anatomy into its training process and learns to replicate the underlying physics of the PAI system in order to learn how to segment vasculature from 3D photoacoustic images. Applied to a diverse range of in silico, in vitro, and in vivo data, including patient‐derived breast cancer xenograft models and 3D clinical angiograms, VAN‐GAN demonstrates its capability to facilitate accurate and unbiased segmentation of 3D vascular networks. By leveraging synthetic data, VAN‐GAN reduces the reliance on manual labeling, thus lowering the barrier to entry for high‐quality blood vessel segmentation (F1 score: VAN‐GAN vs. U‐Net = 0.84 vs. 0.87) and enhancing preclinical and clinical research into vascular structure and function.
4

Performance evaluation of mesoscopic photoacoustic imaging

Lina Hacker et al.Oct 21, 2022
Abstract Photoacoustic mesoscopy visualises vascular architecture and associated tissue structures at high resolution at up to 3 mm depth. The technique has shown promise in both preclinical and clinical imaging studies, with possible applications in oncology and dermatology, however, the accuracy and precision of photoacoustic mesoscopy has not been well established. Here, we present a performance evaluation of a commercial photoacoustic mesoscopy system for imaging vascular structures. Typical artefact types are first highlighted and limitations due to non-isotropic illumination and detection are evaluated with respect to rotation, angularity, and depth of the target. Then, using tailored phantoms and mouse models we demonstrate high system precision, with acceptable coefficients of variation (COV) between repeated scans (short term (1h): COV=1.2%; long term (25 days): COV=9.6%), from target repositioning (without: COV=1.2%, with: COV=4.1%), or from varying in vivo user experience (experienced: COV=15.9%, unexperienced: COV=20.2%). While our findings support the robustness of the technique, they also underscore the general challenges of limited field-of-view photoacoustic systems in accurately imaging vessel-like structures, thereby guiding users to correctly interpret biologically-relevant information.
4
Citation1
0
Save
1

Segmentation of 3D blood vessel networks using unsupervised deep learning

Paul Sweeney et al.Apr 30, 2023
Abstract Innovations in imaging hardware have led to a revolution in our ability to visualise vascular networks in 3D at high resolution. The segmentation of microvascular networks from these 3D image volumes and interpretation of their meaning in the context of physiological and pathological processes unfortunately remains a time consuming and error-prone task. Deep learning has the potential to solve this problem, but current supervised analysis frameworks require human-annotated ground truth labels. To overcome these limitations, we present an unsupervised image-to-image translation deep learning model called the vessel segmentation generative adversarial network (VAN-GAN). VAN-GAN integrates synthetic blood vessel networks that closely resemble real-life anatomy into its training process and learns to replicate the underlying physics of an imaging system in order to learn how to segment vasculature from 3D biomedical images. To demonstrate the potential of VAN-GAN, the framework was applied to the challenge of segmenting vascular networks from images acquired using mesoscopic photoacoustic imaging (PAI). With a variety of in silico , in vitro and in vivo pathophysiological data, including patient-derived breast cancer xenograft models, we show that VAN-GAN facilitates accurate and unbiased segmentation of 3D vascular networks from PAI volumes. By leveraging synthetic data to reduce the reliance on manual labelling, VAN-GAN lower the barriers to entry for high-quality blood vessel segmentation to benefit imaging studies of vascular structure and function.
1

Quantification of vascular networks in photoacoustic mesoscopy

Emma Brown et al.Nov 22, 2021
ABSTRACT Mesoscopic photoacoustic imaging (PAI) enables non-invasive visualisation of tumour vasculature and has the potential to assess prognosis and therapeutic response. Currently, evaluating vasculature using mesoscopic PAI involves visual or semi-quantitative 2D measurements, which fail to capture 3D vessel network complexity, and lack robust ground truths for assessment of segmentation accuracy. Here, we developed an in silico , phantom, in vivo , and ex vivo -validated end-to-end framework to quantify 3D vascular networks captured using mesoscopic PAI. We applied our framework to evaluate the capacity of rule-based and machine learning-based segmentation methods, with or without vesselness image filtering, to preserve blood volume and network structure by employing topological data analysis. We first assessed segmentation performance against ground truth data of in silico synthetic vasculatures and a photoacoustic string phantom. Our results indicate that learning-based segmentation best preserves vessel diameter and blood volume at depth, while rule-based segmentation with vesselness image filtering accurately preserved network structure in superficial vessels. Next, we applied our framework to breast cancer patient-derived xenografts (PDXs), with corresponding ex vivo immunohistochemistry. We demonstrated that the above segmentation methods can reliably delineate the vasculature of 2 breast PDX models from mesoscopic PA images. Our results underscore the importance of evaluating the choice of segmentation method when applying mesoscopic PAI as a tool to evaluate vascular networks in vivo .
0

Performance evaluation of image co-registration methods in photoacoustic mesoscopy of the vasculature

Thierry Lefebvre et al.Sep 25, 2024
Abstract Objective: The formation of functional vasculature in solid tumours enables delivery of oxygen and nutrients, and is vital for effective treatment with chemotherapeutic agents. Longitudinal characterisation of vascular networks can be enabled using mesoscopic photoacoustic imaging, but requires accurate image co-registration to precisely assess local changes across disease development or in response to therapy. Co-registration in photoacoustic imaging is challenging due to the complex nature of the generated signal, including the sparsity of data, artefacts related to the illumination/detection geometry, scan-to-scan technical variability, and biological variability, such as transient changes in perfusion. To better inform the choice of co-registration algorithms, we compared five open-source methods, in physiological and pathological tissues, with the aim of aligning evolving vascular networks in tumours imaged over growth at different time-points. Approach: Co-registration techniques were applied to 3D vascular images acquired with photoacoustic mesoscopy from murine ears and breast cancer patient-derived xenografts, at a fixed time-point and longitudinally. Images were pre-processed and segmented using an unsupervised generative adversarial network. To compare co-registration quality in different settings, pairs of fixed and moving intensity images and/or segmentations were fed into five methods split into the following categories: affine intensity-based using 1)mutual information (MI) or 2)normalised cross-correlation (NCC) as optimisation metrics, affine shape-based using 3)NCC applied to distance-transformed segmentations or 4)iterative closest point algorithm, and deformable weakly supervised deep learning-based using 5)LocalNet co-registration. Percent-changes in Dice coefficients, surface distances, MI, structural similarity index measure and target registration errors were evaluated. Main results: Co-registration using MI or NCC provided similar alignment performance, better than shape-based methods. LocalNet provided accurate co-registration of substructures by optimising subfield deformation throughout the volumes, outperforming other methods, especially in the longitudinal breast cancer xenograft dataset by minimising target registration errors. Significance: We showed the feasibility of co-registering repeatedly or longitudinally imaged vascular networks in photoacoustic mesoscopy, taking a step towards longitudinal quantitative characterisation of these complex structures. These tools open new outlooks for monitoring tumour angiogenesis at the meso-scale and for quantifying treatment-induced co-localised alterations in the vasculature.