JB
James Brown
Author with expertise in Advanced Techniques in Bioimage Analysis and Microscopy
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
6
(67% Open Access)
Cited by:
1,622
h-index:
37
/
i10-index:
86
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

High-throughput discovery of novel developmental phenotypes

Mary Dickinson et al.Sep 13, 2016
+78
J
A
M
Approximately one-third of all mammalian genes are essential for life. Phenotypes resulting from knockouts of these genes in mice have provided tremendous insight into gene function and congenital disorders. As part of the International Mouse Phenotyping Consortium effort to generate and phenotypically characterize 5,000 knockout mouse lines, here we identify 410 lethal genes during the production of the first 1,751 unique gene knockouts. Using a standardized phenotyping platform that incorporates high-resolution 3D imaging, we identify phenotypes at multiple time points for previously uncharacterized genes and additional phenotypes for genes with previously reported mutant phenotypes. Unexpectedly, our analysis reveals that incomplete penetrance and variable expressivity are common even on a defined genetic background. In addition, we show that human disease genes are enriched for essential genes, thus providing a dataset that facilitates the prioritization and validation of mutations identified in clinical sequencing efforts. Identification and characterization, using a comprehensive embryonic phenotyping pipeline, of 410 lethal alleles during the generation of the first 1,751 of 5,000 unique gene knockouts produced by the International Mouse Phenotyping Consortium. Stephen Murray and colleagues, including those from the International Mouse Phenotyping Consortium, report on the first phase of the project to generate and phenotypically characterize 5,000 knockout mouse lines, the first systematic efforts to characterize the phenotypes of embryonic lethal mutations. They identify 410 lethal genes during the production of the first 1,751 unique gene knockouts, and characterize these in a comprehensive phenotyping pipeline that includes high-resolution 3D imaging methods. Unexpectedly, given the defined genetic background, they find a number of phenotypes with incomplete penetrance, including some gene knockouts with subviability. The authors also show that orthologues of these mouse essential genes are enriched in genes associated with human disease and show evidence of purifying selection in the human population.
0
Citation1,093
0
Save
0

Automated Diagnosis of Plus Disease in Retinopathy of Prematurity Using Deep Convolutional Neural Networks

James Brown et al.May 3, 2018
+8
A
J
J
Retinopathy of prematurity (ROP) is a leading cause of childhood blindness worldwide. The decision to treat is primarily based on the presence of plus disease, defined as dilation and tortuosity of retinal vessels. However, clinical diagnosis of plus disease is highly subjective and variable.To implement and validate an algorithm based on deep learning to automatically diagnose plus disease from retinal photographs.A deep convolutional neural network was trained using a data set of 5511 retinal photographs. Each image was previously assigned a reference standard diagnosis (RSD) based on consensus of image grading by 3 experts and clinical diagnosis by 1 expert (ie, normal, pre-plus disease, or plus disease). The algorithm was evaluated by 5-fold cross-validation and tested on an independent set of 100 images. Images were collected from 8 academic institutions participating in the Imaging and Informatics in ROP (i-ROP) cohort study. The deep learning algorithm was tested against 8 ROP experts, each of whom had more than 10 years of clinical experience and more than 5 peer-reviewed publications about ROP. Data were collected from July 2011 to December 2016. Data were analyzed from December 2016 to September 2017.A deep learning algorithm trained on retinal photographs.Receiver operating characteristic analysis was performed to evaluate performance of the algorithm against the RSD. Quadratic-weighted κ coefficients were calculated for ternary classification (ie, normal, pre-plus disease, and plus disease) to measure agreement with the RSD and 8 independent experts.Of the 5511 included retinal photographs, 4535 (82.3%) were graded as normal, 805 (14.6%) as pre-plus disease, and 172 (3.1%) as plus disease, based on the RSD. Mean (SD) area under the receiver operating characteristic curve statistics were 0.94 (0.01) for the diagnosis of normal (vs pre-plus disease or plus disease) and 0.98 (0.01) for the diagnosis of plus disease (vs normal or pre-plus disease). For diagnosis of plus disease in an independent test set of 100 retinal images, the algorithm achieved a sensitivity of 93% with 94% specificity. For detection of pre-plus disease or worse, the sensitivity and specificity were 100% and 94%, respectively. On the same test set, the algorithm achieved a quadratic-weighted κ coefficient of 0.92 compared with the RSD, outperforming 6 of 8 ROP experts.This fully automated algorithm diagnosed plus disease in ROP with comparable or better accuracy than human experts. This has potential applications in disease detection, monitoring, and prognosis in infants at risk of ROP.
0
Citation529
0
Save
0

Object Detection Networks and Augmented Reality for Cellular Detection in Fluorescence Microscopy Acquisition and Analysis.

Dominic Waithe et al.Feb 8, 2019
+4
I
J
D
In this paper we demonstrate the application of object detection networks for the classification and localization of cells in fluorescence microscopy. We benchmark two leading object detection algorithms across multiple challenging 2-D microscopy datasets as well as develop and demonstrate an algorithm which can localize and image cells in 3-D, in real-time. Furthermore, we exploit the fast processing of these algorithms and develop a simple and effective Augmented Reality (AR) system for fluorescence microscopy systems. Object detection networks are well-known high performance networks famously applied to the task of identifying and localizing objects in photography images. Here we show their application and efficiency for localizing cells in fluorescence microscopy images. Object detection algorithms are typically trained on many thousands of images, which can be prohibitive within the biological sciences due to the cost of imaging and annotating large amounts of data. Through taking different cell types and assays as an example, we show that with some careful considerations that it is possible to achieve very high performance with datasets with as few as 26 images present. Through using our approach, it is possible for relatively non-skilled users to automate detection of cell classes with a variety of appearances and enable new avenues for automation of conventionally manual fluorescence microscopy acquisition pipelines.
0

Weakly supervised pre-training for brain tumor segmentation using principal axis measurements of tumor burden

Joshua Mckone et al.Jun 20, 2024
J
X
T
J
Introduction State-of-the-art multi-modal brain tumor segmentation methods often rely on large quantities of manually annotated data to produce acceptable results. In settings where such labeled data may be scarce, there may be value in exploiting cheaper or more readily available data through clinical trials, such as Response Assessment in Neuro-Oncology (RANO). Methods This study demonstrates the utility of such measurements for multi-modal brain tumor segmentation, whereby an encoder network is first trained to regress synthetic “Pseudo-RANO” measurements using a mean squared error loss with cosine similarity penalty to promote orthogonality of the principal axes. Using oriented bounding-boxes to measure overlap with the ground truth, we show that the encoder model can reliably estimate tumor principal axes with good performance. The trained encoder was combined with a randomly initialized decoder for fine-tuning as a U-Net architecture for whole tumor (WT) segmentation. Results Our results demonstrate that weakly supervised encoder models converge faster than those trained without pre-training and help minimize the annotation burden when trained to perform segmentation. Discussion The use of cheap, low-fidelity labels in the context allows for both faster and more stable training with fewer densely segmented ground truth masks, which has potential uses outside this particular paradigm.
0

LAMA: Automated image analysis for developmental phenotyping of mouse embryos

Neil Horner et al.May 4, 2020
+7
S
S
N
Abstract Advanced 3D imaging modalities such as micro computed tomography (micro-CT), high resolution episcopic microscopy (HREM), and optical projection tomography (OPT) have been readily incorporated into high-throughput phenotyping pipelines, such as the International Mouse Phenotyping Consortium (IMPC). Such modalities generate large volumes of raw data that cannot be immediately harnessed without significant resources of manpower and expertise. Thus, rapid automated analysis and annotation is critical to ensure that 3D imaging data is able to be integrated with other multi-dimensional phenotyping data. To this end, we present an automated computational mouse phenotyping pipeline called LAMA, based on image registration, which requires minimal technical expertise and human input to use. Designed predominantly for developmental biologists, our software performs image pre-processing, registration, statistical and gene function annotation, and segmentation of 3D micro-CT data. We address several limitations of current methods and create an easy to use, fast solution application for mouse embryo phenotyping. We also present a highly granular, novel anatomical E14.5 (14.5 days post coitus) atlas of a population average that integrates with our pipeline to allow a range of dysmorphologies to be automatically annotated as well as results from the validation of the pipeline.