MP
M. Pratt
Author with expertise in RNA Sequencing Data Analysis
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
8
(63% Open Access)
Cited by:
7,093
h-index:
42
/
i10-index:
70
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Accurate whole human genome sequencing using reversible terminator chemistry

David Bentley et al.Nov 1, 2008
DNA sequence information underpins genetic research, enabling discoveries of important biological or medical benefit. Sequencing projects have traditionally used long (400–800 base pair) reads, but the existence of reference sequences for the human and many other genomes makes it possible to develop new, fast approaches to re-sequencing, whereby shorter reads are compared to a reference to identify intraspecies genetic variation. Here we report an approach that generates several billion bases of accurate nucleotide sequence per experiment at low cost. Single molecules of DNA are attached to a flat surface, amplified in situ and used as templates for synthetic sequencing with fluorescent reversible terminator deoxyribonucleotides. Images of the surface are analysed to generate high-quality sequence. We demonstrate application of this approach to human genome sequencing on flow-sorted X chromosomes and then scale the approach to determine the genome sequence of a male Yoruba from Ibadan, Nigeria. We build an accurate consensus sequence from >30× average depth of paired 35-base reads. We characterize four million single-nucleotide polymorphisms and four hundred thousand structural variants, many of which were previously unknown. Our approach is effective for accurate, rapid and economical whole-genome re-sequencing and many other biomedical applications. The power of the latest massively parallel synthetic DNA sequencing technologies is demonstrated in two major collaborations that shed light on the nature of genomic variation with ethnicity. The first describes the genomic characterization of an individual from the Yoruba ethnic group of west Africa. The second reports a personal genome of a Han Chinese, the group comprising 30% of the world's population. These new resources can now be used in conjunction with the Venter, Watson and NIH reference sequences. A separate study looked at genetic ethnicity on the continental scale, based on data from 1,387 individuals from more than 30 European countries. Overall there was little genetic variation between countries, but the differences that do exist correspond closely to the geographic map. Statistical analysis of the genome data places 50% of the individuals within 310 km of their reported origin. As well as its relevance for testing genetic ancestry, this work has implications for evaluating genome-wide association studies that link genes with diseases.
0
Citation3,547
0
Save
0

The MACHO Project: Microlensing Results from 5.7 Years of Large Magellanic Cloud Observations

C. Alcock et al.Oct 10, 2000
We report on our search for microlensing towards the Large Magellanic Cloud (LMC). Analysis of 5.7 years of photometry on 11.9 million stars in the LMC reveals 13 - 17 microlensing events. This is significantly more than the $\sim$ 2 to 4 events expected from lensing by known stellar populations. The timescales ($\that$) of the events range from 34 to 230 days. We estimate the microlensing optical depth towards the LMC from events with $2 < \that < 400$ days to be 1.2 ^{+0.4}_ {-0.3} \ten{-7}$, with an additional 20% to 30% of systematic error. The spatial distribution of events is mildly inconsistent with LMC/LMC disk self-lensing, but is consistent with an extended lens distribution such as a Milky Way or LMC halo. Interpreted in the context of a Galactic dark matter halo, consisting partially of compact objects, a maximum likelihood analysis gives a MACHO halo fraction of 20% for a typical halo model with a 95% confidence interval of 8% to 50%. A 100% MACHO halo is ruled out at the 95% C.L. for all except our most extreme halo model. Interpreted as a Galactic halo population, the most likely MACHO mass is between $ 0.15 \msun$ and $ 0.9 \msun$, depending on the halo model, and the total mass in MACHOs out to 50 kpc is found to be 9+4-3 10^{10} msun, independent of the halo model. These results are marginally consistent with our previous results, but are lower by about a factor of two. Besides a larger data set, this work also includes an improved efficiency determination, improved likelihood analysis, and more thorough testing of systematic errors, especially with respect to the treatment of potential backgrounds to microlensing, such as supernovae in galaxies behind the LMC. [Abridged]
0
Citation849
0
Save
0

Possible gravitational microlensing of a star in the Large Magellanic Cloud

C. Alcock et al.Oct 1, 1993
THERE is now abundant evidence for the presence of large quantities of unseen matter surrounding normal galaxies, including our own1,2. The nature of this ’dark matter‘ is unknown, except that it cannot be made of normal stars, dust or gas, as they would be easily detected. Exotic particles such as axions, massive neutrinos or other weakly interacting massive particles (collectively known as WIMPs) have been proposed3,4, but have yet to be detected. A less exotic alternative is normal matter in the form of bodies with masses ranging from that of a large planet to a few solar masses. Such objects, known collectively as massive compact halo objects5 (MACHOs), might be brown dwarfs or ‘jupiters’ (bodies too small to produce their own energy by fusion), neutron stars, old white dwarfs or black holes. Paczynski6 suggested that MACHOs might act as gravitational microlenses, temporarily amplifying the apparent brightness of background stars in nearby galaxies. We are conducting a microlensing experiment to determine whether the dark matter halo of our Galaxy is made up of MACHOs. Here we report a candidate for such a microlensing event, detected by monitoring the light curves of 1.8 million stars in the Large Magellanic Cloud for one year. The light curve shows no variation for most of the year of data taking, and an upward excursion lasting over 1 month, with a maximum increase of ∼2 mag. The most probable lens mass, inferred from the duration of the candidate lensing event, is ∼0.1 solar mass. In 1986, Bohdan Paczynski suggested that dark, compact objects in the halo of our Galaxy — the local cousins of similar objects conjectured to contribute dark matter to the haloes of other galaxies — could be detected on Earth, as their gravitation might occasionally amplify the light arriving from more distant stars. In 1993, in surveys of several million stars in the Large Magellanic Cloud, C. Alcock et al. and E. Aubourg et al. observed several candidate events. In total, the two groups detected three stars for which the brightness increased by two magnitudes over an interval of roughly one month.
0

The MACHO Project Large Magellanic Cloud Microlensing Results from the First Two Years and the Nature of the Galactic Dark Halo

C. Alcock et al.Sep 10, 1997
The MACHO Project is a search for dark matter in the form of massive compact halo objects (MACHOs). Photometric monitoring of millions of stars in the Large Magellanic Cloud (LMC), Small Magellanic Cloud (SMC), and Galactic bulge is used to search for gravitational microlensing events caused by these otherwise invisible objects. Analysis of the first 2.1 yr of photometry of 8.5 million stars in the LMC reveals eight candidate microlensing events. This is substantially more than the number expected (~1.1) from lensing by known stellar populations. The timescales (t) of the events range from 34 to 145 days. We estimate the total microlensing optical depth toward the LMC from events with 2 < < 200 days to be τ2002=2.9+ 1.4−0.9×10−7 based upon our eight event sample. This exceeds the optical depth, τbackgnd = 0.5 × 10-7, expected from known stars, and the difference is to be compared with the optical depth predicted for a "standard" halo composed entirely of MACHOs: τhalo = 4.7 × 10-7. To compare with Galactic halo models, we perform likelihood analyses on the full eight-event sample and a six-event subsample (which allows for two events to be caused by a nonhalo "background"). This gives a fairly model-independent estimate of the halo mass in MACHOs within 50 kpc of 2.0+ 1.2−0.7×1011 M☉, which is about half of the "standard halo" value. We also find a most probable MACHO mass of 0.5+ 0.3−0.2 M☉, although this value is strongly model dependent. In addition, the absence of short duration events places stringent upper limits on the contribution of low-mass MACHOs: objects from 10-4 M☉ to 0.03 M☉ contribute ≲20% of the "standard" dark halo.
0

High-speed bottom-up surface temperature measurements of a flat plate: A thermal analog for laser metal additive manufacturing

M. Pratt et al.May 31, 2024
Metal additive manufacturing (AM) is an increasingly important technology for producing complex metal parts. Residual stress can cause unwanted distortion of printed parts, particularly for thin (high aspect ratio) features. Highly transient and localized thermal phenomena, which are not well understood due to a lack of experimental data, may lead to excessive residual stress buildup in the part. To investigate residual stresses, this work designs and implements a novel in situ measurement method to measure the 2-D temperature history at the bottom of a 500 μm-thick Inconel plate, which acts as a thermal analog for a real printed part. The top surface of the Inconel 625 plate was subject to laser heating while a high-speed infrared camera measured the thermal radiance at the bottom of the plate, representing the thermal behavior inside a part at a depth of 500 μm. A one-dimensional thermal analysis was utilized to confirm that the 500 μm-thick plate would demonstrate a similar thermal response relative to a bulk, thick part and especially overhang geometries undergoing LPBF. This measurement method allows for the first temperature visualization in the x-y (scan and hatch) plane below the top surface. The temperatures at the bottom surface were studied for laser power P= 250–300 W, scan speeds v= 200-400 mm/s, and multiple scan strategies. Temperatures above 750 °C were observed at the bottom surface, and melting was observed at the top surface. The amount of time between heating events was identified as a key parameter that affects the temperature distribution at the bottom surface. Cooling between heating events helps to reduce maximum temperatures but can increase spatial variations in the temperature profile. Directional temperature gradients were calculated in each direction using the temperature fields and the finite difference method. Contrary to results in the literature, the z-direction gradient, ∂T∂z, dominated the other two components and is the primary driver of residual stress production inside a printed part. The magnitude of the temperature gradient, |∇T|, was used to identify areas of localized residual stress. The total temperature gradient was highest near the laser position due to the ∂T∂z term. Moving away from the laser position rapidly decreases |∇T|, which could develop residual stress inside the printed part. An improved understanding of temperature fields and residual stress inside the part during printing will yield more consistent part geometry, and fewer failed prints due to distortion from residual stress.
0

svclassify: a method to establish benchmark structural variant calls

Hemang Parikh et al.May 16, 2015
Background: The human genome contains variants ranging in size from small single nucleotide polymorphisms (SNPs) to large structural variants (SVs). High-quality benchmark small variant calls for the pilot National Institute of Standards and Technology (NIST) Reference Material (NA12878) have been developed by the Genome in a Bottle Consortium, but no similar high-quality benchmark SV calls exist for this genome. Since SV callers output highly discordant results, we developed methods to combine multiple forms of evidence from multiple sequencing technologies to classify candidate SVs into likely true or false positives. Our method (svclassify) calculates annotations from one or more aligned bam files from many high-throughput sequencing technologies, and then builds a one-class model using these annotations to classify candidate SVs as likely true or false positives. Results: We first used pedigree analysis to develop a set of high-confidence breakpoint-resolved large deletions. We then used svclassify to cluster and classify these deletions as well as a set of high-confidence deletions from the 1000 Genomes Project and a set of breakpoint-resolved complex insertions from Spiral Genetics. We find that likely SVs cluster separately from likely non-SVs based on our annotations, and that the SVs cluster into different types of deletions. We then developed a supervised one-class classification method that uses a training set of random non-SV regions to determine whether candidate SVs have abnormal annotations different from most of the genome. To test this classification method, we use our pedigree-based breakpoint-resolved SVs, SVs validated by the 1000 Genomes Project, and assembly-based breakpoint-resolved insertions, along with semi-automated visualization using svviz. Conclusions: We find that candidate SVs with high scores from multiple technologies have high concordance with PCR validation and an orthogonal consensus method MetaSV (99.7% concordant), and candidate SVs with low scores are questionable. We distribute a set of 2676 high-confidence deletions and 68 high-confidence insertions with high svclassify scores from these call sets for benchmarking SV callers. We expect these methods to be particularly useful for establishing high-confidence SV calls for benchmark samples that have been characterized by multiple technologies.