WP
William Press
Author with expertise in DNA Nanotechnology and Bioanalytical Applications
Achievements
This user has not unlocked any achievements yet.
Key Stats
Upvotes received:
0
Publications:
4
(25% Open Access)
Cited by:
0
h-index:
67
/
i10-index:
132
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Massively parallel kinetic profiling of natural and engineered CRISPR nucleases

Stephen Jones et al.Jul 9, 2019
+8
J
W
S
Engineered Streptococcus pyogenes (Sp) Cas9s and Acidaminococcus sp. (As) Cas12a (formerly Cpf1) improve cleavage specificity in human cells. However, the fidelity, enzymatic mechanisms, and cleavage products of emerging CRISPR nucleases have not been profiled systematically across partially mispaired off-target DNA sequences. Here, we describe NucleaSeq - nuclease digestion and deep sequencing - a massively parallel platform that measures cleavage kinetics and captures the time-resolved identities of cleaved products for more than ten thousand DNA targets that include mismatches, insertions, and deletions relative to the guide RNA. The binding specificity of each enzyme is measured on the same DNA library via the chip-hybridized association mapping platform (CHAMP). Using this integrated cleavage and binding platform, we profile four SpCas9 variants and AsCas12a. Engineered Cas9s retain wtCas9-like off-target binding but increase cleavage specificity; Cas9-HF1 shows the most dramatic increase in cleavage specificity. Surprisingly, wtCas12a - reported as a more specific nuclease in cells - has cleavage specificity similar to wtCas9 in vitro. Initial cleavage position and subsequent end-trimming vary across nucleases, guide RNA sequences, and position and base identity of mispairs in target DNAs. Using these large datasets, we develop a biophysical model that reveals mechanistic insights into off-target cleavage activities by these nucleases. More broadly, NucleaSeq enables rapid, quantitative, and systematic comparison of the specificities and cleavage products of engineered and natural nucleases.
0

Understanding biases in ribosome profiling experiments reveals signatures of translation dynamics in yeast

Jeffrey Hussmann et al.Sep 30, 2015
+3
A
S
J
Ribosome profiling produces snapshots of the locations of actively translating ribosomes on messenger RNAs. These snapshots can be used to make inferences about translation dynamics. Recent ribosome profiling studies in yeast, however, have reached contradictory conclusions regarding the average translation rate of each codon. Some experiments have used cycloheximide (CHX) to stabilize ribosomes before measuring their positions, and these studies all counterintuitively report a weak negative correlation between the translation rate of a codon and the abundance of its cognate tRNA. In contrast, some experiments performed without CHX report strong positive correlations. To explain this contradiction, we identify unexpected patterns in ribosome density downstream of each type of codon in experiments that use CHX. These patterns are evidence that elongation continues to occur in the presence of CHX but with dramatically altered codon-specific elongation rates. The measured positions of ribosomes in these experiments therefore do not reflect the amounts of time ribosomes spend at each position in vivo. These results suggest that conclusions from experiments in yeast using CHX may need reexamination. In particular, we show that in all such experiments, codons decoded by less abundant tRNAs were in fact being translated more slowly before the addition of CHX disrupted these dynamics.
0

Error-correcting DNA barcodes for high-throughput sequencing

John Hawkins et al.May 7, 2018
+2
I
S
J
Many large-scale high-throughput experiments use DNA barcodes - short DNA sequences prepended to DNA libraries - for identification of individuals in pooled biomolecule populations. However, DNA synthesis and sequencing errors confound the correct interpretation of observed barcodes and can lead to significant data loss or spurious results. Widely-used error-correcting codes borrowed from computer science (e.g., Hamming and Levenshtein codes) do not properly account for insertions and deletions in DNA barcodes, even though deletions are the most common type of synthesis error. Here, we present and experimentally validate FREE (Filled/truncated Right End Edit) barcodes, which correct substitution, insertion, and deletion errors, even when these errors alter the barcode length. FREE barcodes are designed with experimental considerations in mind, including balanced GC content, minimal homopolymer runs, and reduced internal hairpin propensity. We generate and include lists of barcodes with different lengths and error-correction levels that may be useful in diverse high-throughput applications, including >10^6 single-error correcting 16-mers that strike a balance between decoding accuracy, barcode length, and library size. Moreover, concatenating two or more FREE codes into a single barcode increases the available barcode space combinatorially, generating lists with >10^15 error-correcting barcodes. The included software for creating barcode libraries and decoding sequenced barcodes is efficient and designed to be user-friendly for the general biology community.
5

Fast trimer statistics facilitate accurate decoding of large random DNA barcode sets even at large sequencing error rates

William Press et al.Jul 4, 2022
A
W
Abstract Predefined sets of short DNA sequences are commonly used as barcodes to identify individual biomolecules in pooled populations. Such use requires either sufficiently small DNA error rates, or else an error-correction methodology. Most existing DNA error-correcting codes (ECCs) correct only one or two errors per barcode in sets of typically ≲ 10 4 barcodes. We here consider the use of random barcodes of sufficient length that they remain accurately decodable even with ≳ 6 errors and even at 10% or 20% nucleotide error rates. We show that length 34 nt is sufficient even with ≳ 10 6 barcodes. The obvious objection to this scheme is that it requires comparing every read to every possible barcode by a slow Levenshtein or Needleman-Wunsch comparison. We show that several orders of magnitude speedup can be achieved by (i) a fast triage method that compares only trimer (three consecutive nucleotide) occurence statistics, precomputed in linear time for both reads and barcodes, and (ii) the massive parallelism available on today’s even commodity-grade GPUs. With 10 6 barcodes of length 34 and 10% DNA errors (substitutions and indels) we achieve in simulation 99.9% precision (decode accuracy) with 98.8% recall (read acceptance rate). Similarly high precision with somewhat smaller recall is achievable even with 20% DNA errors. The amortized computation cost on a commodity workstation with two GPUs (2022 capability and price) is estimated as between US$ 0.15 and US$ 0.60 per million decoded reads.