YK
Y. Kubota
Author with expertise in Fluorescence Microscopy Techniques
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
4
(50% Open Access)
Cited by:
159
h-index:
57
/
i10-index:
419
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Measurement of the single-top-quark t-channel cross section in pp collisions at $ \sqrt{s}=7 $ TeV

S. Chatrchyan et al.Dec 1, 2012
+2136
A
V
S
A measurement of the single-top-quark t-channel production cross section in pp collisions at sqrt(s) = 7 TeV with the CMS detector at the LHC is presented. Two different and complementary approaches have been followed. The first approach exploits the distributions of the pseudorapidity of the recoil jet and reconstructed top-quark mass using background estimates determined from control samples in data. The second approach is based on multivariate analysis techniques that probe the compatibility of the candidate events with the signal. Data have been collected for the muon and electron final states, corresponding to integrated luminosities of 1.17 and 1.56 inverse femtobarns, respectively. The single-top-quark production cross section in the t-channel is measured to be 67.2 +/- 6.1 pb, in agreement with the approximate next-to-next-to-leading-order standard model prediction. Using the standard model electroweak couplings, the CKM matrix element abs(V[tb]]) is measured to be 1.020 +/- 0.046 (meas.) +/- 0.017 (theor.).
0

Search for new physics with same-sign isolated dilepton events with jets and missing transverse energy at the LHC

S. Chatrchyan et al.Jun 1, 2011
+2144
A
V
S
The results of searches for new physics in events with two same-sign isolated leptons, hadronic jets, and missing transverse energy in the final state are presented. The searches use an integrated luminosity of 35 pb−1 of pp collision data at a centre-of-mass energy of 7 TeV collected by the CMS experiment at the LHC. The observed numbers of events agree with the standard model predictions, and no evidence for new physics is found. To facilitate the interpretation of our data in a broader range of new physics scenarios, information on our event selection, detector response, and efficiencies is provided.
0
Paper
Citation48
0
Save
0

Deep Learning-Based Point-Scanning Super-Resolution Imaging

Linjing Fang et al.Aug 21, 2019
+14
S
F
L
Point scanning imaging systems (e.g. scanning electron or laser scanning confocal microscopes) are perhaps the most widely used tools for high resolution cellular and tissue imaging. Like all other imaging modalities, the resolution, speed, sample preservation, and signal-to-noise ratio (SNR) of point scanning systems are difficult to optimize simultaneously. In particular, point scanning systems are uniquely constrained by an inverse relationship between imaging speed and pixel resolution. Here we show these limitations can be mitigated via the use of deep learning-based super-sampling of undersampled images acquired on a point-scanning system, which we termed point-scanning super-resolution (PSSR) imaging. Oversampled, high SNR ground truth images acquired on scanning electron or Airyscan laser scanning confocal microscopes were ‘crappified’ to generate semi-synthetic training data for PSSR models that were then used to restore real-world undersampled images. Remarkably, our EM PSSR model could restore undersampled images acquired with different optics, detectors, samples, or sample preparation methods in other labs. PSSR enabled previously unattainable 2 nm resolution images with our serial block face scanning electron microscope system. For fluorescence, we show that undersampled confocal images combined with a multiframe PSSR model trained on Airyscan timelapses facilitates Airyscan-equivalent spatial resolution and SNR with ∼100x lower laser dose and 16x higher frame rates than corresponding high-resolution acquisitions. In conclusion, PSSR facilitates point-scanning image acquisition with otherwise unattainable resolution, speed, and sensitivity.![Figure][1] [1]: pending:yes
0

UNI-EM: An Environment for Deep Neural Network-Based Automated Segmentation of Neuronal Electron Microscopic Images

Hidetoshi Urakubo et al.Apr 12, 2019
+3
Y
T
H
Recently, there has been a rapid expansion in the field of micro-connectomics, which targets the three-dimensional (3D) reconstruction of neuronal networks from a stack of two-dimensional (2D) electron microscopic (EM) images. The spatial scale of the 3D reconstruction grows rapidly owing to deep neural networks (DNNs) that enable automated image segmentation. Several research teams have developed their own software pipelines for DNN-based segmentation. However, the complexity of such pipelines makes their use difficult even for computer experts and impossible for non-experts. In this study, we developed a new software program, called UNI-EM, that enables 2D- and 3D-DNN-based segmentation for non-computer experts. UNI-EM is a software collection for DNN-based EM image segmentation, including ground truth generation, training, inference, postprocessing, proofreading, and visualization. UNI-EM comes with a set of 2D DNNs, i.e., U-Net, ResNet, HighwayNet, and DenseNet. We further wrapped flood-filling networks (FFNs) as a representative 3D DNN-based neuron segmentation algorithm. The 2D- and 3D-DNNs are known to show state-of-the-art level segmentation performance. We then provided two-example workflows: mitochondria segmentation using a 2D DNN as well as neuron segmentation using FFNs. Following these example workflows, users can benefit from DNN-based segmentation without any knowledge of Python programming or DNN frameworks.