TT
Tímea Tóth
Author with expertise in Advanced Techniques in Bioimage Analysis and Microscopy
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
7
(43% Open Access)
Cited by:
497
h-index:
18
/
i10-index:
21
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

GJB2 Mutations and Degree of Hearing Loss: A Multicenter Study

Rikkert Snoeckx et al.Nov 7, 2005
+61
D
P
R
Hearing impairment (HI) affects 1 in 650 newborns, which makes it the most common congenital sensory impairment. Despite extraordinary genetic heterogeneity, mutations in one gene, GJB2, which encodes the connexin 26 protein and is involved in inner ear homeostasis, are found in up to 50% of patients with autosomal recessive nonsyndromic hearing loss. Because of the high frequency of GJB2 mutations, mutation analysis of this gene is widely available as a diagnostic test. In this study, we assessed the association between genotype and degree of hearing loss in persons with HI and biallelic GJB2 mutations. We performed cross-sectional analyses of GJB2 genotype and audiometric data from 1,531 persons, from 16 different countries, with autosomal recessive, mild-to-profound nonsyndromic HI. The median age of all participants was 8 years; 90% of persons were within the age range of 0–26 years. Of the 83 different mutations identified, 47 were classified as nontruncating, and 36 as truncating. A total of 153 different genotypes were found, of which 56 were homozygous truncating (T/T), 30 were homozygous nontruncating (NT/NT), and 67 were compound heterozygous truncating/nontruncating (T/NT). The degree of HI associated with biallelic truncating mutations was significantly more severe than the HI associated with biallelic nontruncating mutations (P<.0001). The HI of 48 different genotypes was less severe than that of 35delG homozygotes. Several common mutations (M34T, V37I, and L90P) were associated with mild-to-moderate HI (median 25–40 dB). Two genotypes—35delG/R143W (median 105 dB) and 35delG/dela(GJB6-D13S1830) (median 108 dB)—had significantly more-severe HI than that of 35delG homozygotes. Hearing impairment (HI) affects 1 in 650 newborns, which makes it the most common congenital sensory impairment. Despite extraordinary genetic heterogeneity, mutations in one gene, GJB2, which encodes the connexin 26 protein and is involved in inner ear homeostasis, are found in up to 50% of patients with autosomal recessive nonsyndromic hearing loss. Because of the high frequency of GJB2 mutations, mutation analysis of this gene is widely available as a diagnostic test. In this study, we assessed the association between genotype and degree of hearing loss in persons with HI and biallelic GJB2 mutations. We performed cross-sectional analyses of GJB2 genotype and audiometric data from 1,531 persons, from 16 different countries, with autosomal recessive, mild-to-profound nonsyndromic HI. The median age of all participants was 8 years; 90% of persons were within the age range of 0–26 years. Of the 83 different mutations identified, 47 were classified as nontruncating, and 36 as truncating. A total of 153 different genotypes were found, of which 56 were homozygous truncating (T/T), 30 were homozygous nontruncating (NT/NT), and 67 were compound heterozygous truncating/nontruncating (T/NT). The degree of HI associated with biallelic truncating mutations was significantly more severe than the HI associated with biallelic nontruncating mutations (P<.0001). The HI of 48 different genotypes was less severe than that of 35delG homozygotes. Several common mutations (M34T, V37I, and L90P) were associated with mild-to-moderate HI (median 25–40 dB). Two genotypes—35delG/R143W (median 105 dB) and 35delG/dela(GJB6-D13S1830) (median 108 dB)—had significantly more-severe HI than that of 35delG homozygotes.
0
Citation497
0
Save
0

Show me your neighbours, and I'll tell you what you are - cellular microenvironment matters

Tímea Tóth et al.Dec 8, 2017
+7
T
F
T
To answer major questions of cell biology, it is essential to understand cellular complexity. Modern automated microscopes produce vast amounts of images routinely, making manual analysis nearly impossible. Due to their efficiency, machine learning-based analysis software have become essential tools to perform single-cell-level phenotypic analysis of large imaging datasets. However, an important limitation of such methods is that they do not use the information gained from the cellular micro- and macroenvironment: the algorithmic decision is based solely on the local properties of the cell of interest. Here, we present how various microenvironmental features contribute to identifying a cell and how such additional information can improve single-cell-level phenotypic image analysis. The proposed methodology was tested for different sizes of Euclidean and nearest neighbour-based cellular environments both on tissue sections and cell cultures. Our experimental data verify that the microenvironment of a cell largely determines its entity. This effect was found to be especially strong for established tissues, while it was somewhat weaker in the case of cell cultures. Our analysis shows that combining local cellular features with the properties of the cell's microenvironment significantly improves the accuracy of machine learning-based phenotyping.
0

A deep learning framework for nucleus segmentation using image style transfer

Réka Hollandi et al.Mar 17, 2019
+21
B
C
R
Single cell segmentation is typically one of the first and most crucial tasks of image-based cellular analysis. We present a deep learning approach aiming towards a truly general method for localizing nuclei across a diverse range of assays and light microscopy modalities. We outperform the 739 methods submitted to the 2018 Data Science Bowl on images representing a variety of realistic conditions, some of which were not represented in the training data. The key to our approach is to adapt our model to unseen and unlabeled data using image style transfer to generate augmented training samples. This allows the model to recognize nuclei in new and different experiments without requiring expert annotations.
0

3D-Cell-Annotator: an open-source active surface tool for single cell segmentation in 3D microscopy images

Ervin Tasnádi et al.Jun 19, 2019
+5
M
T
E
Summary Segmentation of single cells in microscopy images is one of the major challenges in computational biology. It is the first step of most bioimage analysis tasks, and essential to create training sets for more advanced deep learning approaches. Here, we propose 3D-Cell-Annotator to solve this task using 3D active surfaces together with shape descriptors as prior information in a fully- and semi-automated fashion. The software uses the convenient 3D interface of the widely used Medical Imaging Interaction Toolkit (MITK). Results on 3D biological structures ( e.g . spheroids, organoids, embryos) show that the precision of the segmentation reaches the level of a human expert.Availability and implementation 3D-Cell-Annotator is implemented in CUDA/C++ as a patch for the segmentation module of MITK. The 3D-Cell-Annotator enabled MITK distribution can be downloaded at: [www.3D-cell-annotator.org][1]. It works under Windows 64-bit systems and recent Linux distributions even on a consumer level laptop with a CUDA-enabled video card using recent NVIDIA drivers.Contacts filippo.piccinini{at}irst.emr.it and horvath.peter{at}brc.mta.hu [1]: http://www.3D-cell-annotator.org
0

When the pen is mightier than the sword: semi-automatic 2 and 3D image labelling

Réka Hollandi et al.Jan 16, 2024
+8
M
G
R
Abstract Data is the driving engine of learning-based algorithms, the creation of which fundamentally determines the performance, accuracy, generalizability and quality of any model or method trained on it. When only skilled or trained personnel can create reliable annotations, assisted software solutions are desirable to reduce the time and effort the expert must spend on labelling. Herein is proposed an automated annotation helper software package in napari that offers multiple methods to assist the annotator in creating object-based labels on 2D or 3D images.
4

Show me your neighbour and I tell what you are: fisheye transformation for deep learning-based single-cell phenotyping

Tímea Tóth et al.Aug 25, 2022
+3
G
F
T
Abstract Recently we have concluded that image-based features derived from the microenvironment have an enormous impact on successfully determining the class of an object 1 . Here we demonstrate that deep learning-based phenotypic analysis of cells with a properly chosen microenvironment-size provides results comparable to our earlier neighbourhood-based methods that utilise hand-crafted image features. We hypothesised that treating cells with equal weight, regardless of their position within the cellular microenvironment, is suboptimal, and direct neighbours have a larger impact on the phenotype of the cell-of-interest than cells in its larger proximity. Hence we present a novel approach that (1) considers the fully featured view of the cell-of-interest, (2) includes the neighbourhood and (3) gives lesser weight to cells that are far from the cell. To achieve this, we present a transformation similar to those characteristic for fisheye cameras. Such a transformation satisfies all the above defined criteria, with a fast rate of transform for any images. Using the proposed transformation with proper settings we could significantly increase the accuracy of single-cell phenotyping, both in case of cell culture and tissue-based microscopy images. The range of potential applications of the proposed method goes beyond microscopy, as we present improved results on the iWildCam 2020 dataset containing images of wild animals.
0

HCS-3DX, a next-generation AI-driven automated 3D high-content screening system

Ákos Diósdi et al.Jul 17, 2024
+9
I
T
Á
Abstract Multicellular 3D biological models, the so-called “-oids”, are the pivot key for the new generation of high-content screening (HCS) of drug analysis, cancer research, and regenerative medicine. However, the standardisation of 3D cell culture generation, handling, imaging, and data analysis remains a challenge and lacks convincing applications. In this work, we propose HCS-3D X , a next-generation system revolutionising HCS research in 3D imaging and evaluation. HCS-3D X is based on three main components: an automated Artificial Intelligence (AI)-driven micromanipulator for oid selection, an engineered HCS foil multiwell plate for optimised imaging, and an image-based software for single-cell data analysis. The developed system was validated through different experiments with 3D tumour models, including tumour-stroma co-cultures. The results prove that the resolution achievable with HCS-3D X enables us to overcome the limitations of current systems and reliably perform 3D high-content screening (HCS) at the single-cell level.