SM
Simona Moldovanu
Author with expertise in Autofocusing in Microscopy and Photography
Achievements
This user has not unlocked any achievements yet.
Key Stats
Upvotes received:
0
Publications:
6
(33% Open Access)
Cited by:
2
h-index:
16
/
i10-index:
26
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Convolutional Neural Network–Machine Learning Model: Hybrid Model for Meningioma Tumour and Healthy Brain Classification

Simona Moldovanu et al.Sep 20, 2024
This paper presents a hybrid study of convolutional neural networks (CNNs), machine learning (ML), and transfer learning (TL) in the context of brain magnetic resonance imaging (MRI). The anatomy of the brain is very complex; inside the skull, a brain tumour can form in any part. With MRI technology, cross-sectional images are generated, and radiologists can detect the abnormalities. When the size of the tumour is very small, it is undetectable to the human visual system, necessitating alternative analysis using AI tools. As is widely known, CNNs explore the structure of an image and provide features on the SoftMax fully connected (SFC) layer, and the classification of the items that belong to the input classes is established. Two comparison studies for the classification of meningioma tumours and healthy brains are presented in this paper: (i) classifying MRI images using an original CNN and two pre-trained CNNs, DenseNet169 and EfficientNetV2B0; (ii) determining which CNN and ML combination yields the most accurate classification when SoftMax is replaced with three ML models; in this context, Random Forest (RF), K-Nearest Neighbors (KNN), and Support Vector Machine (SVM) were proposed. In a binary classification of tumours and healthy brains, the EfficientNetB0-SVM combination shows an accuracy of 99.5% on the test dataset. A generalisation of the results was performed, and overfitting was prevented by using the bagging ensemble method.
0

Detection of Detonators in Baggage Using Deep CNN Architecture: A Comparative Study of Contrast Enhancement and Feature Extraction Methods

Oulhissane Lynda et al.Apr 21, 2024
Visual inspection of dual-energy X-ray radiographic images of cabin baggage requires high performance, but is hindered by various challenges such as low target prevalence, variability in target visibility, possible presence of multiple targets, and security personnel fatigue and inattention. Artificial intelligence (AI) techniques, particularly deep convolutional neural networks (CNNs), have shown promise in improving the automatic detection of explosives, even with low-resolution radiographic images, especially in high baggage throughput scenarios. In this paper, we focus on the detection of detonators as components of improvised explosive devices. The proposed approach involves comparing two experiments implemented in a deep CNN architecture using TensorFlow and Keras libraries. In the first experiment, raw dual-energy radiographic images without any enhancement were used. The second experiment includes three methods for contrast enhancement and feature extraction: the Contrast Limited Adaptive Histogram Equalization (CLAHE) method, the wavelet transform-based method, and the mixed CLAHE RGB-Wavelet method. In the latter two methods, Haar, Db2, Coif2, and Sym2 mother wavelet functions at two levels (HH and HL) were employed. The analysis of results focuses on a comparative study of performance measures such as accuracy, precision, recall, and F1 score. It was found that the preprocessing methods used in experiment 2, for the two evaluated classes (detonator and no detonator), achieved higher accuracy compared to the raw radiographic images used in experiment 1 (98.08%). The highest accuracies in experiment 2, with a value of 100%, were obtained with the CLAHE method (green channel in grayscale, blue channel in grayscale, and RGB channels) and the wavelet transform method with Haar mother wavelet at two levels HL