KL
Konstantinos Liopyris
Author with expertise in Melanoma
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
3
(67% Open Access)
Cited by:
184
h-index:
23
/
i10-index:
40
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Skin cancer classification via convolutional neural networks: systematic review of studies involving human experts

Sarah Haggenmüller et al.Sep 8, 2021
BackgroundMultiple studies have compared the performance of artificial intelligence (AI)–based models for automated skin cancer classification to human experts, thus setting the cornerstone for a successful translation of AI-based tools into clinicopathological practice.ObjectiveThe objective of the study was to systematically analyse the current state of research on reader studies involving melanoma and to assess their potential clinical relevance by evaluating three main aspects: test set characteristics (holdout/out-of-distribution data set, composition), test setting (experimental/clinical, inclusion of metadata) and representativeness of participating clinicians.MethodsPubMed, Medline and ScienceDirect were screened for peer-reviewed studies published between 2017 and 2021 and dealing with AI-based skin cancer classification involving melanoma. The search terms skin cancer classification, deep learning, convolutional neural network (CNN), melanoma (detection), digital biomarkers, histopathology and whole slide imaging were combined. Based on the search results, only studies that considered direct comparison of AI results with clinicians and had a diagnostic classification as their main objective were included.ResultsA total of 19 reader studies fulfilled the inclusion criteria. Of these, 11 CNN-based approaches addressed the classification of dermoscopic images; 6 concentrated on the classification of clinical images, whereas 2 dermatopathological studies utilised digitised histopathological whole slide images.ConclusionsAll 19 included studies demonstrated superior or at least equivalent performance of CNN-based classifiers compared with clinicians. However, almost all studies were conducted in highly artificial settings based exclusively on single images of the suspicious lesions. Moreover, test sets mainly consisted of holdout images and did not represent the full range of patient populations and melanoma subtypes encountered in clinical practice.
0

Effect of patient‐contextual skin images in human‐ and artificial intelligence‐based diagnosis of melanoma: Results from the 2020 SIIMISIC melanoma classification challenge

Nicholas Kurtansky et al.Dec 8, 2024
Abstract Background While the high accuracy of reported AI tools for melanoma detection is promising, the lack of holistic consideration of the patient is often criticized. Along with medical history, a dermatologist would also consider intra‐patient nevi patterns, such that nevi that are different from others on a given patient are treated with suspicion. Objective To evaluate whether patient‐contextual lesion‐images improves diagnostic accuracy for melanoma in a dermoscopic image‐based AI competition and a human reader study. Methods An international online AI competition was held in 2020. The task was to classify dermoscopy images as melanoma or benign lesions. A multi‐source dataset of dermoscopy images grouped by patient were provided, and additional use of public datasets was permitted. Competitors were judged on area under the receiver operating characteristic (AUROC) on a private leaderboard. Concurrently, a human reader study was hosted using a subset of the test data. Participants gave their initial diagnosis of an index case (melanoma vs. benign) and were then presented with seven additional lesion‐images of that patient before giving a second prediction of the index case. Outcome measures were sensitivity and specificity. Results The top 50 of 3308 AI competition entries achieved AUROC scores ranging from 0.943 to 0.949. Few algorithms considered intra‐patient lesion patterns and instead most evaluated images independently. The median sensitivity and specificity of human readers before receiving contextual images were 60.0% and 86.7%, and after were 60.0% and 85.7%. Human and AI algorithm performance varied by image source. Conclusion This study provided an open‐source state‐of‐the‐art algorithm for melanoma detection that has been evaluated at multiple centres. Patient‐contextual images did not positively impact performance of AI algorithms or human readers. Providing seven contextual images and no total body image may have been insufficient to test the applicability of the intra‐patient lesion patterns.