Ali Özgür ArgunşahVerified
Verified Account
Verified
Member for 1 month and 8 days
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
43
(47% Open Access)
Cited by:
271
h-index:
11
/
i10-index:
13
Reputation
Cellular And Molecular Neuroscience
59%
Computer Vision And Pattern Recognition
57%
Human-Computer Interaction
43%
Show more
How is this calculated?
Publications
0

Nonparametric Joint Shape and Feature Priors for Image Segmentation

Ertunç Erdil et al.Jul 17, 2017
In many image segmentation problems involving limited and low-quality data, employing statistical prior information about the shapes of the objects to be segmented can significantly improve the segmentation result. However, defining probability densities in the space of shapes is an open and challenging problem, especially if the object to be segmented comes from a shape density involving multiple modes (classes). Existing techniques in the literature estimate the underlying shape distribution by extending Parzen density estimator to the space of shapes. In these methods, the evolving curve may converge to a shape from a wrong mode of the posterior density when the observed intensities provide very little information about the object boundaries. In such scenarios, employing both shape- and class-dependent discriminative feature priors can aid the segmentation process. Such features may involve, e.g., intensity-based, textural, or geometric information about the objects to be segmented. In this paper, we propose a segmentation algorithm that uses nonparametric joint shape and feature priors constructed by Parzen density estimation. We incorporate the learned joint shape and feature prior distribution into a maximum a posteriori estimation framework for segmentation. The resulting optimization problem is solved using active contours. We present experimental results on a variety of synthetic and real data sets from several fields involving multimodal shape densities. Experimental results demonstrate the potential of the proposed method.
0
Citation20
0
Save
Load More