MU
Michaël Unser
Author with expertise in Image Denoising Techniques and Algorithms
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
37
(62% Open Access)
Cited by:
17,564
h-index:
104
/
i10-index:
448
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

A pyramid approach to subpixel registration based on intensity

P. Thévenaz et al.Jan 1, 1998
M
U
P
We present an automatic subpixel registration algorithm that minimizes the mean square intensity difference between a reference and a test data set, which can be either images (two-dimensional) or volumes (three-dimensional). It uses an explicit spline representation of the images in conjunction with spline processing, and is based on a coarse-to-fine iterative strategy (pyramid approach). The minimization is performed according to a new variation (ML*) of the Marquardt-Levenberg algorithm for nonlinear least-square optimization. The geometric deformation model is a global three-dimensional (3-D) affine transformation that can be optionally restricted to rigid-body motion (rotation and translation), combined with isometric scaling. It also includes an optional adjustment of image contrast differences. We obtain excellent results for the registration of intramodality positron emission tomography (PET) and functional magnetic resonance imaging (fMRI) data. We conclude that the multiresolution refinement strategy is more robust than a comparable single-stage method, being less likely to be trapped into a false local optimum. In addition, our improved version of the Marquardt-Levenberg algorithm is faster.
0

Design and validation of a tool for neurite tracing and analysis in fluorescence microscopy images

Erik Meijering et al.Mar 15, 2004
+3
J
M
E
Abstract Background For the investigation of the molecular mechanisms involved in neurite outgrowth and differentiation, accurate and reproducible segmentation and quantification of neuronal processes are a prerequisite. To facilitate this task, we developed a semiautomatic neurite tracing technique. This article describes the design and validation of the technique. Methods The technique was compared to fully manual delineation. Four observers repeatedly traced selected neurites in 20 fluorescence microscopy images of cells in culture, using both methods. Accuracy and reproducibility were determined by comparing the tracings to high‐resolution reference tracings, using two error measures. Labor intensiveness was measured in numbers of mouse clicks required. The significance of the results was determined by a Student t ‐test and by analysis of variance. Results Both methods slightly underestimated the true neurite length, but the differences were not unanimously significant. The average deviation from the true neurite centerline was a factor 2.6 smaller with the developed technique compared to fully manual tracing. Intraobserver variability in the respective measures was reduced by a factor 6.0 and 23.2. Interobserver variability was reduced by a factor 2.4 and 8.8, respectively, and labor intensiveness by a factor 3.3. Conclusions Providing similar accuracy in measuring neurite length, significantly improved accuracy in neurite centerline extraction, and significantly improved reproducibility and reduced labor intensiveness, the developed technique may replace fully manual tracing methods. © 2004 Wiley‐Liss, Inc.
0

Sampling-50 years after Shannon

Michaël UnserApr 1, 2000
M
This paper presents an account of the current state of sampling, 50 years after Shannon's formulation of the sampling theorem.The emphasis is on regular sampling, where the grid is uniform.This topic has benefited from a strong research revival during the past few years, thanks in part to the mathematical connections that were made with wavelet theory.To introduce the reader to the modern, Hilbert-space formulation, we reinterpret Shannon's sampling procedure as an orthogonal projection onto the subspace of band-limited functions.We then extend the standard sampling paradigm for a representation of functions in the more general class of "shift-invariant" functions spaces, including splines and wavelets.Practically, this allows for simpler-and possibly more realistic-interpolation models, which can be used in conjunction with a much wider class of (anti-aliasing) prefilters that are not necessarily ideal low-pass.We summarize and discuss the results available for the determination of the approximation error and of the sampling rate when the input of the system is essentially arbitrary; e.g., nonbandlimited.We also review variations of sampling that can be understood from the same unifying perspective.These include wavelets, multiwavelets, Papoulis generalized sampling, finite elements, and frames.Irregular sampling and radial basis functions are briefly mentioned.
0

Texture classification and segmentation using wavelet frames

Michaël UnserJan 1, 1995
M
This paper describes a new approach to the characterization of texture properties at multiple scales using the wavelet transform. The analysis uses an overcomplete wavelet decomposition, which yields a description that is translation invariant. It is shown that this representation constitutes a tight frame of l/sub 2/ and that it has a fast iterative algorithm. A texture is characterized by a set of channel variances estimated at the output of the corresponding filter bank. Classification experiments with l/sub 2/ Brodatz textures indicate that the discrete wavelet frame (DWF) approach is superior to a standard (critically sampled) wavelet transform feature extraction. These results also suggest that this approach should perform better than most traditional single resolution techniques (co-occurrences, local linear transform, and the like). A detailed comparison of the classification performance of various orthogonal and biorthogonal wavelet transforms is also provided. Finally, the DWF feature extraction technique is incorporated into a simple multicomponent texture segmentation algorithm, and some illustrative examples are presented.< >
0

Experimental investigation of collagen waviness and orientation in the arterial adventitia using confocal laser scanning microscopy

Rana Rezakhaniha et al.Jul 9, 2011
+6
J
A
R
Mechanical properties of the adventitia are largely determined by the organization of collagen fibers. Measurements on the waviness and orientation of collagen, particularly at the zero-stress state, are necessary to relate the structural organization of collagen to the mechanical response of the adventitia. Using the fluorescence collagen marker CNA38-OG488 and confocal laser scanning microscopy, we imaged collagen fibers in the adventitia of rabbit common carotid arteries ex vivo. The arteries were cut open along their longitudinal axes to get the zero-stress state. We used semi-manual and automatic techniques to measure parameters related to the waviness and orientation of fibers. Our results showed that the straightness parameter (defined as the ratio between the distances of endpoints of a fiber to its length) was distributed with a beta distribution (mean value 0.72, variance 0.028) and did not depend on the mean angle orientation of fibers. Local angular density distributions revealed four axially symmetric families of fibers with mean directions of 0°, 90°, 43° and −43°, with respect to the axial direction of the artery, and corresponding circular standard deviations of 40°, 47°, 37° and 37°. The distribution of local orientations was shifted to the circumferential direction when measured in arteries at the zero-load state (intact), as compared to arteries at the zero-stress state (cut-open). Information on collagen fiber waviness and orientation, such as obtained in this study, could be used to develop structural models of the adventitia, providing better means for analyzing and understanding the mechanical properties of vascular wall.
0
Citation922
0
Save
0

B-spline signal processing. I. Theory

Michaël Unser et al.Jan 1, 1993
M
A
M
The use of continuous B-spline representations for signal processing applications such as interpolation, differentiation, filtering, noise reduction, and data compressions is considered. The B-spline coefficients are obtained through a linear transformation, which unlike other commonly used transforms is space invariant and can be implemented efficiently by linear filtering. The same property also applies for the indirect B-spline transform as well as for the evaluation of approximating representations using smoothing or least squares splines. The filters associated with these operations are fully characterized by explicitly evaluating their transfer functions for B-splines of any order. Applications to differentiation, filtering, smoothing, and least-squares approximation are examined. The extension of such operators for higher-dimensional signals such as digital images is considered.< >
0

Interpolation revisited [medical images application]

P. Thévenaz et al.Jul 1, 2000
M
P
Based on the theory of approximation, this paper presents a unified analysis of interpolation and resampling techniques. An important issue is the choice of adequate basis functions. We show that, contrary to the common belief, those that perform best are not interpolating. By opposition to traditional interpolation, we call their use generalized interpolation; they involve a prefiltering step when correctly applied. We explain why the approximation order inherent in any basis function is important to limit interpolation artifacts. The decomposition theorem states that any basis function endowed with approximation order can be expressed as the convolution of a B-spline of the same order with another function that has none. This motivates the use of splines and spline-based functions as a tunable way to keep artifacts in check without any significant cost penalty. We discuss implementation and performance issues, and we provide experimental evidence to support our claims.
0

Optimization of mutual information for multiresolution image registration

Michaël Unser et al.Jan 1, 2000
P
M
We propose a new method for the intermodal registration of images using a criterion known as mutual information. Our main contribution is an optimizer that we specifically designed for this criterion. We show that this new optimizer is well adapted to a multiresolution approach because it typically converges in fewer criterion evaluations than other optimizers. We have built a multiresolution image pyramid, along with an interpolation process, an optimizer, and the criterion itself, around the unifying concept of spline-processing. This ensures coherence in the way we model data and yields good performance. We have tested our approach in a variety of experimental conditions and report excellent results. We claim an accuracy of about a hundredth of a pixel under ideal conditions. We are also robust since the accuracy is still about a tenth of a pixel under very noisy conditions. In addition, a blind evaluation of our results compares very favorably to the work of several other researchers.
0

B-spline signal processing. II. Efficiency design and applications

Michaël Unser et al.Jan 1, 1993
M
A
M
For pt.I see ibid., vol.41, no.2, p.821-33 (1993). A class of recursive filtering algorithms for the efficient implementation of B-spline interpolation and approximation techniques is described. In terms of simplicity of realization and reduction of computational complexity, these algorithms compare favorably with conventional matrix approaches. A filtering interpretation (low-pass filter followed by an exact polynomial spline interpolator) of smoothing spline and least-squares approximation methods is proposed. These techniques are applied to the design of digital filters for cubic spline signal processing. An efficient implementation of a smoothing spline edge detector is proposed. It is also shown how to construct a cubic spline image pyramid that minimizes the loss of information in passage from one resolution level to the next. In terms of common measures of fidelity, this data structure appears to be superior to the Gaussian/Laplacian pyramid.< >
0

Low-bond axisymmetric drop shape analysis for surface tension and contact angle measurements of sessile drops

Aurélien Stalder et al.May 8, 2010
+2
T
D
A
A new method based on the Young–Laplace equation for measuring contact angles and surface tensions is presented. In this approach, a first-order perturbation technique helps to analytically solve the Young–Laplace equation according to photographic images of axisymmetric sessile drops. When appropriate, the calculated drop contour is extended by mirror symmetry so that reflection of the drop into substrate allows the detection of position of the contact points. To keep a wide range of applicability, a discretisation of the drop’s profile is not realised; instead, an optimisation of an advanced image-energy term fits an approximation of the Young–Laplace equation to drop boundaries. In addition, cubic B-spline interpolation is applied to the image of the drop to reach subpixel resolution. To demonstrate the method’s accuracy, simulated drops as well as images of liquid coal ash slags were analysed. Thanks to the high-quality image interpolation model and the image-energy term, the experiments demonstrated robust measurements over a wide variety of image types and qualities. The method was implemented in Java and is freely available [A.F. Stalder, LBADSA, Biomedical Imaging Group, EPFL, http://bigwww.epfl.ch/demo/dropanalysis].
Load More