AS
A. Secroun
Author with expertise in Galaxy Formation and Evolution in the Universe
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
30
(97% Open Access)
Cited by:
1,110
h-index:
24
/
i10-index:
55
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

The Dark Energy Survey: Data Release 1

T. Abbott et al.Nov 26, 2018
We describe the first public data release of the Dark Energy Survey, DES DR1, consisting of reduced single-epoch images, co-added images, co-added source catalogs, and associated products and services assembled over the first 3 yr of DES science operations. DES DR1 is based on optical/near-infrared imaging from 345 distinct nights (2013 August to 2016 February) by the Dark Energy Camera mounted on the 4 m Blanco telescope at the Cerro Tololo Inter-American Observatory in Chile. We release data from the DES wide-area survey covering ∼5000 deg2 of the southern Galactic cap in five broad photometric bands, grizY. DES DR1 has a median delivered point-spread function of , r = 0.96, i = 0.88, z = 0.84, and Y = 090 FWHM, a photometric precision of <1% in all bands, and an astrometric precision of 151 . The median co-added catalog depth for a 195 diameter aperture at signal-to-noise ratio (S/N) = 10 is g = 24.33, r = 24.08, i = 23.44, z = 22.69, and Y = 21.44 . DES DR1 includes nearly 400 million distinct astronomical objects detected in ∼10,000 co-add tiles of size 0.534 deg2 produced from ∼39,000 individual exposures. Benchmark galaxy and stellar samples contain ∼310 million and ∼80 million objects, respectively, following a basic object quality selection. These data are accessible through a range of interfaces, including query web clients, image cutout servers, jupyter notebooks, and an interactive co-add image visualization tool. DES DR1 constitutes the largest photometric data set to date at the achieved depth and photometric precision.
0

Euclid preparation

Alain Blanchard et al.Jul 28, 2020
The Euclid space telescope will measure the shapes and redshifts of galaxies to reconstruct the expansion history of the Universe and the growth of cosmic structures. Estimation of the expected performance of the experiment, in terms of predicted constraints on cosmological parameters, has so far relied on different methodologies and numerical implementations, developed for different observational probes and for their combination. In this paper we present validated forecasts, that combine both theoretical and observational expertise for different cosmological probes. This is presented to provide the community with reliable numerical codes and methods for Euclid cosmological forecasts. We describe in detail the methodology adopted for Fisher matrix forecasts, applied to galaxy clustering, weak lensing and their combination. We estimate the required accuracy for Euclid forecasts and outline a methodology for their development. We then compare and improve different numerical implementations, reaching uncertainties on the errors of cosmological parameters that are less than the required precision in all cases. Furthermore, we provide details on the validated implementations that can be used by the reader to validate their own codes if required. We present new cosmological forecasts for Euclid. We find that results depend on the specific cosmological model and remaining freedom in each setup, i.e. flat or non-flat spatial cosmologies, or different cuts at nonlinear scales. The validated numerical implementations can now be reliably used for any setup. We present results for an optimistic and a pessimistic choice of such settings. We demonstrate that the impact of cross-correlations is particularly relevant for models beyond a cosmological constant and may allow us to increase the dark energy Figure of Merit by at least a factor of three.
0

Euclid preparation: IX. EuclidEmulator2 – power spectrum emulation with massive neutrinos and self-consistent dark energy perturbations

Mischa Knabenhans et al.May 14, 2021
We present a new, updated version of the EuclidEmulator (called EuclidEmulator2), a fast and accurate predictor for the nonlinear correction of the matter power spectrum. Percent-level accurate emulation is now supported in the eight-dimensional parameter space of $w_0w_a$CDM$+\sum m_\nu$models between redshift $z=0$ and $z=3$ for spatial scales within the range 0.01 $h$/Mpc $\leq k \leq$ 10 $h$/Mpc. In order to achieve this level of accuracy, we have had to improve the quality of the underlying N-body simulations used as training data: (1) we use self-consistent linear evolution of non-dark matter species such as massive neutrinos, photons, dark energy and the metric field, (2) we perform the simulations in the so-called N-body gauge, which allows one to interpret the results in the framework of general relativity, (3) we run over 250 high-resolution simulations with $3000^3$ particles in boxes of 1 (Gpc/$h$)${}^3$ volumes based on paired-and-fixed initial conditions and (4) we provide a resolution correction that can be applied to emulated results as a post-processing step in order to drastically reduce systematic biases on small scales due to residual resolution effects in the simulations. We find that the inclusion of the dynamical dark energy parameter $w_a$ significantly increases the complexity and expense of creating the emulator. The high fidelity of EuclidEmulator2 is tested in various comparisons against N-body simulations as well as alternative fast predictors like Halofit, HMCode and CosmicEmu. A blind test is successfully performed against the Euclid Flagship v2.0 simulation. Nonlinear correction factors emulated with EuclidEmulator2 are accurate at the level of 1% or better for 0.01 $h$/Mpc $\leq k \leq$ 10 $h$/Mpc and $z\leq3$ compared to high-resolution dark matter only simulations. EuclidEmulator2 is publicly available at https://github.com/miknab/EuclidEmulator2 .
0

Euclid preparation

G. Desprez et al.Nov 25, 2020
Forthcoming large photometric surveys for cosmology require precise and accurate photometric redshift (photo- z ) measurements for the success of their main science objectives. However, to date, no method has been able to produce photo- z s at the required accuracy using only the broad-band photometry that those surveys will provide. An assessment of the strengths and weaknesses of current methods is a crucial step in the eventual development of an approach to meet this challenge. We report on the performance of 13 photometric redshift code single value redshift estimates and redshift probability distributions (PDZs) on a common set of data, focusing particularly on the 0.2 − 2.6 redshift range that the Euclid mission will probe. We designed a challenge using emulated Euclid data drawn from three photometric surveys of the COSMOS field. The data was divided into two samples: one calibration sample for which photometry and redshifts were provided to the participants; and the validation sample, containing only the photometry to ensure a blinded test of the methods. Participants were invited to provide a redshift single value estimate and a PDZ for each source in the validation sample, along with a rejection flag that indicates the sources they consider unfit for use in cosmological analyses. The performance of each method was assessed through a set of informative metrics, using cross-matched spectroscopic and highly-accurate photometric redshifts as the ground truth. We show that the rejection criteria set by participants are efficient in removing strong outliers, that is to say sources for which the photo- z deviates by more than 0.15(1 + z ) from the spectroscopic-redshift (spec- z ). We also show that, while all methods are able to provide reliable single value estimates, several machine-learning methods do not manage to produce useful PDZs. We find that no machine-learning method provides good results in the regions of galaxy color-space that are sparsely populated by spectroscopic-redshifts, for example z > 1. However they generally perform better than template-fitting methods at low redshift ( z < 0.7), indicating that template-fitting methods do not use all of the information contained in the photometry. We introduce metrics that quantify both photo- z precision and completeness of the samples (post-rejection), since both contribute to the final figure of merit of the science goals of the survey (e.g., cosmic shear from Euclid ). Template-fitting methods provide the best results in these metrics, but we show that a combination of template-fitting results and machine-learning results with rejection criteria can outperform any individual method. On this basis, we argue that further work in identifying how to best select between machine-learning and template-fitting approaches for each individual galaxy should be pursued as a priority.
0

Euclid: Forecast constraints on the cosmic distance duality relation with complementary external probes

Matteo Martinelli et al.Dec 1, 2020
Context. In metric theories of gravity with photon number conservation, the luminosity and angular diameter distances are related via the Etherington relation, also known as the distance duality relation (DDR). A violation of this relation would rule out the standard cosmological paradigm and point to the presence of new physics. Aims. We quantify the ability of Euclid , in combination with contemporary surveys, to improve the current constraints on deviations from the DDR in the redshift range 0 < z < 1.6. Methods. We start with an analysis of the latest available data, improving previously reported constraints by a factor of 2.5. We then present a detailed analysis of simulated Euclid and external data products, using both standard parametric methods (relying on phenomenological descriptions of possible DDR violations) and a machine learning reconstruction using genetic algorithms. Results. We find that for parametric methods Euclid can (in combination with external probes) improve current constraints by approximately a factor of six, while for non-parametric methods Euclid can improve current constraints by a factor of three. Conclusions. Our results highlight the importance of surveys like Euclid in accurately testing the pillars of the current cosmological paradigm and constraining physics beyond the standard cosmological model.
0
Citation23
0
Save
0

Euclid preparation

Francesca Lepori et al.Jun 1, 2022
Aims. We investigate the importance of lensing magnification for estimates of galaxy clustering and its cross-correlation with shear for the photometric sample of Euclid . Using updated specifications, we study the impact of lensing magnification on the constraints and the shift in the estimation of the best fitting cosmological parameters that we expect if this effect is neglected. Methods. We follow the prescriptions of the official Euclid Fisher matrix forecast for the photometric galaxy clustering analysis and the combination of photometric clustering and cosmic shear. The slope of the luminosity function (local count slope), which regulates the amplitude of the lensing magnification, and the galaxy bias have been estimated from the Euclid Flagship simulation. Results. We find that magnification significantly affects both the best-fit estimation of cosmological parameters and the constraints in the galaxy clustering analysis of the photometric sample. In particular, including magnification in the analysis reduces the 1 σ errors on Ω m, 0 , w 0 , w a at the level of 20–35%, depending on how well we will be able to independently measure the local count slope. In addition, we find that neglecting magnification in the clustering analysis leads to shifts of up to 1.6 σ in the best-fit parameters. In the joint analysis of galaxy clustering, cosmic shear, and galaxy–galaxy lensing, magnification does not improve precision, but it leads to an up to 6 σ bias if neglected. Therefore, for all models considered in this work, magnification has to be included in the analysis of galaxy clustering and its cross-correlation with the shear signal (3 × 2pt analysis) for an accurate parameter estimation.
0

Euclid preparation

Alejandro Borlaff et al.Jan 1, 2022
Context. While Euclid is an ESA mission specifically designed to investigate the nature of dark energy and dark matter, the planned unprecedented combination of survey area (∼15 000 deg 2 ), spatial resolution, low sky-background, and depth also make Euclid an excellent space observatory for the study of the low surface brightness Universe. Scientific exploitation of the extended low surface brightness structures requires dedicated calibration procedures that are yet to be tested. Aims. We investigate the capabilities of Euclid to detect extended low surface brightness structure by identifying and quantifying sky-background sources and stray-light contamination. We test the feasibility of generating sky flat-fields to reduce large-scale residual gradients in order to reveal the extended emission of galaxies observed in the Euclid survey. Methods. We simulated a realistic set of Euclid /VIS observations, taking into account both instrumental and astronomical sources of contamination, including cosmic rays, stray-light, zodiacal light, interstellar medium, and the cosmic infrared background, while simulating the effects of background sources in the field of view. Results. We demonstrate that a combination of calibration lamps, sky flats, and self-calibration would enable recovery of emission at a limiting surface brightness magnitude of μ lim = 29.5 −0.27 +0.08 mag arcsec −2 (3 σ , 10 × 10 arcsec 2 ) in the Wide Survey, and it would reach regions deeper by 2 mag in the Deep Surveys. Conclusions.Euclid /VIS has the potential to be an excellent low surface brightness observatory. Covering the gap between pixel-to-pixel calibration lamp flats and self-calibration observations for large scales, the application of sky flat-fielding will enhance the sensitivity of the VIS detector at scales larger than 1″, up to the size of the field of view, enabling Euclid to detect extended surface brightness structures below μ lim = 31 mag arcsec −2 and beyond.
0

Euclid: Constraining dark energy coupled to electromagnetism using astrophysical and laboratory data

Matteo Martinelli et al.Oct 1, 2021
In physically realistic scalar-field based dynamical dark energy models (including, e.g., quintessence) one naturally expects the scalar field to couple to the rest of the model's degrees of freedom. In particular, a coupling to the electromagnetic sector leads to a time (redshift) dependence of the fine-structure constant and a violation of the Weak Equivalence Principle. Here we extend the previous Euclid forecast constraints on dark energy models to this enlarged (but physically more realistic) parameter space, and forecast how well Euclid, together with high-resolution spectroscopic data and local experiments, can constrain these models. Our analysis combines simulated Euclid data products with astrophysical measurements of the fine-structure constant, $\alpha$, and local experimental constraints, and includes both parametric and non-parametric methods. For the astrophysical measurements of $\alpha$ we consider both the currently available data and a simulated dataset representative of Extremely Large Telescope measurements and expected to be available in the 2030s. Our parametric analysis shows that in the latter case the inclusion of astrophysical and local data improves the Euclid dark energy figure of merit by between $8\%$ and $26\%$, depending on the correct fiducial model, with the improvements being larger in the null case where the fiducial coupling to the electromagnetic sector is vanishing. These improvements would be smaller with the current astrophysical data. Moreover, we illustrate how a genetic algorithms based reconstruction provides a null test for the presence of the coupling. Our results highlight the importance of complementing surveys like Euclid with external data products, in order to accurately test the wider parameter spaces of physically motivated paradigms.
0

Euclid preparation

V. Guglielmo et al.Oct 1, 2020
The Complete Calibration of the Colour-Redshift Relation survey (C3R2) is a spectroscopic effort involving ESO and Keck facilities designed to empirically calibrate the galaxy colour-redshift relation - P(z|C) to the Euclid depth (i_AB=24.5) and is intimately linked to upcoming Stage IV dark energy missions based on weak lensing cosmology. The aim is to build a spectroscopic calibration sample that is as representative as possible of the galaxies of the Euclid weak lensing sample. In order to minimise the number of spectroscopic observations to fill the gaps in current knowledge of the P(z|C), self-organising map (SOM) representations of the galaxy colour space have been constructed. Here we present the first results of an ESO@ VLT Large Programme approved in the context of C3R2, which makes use of the two VLT optical and near-infrared multi-object spectrographs, FORS2 and KMOS. This paper focuses on high-quality spectroscopic redshifts of high-z galaxies observed with the KMOS spectrograph in the H- and K-bands. A total of 424 highly-reliable z are measured in the 1.3<=z<=2.5 range, with total success rates of 60.7% in the H-band and 32.8% in the K-band. The newly determined z fill 55% of high and 35% of lower priority empty SOM grid cells. We measured Halpha fluxes in a 1."2 radius aperture from the spectra of the spectroscopically confirmed galaxies and converted them into star formation rates. In addition, we performed an SED fitting analysis on the same sample in order to derive stellar masses, E(B-V), total magnitudes, and SFRs. We combine the results obtained from the spectra with those derived via SED fitting, and we show that the spectroscopic failures come from either weakly star-forming galaxies (at z<1.7, i.e. in the H-band) or low S/N spectra (in the K-band) of z>2 galaxies.
0

Euclid: The importance of galaxy clustering and weak lensing cross-correlations within the photometric Euclid survey

I. Tutusaus et al.Nov 1, 2020
The data from the Euclid mission will enable the measurement of the photometric redshifts, angular positions, and weak lensing shapes for over a billion galaxies. This large dataset will allow for cosmological analyses using the angular clustering of galaxies and cosmic shear. The cross-correlation (XC) between these probes can tighten constraints and it is therefore important to quantify their impact for Euclid. In this study we carefully quantify the impact of XC not only on the final parameter constraints for different cosmological models, but also on the nuisance parameters. In particular, we aim at understanding the amount of additional information that XC can provide for parameters encoding systematic effects, such as galaxy bias or intrinsic alignments (IA). We follow the formalism presented in Euclid Collaboration: Blanchard et al. (2019) and make use of the codes validated therein. We show that XC improves the dark energy Figure of Merit (FoM) by a factor $\sim 5$, whilst it also reduces the uncertainties on galaxy bias by $\sim 17\%$ and the uncertainties on IA by a factor $\sim 4$. We observe that the role of XC on the final parameter constraints is qualitatively the same irrespective of the galaxy bias model used. We also show that XC can help in distinguishing between different IA models, and that if IA terms are neglected then this can lead to significant biases on the cosmological parameters. We find that the XC terms are necessary to extract the full information content from the data in future analyses. They help in better constraining the cosmological model, and lead to a better understanding of the systematic effects that contaminate these probes. Furthermore, we find that XC helps in constraining the mean of the photometric-redshift distributions, but it requires a more precise knowledge of this mean in order not to degrade the final FoM. [Abridged]
Load More