LC
L. Conversi
Author with expertise in Galaxy Formation and Evolution in the Universe
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
40
(90% Open Access)
Cited by:
1,135
h-index:
35
/
i10-index:
79
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

TheHerschelMulti-tiered Extragalactic Survey: HerMES

Seb Oliver et al.Jul 6, 2012
+92
B
J
S
The Herschel Multi-tiered Extragalactic Survey (HerMES) is a legacy programme designed to map a set of nested fields totalling ∼380 deg2. Fields range in size from 0.01 to ∼20 deg2, using the Herschel-Spectral and Photometric Imaging Receiver (SPIRE) (at 250, 350 and 500 μm) and the Herschel-Photodetector Array Camera and Spectrometer (PACS) (at 100 and 160 μm), with an additional wider component of 270 deg2 with SPIRE alone. These bands cover the peak of the redshifted thermal spectral energy distribution from interstellar dust and thus capture the reprocessed optical and ultraviolet radiation from star formation that has been absorbed by dust, and are critical for forming a complete multiwavelength understanding of galaxy formation and evolution.
0

Euclid preparation

Alain Blanchard et al.Oct 1, 2020
+145
C
S
A
Aims. The Euclid space telescope will measure the shapes and redshifts of galaxies to reconstruct the expansion history of the Universe and the growth of cosmic structures. The estimation of the expected performance of the experiment, in terms of predicted constraints on cosmological parameters, has so far relied on various individual methodologies and numerical implementations, which were developed for different observational probes and for the combination thereof. In this paper we present validated forecasts, which combine both theoretical and observational ingredients for different cosmological probes. This work is presented to provide the community with reliable numerical codes and methods for Euclid cosmological forecasts. Methods. We describe in detail the methods adopted for Fisher matrix forecasts, which were applied to galaxy clustering, weak lensing, and the combination thereof. We estimated the required accuracy for Euclid forecasts and outline a methodology for their development. We then compare and improve different numerical implementations, reaching uncertainties on the errors of cosmological parameters that are less than the required precision in all cases. Furthermore, we provide details on the validated implementations, some of which are made publicly available, in different programming languages, together with a reference training-set of input and output matrices for a set of specific models. These can be used by the reader to validate their own implementations if required. Results. We present new cosmological forecasts for Euclid . We find that results depend on the specific cosmological model and remaining freedom in each setting, for example flat or non-flat spatial cosmologies, or different cuts at non-linear scales. The numerical implementations are now reliable for these settings. We present the results for an optimistic and a pessimistic choice for these types of settings. We demonstrate that the impact of cross-correlations is particularly relevant for models beyond a cosmological constant and may allow us to increase the dark energy figure of merit by at least a factor of three.
0

Euclid preparation: IX. EuclidEmulator2 – power spectrum emulation with massive neutrinos and self-consistent dark energy perturbations

Mischa Knabenhans et al.May 14, 2021
+128
D
J
M
We present a new, updated version of the EuclidEmulator (called EuclidEmulator2), a fast and accurate predictor for the nonlinear correction of the matter power spectrum. Percent-level accurate emulation is now supported in the eight-dimensional parameter space of $w_0w_a$CDM$+\sum m_\nu$models between redshift $z=0$ and $z=3$ for spatial scales within the range 0.01 $h$/Mpc $\leq k \leq$ 10 $h$/Mpc. In order to achieve this level of accuracy, we have had to improve the quality of the underlying N-body simulations used as training data: (1) we use self-consistent linear evolution of non-dark matter species such as massive neutrinos, photons, dark energy and the metric field, (2) we perform the simulations in the so-called N-body gauge, which allows one to interpret the results in the framework of general relativity, (3) we run over 250 high-resolution simulations with $3000^3$ particles in boxes of 1 (Gpc/$h$)${}^3$ volumes based on paired-and-fixed initial conditions and (4) we provide a resolution correction that can be applied to emulated results as a post-processing step in order to drastically reduce systematic biases on small scales due to residual resolution effects in the simulations. We find that the inclusion of the dynamical dark energy parameter $w_a$ significantly increases the complexity and expense of creating the emulator. The high fidelity of EuclidEmulator2 is tested in various comparisons against N-body simulations as well as alternative fast predictors like Halofit, HMCode and CosmicEmu. A blind test is successfully performed against the Euclid Flagship v2.0 simulation. Nonlinear correction factors emulated with EuclidEmulator2 are accurate at the level of 1% or better for 0.01 $h$/Mpc $\leq k \leq$ 10 $h$/Mpc and $z\leq3$ compared to high-resolution dark matter only simulations. EuclidEmulator2 is publicly available at https://github.com/miknab/EuclidEmulator2 .
0

Euclid: Forecast constraints on the cosmic distance duality relation with complementary external probes

Matteo Martinelli et al.Dec 1, 2020
+78
S
C
M
Context. In metric theories of gravity with photon number conservation, the luminosity and angular diameter distances are related via the Etherington relation, also known as the distance duality relation (DDR). A violation of this relation would rule out the standard cosmological paradigm and point to the presence of new physics. Aims. We quantify the ability of Euclid , in combination with contemporary surveys, to improve the current constraints on deviations from the DDR in the redshift range 0 < z < 1.6. Methods. We start with an analysis of the latest available data, improving previously reported constraints by a factor of 2.5. We then present a detailed analysis of simulated Euclid and external data products, using both standard parametric methods (relying on phenomenological descriptions of possible DDR violations) and a machine learning reconstruction using genetic algorithms. Results. We find that for parametric methods Euclid can (in combination with external probes) improve current constraints by approximately a factor of six, while for non-parametric methods Euclid can improve current constraints by a factor of three. Conclusions. Our results highlight the importance of surveys like Euclid in accurately testing the pillars of the current cosmological paradigm and constraining physics beyond the standard cosmological model.
0
Citation23
0
Save
0

Euclid: Constraining dark energy coupled to electromagnetism using astrophysical and laboratory data

Matteo Martinelli et al.Oct 1, 2021
+86
S
C
M
In physically realistic scalar-field based dynamical dark energy models (including, e.g., quintessence) one naturally expects the scalar field to couple to the rest of the model's degrees of freedom. In particular, a coupling to the electromagnetic sector leads to a time (redshift) dependence of the fine-structure constant and a violation of the Weak Equivalence Principle. Here we extend the previous Euclid forecast constraints on dark energy models to this enlarged (but physically more realistic) parameter space, and forecast how well Euclid, together with high-resolution spectroscopic data and local experiments, can constrain these models. Our analysis combines simulated Euclid data products with astrophysical measurements of the fine-structure constant, $\alpha$, and local experimental constraints, and includes both parametric and non-parametric methods. For the astrophysical measurements of $\alpha$ we consider both the currently available data and a simulated dataset representative of Extremely Large Telescope measurements and expected to be available in the 2030s. Our parametric analysis shows that in the latter case the inclusion of astrophysical and local data improves the Euclid dark energy figure of merit by between $8\%$ and $26\%$, depending on the correct fiducial model, with the improvements being larger in the null case where the fiducial coupling to the electromagnetic sector is vanishing. These improvements would be smaller with the current astrophysical data. Moreover, we illustrate how a genetic algorithms based reconstruction provides a null test for the presence of the coupling. Our results highlight the importance of complementing surveys like Euclid with external data products, in order to accurately test the wider parameter spaces of physically motivated paradigms.
0

Euclid preparation

V. Guglielmo et al.Oct 1, 2020
+137
F
R
V
The Complete Calibration of the Colour-Redshift Relation survey (C3R2) is a spectroscopic effort involving ESO and Keck facilities designed to empirically calibrate the galaxy colour-redshift relation - P(z|C) to the Euclid depth (i_AB=24.5) and is intimately linked to upcoming Stage IV dark energy missions based on weak lensing cosmology. The aim is to build a spectroscopic calibration sample that is as representative as possible of the galaxies of the Euclid weak lensing sample. In order to minimise the number of spectroscopic observations to fill the gaps in current knowledge of the P(z|C), self-organising map (SOM) representations of the galaxy colour space have been constructed. Here we present the first results of an ESO@ VLT Large Programme approved in the context of C3R2, which makes use of the two VLT optical and near-infrared multi-object spectrographs, FORS2 and KMOS. This paper focuses on high-quality spectroscopic redshifts of high-z galaxies observed with the KMOS spectrograph in the H- and K-bands. A total of 424 highly-reliable z are measured in the 1.3<=z<=2.5 range, with total success rates of 60.7% in the H-band and 32.8% in the K-band. The newly determined z fill 55% of high and 35% of lower priority empty SOM grid cells. We measured Halpha fluxes in a 1."2 radius aperture from the spectra of the spectroscopically confirmed galaxies and converted them into star formation rates. In addition, we performed an SED fitting analysis on the same sample in order to derive stellar masses, E(B-V), total magnitudes, and SFRs. We combine the results obtained from the spectra with those derived via SED fitting, and we show that the spectroscopic failures come from either weakly star-forming galaxies (at z<1.7, i.e. in the H-band) or low S/N spectra (in the K-band) of z>2 galaxies.
0

Euclid: The reduced shear approximation and magnification bias for Stage IV cosmic shear experiments

Anurag Deshpande et al.Apr 1, 2020
+67
V
T
A
Stage IV weak lensing experiments will offer more than an order of magnitude leap in precision. We must therefore ensure that our analyses remain accurate in this new era. Accordingly, previously ignored systematic effects must be addressed. In this work, we evaluate the impact of the reduced shear approximation and magnification bias, on the information obtained from the angular power spectrum. To first-order, the statistics of reduced shear, a combination of shear and convergence, are taken to be equal to those of shear. However, this approximation can induce a bias in the cosmological parameters that can no longer be neglected. A separate bias arises from the statistics of shear being altered by the preferential selection of galaxies and the dilution of their surface densities, in high-magnification regions. The corrections for these systematic effects take similar forms, allowing them to be treated together. We calculated the impact of neglecting these effects on the cosmological parameters that would be determined from Euclid, using cosmic shear tomography. To do so, we employed the Fisher matrix formalism, and included the impact of the super-sample covariance. We also demonstrate how the reduced shear correction can be calculated using a lognormal field forward modelling approach. These effects cause significant biases in Omega_m, sigma_8, n_s, Omega_DE, w_0, and w_a of -0.53 sigma, 0.43 sigma, -0.34 sigma, 1.36 sigma, -0.68 sigma, and 1.21 sigma, respectively. We then show that these lensing biases interact with another systematic: the intrinsic alignment of galaxies. Accordingly, we develop the formalism for an intrinsic alignment-enhanced lensing bias correction. Applying this to Euclid, we find that the additional terms introduced by this correction are sub-dominant.
0

Euclid: Impact of non-linear and baryonic feedback prescriptions on cosmological parameter estimation from weak lensing cosmic shear

Matteo Martinelli et al.May 1, 2021
+88
M
I
M
Upcoming surveys will map the growth of large-scale structure with unprecented precision, improving our understanding of the dark sector of the Universe. Unfortunately, much of the cosmological information is encoded by the small scales, where the clustering of dark matter and the effects of astrophysical feedback processes are not fully understood. This can bias the estimates of cosmological parameters, which we study here for a joint analysis of mock Euclid cosmic shear and Planck cosmic microwave background data. We use different implementations for the modelling of the signal on small scales and find that they result in significantly different predictions. Moreover, the different nonlinear corrections lead to biased parameter estimates, especially when the analysis is extended into the highly nonlinear regime, with both the Hubble constant, $H_0$, and the clustering amplitude, $σ_8$, affected the most. Improvements in the modelling of nonlinear scales will therefore be needed if we are to resolve the current tension with more and better data. For a given prescription for the nonlinear power spectrum, using different corrections for baryon physics does not significantly impact the precision of Euclid, but neglecting these correction does lead to large biases in the cosmological parameters. In order to extract precise and unbiased constraints on cosmological parameters from Euclid cosmic shear data, it is therefore essential to improve the accuracy of the recipes that account for nonlinear structure formation, as well as the modelling of the impact of astrophysical processes that redistribute the baryons.
0

Euclidpreparation

A. Pocino et al.Nov 1, 2021
+148
F
I
A
The accuracy of photometric redshifts (photo-zs) particularly affects the results of the analyses of galaxy clustering with photometrically-selected galaxies (GCph) and weak lensing. In the next decade, space missions like Euclid will collect photometric measurements for millions of galaxies. These data should be complemented with upcoming ground-based observations to derive precise and accurate photo-zs. In this paper, we explore how the tomographic redshift binning and depth of ground-based observations will affect the cosmological constraints expected from Euclid. We focus on GCph and extend the study to include galaxy-galaxy lensing (GGL). We add a layer of complexity to the analysis by simulating several realistic photo-z distributions based on the Euclid Consortium Flagship simulation and using a machine learning photo-z algorithm. We use the Fisher matrix formalism and these galaxy samples to study the cosmological constraining power as a function of redshift binning, survey depth, and photo-z accuracy. We find that bins with equal width in redshift provide a higher Figure of Merit (FoM) than equipopulated bins and that increasing the number of redshift bins from 10 to 13 improves the FoM by 35% and 15% for GCph and its combination with GGL, respectively. For GCph, an increase of the survey depth provides a higher FoM. But the addition of faint galaxies beyond the limit of the spectroscopic training data decreases the FoM due to the spurious photo-zs. When combining both probes, the number density of the sample, which is set by the survey depth, is the main factor driving the variations in the FoM. We conclude that there is more information that can be extracted beyond the nominal 10 tomographic redshift bins of Euclid and that we should be cautious when adding faint galaxies into our sample, since they can degrade the cosmological constraints.
0

Euclid: The importance of galaxy clustering and weak lensing cross-correlations within the photometric Euclid survey

I. Tutusaus et al.Nov 1, 2020
+88
V
M
I
The data from the Euclid mission will enable the measurement of the photometric redshifts, angular positions, and weak lensing shapes for over a billion galaxies. This large dataset will allow for cosmological analyses using the angular clustering of galaxies and cosmic shear. The cross-correlation (XC) between these probes can tighten constraints and it is therefore important to quantify their impact for Euclid. In this study we carefully quantify the impact of XC not only on the final parameter constraints for different cosmological models, but also on the nuisance parameters. In particular, we aim at understanding the amount of additional information that XC can provide for parameters encoding systematic effects, such as galaxy bias or intrinsic alignments (IA). We follow the formalism presented in Euclid Collaboration: Blanchard et al. (2019) and make use of the codes validated therein. We show that XC improves the dark energy Figure of Merit (FoM) by a factor $\sim 5$, whilst it also reduces the uncertainties on galaxy bias by $\sim 17\%$ and the uncertainties on IA by a factor $\sim 4$. We observe that the role of XC on the final parameter constraints is qualitatively the same irrespective of the galaxy bias model used. We also show that XC can help in distinguishing between different IA models, and that if IA terms are neglected then this can lead to significant biases on the cosmological parameters. We find that the XC terms are necessary to extract the full information content from the data in future analyses. They help in better constraining the cosmological model, and lead to a better understanding of the systematic effects that contaminate these probes. Furthermore, we find that XC helps in constraining the mean of the photometric-redshift distributions, but it requires a more precise knowledge of this mean in order not to degrade the final FoM. [Abridged]
Load More