MG
Marissa Giustina
Author with expertise in Quantum Information and Computation
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
16
(100% Open Access)
Cited by:
8,531
h-index:
29
/
i10-index:
43
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Bell violation using entangled photons without the fair-sampling assumption

Marissa Giustina et al.Apr 12, 2013
The fair-sampling loophole is closed in a Bell inequality violation experiment with entangled photons, making the photon the first physical system for which all the main loopholes have been closed. So-called Bell experiments are used to discriminate between classical ('local realistic') and quantum models of measurable phenomena. In practice, they are subject to various loopholes (arising from non-ideal experimental conditions) that can render the results inconclusive. These authors used a highly efficient source of photon pairs and superconducting transition-edge sensors in a Bell inequality experiment that closes the 'fair-sampling' loophole for entangled photons. The results conflict with local realism, while making the photon the first physical system for which each of the main loopholes has been closed, albeit in different experiments. The violation of a Bell inequality is an experimental observation that forces the abandonment of a local realistic viewpoint—namely, one in which physical properties are (probabilistically) defined before and independently of measurement, and in which no physical influence can propagate faster than the speed of light1,2. All such experimental violations require additional assumptions depending on their specific construction, making them vulnerable to so-called loopholes. Here we use entangled photons to violate a Bell inequality while closing the fair-sampling loophole, that is, without assuming that the sample of measured photons accurately represents the entire ensemble3. To do this, we use the Eberhard form of Bell’s inequality, which is not vulnerable to the fair-sampling assumption and which allows a lower collection efficiency than other forms4. Technical improvements of the photon source5,6 and high-efficiency transition-edge sensors7 were crucial for achieving a sufficiently high collection efficiency. Our experiment makes the photon the first physical system for which each of the main loopholes has been closed, albeit in different experiments.
1

Quantum approximate optimization of non-planar graph problems on a planar superconducting processor

Matthew Harrigan et al.Feb 4, 2021
We demonstrate the application of the Google Sycamore superconducting qubit quantum processor to combinatorial optimization problems with the quantum approximate optimization algorithm (QAOA). Like past QAOA experiments, we study performance for problems defined on the (planar) connectivity graph of our hardware; however, we also apply the QAOA to the Sherrington-Kirkpatrick model and MaxCut, both high dimensional graph problems for which the QAOA requires significant compilation. Experimental scans of the QAOA energy landscape show good agreement with theory across even the largest instances studied (23 qubits) and we are able to perform variational optimization successfully. For problems defined on our hardware graph we obtain an approximation ratio that is independent of problem size and observe, for the first time, that performance increases with circuit depth. For problems requiring compilation, performance decreases with problem size but still provides an advantage over random guessing for circuits involving several thousand gates. This behavior highlights the challenge of using near-term quantum computers to optimize problems on graphs differing from hardware connectivity. As these graphs are more representative of real world instances, our results advocate for more emphasis on such problems in the developing tradition of using the QAOA as a holistic, device-level benchmark of quantum processors.
0

Suppressing quantum errors by scaling a surface code logical qubit

Rajeev Acharya et al.Feb 22, 2023
Practical quantum computing will require error rates well below those achievable with physical qubits. Quantum error correction1,2 offers a path to algorithmically relevant error rates by encoding logical qubits within many physical qubits, for which increasing the number of physical qubits enhances protection against physical errors. However, introducing more qubits also increases the number of error sources, so the density of errors must be sufficiently low for logical performance to improve with increasing code size. Here we report the measurement of logical qubit performance scaling across several code sizes, and demonstrate that our system of superconducting qubits has sufficient performance to overcome the additional errors from increasing qubit number. We find that our distance-5 surface code logical qubit modestly outperforms an ensemble of distance-3 logical qubits on average, in terms of both logical error probability over 25 cycles and logical error per cycle ((2.914 ± 0.016)% compared to (3.028 ± 0.023)%). To investigate damaging, low-probability error sources, we run a distance-25 repetition code and observe a 1.7 × 10-6 logical error per cycle floor set by a single high-energy event (1.6 × 10-7 excluding this event). We accurately model our experiment, extracting error budgets that highlight the biggest challenges for future systems. These results mark an experimental demonstration in which quantum error correction begins to improve performance with increasing qubit number, illuminating the path to reaching the logical error rates required for computation.
0

Exponential suppression of bit or phase errors with cyclic error correction

Zijun Chen et al.Jul 14, 2021
Realizing the potential of quantum computing requires sufficiently low logical error rates1. Many applications call for error rates as low as 10-15 (refs. 2-9), but state-of-the-art quantum platforms typically have physical error rates near 10-3 (refs. 10-14). Quantum error correction15-17 promises to bridge this divide by distributing quantum logical information across many physical qubits in such a way that errors can be detected and corrected. Errors on the encoded logical qubit state can be exponentially suppressed as the number of physical qubits grows, provided that the physical error rates are below a certain threshold and stable over the course of a computation. Here we implement one-dimensional repetition codes embedded in a two-dimensional grid of superconducting qubits that demonstrate exponential suppression of bit-flip or phase-flip errors, reducing logical error per round more than 100-fold when increasing the number of qubits from 5 to 21. Crucially, this error suppression is stable over 50 rounds of error correction. We also introduce a method for analysing error correlations with high precision, allowing us to characterize error locality while performing quantum error correction. Finally, we perform error detection with a small logical qubit using the 2D surface code on the same device18,19 and show that the results from both one- and two-dimensional codes agree with numerical simulations that use a simple depolarizing error model. These experimental demonstrations provide a foundation for building a scalable fault-tolerant quantum computer with superconducting qubits.
Load More