ST
Simon Thompson
Author with expertise in Genomic Studies and Association Analyses
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
29
(72% Open Access)
Cited by:
27,892
h-index:
106
/
i10-index:
245
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Interpreting findings from Mendelian randomization using the MR-Egger method

Stephen Burgess et al.May 1, 2017
S
S
Mendelian randomization-Egger (MR-Egger) is an analysis method for Mendelian randomization using summarized genetic data. MR-Egger consists of three parts: (1) a test for directional pleiotropy, (2) a test for a causal effect, and (3) an estimate of the causal effect. While conventional analysis methods for Mendelian randomization assume that all genetic variants satisfy the instrumental variable assumptions, the MR-Egger method is able to assess whether genetic variants have pleiotropic effects on the outcome that differ on average from zero (directional pleiotropy), as well as to provide a consistent estimate of the causal effect, under a weaker assumption—the InSIDE (INstrument Strength Independent of Direct Effect) assumption. In this paper, we provide a critical assessment of the MR-Egger method with regard to its implementation and interpretation. While the MR-Egger method is a worthwhile sensitivity analysis for detecting violations of the instrumental variable assumptions, there are several reasons why causal estimates from the MR-Egger method may be biased and have inflated Type 1 error rates in practice, including violations of the InSIDE assumption and the influence of outlying variants. The issues raised in this paper have potentially serious consequences for causal inferences from the MR-Egger approach. We give examples of scenarios in which the estimates from conventional Mendelian randomization methods and MR-Egger differ, and discuss how to interpret findings in such cases.
0
Citation2,503
0
Save
0

Major Lipids, Apolipoproteins, and Risk of Vascular Disease

Agustín Cámara et al.Nov 10, 2009
+10
P
N
A

Context

Associations of major lipids and apolipoproteins with the risk of vascular disease have not been reliably quantified.

Objective

To assess major lipids and apolipoproteins in vascular risk.

Design, Setting, and Participants

Individual records were supplied on 302 430 people without initial vascular disease from 68 long-term prospective studies, mostly in Europe and North America. During 2.79 million person-years of follow-up, there were 8857 nonfatal myocardial infarctions, 3928 coronary heart disease [CHD] deaths, 2534 ischemic strokes, 513 hemorrhagic strokes, and 2536 unclassified strokes.

Main Outcome Measures

Hazard ratios (HRs), adjusted for several conventional factors, were calculated for 1-SD higher values: 0.52 loge triglyceride, 15 mg/dL high-density lipoprotein cholesterol (HDL-C), 43 mg/dL non–HDL-C, 29 mg/dL apolipoprotein AI, 29 mg/dL apolipoprotein B, and 33 mg/dL directly measured low-density lipoprotein cholesterol (LDL-C). Within-study regression analyses were adjusted for within-person variation and combined using meta-analysis.

Results

The rates of CHD per 1000 person-years in the bottom and top thirds of baseline lipid distributions, respectively, were 2.6 and 6.2 with triglyceride, 6.4 and 2.4 with HDL-C, and 2.3 and 6.7 with non–HDL-C. Adjusted HRs for CHD were 0.99 (95% CI, 0.94-1.05) with triglyceride, 0.78 (95% CI, 0.74-0.82) with HDL-C, and 1.50 (95% CI, 1.39-1.61) with non–HDL-C. Hazard ratios were at least as strong in participants who did not fast as in those who did. The HR for CHD was 0.35 (95% CI, 0.30-0.42) with a combination of 80 mg/dL lower non–HDL-C and 15 mg/dL higher HDL-C. For the subset with apolipoproteins or directly measured LDL-C, HRs were 1.50 (95% CI, 1.38-1.62) with the ratio non–HDL-C/HDL-C, 1.49 (95% CI, 1.39-1.60) with the ratio apo B/apo AI, 1.42 (95% CI, 1.06-1.91) with non–HDL-C, and 1.38 (95% CI, 1.09-1.73) with directly measured LDL-C. Hazard ratios for ischemic stroke were 1.02 (95% CI, 0.94-1.11) with triglyceride, 0.93 (95% CI, 0.84-1.02) with HDL-C, and 1.12 (95% CI, 1.04-1.20) with non–HDL-C.

Conclusion

Lipid assessment in vascular disease can be simplified by measurement of either total and HDL cholesterol levels or apolipoproteins without the need to fast and without regard to triglyceride.
0

HAEMOSTATIC FUNCTION AND ISCHAEMIC HEART DISEASE: PRINCIPAL RESULTS OF THE NORTHWICK PARK HEART STUDY

T Meade et al.Sep 1, 1986
+7
R
M
T

Abstract

 The Northwick Park Heart Study (NPHS) has investigated the thrombotic component of ischaemic heart disease (IHD) by the inclusion of measures of haemostatic function. Among 1511 white men aged between 40 and 64 at the time of recruitment, 109 subsequently experienced first major events of IHD. High levels of factor VII coagulant activity and of plasma fibrinogen were associated with increased risk, especially for events occurring within 5 years of recruitment. These associations seemed to be stronger than for cholesterol, elevations of one standard deviation in factor VII activity, fibrinogen, and cholesterol being associated with increases in the risk of an episode of IHD within 5 years of 62%, 84%, and 43% respectively. Multiple regression analyses indicated independent associations between each of the clotting factor measures and IHD but not between the blood cholesterol level and IHD incidence. The risk of IHD in those with high fibrinogen levels was greater in younger than in older men. Much of the association between smoking and IHD may be mediated through the plasma fibrinogen level. The biochemical disturbance leading to IHD may lie at least as much in the coagulation system as in the metabolism of cholesterol.
0

Explaining heterogeneity in meta-analysis: a comparison of methods

Simon Thompson et al.Oct 30, 1999
S
S
Exploring the possible reasons for heterogeneity between studies is an important aspect of conducting a meta-analysis. This paper compares a number of methods which can be used to investigate whether a particular covariate, with a value defined for each study in the meta-analysis, explains any heterogeneity. The main example is from a meta-analysis of randomized trials of serum cholesterol reduction, in which the log-odds ratio for coronary events is related to the average extent of cholesterol reduction achieved in each trial. Different forms of weighted normal errors regression and random effects logistic regression are compared. These analyses quantify the extent to which heterogeneity is explained, as well as the effect of cholesterol reduction on the risk of coronary events. In a second example, the relationship between treatment effect estimates and their precision is examined, in order to assess the evidence for publication bias. We conclude that methods which allow for an additive component of residual heterogeneity should be used. In weighted regression, a restricted maximum likelihood estimator is appropriate, although a number of other estimators are also available. Methods which use the original form of the data explicitly, for example the binomial model for observed proportions rather than assuming normality of the log-odds ratios, are now computationally feasible. Although such methods are preferable in principle, they often give similar results in practice. Copyright © 1999 John Wiley & Sons, Ltd.
0

Randomized trial to determine the effect of nebivolol on mortality and cardiovascular hospital admission in elderly patients with heart failure (SENIORS)

Marcus Flather et al.Jan 9, 2005
+15
A
M
M
Aims Large randomized trials have shown that beta-blockers reduce mortality and hospital admissions in patients with heart failure. The effects of beta-blockers in elderly patients with a broad range of left ventricular ejection fraction are uncertain. The SENIORS study was performed to assess effects of the beta-blocker, nebivolol, in patients ≥70 years, regardless of ejection fraction.
0

Production of C-reactive protein and risk of coronary events in stable and unstable angina

Eats Haverkate et al.Feb 1, 1997
+2
S
S
E
Background Inflammation is an important feature of atherosclerotic lesions, and increased production of the acute-phase reactant, C-reactive protein (CRP), is associated with a poor prognosis in severe unstable angina. We have investigated the existence and possible significance of the acute-phase responses of CRP and another sensitive reactant, serum amyloid A protein (SAA), in patients with unstable or stable angina. Methods We used new ultrasensitive immunoassays to measure CRP and SAA concentrations in plasma from 2121 outpatients with angina (1030 unstable, 743 stable, the rest atypical) enrolled in the European Concerted Action on Thrombosis and Disabilities (SCAT) Angina Pectoris Study. All patients underwent coronary angiography and extensive clinical and laboratory assessment at study entry, and were then followed up for 2 years. All suspected coronary events during follow-up were reviewed by an independent endpoint committee. Findings 75 individuals (41 with unstable, 29 with stable, and 5 with atypical angina) had a coronary event during follow-up. Concentrations of CRP at study entry were associated with coronary events in patients with stable or unstable angina: there was about a two-fold increase in the risk of a coronary event in patients whose CRP concentration was in the fifth quintile (>3·6 mg/L), compared with the first four quintiles. A third of the events occurred among patients who had a CRP concentration of more than 3·6 mg/L CRP concentrations were positively correlated with age, smoking, body-mass index, triglycerides, extent of coronary stenosis, history of myocardial infarction, and lower ejection fraction. By contrast, concentrations of SAA were not associated with risk of a coronary event. Interpretation We found that raised circulating concentrations of CRP are predictors of coronary events in patients with stable or unstable angina. The modest acute-phase responses of CRP were probably not the result of myocardial necrosis. Whatever the underlying mechanisms, the sensitive measurement of CRP as a prognostic marker may be useful in the management of coronary heart diease.
0

MRC trial of treatment of mild hypertension: principal results. Medical Research Council Working Party.

Stanley Peart et al.Jul 13, 1985
+34
G
G
S
The main aim of the trial was to determine whether drug treatment of mild hypertension (phase V diastolic pressure 90-109 mm Hg) reduced the rates of stroke, of death due to hypertension, and of coronary events in men and women aged 35-64 years. Subsidiary aims were: to compare the course of blood pressure in two groups, one taking bendrofluazide and one taking propranolol, and to compare the incidence of suspected adverse reactions to these two drugs. The study was single blind and based almost entirely in general practices; 17 354 patients were recruited, and 85 572 patient years of observation have accrued. Patients were randomly allocated at entry to take bendrofluazide or propranolol or placebo tablets. The primary results were as follows. The stroke rate was reduced on active treatment: 60 strokes occurred in the treated group and 109 in the placebo group, giving rates of 1.4 and 2.6 per 1000 patient years of observation respectively (p less than 0.01 on sequential analysis). Treatment made no difference, however, to the overall rates of coronary events: 222 events occurred on active treatment and 234 in the placebo group (5.2 and 5.5 per 1000 patient years respectively). The incidence of all cardiovascular events was reduced on active treatment: 286 events occurred in the treated group and 352 in the placebo group, giving rates of 6.7 and 8.2 per 1000 patient years respectively (p less than 0.05 on sequential analysis). For mortality from all causes treatment made no difference to the rates. There were 248 deaths in the treated group and 253 in the placebo group (rates 5.8 and 5.9 per 1000 patient years respectively). Several post hoc analyses of subgroup results were also performed but they require very cautious interpretation. The all cause mortality was reduced in men on active treatment (157 deaths versus 181 in the placebo group; 7.1 and 8.2 per 1000 patient years respectively) but increased in women on active treatment (91 deaths versus 72; 4.4 and 3.5 per 1000 patient years respectively). The difference between the sexes in their response to treatment was significant (p = 0.05). Comparison of the two active drugs showed that the reduction in stroke rate on bendrofluazide was greater than that on propranolol (p = 0.002). The stroke rate was reduced in both smokers and non-smokers taking bendrofluazide but only in non-smokers taking propranolol. This difference between the responses to the two drugs was significant (p = 0.03).(ABSTRACT TRUNCATED AT 400 WORDS)
0

Sensitivity Analyses for Robust Causal Inference from Mendelian Randomization Analyses with Multiple Genetic Variants

Stephen Burgess et al.Oct 4, 2016
+2
T
J
S
Mendelian randomization investigations are becoming more powerful and simpler to perform, due to the increasing size and coverage of genome-wide association studies and the increasing availability of summarized data on genetic associations with risk factors and disease outcomes. However, when using multiple genetic variants from different gene regions in a Mendelian randomization analysis, it is highly implausible that all the genetic variants satisfy the instrumental variable assumptions. This means that a simple instrumental variable analysis alone should not be relied on to give a causal conclusion. In this article, we discuss a range of sensitivity analyses that will either support or question the validity of causal inference from a Mendelian randomization analysis with multiple genetic variants. We focus on sensitivity analyses of greatest practical relevance for ensuring robust causal inferences, and those that can be undertaken using summarized data. Aside from cases in which the justification of the instrumental variable assumptions is supported by strong biological understanding, a Mendelian randomization analysis in which no assessment of the robustness of the findings to violations of the instrumental variable assumptions has been made should be viewed as speculative and incomplete. In particular, Mendelian randomization investigations with large numbers of genetic variants without such sensitivity analyses should be treated with skepticism.
0
Citation1,196
0
Save
0

Bias due to participant overlap in two‐sample Mendelian randomization

Stephen Burgess et al.Sep 14, 2016
S
N
S
ABSTRACT Mendelian randomization analyses are often performed using summarized data. The causal estimate from a one‐sample analysis (in which data are taken from a single data source) with weak instrumental variables is biased in the direction of the observational association between the risk factor and outcome, whereas the estimate from a two‐sample analysis (in which data on the risk factor and outcome are taken from non‐overlapping datasets) is less biased and any bias is in the direction of the null. When using genetic consortia that have partially overlapping sets of participants, the direction and extent of bias are uncertain. In this paper, we perform simulation studies to investigate the magnitude of bias and Type 1 error rate inflation arising from sample overlap. We consider both a continuous outcome and a case‐control setting with a binary outcome. For a continuous outcome, bias due to sample overlap is a linear function of the proportion of overlap between the samples. So, in the case of a null causal effect, if the relative bias of the one‐sample instrumental variable estimate is 10% (corresponding to an F parameter of 10), then the relative bias with 50% sample overlap is 5%, and with 30% sample overlap is 3%. In a case‐control setting, if risk factor measurements are only included for the control participants, unbiased estimates are obtained even in a one‐sample setting. However, if risk factor data on both control and case participants are used, then bias is similar with a binary outcome as with a continuous outcome. Consortia releasing publicly available data on the associations of genetic variants with continuous risk factors should provide estimates that exclude case participants from case‐control samples.
0
Citation1,184
0
Save
0

Using published data in Mendelian randomization: a blueprint for efficient identification of causal risk factors

Stephen Burgess et al.Mar 14, 2015
+2
N
R
S
Finding individual-level data for adequately-powered Mendelian randomization analyses may be problematic. As publicly-available summarized data on genetic associations with disease outcomes from large consortia are becoming more abundant, use of published data is an attractive analysis strategy for obtaining precise estimates of the causal effects of risk factors on outcomes. We detail the necessary steps for conducting Mendelian randomization investigations using published data, and present novel statistical methods for combining data on the associations of multiple (correlated or uncorrelated) genetic variants with the risk factor and outcome into a single causal effect estimate. A two-sample analysis strategy may be employed, in which evidence on the gene-risk factor and gene-outcome associations are taken from different data sources. These approaches allow the efficient identification of risk factors that are suitable targets for clinical intervention from published data, although the ability to assess the assumptions necessary for causal inference is diminished. Methods and guidance are illustrated using the example of the causal effect of serum calcium levels on fasting glucose concentrations. The estimated causal effect of a 1 standard deviation (0.13 mmol/L) increase in calcium levels on fasting glucose (mM) using a single lead variant from the CASR gene region is 0.044 (95 % credible interval −0.002, 0.100). In contrast, using our method to account for the correlation between variants, the corresponding estimate using 17 genetic variants is 0.022 (95 % credible interval 0.009, 0.035), a more clearly positive causal effect.
0
Citation1,061
0
Save
Load More