MS
Michael Sailer
Author with expertise in Gamification in Education and Learning
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
10
(100% Open Access)
Cited by:
5,487
h-index:
43
/
i10-index:
85
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

How gamification motivates: An experimental study of the effects of specific game design elements on psychological need satisfaction

Michael Sailer et al.Dec 23, 2016
The main aim of gamification, i.e. the implementation of game design elements in real-world contexts for non-gaming purposes, is to foster human motivation and performance in regard to a given activity. Previous research, although not entirely conclusive, generally supports the hypothesis underlying this aim. However, previous studies have often treated gamification as a generic construct, neglecting the fact that there are many different game design elements which can result in very diverse applications. Based on a self-determination theory framework, we present the results of a randomized controlled study that used an online simulation environment. We deliberately varied different configurations of game design elements, and analysed them in regard to their effect on the fulfilment of basic psychological needs. Our results show that badges, leaderboards, and performance graphs positively affect competence need satisfaction, as well as perceived task meaningfulness, while avatars, meaningful stories, and teammates affect experiences of social relatedness. Perceived decision freedom, however, could not be affected as intended. We interpret these findings as general support for our main hypothesis that gamification is not effective per se, but that specific game design elements have specific psychological effects. Consequences for further research, in particular the importance of treatment checks, are discussed.
0

ChatGPT for good? On opportunities and challenges of large language models for education

Enkelejda Kasneci et al.Mar 9, 2023
Large language models represent a significant advancement in the field of AI. The underlying technology is key to further innovations and, despite critical views and even bans within communities and regions, large language models are here to stay. This commentary presents the potential benefits and challenges of educational applications of large language models, from student and teacher perspectives. We briefly discuss the current state of large language models and their applications. We then highlight how these models can be used to create educational content, improve student engagement and interaction, and personalize learning experiences. With regard to challenges, we argue that large language models in education require teachers and learners to develop sets of competencies and literacies necessary to both understand the technology as well as their limitations and unexpected brittleness of such systems. In addition, a clear strategy within educational systems and a clear pedagogical approach with a strong focus on critical thinking and strategies for fact checking are required to integrate and take full advantage of large language models in learning settings and teaching curricula. Other challenges such as the potential bias in the output, the need for continuous human oversight, and the potential for misuse are not unique to the application of AI in education. But we believe that, if handled sensibly, these challenges can offer insights and opportunities in education scenarios to acquaint students early on with potential societal biases, criticalities, and risks of AI applications. We conclude with recommendations for how to address these challenges and ensure that such models are used in a responsible and ethical manner in education.
0

The Gamification of Learning: a Meta-analysis

Michael Sailer et al.Aug 15, 2019
This meta-analysis was conducted to systematically synthesize research findings on effects of gamification on cognitive, motivational, and behavioral learning outcomes. Results from random effects models showed significant small effects of gamification on cognitive (g = .49, 95% CI [0.30, 0.69], k = 19, N = 1686), motivational (g = .36, 95% CI [0.18, 0.54], k = 16, N = 2246), and behavioral learning outcomes (g = .25, 95% CI [0.04, 0.46], k = 9, N = 951). Whereas the effect of gamification on cognitive learning outcomes was stable in a subsplit analysis of studies employing high methodological rigor, effects on motivational and behavioral outcomes were less stable. Given the heterogeneity of effect sizes, moderator analyses were conducted to examine inclusion of game fiction, social interaction, learning arrangement of the comparison group, as well as situational, contextual, and methodological moderators, namely, period of time, research context, randomization, design, and instruments. Inclusion of game fiction and social interaction were significant moderators of the effect of gamification on behavioral learning outcomes. Inclusion of game fiction and combining competition with collaboration were particularly effective within gamification for fostering behavioral learning outcomes. Results of the subsplit analysis indicated that effects of competition augmented with collaboration might also be valid for motivational learning outcomes. The results suggest that gamification as it is currently operationalized in empirical studies is an effective method for instruction, even though factors contributing to successful gamification are still somewhat unresolved, especially for cognitive learning outcomes.
0
Citation784
0
Save
0

Focal thinning of the cerebral cortex in multiple sclerosis

Michael Sailer et al.Jun 4, 2003
Brain atrophy as determined by quantitative MRI can be used to characterize disease progression in multiple sclerosis. Many studies have addressed white matter (WM) alterations leading to atrophy, while changes of the cerebral cortex have been studied to a lesser extent. In vivo, the cerebral cortex has been difficult to study due to its complex structure and regional variability. Measurement of cerebral cortex thickness at different disease stages may provide new insights into grey matter (GM) pathology. In the present investigation, we evaluated in vivo cortical thickness and its relationship to disability, disease duration, WM T2 hyper‐intense and T1 hypo‐intense lesion volumes. High‐resolution MRI brain scans were obtained in 20 patients with clinically definite multiple sclerosis and 15 age‐matched normal subjects. A novel method of automated surface reconstruction yielded measurements of the cortical thickness for each subject's entire brain and computed cross‐subject statistics based on the cortical anatomy. Statistical thickness difference maps were generated by performing t‐tests between patient and control groups and individual thickness measures were submitted to analyses of variance to investigate the relationship between cortical thickness and clinical variables. The mean overall thickness of the cortical ribbon was reduced in multiple sclerosis patients compared with controls [2.30 mm (SD 0.14) versus 2.48 mm (SD 0.11)], showing a significant main effect of group (controls versus patients). In patients, we found significant main effects for disability, disease duration, T2 and T1 lesion volumes. The visualization of statistical difference maps of the cortical GM thickness on inflated brains across the cortical surface revealed a distinct distribution of significant focal thinning of the cerebral cortex in addition to the diffuse cortical atrophy. Focal cortical thinning in frontal [2.37 mm (SD 0.17) versus 2.73 mm (SD 0.25)] and in temporal [2.65 mm (SD 0.15) versus 2.95 mm (SD 0.11)] brain regions was observed, even early in the course of the disease or in patients with mild disability. Patients with longstanding disease or severe disability, however, presented additionally with focal thinning of the motor cortex area [2.35 mm (SD 0.19) versus 2.74 mm (SD 0.15)]. We conclude that in vivo measurement of cortical thickness is feasible in patients suffering from multiple sclerosis. The data provide new insight into the cortical pathology in multiple sclerosis patients, revealing focal cortical thinning beside an overall reduction of the cortical thickness with disease progression.
0

Promoting diagnostic reasoning in teacher education: the role of case format and perceived authenticity

Sarah Bichler et al.Jul 13, 2024
Abstract Teachers routinely observe and interpret student behavior to make judgements about whether and how to support their students’ learning. Simulated cases can help pre-service teachers to gain this skill of diagnostic reasoning. With 118 pre-service teachers, we tested whether participants rate simulated cases presented in a serial-cue case format as more authentic and become more involved with the materials compared to cases presented in a whole case format. We further investigated whether participants with varying prior conceptual knowledge (what are symptoms of ADHD and dyslexia) gain more strategic knowledge (how to detect ADHD and dyslexia) with a serial-cue versus whole case format. We found that the case format did not impact authenticity ratings but that learners reported higher involvement in the serial-cue case format condition. Bayes factors provide moderate evidence for the absence of a case format effect on strategic knowledge and strong evidence for the absence of an interaction of case format and prior knowledge. We recommend using serial-cue case formats in simulations as they are a more authentic representation of the diagnostic reasoning process and cognitively involve learners. We call for replications to gather more evidence for the impact of case format on knowledge acquisition. We suggest a further inquiry into the relationship of case format, involvement, and authenticity but think that a productive way forward for designing authentic simulations is attention to aspects that make serial-cue cases effective for diverse learners. For example, adaptive feedback or targeted practice of specific parts of diagnostic reasoning such as weighing evidence.
0
Citation2
0
Save
0

AI‐Based Adaptive Feedback in Simulations for Teacher Education: An Experimental Replication in the Field

Elisabeth Bauer et al.Jan 15, 2025
ABSTRACT Background Artificial intelligence, particularly natural language processing (NLP), enables automating the formative assessment of written task solutions to provide adaptive feedback automatically. A laboratory study found that, compared with static feedback (an expert solution), adaptive feedback automated through artificial neural networks enhanced preservice teachers' diagnostic reasoning in a digital case‐based simulation. However, the effectiveness of the simulation with the different feedback types and the generalizability to field settings remained unclear. Objectives We tested the generalizability of the previous findings and the effectiveness of a single simulation session with either feedback type in an experimental field study. Methods In regular online courses, 332 preservice teachers at five German universities participated in one of three randomly assigned groups: (1) a simulation group with NLP‐based adaptive feedback, (2) a simulation group with static feedback and (3) a no‐simulation control group. We analysed the effect of the simulation with the two feedback types on participants' judgement accuracy and justification quality. Results and Conclusions Compared with static feedback, adaptive feedback significantly enhanced justification quality but not judgement accuracy. Only the simulation with adaptive feedback significantly benefited learners' justification quality over the no‐simulation control group, while no significant differences in judgement accuracy were found. Our field experiment replicated the findings of the laboratory study. Only a simulation session with adaptive feedback, unlike static feedback, seems to enhance learners' justification quality but not judgement accuracy. Under field conditions, learners require adaptive support in simulations and can benefit from NLP‐based adaptive feedback using artificial neural networks.
0

Cognitive ease at a cost: LLMs reduce mental effort but compromise depth in student scientific inquiry

Matthias Stadler et al.Jul 30, 2024
This study explores the cognitive load and learning outcomes associated with using large language models (LLMs) versus traditional search engines for information gathering during learning. A total of 91 university students were randomly assigned to either use ChatGPT3.5 or Google to research the socio-scientific issue of nanoparticles in sunscreen to derive valid recommendations and justifications. The study aimed to investigate potential differences in cognitive load, as well as the quality and homogeneity of the students' recommendations and justifications. Results indicated that students using LLMs experienced significantly lower cognitive load. However, despite this reduction, these students demonstrated lower-quality reasoning and argumentation in their final recommendations compared to those who used traditional search engines. Further, the homogeneity of the recommendations and justifications did not differ significantly between the two groups, suggesting that LLMs did not restrict the diversity of students' perspectives. These findings highlight the nuanced implications of digital tools on learning, suggesting that while LLMs can decrease the cognitive burden associated with information gathering during a learning task, they may not promote deeper engagement with content necessary for high-quality learning per se.