23. Juni 2026, 12:45 – 13:15 Uhr

Screen-free Deep Learning: Audio-Storys mit KI-Dialoge statt Scroll-Apathie

In dieser Session wird ein methodischer Ansatz vorgestellt, der digitales Lernen konsequent vom Bildschirm befreit. Im Fokus steht die Transformation von Fachwissen in interaktive Audio-Szenarien mittels einer Multi-Agenten-Architektur. Die zentrale Frage lautet: Wie lässt sich didaktische Tiefe gemäß der Bloom’schen Lerntaxonomie in mobilen Lernsettings ohne visuelle Unterstützung skalierbar realisieren?

Durch den gezielten Einsatz von Small Language Models (SMLs) wird die Passivität herkömmlicher Audioformate aufgebrochen. Teilnehmende erfahren, wie KI-Systeme als sokratische Impulsgeber fungieren, um den „Active Recall“ algorithmisch in den Audio-Stream zu integrieren. Es wird aufgezeigt, wie dieses „Cognitive Pull“-Prinzip den Zeitdruck moderner Lernbiografien entschärft und Wissenstransfer in unproduktiven Zeitfenstern ermöglicht. Die Session vermittelt, wie mobile Bildung hocheffizient, barrierefrei und kognitiv aktivierend gestaltet werden kann.

Literatur: Bloom, B. S. (1956). Taxonomy of Educational Objectives. (Basis für die kognitive Stufung im Dialogmodus). Karpicke, J. D. (2012). Retrieval-Based Learning. (Wissenschaftlicher Hintergrund für unseren Active Recall Ansatz). Javaid et al. (2023). Small Language Models: Survey and Outlook. (Technischer Kontext für effiziente KI-Infrastrukturen).

Speaker:innen
  • Dominic Ellek, Institut für Bildungstransfer, Hochschule BiberachDominic Ellek
    Institut für Bildungstransfer, Hochschule Biberach
Track

AI, Technology & Infrastructures

Raum

AI, Technology & Infrastructure (DIGITAL)

Sprache

DE

Format

Input