Sprache ist zentral für Erkenntnis, Wissensvermittlung und Kreativität – eine Bedeutung, die durch Large Language Models (LLM) neu beleuchtet wird, da diese mit probabilistischen Methoden sprachliche Kreativität erzeugen. Die Tagung fragt fachübergreifend nach den sprachlich vermittelten Prozessen des Verstehens in Wissenschaft, Bildung und Vermittlung und thematisiert dabei auch die noch immer wirksame Trennung von sprachlich-kulturellen und MINT-orientierten Disziplinen. Diskutiert werden unter anderem die Rolle von Fachsprachen, interdisziplinäre Bildung, Digital Humanities sowie das kreative Potenzial von LLMs für neues, fächerübergreifendes Wissen.
ab 13:00 Ankunft und Registrierung, Begrüßungsgetränk
Der Vortrag nähert sich dem Problemhorizont der Tagung aus einer historischen Perspektive: Am Beispiel der Entstehung der Quantenphysik in der ersten Hälfte des 20. Jahrhunderts wollen wir der Frage nachgehen, inwiefern das philologische Wissensreservoir der Physiker, das diese im Zuge ihrer Ausbildung am humanistischen Gymnasium erworben hatten, die Genese und Vermittlung neuer Wissensinhalte positiv beeinflussen konnte.
Ansatzpunkt ist die Beobachtung, dass die Schriften und nachgelassenen Materialien der deutschsprachigen Gründerväter der Quantentheorie auffallend reich sind an Rekursen auf philologische Wissensbestände. Wir gehen davon aus, dass die von den Physikern enthusiastisch gepriesene ‚philologische Schule‘ sich auch in ihren Arbeits-, Erkenntnis- und Vermittlungstechniken niedergeschlagen hat. Diese These wollen wir anhand zahlreicher Beispiele text- und materialnah verfolgen und dabei u.a. folgende Fragen beantworten: Wie konnten die theoretischen Physiker ihr philologisches Wissen fruchtbar machen, wenn es darum ging, neues Wissen, das die das die Grenzen der Logik und der Alltagssprache zu sprengen schien, zu versprachlichen und begreifbar zu machen? Inwiefern waren die verschiedenen Techniken des Lesens, Interpretierens, Übersetzens und Erzeugens von ‚Texten‘, wie sie in den philologischen und physikalischen Seminaren jener Zeit praktiziert wurden, wechselseitig anschlussfähig? Unter welchen Bedingungen konnte vielleicht sogar die Philologie als Wissensmodell für die moderne Physik fungieren? Oder wäre eher von der zeitgleichen Emergenz vergleichbarer Praktiken in vergleichbar organisierten epistemischen Räumen und Situationen zu sprechen?
Auf diese Weise soll beispielhaft die Produktivität interdisziplinären Austauschs herausgestellt werden – insbesondere mit Blick auf die exponierte Rolle von Sprache und Philologie auch im Regime naturwissenschaftlich-mathematischer Wissenserzeugung und -vermittlung.
Die Semiotik von Charles Sanders Peirce (1931–1935) bietet eine gehaltvolle zeichentheoretische Perspektive, um mathematische Aktivitäten von Lernenden als diagrammatische Tätigkeit unter Verwendung verschiedener Arten von Zeichen zu betrachten. Im Rahmen von zwei Forschungsprojekten wird dieser theoretische Ansatz zur Entwicklung und Anwendung eines Analyseinstruments genutzt, die sogenannten Semiotischen Prozess-Karten. Diese Karten sind grafisch gestaltet und ermöglichen eine detaillierte Rekonstruktion des Zeichenprozesses, der während mathematischer Interaktionen von Lernenden emergiert. Dem Analyseinstrument liegt das Zeichenkonzept von Peirce mit der herausragenden Rolle des Interpretanten zugrunde, um Beziehungen zwischen Zeichen aufzuzeigen, wichtige mathematische Erkenntnisse der Lernenden hervorzuheben und verschiedene, von den Lernenden verwendete Darstellungen zu beleuchten. Im Vortrag werden die Semiotischen Prozess-Karten theoretisch begründet und deren methodische Verwendung in zwei Forschungsprojekten zum Mathematiklernen in der Grundschule vorgestellt. Während das erste Projekt den Fokus auf schriftlich-grafische Darstellungen richtet, analysiert das zweite Projekt Gesten der Lernenden.
Zukunft ist für uns stets ein „Noch-Nicht“ – empirisch nicht erfahrbar, nie als solche greifbar. Dennoch beeinflussen Zukunftsvorstellungen, Prognosen und Visionen unsere Entscheidungen maßgeblich. Der Vortrag geht der Frage nach, was es überhaupt bedeuten kann, „Zukunft zu verstehen“, und warum dies trotz aller epistemischen Unsicherheiten notwendig bleibt. Zukunftsverstehen wird nicht als die Kunst verstanden, das Eintreffen künftiger Ereignisse vorherzusagen, als vielmehr die Fähigkeit, die Geltung gegenwärtiger Zukunftsaussagen zu beurteilen, ihre Bedingungen zu klären und ihre Auswirkungen auf heutiges Handeln darzulegen. Dafür werden zunächst Gemeinsamkeiten und Unterschiede disziplinärer Verstehensweisen erörtert. Ob fallende Äpfel in der Physik oder gesellschaftliche Entwicklungen in den Geisteswissenschaften: Beide überformen Alltagsphänomene durch Fachsprache und methodische Zugänge. Aus dieser Perspektive wird eine sprachreflexive und handlungstheoretische Annäherung an das Phänomen (versprachlichter) Zukunft vorgeschlagen: Zukunftsaussagen sind keine empirisch überprüfbaren Behauptungen, sondern diskursive Konstrukte, deren Geltung sich nur anhand gegenwärtiger Kriterien beurteilen lässt. Anhand der Metapher des „Brennglases“ wird an einem Zukunftsbeispiel – automatisierte Supermärkte – gezeigt, wie Annahmen und Voraussetzungen in Zukunftsaussagen gebündelt werden, wie sie Entscheidungen im Heute beeinflussen und wie deren Prüfung ein reflektiertes Zukunftsverstehen ermöglicht.
Im Rahmen dieses Beitrags soll ein Lehrkonzept für die Professionalisierung angehender Lehrkräfte vorgestellt werden, dessen Schwerpunkt auf der Synchronisierung von digitalen Grundkompetenzen im Umgang mit Methoden der digitalen Textanalyse mit einer literaturdidaktischen Kompetenzentwicklung liegt. Nach einer kurzen terminologischen Verortung zentraler Begrifflichkeiten (Digital Humanities, Digitale Literaturwissenschaft, Close Reading und Distant Reading) wird im ersten Teil des Beitrags die Relevanz für den Brückenschlag zwischen Digital Humanities und Lehrkräfteausbildung herausgestellt. Anschließend soll der grobe Verlauf des Seminars “Digitale Literaturwissenschaft und Literaturdidaktik” (durchgeführt im WiSe 23/24 und WiSe 2024/25 am Institut für Germanistik der Universität Hamburg, gefördert durch die Stiftung Innovation in der Hochschullehre) anhand ausgewählter Lehrinhalte vorgestellt werden.
Der zweite Teil fokussiert konzeptuelle Grundlagen des Seminars und die unterschiedlichen Wissensbereiche, die bei dem Transfer digitaler Verfahren der Textanalyse in den Schulunterricht aktiviert werden. Daraus ergeben sich verschiedene Fragen der Komplexitätsreduktion, die für die Wissensvermittlung digitalisierungsbezogener Fachinhalte auch außerhalb der Lehrkräfteausbildung relevant sind. Im Rahmen einer kurzen Gruppenarbeitsphase und einer daran anschließenden offenen Gesprächsrunde sollen daher die folgenden Aspekte gemeinsam diskutiert werden:
Welche Lehr- und Lernformate eignen sich für die Vermittlung digitalisierungsbezogener Methoden und welche nicht?
Welche digitalisierungsbezogenen Methoden, Fachbegriffe und Konzepte spielen in Ihren Fachbereich / Arbeitsbereich eine große Rolle?
Auf welche Art und Weise lassen sich die Methoden zielgruppenorientiert (was in vielen Fällen eine Reduktion der Komplexität bedeutet) vermitteln? Welche Erfahrungen haben Sie dabei gemacht?
Der Vortrag gibt einen Einblick in die Geschichte der Versuche, Literatur computergeneriert zu produzieren, wie sie sich in den Archivbeständen des Deutschen Literaturarchivs Marbach zeigt – in den Beständen von Theo Lutz etwa oder bei Hans Magnus Enzensberger, dessen „Poesieautomat“ seit Jahren eine Hauptattraktion im Literaturmuseum der Moderne ist. Aus der Reflexion dieser frühen Versuche, Rechnern Poesie beizubringen, kann die Literaturwissenschaft heute ihrerseits Einsichten gewinnen, die ihr Methodeninventar direkt betreffen: Können wir – und wenn ja: wie? – Literatur rechnend neu und anders verstehen? Und hilft uns der Blick ins Archiv, um generell Prozesse des Machine Learning besser zu verstehen, auch im Hinblick auf die Weiterentwicklung von Sprachmodellen im Bereich generativer KI?
Der britische Empirismus des 17. Jahrhunderts bot mit dem Experiment ein methodisch neu gegründetes Verfahren, das zum Paradigma der neuzeitlichen (Natur-)Wissenschaften werden sollte. Mit dem regelgeleiteten und replizierbaren Experiment als zentraler Methode traten die Naturwissenschaften seit dieser sog. scientific revolution (Shapin) ihren Siegeszug an, durch den sie sich als eine der ‚zwei Kulturen‘ (Snow) spätestens im 19. Jahrhundert von Geisteswissenschaften und Literatur schieden.
Mit seiner Poetik eines Experimentalromans (Le roman expérimental, 1879) versuchte Émile Zola, die etablierte Experimentalmethodik für den Bereich der ‚schönen Literatur‘ zu adaptieren: Der Roman sei „ein wirkliches Experiment, das der Romanschriftsteller am Menschen macht“ (Zola). Im Vortrag erläutere ich Zolas experimentalliterarische Poetik und zeige Zolas Bestreben, szientifisches Experimentieren auf literarische Produktions- und Erkenntnisprozesse übertragen zu wollen, als ein doppeltes Interesse des Schriftstellers: zum einen als sein starkes Interesse an neuem Wissen über den Menschen in sozialen Determinismen; zum anderen als ein Bemühen, die ‚schöne Literatur‘ am Triumphzug der modernen Naturwissenschaften teilhaben zu lassen.
Ob Zola sein Vorbild, die Experimentalphysiologie Claude Bernards, schlicht falsch verstand, diskutierten schon die Zeitgenossen in der auch deutschsprachigen lebhaften Rezeption des ‚Experimentalromans‘. Ich zeige im Vortrag, dass der wissenschaftsmethodischen und poetologischen Missverständnisse zum Trotz die Wechselwirkungen zwischen Experimentalwissenschaften und Literatur zur kreativ-produktiven Entwicklung literarischer Ausdrucksformen, Erzähltechniken und Gattungen beitrugen, die explorativ die Grenzen überstiegen, die den medizinischen Wissenschaften bei Experimenten mit Menschen gesetzt sind.
Mit NaGra (Natural-language Conceptual Graph) stellen wir ein innovatives Verfahren vor, das mathematische Formalismen in natürliche Sprache übersetzt und daraus mithilfe weiterer natürlichsprachlicher, Analyseverfahren automatisch Wissenslandkarten generiert. Aufbauend auf der Theorie mentaler Modelle zeigen wir, wie diese hiermit neu zugänglichen Darstellungsformen – ergänzt durch gezielte Lernimpulse – als didaktische Unterstützung im Mathematikstudium eingesetzt werden können. Ziel ist es, insbesondere Erstsemester beim Übergang von der Schul- zur Hochschulmathematik zu unterstützen, der oft mit einem sprunghaften Anstieg an Abstraktionsanforderungen verbunden ist. Anhand von Anwendungsbeispielen verdeutlichen wir, wie NaGra dazu beiträgt: (1) mathematische Formeln verständlich und visuell aufzubereiten, (2) die Struktur des erforderlichen Vorwissens zugänglich zu machen und (3) zentrale Wissensbereiche eines zum Lernen herangezogenen Problems sichtbar zu machen.
Der Vortrag beleuchtet, wie Nutzer:innen generative Künstliche Intelligenz (KI) konzeptuell erfassen und kommunikativ erleben. Im Zentrum stehen mentale Modelle, Vorstellungen sowie die Zuschreibung sozialer Eigenschaften und Kompetenzen an KI-Systeme. Dabei wird der Frage nachgegangen, inwieweit KI als greifbar, hilfreich oder bedrohlich wahrgenommen wird. Angesichts der zunehmenden Verbreitung generativer KI in professionellen und alltäglichen Kontexten – etwa in der Gesundheitskommunikation, dem Online-Marketing oder der Teamarbeit – stellt sich die Frage nach dem Erfolg ihres Einsatzes. Erste empirische Befunde weisen darauf hin, dass KI sehr erfolgreich mit Nutzer:innen kommuniziert. Der Beitrag diskutiert, welche Faktoren dieses kommunikative Gelingen begünstigen und welche Implikationen sich daraus für den zukünftigen Umgang mit KI ergeben.
mail@dgi-info.de