Programm

7. September 2017

15:00 Uhr Begrüßung und Eröffnung

Marlies Ockenfeld, Präsidentin der DGI

Jochen Kirchner, Bürgermeister der Lutherstadt Wittenberg
Prof. Dr. Matthias Ballod, Martin-Luther-Universität Halle-Wittenberg

15:15 – 16:00 Uhr Axel Ermert, Institut für Museumsforschung
Dokumentation - Sprache - Terminologie
Zusammenfassung:
Nutzung und Bearbeitung menschlicher Sprache steht am Anfang der Dokumentation, und sie macht auch heute noch einen Kernbestandteil der Dokumentation aus. Sprache ist zunächst das überwiegend zu bearbeitende Material, und Sprache ist das (Meta-)Medium der Bearbeitung. Im Laufe der Entwicklung entstehen unterschiedliche Spracharten für die Arbeit in der Dokumentation (z.B. halb künstlich-sprachlich: Klassifikation) und die humansprachlichen dokumentarischen Methoden verfeinern und differenzieren sich (Thesaurus, Schlagwortregeln). Wesentliche Grundlage wird die begriffliche Analyse, das Ausgehen von präzise bestimmten Begriffen statt von bloßen Worten des täglichen Sprachgebrauchs. Systematische Terminologie und die Erforschung ihrer Grundlagen werden entscheidender Bestandteil der Dokumentation. In der heutigen Situation spielt dies eine ganz wesentliche Rolle, gerade auch beim Entwurf und der Erstellung automatisierter, digitaler Informationssysteme und -flüsse und in der Bearbeitung enormer Massen an fach- oder gemeinsprachlich vorliegendem Material.
16:00 – 16:30 Uhr Doina Oehlmann, Herzog August Bibliothek Wolfenbüttel
Eulen nach Athen? FID Buch, Bibliotheks- und Informationswissenschaft
Zusammenfassung:
Ist ein Fachinformationsdienst (FID) für ausgewiesene Wissenschaftler, die sich alle mit Informationen unterschiedlicher Form befassen, sinnvoll? Welche Funktionen sollte er unbedingt erfüllen, wo liegen seine Herausforderungen, welche Voraussetzungen müssen gegeben sein, damit der FID ein Erfolg werden kann, und wie kann seine Implementierung effektiv umgesetzt werden? Am 1. Oktober 2017 beginnen die Herzog August Bibliothek Wolfenbüttel und die Universitätsbibliothek Leipzig mit dem Aufbau des Fachinformationsdienstes, dessen Planungen und Rahmenbedingungen Thema des Vortrags sein werden.
16:30 – 16:45 Uhr Dr. Oliver Renn, ETH Zürich
Google Trends - Coffee Lecture 1
16:45 – 17:10 Uhr Kaffeepause
17:10 – 17:55 Uhr Prof. Dr. Olaf Hoffjann, Osfalia Hochschule für angewandte Wissenschaften
Gatekeeper 1 vs. Gatekeeper 2.
Was Journalisten von Bloggern unterscheidet ­ Ergebnisse einer empirischen
Untersuchung
Zusammenfassung:
Blogs erreichen heute zu manchen Themen bereits mehr Menschen als klassische journalistische Angeboten. Zugleich scheinen traditionelle journalistische Standards wie die Trennung von Nachricht und Kommentar sowie Redaktion und Werbung in Blogs nicht mehr zu gelten. Eine Studie mit mehr als 1.500 teilnehmenden Journalisten und Bloggern zeigt, wie wichtig alten und neuen Gatekeepern traditionelle journalistische Grundsätze sind, an wem sie sich orientieren­ und wie sie mit dem Thema Schleichwerbung umgehen.
18:00 – 18:45 Uhr Dr. Ruth Elsholz
Lesung: „O Mensch, bedenck das End!“ Aus den Lebenserinnerungen der Agnes Pless, Gefährtin Kardinal Albrechts von Brandenburg, aufgeschrieben von ihr selbst.
Zusammenfassung:
Der von Ruth Elsholz verfasste historische Roman erzählt die fiktiven Memoiren einer Frau, die tatsächlich gelebt hat. Agnes Pless, Mätresse des kurfürstlichen Kardinals Albrecht von Brandenburg, an dem sich die Reformation entzündet hat.
1517 nagelt der Mönch Dr. Martin Luther seine 95 Thesen zur Kirchenreform an die Schlosskirche zu Wittenberg und löst damit die Spaltung des Heiligen Römischen Reiches Deutscher Nation aus. Sein Lieblingsfeind ist Kardinal Albrecht von Brandenburg, der mit seiner Geliebten in Aschaffenburg und Halle an der Saale residiert. Dies sind die Memoiren der Frankfurter Metzgertochter Agnes Pless, der vertrauten Mätresse des „Abgottes zu Halle“, die bis zuletzt an ihrem Optimismus festhält ...
ab ca. 19:00 Uhr Gesellschaftsabend des DGI-Forums

8. September 2017

9:00 – 9:45 Prof. Dr. Matthias Ballod, Martin-Luther-Universität Halle-Wittenberg
Am Anfang war das Wort, wer aber hat am Ende das Sagen?
Zusammenfassung:
Zu keiner Zeit wurde mehr geschrieben, gelesen und kommuniziert als heute – und dies auf allen medialen Kanälen. Startete das Internet in kommunikativer Anarchie, als basisdemokratisches Medium, als hierarchiefreie Spielwiese neuer (Sprech-)Handlungsmuster und mit neuen Formen von Graswurzel-Journalismus so erweitert sich digitale Kommunikation heute in kaum mehr überschaubare Ströme von kollektiver Logorrhoe.
Als Begleiterscheinungen dieser Ausdifferenzierung von Kommunikation wird das Verbreiten alternativer Fakten, Fake News und unverhohlener Lügen gesellschafts-, nein hoffähig. Solange man Äußerungen noch einer Person zuordnen kann, möchte man annehmen, dies sei bloß eine weitere Spielart von Meinungsmache und Deutungshoheit. Was aber, wenn diese Formen in Wahrheit gar keine Artikulation natürlich-sprachlicher Menschen mehr sind, sondern das Ergebnis von KI-Anwendungen, von Bots, Crawlern und ihren digitalen Gehilfen?
Wenn Opinion Spam und Filter Bubble den Ausschnitt unserer wahrnehmbaren digitalen Umwelt zugleich automatisiert multiplizieren und reduzieren, stellt sich eine uralte Frage neu und mit noch nie gekannter Konsequenz: Wie kann es uns gelingen, die fortschreitende Übernahme von Kommunikation durch Robots, Kobolde, Trolls, Filter, Zensur, Hoax, Fakes in Zeiten von Amazons Alexa und Googles Silke überhaupt noch emanzipiert, kritisch und tolerant zu begegnen?
In diesem Vortrag soll exemplarisch aufgezeigt werden, wie sich die Grenzen zwischen natürlicher und artifizieller Kommunikation aufzulösen scheinen, welche Rolle der Sprache dabei zukommt und wie janusköpfig Sprachtechnologie heute daherkommt.
9:45 – 10:30 Frank Frischmuth und Astrid B. Müller, Deutsche Digitale Bibliothek
Die Deutsche Digitale Bibliothek - Potenziale, Strategie, Herausforderungen
Zusammenfassung:
Die Deutsche Digitale Bibliothek hat das Ziel, die digitalen Bestände und Sammlungen der deutschen Kultur- und Wissenseinrichtungen aus ganz Deutschland online zugänglich zu machen, miteinander zu vernetzen und zur Nachnutzung zur Verfügung zu stellen. Während der Aufbauphase konnte bereits einiges erreicht und umgesetzt werden. Mehr als 22 Mio. Objektnachweise aus über 350 Einrichtungen sind heute über das DDB-Portal auffindbar. Nun werden die Potenziale,aber auch Herausforderungen besser sichtbar, die entstehen, wenn heterogene Daten aus so unterschiedlichen Quellen zusammengeführt und miteinander verknüpft werden. Von den Anstrengungen zur Standardisierung der Datenformate, der Modernisierung der IT-Infrastruktur, der Schaffung neuer Anwendungs- und Nachnutzungsmöglichkeiten bis zur Sicherung der Finanzierung steht die DDB vor vielfältigen Aufgaben und Herausforderungen bei der Umsetzung ihrer ambitionierten Ziele. Der Vortrag will einige dieser Herausforderungen benennen und die geplanten bzw. bereits in der Umsetzung befindlichen Maßnahmen vorstellen.
10:30 – 11:00 Kaffeepause
11:00 – 11:15 Uhr Dr. Oliver Renn, ETH Zürich
Utopia Reader - Coffee Lecture 2
11:20 – 12:10 Prof. Dr. Pablo Pirnay-Dummer, Medizinische Hochschule Brandenburg
Wissensmodelle aus Texten gewinnen, darstellen und klassifizieren. Neue Perspektiven aus automatisierten Analyseverfahren
Zusammenfassung:
Aus der Forschung um mentale Modelle und Modellbildungsprozesse haben sich in den vergangenen Jahren zahlreiche methodologische Entwicklungen ergeben, die einerseits im Dienste der Modell- und Wissensdiagnose stehen und andererseits ebenfalls in verschiedenen Formen der Lernintervention zur Anwendung kommen. Jüngere Bestrebungen in der Methodenentwicklung zielen, neben der konsequenten Verbesserung vorhandener Methoden, darauf ab, computer-implementierbare Instrumente zu konstruieren, die teil- oder vollautomatisiert sind.Unter anderem um die Auswertungsökonomie deutlich zu verbessern. Neben computerlinguistisch motivierten Heuristiken der Wissensvisualisierung, steht dabei auch der Vergleich zwischen verschiedenen Wissensstrukturen im Mittelpunkt, der sich die angewandte Graphentheorie zunutze macht. Mit den neuen Heuristiken ist es nun seit einigen Jahren möglich auch Kleinstkorpora, d.h. Texte um die 350 Wörter und kleiner, der maschinellen Analyse zugänglich zu machen. Im Vergleich zu vielen anderen Verfahren ist hierbei weder eine manuelle Kodierung oder die Bereitstellung eines Vergleichskorpus auf gleichem Expertiseniveau notwendig. Im Hinblick auf die Validität kommen die vorgestellten Verfahren auf eine Übereinstimmung von r=0,82 mit aufwendigen, handkodierten Vorgehensweisen. Der Hauptzweck der vorgestellten Methoden ist die Erhöhung der analytischen Zugänglichkeit von Daten, für die sonst keine Ressourcen zur umfassenden tieferen, qualitativen Analyse vorliegen, für die eine Forschungsfragestellung die vereinfachte Analyse zulässt oder die gegenüber subjektgeleiteten Verfahren eine objektivere Rekonstruktion erfordern. Durch Kombination dieser Methoden mit ebenfalls automatisierten und korpus-linguistisch inspirierten spezifitätsgewichtenden Teiltextauswahlverfahren kann die Auslese der Information deutlich besser auf die darin liegende Expertise fokussieren. Beide Herangehensweisen konnten inzwischen kombiniert werden und liefern durch eine technische Sequenzierung deutlich präzisere Ergebnisse in der automatischen Wissens- und Expertiserekonstruktion aus Texten.
12:15 – 13:45 Mittagspause
13:45 – 14:30 Hermann Bense, TextoMatic AG
Warum wir keinen Roboter-Journalismus machen
Zusammenfassung:
Der Begriff „Roboter-Journalismus“ hat sich für die computer-gestützte Generierung von Nachrichtentexten eingebürgert. Der Vortrag geht darauf ein, warum dieser Begriff unpassend ist, obwohl unsere NLG-Technologie (Natural Language Generation) ebenfalls Verfahren der künstlichen Intelligenz (KI) benutzt. Im Vortrag wird an Beispielen erläutert, welche Computer-linguistischen Verfahren und Komponenten eingesetzt werden, um an die Qualität der von menschlichen Redakteuren geschriebenen Texte heranzukommen oder sie sogar zu übertreffen.
Für die Generierung von Nachrichtentexten und Produktbeschreibung wurde die Programmiersprache TCL (Text Composing Language) entwickelt, die die Funktionalitäten von HTML, PHP und Javascript kombiniert. TCL-Programme heißen Templates und können sich gegenseitig wie Unterprogramme aufrufen. Die für die Generierung der Nachrichtentexte benötigten Daten aus den Bereichen Finanzen, Wetter, Sport, Events werden über XML-Schnittstellen abgerufen und in einem RDF-basierten Triple-Store zusammengeführt. Hintergrundinformationen werden aus öffentlichen Datenquellen wie Wikipedia, dbpedia oder YAGO hinzugespielt. Die big-data-Ontologien, die daraus entstehen, enthalten Milliarden von Tripeln. Allein aus der englischen Wikipedia stehen 250 Mill. Tripel zur Verfügung. Für das Handelsblatt (handelsblatt.com) werden Finanzberichte zu Indexen wie DAX, SDax, TecDax und MDax erzeugt, die aus 300 bis 700 Worten bestehen. Der Zuwachs der Daten für die Börsenberichte beträgt ca. 90 Mill. Triple pro Jahr. Die generierten Berichte werden i.d.R. im XML-Format im SaaS-Verfahren (Software as a Service) für die Kunden bereitgestellt. Durch Cloud-basierte Architekturen können mehrere tausend Texte pro Sekunde erzeugt werden.
Der neue Trend in der Medienindustrie ist Hyper-Personalisierung. Wo bisher Nachrichten-Feeds nach dem Gießkannenprinzip arbeiten, wird es künftig auf den einzelnen Leser zugeschnittene Informationen geben, die zeitnah und Interessen-spezifisch den Informationsbedarf befriedigen. Es wird weiterhin erläutert, wie innerhalb des von Google geförderten Projektes 3dna.news dieser Ansatz auf die meistgesprochenen europäischen Sprachen angewendet wird und wie Verlage und Online-Portale damit in die Lage versetzt werden, mit neuen Serviceangeboten eine höhere Leserbindung und -Zufriedenheit zu erreichen.
Allein aufgrund der immensen Anzahl von generierten Nachrichten wird deutlich, dass menschliche Redakteure künftig nicht in der Lage sein werden, diese in der verfügbaren Zeit zu schreiben. Auf der anderen Seite werden durch die Textautomatisierung Freiräume für die Journalisten geschaffen, fundierte Hintergrundberichte und feuilletonistische Beiträge zu verfassen, die auf absehbare Zeit auch von KI-Software nicht geschrieben werden können. Der Vortrag soll ebenfalls deutlich machen, wie sich das Berufsbild aufgrund dieser Entwicklungen verändern wird.
14:30 – 14:45 Uhr Dr. Oliver Renn, ETH Zürich
Was ist Ihr h-Index - Coffee Lecture 3
14:45 – 15:30 Dr. Eva Gredel, Universität Mannheim
Wikipedia als Wissensressource im digitalen Zeitalter: Trolle, Vandalen und alternative Fakten im größten Wissensspeicher der Welt
Zusammenfassung:
Die Wikipedia ist nicht nur ein kontrovers diskutiertes Nachschlagewerk, das vielen im Alltag zur ersten Orientierung dient, sondern mit über 40 Millionen Artikeln in 295 Sprachen auch die größte Enzyklopädie weltweit. Monatlich greifen 500 Millionen Nutzer auf ihre Inhalte zu und Tausende ehrenamtlicher Autoren erweitern die Wikipedia kontinuierlich. Die Online-Enzyklopädie ist somit nicht nur als eines der erfolgreichsten Projekte im Social Web zu verstehen, sondern auch als sozialer Raum zu deuten, in dem Wissen sprachlich von vielen Akteuren ausgehandelt wird.
Aus einer diskurslinguistischen Perspektive stellt die Wikipedia somit eine Ressource dar, die die soziale Konstruiertheit von Wissen in digitalen Diskursen transparent macht. Zu vielen Artikeln in der Wikipedia gibt es hypertextuell verknüpfte Diskussionsseiten, die den Autoren die Möglichkeit geben, die Ausgestaltung der Einträge, aber auch den Prozess der kollaborativen Wissensproduktion metadiskursiv zu thematisieren.Allerdings fühlen sich nicht alle Akteure dem Grundprinzipder Neutralität und der Wikiquette verpflichtet und gefährden somit das Ziel, „eine Enzyklopädie von bestmöglicher Qualität zu schaffen“, indem sie alternative Fakten in die Enzyklopädie einbringen oder das gute Miteinander im Prozess der kollaborativen Wissenskonstruktion (sprachlich) manipulieren. Häufig werden diese Diskursakteure dann von der Wikipedia-Gemeinschaft als Trolle und Vandalen bezeichnet. Besonders gravierende sind die Effekte solcher manipulativen Interventionen dann, wenn die etablierten Medien die Wikipedia zu Recherchezwecken nutzen und Informationen ungeprüft übernehmen. Der Vortrag geht den genannten Phänomenen aus einer diskursanalytischen Perspektive nach.
15:30 – 16:00 Kaffeepause
16:00 – 16:45 Sebastian Sünkler, HAW Hamburg
Websearch: The Next Generation – Entwicklungen in der Websuche durch die Verbreitung von Sprachsteuerung und Personal Assistants und deren Chancen und Risiken in der Anwendung
Zusammenfassung:
Neue technischen Entwicklungen im Cloud Computing, Machine Learning und Big Data und die starke Verbreitung und Nutzung mobiler Endgeräte führten zu einem Angebot neuer Suchsysteme, die als persönliche Assistenten ihre Nutzer bei der Informationssuche aktiv unterstützen und den Alltag erleichtern sollen. Sie agieren dabei anders als klassische Suchmaschinen durch ihr proaktives Verhalten, da die Assistenten auf die erlernten Vorlieben und Interessen ihres Anwenders reagieren und relevante Informationen aktiv zum richtigen Zeitpunkt ohne direkte Nachfrage ausliefern. Prognosen sagen einen Anstieg der weltweiten Nutzerzahlen intelligenter Assistenten von aktuell 390 Millionen zu 1,8 Milliarden im Jahr 2021 voraus. Die Verwendung solcher Assistenten geht eng einher mit der dialogorientierten Suche und Interaktion über gesprochene Sprache – sowohl bei der Eingabe von Suchanfragen bzw. Anweisungen als auch bei der Antwort der Systeme. Die Popularität und der Absatz von Smartphones hat zu einer stärkeren Nutzung der Assistenten geführt, die genutzt werden, um Anrufe aufzubauen, Textnachrichten zu verfassen, Apps zu öffnen oder Websuchen durchzuführen. Aktuelle Studien zeigen, dass jeder zweite Deutsche die Sprachsteuerung anwendet und in den USA knapp 40 Prozent der Besitzer auf die Eingabe von Befehlen per Sprache zurückgreifen. Die intelligenten Assistenten entwickeln sich zu einer immer häufiger genutzten Anwendung auf Smartphones oder durch den Einsatz sog. Home Assistants – stationären Systemen, die mittels Mikrofon und Lautsprecher dialogorientierte Suche im häuslichen Umfeld ermöglichen wie Amazon Echo. Beispiele für bekannte Personal Assistants sind Google Assistant, Apple Siri und Microsoft Cortana, die als smarte Alltagshelfer die Bindung die Endgeräte wie das Smartphone an den Besitzer weiter verstärken und in ihrer Verbreitung stetig zunehmen. Dabei entstehen diskussionswürdige Aspekte in Bezug auf Transparenz des Nutzers, die kommerzielle Verwertung der Nutzerprofile und die Selbstbestimmung der Benutzer, die durch die passive, häufig unbewusste Unterstützung der persönlichen Assistenten tangiert wird, die wiederum maßgeblichen Einfluss auf das Nutzerverhalten hat.
16:45 – 17:30 Dr. Ruth Elsholz, PwC Wirtschaftsprüfungsgesellschaft
Sola Scriptura – Neue Medien – Fake News
(Was) Lässt sich von Luther lernen?

Zusammenfassung:
Der Vortrag zeigt anhand von Beispielen, wie der Reformator seine Autorität als Theologe und Volksheld gezielt für seine Sache einsetzte. Obwohl er dabei Übertreibungen, Schmähungen, und Falschmeldungen nicht scheute, wirkt seine Eskalationsstrategie bis heute erfolgreicher als die Mäßigungspolitik seines Kontrahenten Albrecht von Brandenburg. Ob sich daraus Folgerungen für die Arbeit von Medienmenschen und Information Professionals im 21. Jahrhundert ziehen lassen, begann ich mich zu fragen, als mir bewusst wurde, dass mit dem Thema Digitalisierung genauso viel (überzogene?) Heilserwartung wie Dämonisierung verknüpft ist. Auch hierfür gibt es Praxisbeispiele.
17:30 – 18:15 Günter Peters, vfm
Erfahrungen und Erkenntnisse aus dem Einsatz automatischer Verfahren in der Mediendokumentation
Zusammenfassung:
Automatische Verfahren werden seit 2002 professionell in deutschen Mediendokumentationen eingesetzt (Kooperation von Gruner + Jahr und IBM). Der Einsatz blieb für die folgenden ca. zehn Jahre auf Volltexte beschränkt. Neben Text Minern wurden semantische Verfahren entwickelt, die die Ergebnisse automatischer Verfahren verbesserten.
Der Einsatz von automatischen Verfahren geschieht in der Regel halbautomatisch, das heißt: Die eingesetzte Software liefert Verschlagwortungsvorschläge, die die Dokumentare überprüfen und entweder korrigieren oder akzeptieren. Die Gesamtheit der so intellektuell verschlagworteten bzw. überprüften Artikel bildet dann die Trainingsmenge für die eingesetzten Softwares.
Der Einsatz automatischer Verfahren ist im Prinzip die Lösung von quantitativen Problemen bei der inhaltlichen Erschließung von Medieninhalten. Mit solchen Verfahren wird Dokumentation zu Data Management – es ist möglich, große Mengen an Dokumenten aktuell zu bearbeiten und mit Metainformationen angereichert zur Verfügung zu stellen. Dies ist angesichts der Datenmengen, die von Archiven und Dokumentationen jetzt und zukünftig verarbeitet werden müssen, auch nötig.
Zur Zeit erleben wir einen Entwicklungsschritt in Richtung Automatisierung, der auch die bisherige halbautomatische Arbeitsweise modifizieren könnte. Denn sowohl Internetfirmen als andere große Medienfirmen haben ein großes Interesse an einer automatisierten Erschließung aktueller und historischer Bestände. Die technischen Voraussetzungen sind nun vorhanden, um einen größeren Grad an Automatisierung zu realisieren als wir ihn bislang kennen.
18:30 – 19:30 Stadtrundgang

9. September 2017

9:30 – 10:15 Dr. Felix Sasaki, LambdaWerk GmbH
FREME – semantische und mehrsprachige Anreicherung selbstgemacht
Zusammenfassung:
Das Thema „Künstliche Intelligenz“ ist – wieder einmal – zum Hype geworden. Größtenteils sind die Methoden und Werkzeuge der KI nur den Experten zugänglich. Das Projekt FREME hat sich zum Ziel gesetzt, dies für den Bereich „semantische und mehrsprachige Anreicherung digitaler Inhalte“ zu ändern. FREME möchte es Wissensarbeitern erleichtern, mit KI-Werkzeugen umzugehen und sie zu adaptieren. Ein zentraler Mehrwert von FREME ist, dass die Wissensarbeiter diese Adaption vornehmen können, ohne die zu Grunde liegenden Verfahren der KI im Detail zu kennen.
10:15 – 10:30 Uhr Dr. Oliver Renn
Google Ngram Viewer - Coffee Lecture 4
10:30 – 11:00 Kaffeepause
11:00 – 11:45 Stefan Geißler, Expert System
Lebenslanges Lernen – Maschinelles Lernen in der Sprachverarbeitung
Zusammenfassung:
Maschinelle Lernverfahren sind in aller Munde; in den Medien, in der Wissenschaft, aber immer mehr auch in industriellen, produktiven Anwendungen, auch in der Sprachverarbeitung. Der Vortrag stellt einige Beispielsszenarien vor und vermittelt einen groben Überblick über die Methoden, bis hin zum viel beachteten Deep Learning – nicht genug vielleicht um direkt die erste eigene Anwendung zu schreiben aber sicher genug, um das nächste Partygespräch zum Thema zu überleben.
12:00 – 13:00 Abschlussplenum
Auftrag, Anspruch und Verantwortung der Information Professionals
Kein Tag vergeht, an dem die Schlagworte Fake-News, Lügenpresse oder postfaktisch – aus gegebenen Anlässen – nicht bemüht werden müssen. In social-media werden die Grenzen zwischen Glauben, Meinen und Wissen bewusst verwischt, um durch Vagheit gezielt Unsicherheit zu erzeugen, gesellschaftliche Diskurse zu dominieren oder Personen zu diskreditieren. Entsprechend wird die Frage immer drängender, wie es künftig gelingen kann, freie Meinungsäußerung und Transparenz auf der einen Seite mit Qualität und Seriosität von Informationen auf der anderen zu vereinbaren. Die Frage nach dem Stellenwert von ‚Sprache, Wahrheit und Datensouveränität in modernen Kommunikationswelten‘ führt dann zwangsläufig zu einer Kaskade weiterer Fragen:
• Wenn nun bereits die Informationelle Selbstbestimmung Utopie geworden ist, lässt sich wenigstens noch „informationelle Verlässlichkeit“gewährleisten?
• Wenn nunbereitsdie Grenzen zwischen Fake News, alternativen Fakten und offensichtlichen Unwahrheiten verschwimmen, wie lassen sich Fakten, Informationen und Wissen schützen?
• Wenn nun bereits Roboter antworten und künstliche Intelligenz mit uns redet, wie verändert sich Kommunikation insgesamt und die Wahrnehmung unsererWelt?
• Wenn nun bereits Big Data, Algorithmen, Simulationen Ton und Takt der Gespräche angeben, welche Kriterien und Methoden sollen für „verlässliches Wissen“ gelten?
• Wenn nun bereits das Internet nicht länger als bloßes Gedächtnis der Menschheit fungiert, sondern zur zentralen Sozialisations-Agentur mutiert, welche Alternativen zur Semantik- und Sinn-Maschine gibt es dann noch?
• Wenn nun bereits die ‚sozialen Netzwerke‘ endgültig zu selbstreferentiellen und unendlichen Echo-Kammern verkommen, was bleibt als Substanz ‚echter Kommunikation‘ bestehen?
• Wenn nun schon keine der Fragen beantwortbar, welche Rolle und Funktion müssen die Informational Professionals übernehmen – ganz im Sinne des Titels dieser Abschluss-Runde.
13:00 Ende der Veranstaltung
14:00 interne Sitzung des Programmkomitees
Programm vorläufiger Stand 22. August 2017 – Änderungen vorbehalten

Unsere Sponsoren und Partner