Was automatisiert werden kann, wird automatisiert werden. Das gilt auch für die Arbeitsprozesse der traditionellen Dokumentation, der Erschließung von Medien aller Art. Verfahren der künstlichen Intelligenz erlauben bereits die Gesichtserkennung und die Identifizierung von Sehenswürdigkeiten oder Gegenständen auf digitalen Fotos oder Videos. Text Mining, verknüpft mit mehrsprachigen Wörterbüchern und Ontologien, kann den Informationsgehalt aus Veröffentlichungen extrahieren und ihn für die Benutzung in allen gängigen Sprachen zur Verfügung stellen. Free Summarizer stehen jedermann zur Verfügung, um selbstständig Zusammenfassungen beliebiger Texte zu erzeugen. Die DGI-Praxistage stellen einsetzbare Lösungen vor und lassen Anwender zu Wort kommen. Wir wollen klären, wie sich die Arbeit der Information Professionals verändert, wenn Algorithmen herkömmliche dokumentarische Arbeiten übernehmen, - und welche Anforderungen dies an die künftige Arbeit und die natürliche Intelligenz stellt.

 8. November 2018
10:00 UhrBegrüßung und Eröffnung
Marlies Ockenfeld, Präsidentin der DGI
10:15 – 13:00 UhrÖffentliche Sitzung des Arbeitskreises Bildung und Informationskompetenz

Künstliche Intelligenz - was kann sie für die Bildung leisten?
Einladung zur Teilnahme, für Impulsbeiträge und zur Diskussion

Ein flüchtiger Blick in die Bildungslandschaft genügt, zu erkennen, vor welchen ansteigenden Herausforderungen alle Bildungsinstitutionen stehen. Fehlen in der Schule vorrangig Lehrer, sodass schon vom Bildungsnotstand gesprochen wird, so fehlt es dort ebenso an einer stabilen Substanz, bis hin zur Gebäudestruktur. In Hochschulen sieht es kaum besser aus. Drängender noch aber sind die steigenden Anforderungen: große Klassen, heterogene Schülerschaft, Mehrsprachigkeit, Inklusion, pädagogische Konzepte, Leistungserhebungen und vieles mehr. Die systematische Vermittlung von 'Medienkompetenz' wird spätestens seit Beginn der 1970er Jahre gefordert, passiert ist wenig, schaut man sich die aktuelle Ausstattung von allgemeinbildenden Schulen an oder auch die Debatten nach einem Handy-Verbot.
Nun soll auch noch 'Künstliche Intelligenz' (KI) in der Schule und darüber hinaus Einzug halten, wo man doch zuerst und vorrangig 'Menschliche Intelligenz' erwartet und fördern möchte?
"Überholen ohne Einzuholen": KI erscheint als das Versprechen, menschliche Entscheidungen auf der Basis enormer Informationsmengen nachzubilden und zu verbessern. In allen Bereichen von Bildung werden vor allem jene Lernphasen zunehmend durch KI (Digitale Methoden und Instrumente) unterstützt, die mit dem Aufspüren, Präsentieren und Kontrastieren von Information befasst sind. Hier scheint KI besonders gut einsetzbar. Hinzu kommt noch der Aspekt, dass auch im Bereich der Weiterbildung und des selbständigen Lernens - beides expansive Bildungsbereiche - digitale Angebote eine zunehmende Rolle spielen. Zusätzlich werden die Lernkontrolle bzw. die Erfolgsmessung zukünftig in der Tat durch Technologien gekennzeichnet sein, die aus der KI kommen und die Lerndefizite bzw. Lernstile der Probanden erkennen.
Ziel der öffentlichen Sitzung ist es, im kleinen Kreis Interessierter aus Bildungstheorie und Bildungspraxis einen offenen, diskursiven Gedankenaustausch anzuregen. Im besten Fall lassen sich aus den Beiträgen zentrale Eckpunkte oder Forderungen und in einem Strategiepapier skizzieren, das den Namen tragen könnte: „Anforderungen an Bildung und IK in der KI“

Programm (PDF)

10:15 Prof. Dr. Matthias Ballod, Martin-Luther-Universität Halle-Wittenberg
KI in der Bildung: Utopie oder Dystopie

10:35 Stefan Holtel, PwC AI Explainer München
Künstliche Intelligenz braucht kognitive Literalität

10:50 Dr. Tamara Heck, DIPF, Frankfurt,
Lösungen und Herausforderungen beim Retrieval offener Bildungsressourcen (Präsentation)

Kaffeepause

11:30 Christine Burblies, TIB, Hannover und Dr. Tamara Pianos, ZBW Kiel
KI im Kontext von IK (und Informationsinfrastruktur) Ein kontroverses Zwiegespräch (Präsentation)

11:50 Dr. Paul Libbrecht, DIPF Frankfurt
ILO: Ein MOOC für Informationsgrundkompetenz für Studierende


Wir freuen uns auf Ihre Teilnahme. Bitte melden Sie sich für die Sitzung an unter:
https://dgi-info.de/dgi-praxistage-anmeldung/
Prof. Dr. Matthias Ballod, Sprecher der DGI-Fachgruppe Bildung und Informationskompetenz
Prof. Dr. Luzian Weisel, Vizepräsident DGI
13:00 – 14:00 UhrMittagspause
14:00 – 16:00 UhrÖffentliche Sitzung des Arbeitskreises Terminologie und Sprachfragen (AKTS)

Terminologie im Informationsbereich – für wen? wie?

„Terminologie“ ? Also ein Lexikon, ein Nachschlagewerk ? Der (tägliche) Sprachgebrauch in unserem beruflichen Handeln ? Das Grundgerüst in Lehrbüchern und beim Hochschulunterricht unserer Domäne „Information“ ? Also etwas, das mehr oder weniger immer präsent, überall ein bisschen mit enthalten ist, aber nie so recht ganz eigenständig und deutlich in Erscheinung tritt .. ?
Immerhin: Zur Entwicklung und dem Gebrauch guter fachlicher „Terminologie“ beizutragen, ist satzungsgemäße Aufgabe der DGI. Und „Terminologie“ taucht ja stets überall ein wenig auf, in Projektanforderungen und -beschreibungen; in der Konzeption und dem Verstehen von Informationssystemen; im Ausfüllen der beruflichen Anforderungen von Informationsbeschaffung und Informationsaufbereitung: in Methoden der Informationsvermittlung, IT-Anwendungen auf allen Ebenen, Dokumentation, Bibliothek, Archiv, Bildarchiv, den Informationssystemen der medizinischen oder wirtschaftlichen Dokumentation (auch im Konstruktionsbüro und dem Produktmanagement). Aber sie ist oft ein wenig versteckt in den jeweiligen Lehrunterlagen oder System-/Produktbeschreibungen, tritt nicht immer selbständig deutlich sichtbar aufgereiht in Erscheinung – ein verstecktes Rückgrat, sozusagen.
Jedoch – gerade in unserem Bereich, der jungen „Dokumentation“ seit 1965, war stets auch die Forderung präsent, dass man die Terminologie, das Rückgrat logisch ausarbeiten und zusammenhängend zeigen sollte. Deshalb wurde - in gewisser Weise parallel zum grundlegenden Handbuch „Grundlagen der prakt. Inf und Dok (zuerst 1972; jetzt Ausgabe 2013)“ – auch das Erarbeiten und Vorstellen einer systematischen Terminologie unternommen, die sowohl der Hochschullehre als auch den vielen praktischen Arbeiten im Bereich der „Dokumentation“ Grundlage und eine gewisse Orientierung sein sollte: so entstand die TID (1975; 2006). Gleichzeitig gibt es hier enge Verbindung zum Bauen von Thesauri und Klassifikationen. Und wie ist das Verhältnis zu anderen Terminologien in IuD und Terminologiearbeitern wie der GND?
Wir bereiten die 3. Ausgabe der „TID“ vor, erweitert u.a. um ein Kapitel „Mediendokumentation“. Was sollte heute eine „Terminologie“ des Informationsbereichs beinhalten? Wofür nutzt sie – braucht es sie noch oder ist schon alles in IT-Handbüchern enthalten? Dies wollen wir ansprechen und diskutieren!
Axel Ermert, Sprecher DGI-AKTS, c/o Institut für Museumsforschung, Berlin, axel.ermert@t-online.de

Programm (PDF)

14:00 Axel Ermert
Kurzvorstellung AKTS: Hintergründe und Aufgaben

14:05 Axel Ermert
TID: Prinzipien und Aufbau; Verhältnis zu anderen Terminologien des Informationsbereichs

14:20 Jens Lill, Bibliotheksservice-Zentrum (BSZ), Universität Konstanz
GND4C: GND for Culture – Normdatenansetzungen und ihr Bezug zur Terminologie im Informationsbereich

Kaffeepause

15:00 Gruppendiskussion
Was brauchen wir für „(TID light): Einführungs- und Lehrmaterial zur Terminologie im Informations¬bereich?“ (anhand vorgelegter Thesen)

15:30 Gruppendiskussion
Gedanken und Pläne zur Internetpräsenz des AKTS; Zusammenarbeit mit anderen Playern?

ca. 16:30 – 19:00 UhrDGI-Mitgliederversammlung 2018
ab ca. 19:00 UhrRundgang durch die Neue Altstadt Frankfurt (Selbstzahler)

DGI-Stammtisch, Get-Together, offen für alle Interessierten im Cucina della Grazie (Selbstzahler)
 9. November 2018
10:00–10:15 UhrEröffnung und Begrüßung
10:15–10:55 UhrProf. Dr. Harald Sack (FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur und Karlsruher Institut für Technologie (KIT))

Ich sehe was, was Du nicht siehst – Aktuelle Möglichkeiten und Grenzen der Künstlichen Intelligenz (Präsentation)

Zusammenfassung:Künstliche Intelligenz (KI) durchdringt immer mehr Lebensbereiche und ist schon heute ein wichtiger Faktor für Forschung, wirtschaftliche Entwicklung und Arbeitswelt. Selbst die Bundesregierung hat die Erforschung, Entwicklung und Anwendung von KI als strategisches Ziel erkannt. Doch werden mit jeder neuen Erfolgsmeldung auch immer wieder falsche Erwartungen geweckt, und dies folgt einer langen Tradition. Als KI wird heute meist maschinelles Lernen verstanden, insbesondere Deep Learning, dessen Erfolge in den vergangenen Jahren verantwortlich für die aktuelle Popularität dieses Begriffs sind. Aber oft werden aufgrund einer einzigartigen, auf einen eng fokussierten Anwendungsbereich beschränkten Fähigkeit eines KI Systems unzulässige Verallgemeinerungen über dessen tatsächliche „Intelligenz“ getroffen, die sich aus dem vermeintlich intelligenten Verhalten der Maschine schließen lässt. Im Rahmen dieses Vortrags werfen wir ein kritisches Licht auf aktuelle Entwicklungen aus dem Bereich der KI, auf ihre Möglichkeiten, inhärente Probleme und potenzielle Grenzen. KI lässt sich nicht nur auf Deep Learning reduzieren, sondern muss symbolische Wissensrepräsentation, Planung und Optimierung mit einbeziehen.
10:55 – 11:25 UhrFrank Busse (Deutsche Nationalbibliothek)

Maschinelle Klassifikation in der Deutschen Nationalbibliothek (Präsentation)

Zusammenfassung: Seit 2012 werden in der DNB Verfahren zur maschinellen Klassifikation eingesetzt. Neben der maschinellen Vergabe von DDC-Sachgruppen, wird auch an der maschinellen Vergabe von DDC-Kurznotationen gearbeitet. Wie diese maschinellen Verfahren im Einzelnen arbeiten und welche besonderen Herausforderungen sich bei der Entwicklung der Kurznotationen gestellt haben, ist Teil des Vortrags. Darüber hinaus wird auf die Fragen der zukünftigen Kennzeichnung maschinell vergebener Notationen, die Datenauslieferung und das Qualitätsmanagement eingegangen.
11:25 – 11:45 UhrKaffeepause
11:45 – 12:15 UhrDr. Andreas Oskar Kempf (Leibniz-Informationszentrum Wirtschaft)

Maschinelle Indexierung in den Wirtschaftswissenschaften
Zum praktischen Einsatz automatisierter Erschließungsverfahren und ihre Auswirkungen auf das Thesaurusmanagement
(Präsentation)

Zusammenfassung: Der Anteil an Literatur, die maschinell inhaltlich erschlossen wird, wächst. Neben der Deutschen Nationalbibliothek und anderen Bibliotheken hat sich auch die ZBW – Leibniz-Informationszentrum Wirtschaft dazu entschieden, parallel zur intellektuellen Indexierung vollautomatische Verfahren einzusetzen. Für die Sacherschließung mit einem kontrollierten Vokabular, im Fall der ZBW mit dem Standard-Thesaurus Wirtschaft (STW) wirft dies zahlreiche grundsätzliche Fragen auf. Dies betrifft zum einen mögliche Anpassungen bei der Thesauruskonzeption aufgrund neuer Zusatzanforderungen. Zum anderen umfasst dies die Organisationsform der Thesaurusarbeit, die in Hinblick auf die Einbindung automatischer Verfahren bei der Erschließung in den einschlägigen Standards (DIN 1463, ISO 25964) nur wenig thematisiert wird.
Der Beitrag führt in den übergeordneten Kontext und in die Konzeption des Projekts automatische Indexierung an der ZBW ein. Anschließend wird ein Einblick in die sich wandelnde Fachreferatsarbeit sowie die praktische Einbeziehung des STW bei der automatischen Erschließung gegeben. Nach einer kurzen Darstellung der regulären Redaktionsarbeit, die u.a. das Ziel verfolgt, die Interoperabilität des Vokabulars weiter auszubauen, werden unterschiedliche Strategien aufgeführt, um bei der Weiterentwicklung des Thesaurus den zunehmenden Anteil an automatisch erschlossenen Titeln zu berücksichtigen.
12:15 – 12:45 UhrAndreas Mertens (avameo)

Automatic Summarizing (Präsentation)

Zusammenfassung: Wissensarbeiter sind in der Transformation zur „Digitalen Gesellschaft“ die am schnellsten wachsende Beschäftigungsgruppe. Sie müssen immer mehr Informationsmengen in kürzerer Zeit verarbeiten. Die zudem steigende Informationskomplexität führt in der Folge zu erhöhten Fehlentscheidungen, die Wissensarbeiter unter dem enormen Zeitdruck treffen müssen. Eine Entlastung können Lösungen liefern, welche die Prozesse der menschlichen Texterfassung unterstützen. So kann beispielsweise die Reduktion der Lesezeit durch automatisierte Textzusammenfassungen helfen.
Hans Peter Luhn brachte 1958 erstmals ein Algorithmus zur automatisierten Textzusammenfassung hervor und mittlerweile gibt es zahlreiche weitere Algorithmen und Patente zur extraktiven und abstraktiven Zusammenfassung von Texten. Zur Steigerung der Qualität von algorithmisch erzeugten Textzusammenfassungen trägt auch die positive Entwicklung des Natural Language Processings (NLP) bei, welches seine Anfänge mit Alan Turing in den 1950ern hatte. In diesem Beitrag wird der Status Quo der automatisierten Textzusammenfassung vorgestellt und durch eine Demonstration ergänzt.
12:45 – 13:45 UhrMittagspause
13:45 – 14:15 UhrManfred Hauer (AGI - Information Management Consultants)

Ist Künstlichen Intelligenz der Traktor des Dienstleistungsgewerbes?
Erfahrungen mit maschinellen Verfahren in Bibliothek und Dokumentation
(Präsentation)

Zusammenfassung: Traktoren haben die Landwirtschaft tiefgreifend verändert, ähnlich der Trend in der industriellen Produktion: Maschinen ersetzen Arbeits- und Denkkraft – der Bevölkerungsanteil der Bauern und Arbeiter geht stetig zurück. Wie steht es mit der Fachinformation, einem kleinen Teil der bürobasierten Dienstleistungsbranche? Deren primärer Gegenstand sind Texte und deren Aufbereitung für sofortige Information und/oder langfristige Dokumentation. Der Autor zeigt an Beispielen wie mit wenig Personaleinsatz unter Einsatz von State-of-the-Art Technologien heutige Resultate aussehen können. Ersetzt KI die Information Professionals? Unter welchen Voraussetzungen?
14:15 – 14:45 UhrHendrik Doll (Deutsche Bundesbank)

Automatisierte Datenintegration mit Hilfe von Machine Learning im Forschungsdaten- und Servicezentrum der Bundesbank (Präsentation)

Zusammenfassung: Im Forschungsdaten- und Servicezentrum (FDSZ) der Deutschen Bundesbank liegen Daten aus verschiedensten Quellen zu Unternehmen vor. Diese haben keine universelle, gemeinsame ID. Unser Ziel sind verknüpfte Datensätze, da erst diese den maximalen analytischen Wert der Daten ausschöpfen. Dafür matchen wir die Datensätze über Record Linkage Verfahren unter Zuhilfenahme von supervised Machine Learning. Für die Konsolidierung der verknüpften Daten ist dieser Ansatz auch vielversprechend.
Der Integrationsprozess involviert Standardisierung, Record Linkage und Konsolidierung der Daten. Das Record Linkage nutzt verschiedene Machine Learning Algorithmen (Random Forest, Gradient Boosting), welche auf der Groundtruth (einem Subset bekannter Matches und Non-Matches) trainiert und getestet werden und Matchvorhersagen klassifizieren. Auch bei der Zusammenführung der Informationen aus den verschiedenen Datenbanken (Konsolidierung). kann über einen solchen Machine Learning Approach systematisch gelernt werden, welche Informationen aus verschiedenen Quellen stimmen.
Die Evaluation unseres Prozesses zeigt sehr gute Resultate bei Precision und Recall. Es zeigt sich, dass durch den Machine Learning getriebenen Prozess die Datenqualität signifikant verbessert und der Bearbeitungsaufwand minimiert werden kann.
14:45 – 15:15 UhrProf. Dr. Maximilian Eibl (Technische Universität Chemnitz)

Digitale Erschließung analogen Videomaterials lokaler Fernsehsender – ein Erfahrungsbericht

Zusammenfassung: In der Zeit nach der Wiedervereinigung entstanden in den neuen Bundesländern zahlreiche lokale TV Sender. Grundlage bildeten die Kabelnetze, die noch zu DDR-Zeiten aufgebaut wurden, um Gemeinden über eine Gemeinschaftsantenne mit besserem TV-Empfang, nicht zuletzt Westempfang, auszustatten. Das damals entstandene Videomaterial wurde auf VHS abgelegt. An eine spätere Nutzung oder gar an die historische Bedeutung des gespeicherten Materials dachte damals niemand. Und so befindet sich das Material im Verfall.
Die Technische Universität Chemnitz unternimmt seit Jahren in Kooperation mit den Lokalfernsehsendern Sachsens Anstrengungen, dieses Material zu sichern und zugänglich zu machen. Dazu wurde eine Digitalisierungsstraße aufgebaut, die es ermöglicht, VHS-Kassetten einzuspielen, zu digitalisieren, zu segmentieren und zu annotieren. Die Annotationen werden dabei intellektuell und, wo möglich, automatisch erstellt. Zur Unterstützung werden Verfahren der KI herangezogen, um beispielsweise die Qualität des Materials einzuschätzen. Im Vortrag werden Möglichkeiten und Grenzen aktueller Verfahren aufgezeigt.
15:45 – 16:15 UhrDr. Hidir Aras (FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur)

Analyse großer Datenmengen mit Patentinformationen mittels Workflows und Big Data-Technologien(Präsentation)

Zusammenfassung: Der Siegeszug maschineller Lernverfahren sowohl in der Forschung als auch im Rahmen von speziellen industriellen Anwendungen wie der Gesichtserkennung, des automatisierten Fahrens oder in der Dialog- und Spracherkennung schreitet unaufhaltsam voran. Inzwischen gibt es keinen Bereich und kein Forschungsgebiet das durch KI-basierte Technologien nicht entscheidend geprägt wird. Damit ist auch ein immenser Einfluss auf unsere Ausbildung und unsere Arbeitswelt verbunden, welche verstärkt von intelligenten Systemen geprägt ist, und sowohl die Forschung als auch die Anwendung und den Umgang damit entscheidend transformiert. Dadurch gewinnen Lernumgebungen für „Data Science“ zum Erlernen und Erproben von neuen KI-Methoden sowohl aus wirtschaftlicher als auch technologischer Sicht an großer Bedeutung. Im TDMLab-Projekt wurde eine Big-Data-Plattform zur praxisnahen Erprobung und zum Erlernen neuer Methoden des Text- und Data-Mining (TDM) mit großen Datenmengen realisiert, welche im Rahmen der wissenschaftlichen Weiterbildung, z.B. von Informationsspezialisten, eingesetzt werden kann. Neben dem Aufbau der verteilten technischen Infrastruktur der Plattform, stand die Aufbereitung und die Integration komplexer technisch-wissenschaftlicher Informationen wie z.B. von Patenten, die Analyse und die Interaktion mit großen Datenmengen für unterschiedliche Such- und Analyseszenarien im Vordergrund. Im Vortrag wird ein Überblick über die wesentlichen Ziele und Ergebnisse des Forschungsprojekts gegeben und mögliche künftige Fragestellungen für die angewandte Forschung in diesem Bereich skizziert.
16:15 – 16:30 UhrAbschlussdiskussion, Verabschiedung, Ausblick

 

Unsere Partner und Sponsoren