DGI-Blog

Monthly Archives: Juni 2014

#Studenten der #h_da für die #DGI: #Eindrücke der 3. #DGI-Konferenz

By | Allgemein | No Comments

3. DGI-Konferenz: Informationsqualität und Wissensgenerierung, 8.-9. Mai 2014

 

Der folgende Beitrag behandelt die 3. DGI-Konferenz zum Thema „Informationsqualität und Wissensgenerierung“, die vom 8. bis 9. Mai 2014 in Frankfurt am Main stattfand. Masterstudenten des Moduls Informationsqualität, angeboten von Prof. Dr. Marc Rittberger, nahmen an der Konferenz teil und verfassten einen Bericht darüber. In dem Bericht alle Beiträge kurz zusammengefasst. Eine ausführlichere Beschreibung der Vorträge findet sich im Tagungsband der Konferenz.

 

Keynote 1

Nachdem Dr. Luzian Weisel, der Vizepräsidenten der DGI, den Kongress eröffnet hatte, war die Keynote von Andreas Blumauer der erste Vortrag am Donnerstagmittag.

 

Andreas Blumauer: Linked Data – Das Ende des Dokuments?

Herr Blumauer referierte über das Produkt „PoolParty“. Mit diesem können aus vorliegenden Daten semi-automatisch Graphen erstellt werden. Informationsqualität zeichnet sich seiner Meinung nach vor allem durch Verständlichkeit aus. Die Art der Darstellung sei hierbei entscheidend und sollte interaktiv gestaltet sein. Mit Linked Data werden keine Dokumente mehr verknüpft, sondern Entitäten aus verschiedenen Quellen innerhalb einer Darstellung. Dies dient der Übersetzung zwischen Anwender und Techniker, vermeidet technische Lock-in-Effekte, hilft Standards zu etablieren, ermöglicht komplexere Wertschöpfungsketten und verbessert die Kommunikation. Die Software „PoolParty“ arbeitet mit Standards wie SKOS. Herr Blumauer betonte mehrmals die Wichtigkeit der Einhaltung und vor allem der Nutzung solcher Standards.

 

Session 1: Nutzungskontexte und Recherche

Im Anschluss an die Keynote begann gleich die erste Session mit dem Thema Nutzungskontexte und Recherche. Alexander Botte vom Deutschen Institut für Internationale Pädagogische Forschung (DIPF) moderierte die Session.

 

Hermann Bense: Recherche-Unterstützung durch Ontologie-Visualisierung im EnArgus2-Projekt

Mit dem EnArgus-Projekt, vorgestellt von Hermann Bense, soll es ermöglicht werden die „staatliche Förderpolitik im Bereich der Energieforschung transparenter zu gestalten und die Bewertung von Technologieentwicklung zu erleichtern“. Das nötige Fachwissen wird gesammelt und das Expertenwissen modelliert. Anschließend wird die Wiki-Suchfunktion — durch Navigation in den Hypertrees — unterstützt. Durch die Darstellungsform in einer Art von graphischem Lexikon, können bestimmte Begriffsbeziehungen besser veranschaulicht und die Navigation zwischen den Ebenen erleichtert werden. Außerdem ist es bei der Recherche nicht mehr nötig jede verwendete Bezeichnung zu kennen und einzeln zu recherchieren.

Nikolas Leichner: Google Scholar versus Fachdatenbanken Wie erfolgreich nutzen Studierende verschiedene Suchwerkzeuge?

In seinen Ausführungen befasste sich Nikolas Leichner, ein Doktorand am Leibniz-Zentrum, mit der Verwendung von Google Scholar und Fachdatenbanken bei Studenten. Hierbei zeigte sich deutlich, dass zwar zu Anfang das Google-Produkt bevorzugt wird. Im Laufe der Zeit nahm dessen Bedeutung jedoch ab. Diese Entwicklung begründete Herr Leichner damit, dass Google Scholar prinzipiell keine Alternative zu Fachdatenbanken darstellt. Für die Verwendung der besseren Fachdatenbanken ist jedoch Training erforderlich. Zuhörer verwiesen allerdings darauf, dass diese Schlussfolgerung nicht zwangsläufig stimmen. So wurde angeführt, dass die Google-Suche in manchen Bereichen, wie der Volltextrecherche, schlichtweg besser ist.

 

Session 2: Informationsorganisation und Qualität

Nach einer kurzen Pause wurde die zweite Session am Donnerstagnachmittag eingeleitet. Diese hatte das Thema Informationsorganisation und Qualität. Prof. Dr. Angela Schreyer von der Fachhochschule Potsdam moderierte die Session.

 

Christian Stein: Die Modellierung von Interdisziplinarität – Ontologiedesign für den Exzellenzcluster „Bild Wissen Gestaltung“

Christian Stein gab durch seinen Vortrag einen Einblick in die Arbeit des an der Humboldt Universität angesiedelten Exzellenzclusters „Bild Wissen Gestaltung“. Dieses interdisziplinäre Forschungsprojekt besteht aus über 20 Einzelvorhaben mit mehr als 25 beteiligten Disziplinen. Zum wurden die räumlichen und technischen Rahmenbedingungen innerhalb des Gesamtprojekts dargestellt. Zum anderen die Ontologie zur Abbildung interdisziplinärer Forschungsprozesse sowie datenschutzrechtliche Regelungen angeschnitten.

 

Markus Zoier, Bernd Fachbach, Manfred Rosenberger, Nadja Marko, Selver Softic & Alexander Stocker: Konzeption einer Architektur für flexible Suche und Informationsvernetzung in der Fahrzeugentwicklung

In dem Vortrag wurden vom Referenten die Herausforderung der Informationsbeschaffung im Engineering Bereich angesprochen. Das Ziel ist es, ein „Info Cockpit “ zur realisieren, in dem eine Virtuelle Umgebung sowie Prototypen erstellt werden.

 

Klaus Mak, Christian Meurers, Johannes Göllner: Von der Dokumentation zum organisationalen WissensPerformanceSystem

Der Referent legte in seinem Vortrag den Begriff „Wissen“ als Voraussetzung für Handeln oder Nichthandeln fest. Es wurde auf den Verlauf der Wissensentwicklung, vom Auftrag bis zur Entscheidung“ eingegangen. Anschließend wurde auch das Konzept von der Dokumentation zum Wissen Performance System vorgestellt.

 

 

Session: Kurzvorträge

Parallel zur zweiten Session fand eine Reihe von Kurzvorträgen in einem benachbarten Saal statt. Das übergreifende Thema der Kurzvorträge war Informationsqualität und Wissensgenerierung. Die Moderation wurde von Evelyn Dröge aus dem Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität übernommen.

 

Francesca Schulze: Datenqualität in der Deutschen Digitalen Bibliothek

Francesca Schulze berichtete von der Einbindung bzw. Verlinkungen der Daten in EUROPEANA mithilfe von ESE (Europeana Semantic Elements). Ebenso ging sie auf die größte Herausforderung ein, die heterogene Qualität der Lieferanten. Am Ende ihres Vortrages stellte die Rednerin noch die künftigen Ziele ihrer Arbeit vor: Zusätzliche Verknüpfungen zwischen den Objekten und die Verbesserung der Navigation. Mit dem Fazit, dass die Lieferanten die hauptverantwortlichen für die Datenqualität sind, die DDB jedoch nur Hilfestellung geben kann, schloss sie ihren Vortrag.

 

Andrea Horch: Semantische Online-Suchsysteme

Dieser Vortrag ist leider entfallen.

 

Gabriele Patzer: Social Media Research – der Wert der Meinung

In dem Kurzvortrag zum Thema „Social Media Research“ stellte Daniel Gradinger von Genios ein neues Angebot vor: Genios Media Monitoring. Dieses betreibt in Echtzeit datenschutzkonformes Text-Mining in sozialen Netzwerke. Zudem analysiert es die die gesammelten Daten analysiert und gibt Reporte aus.

 

Manfred Hauer: Hocheffiziente Tiefenerschließung multilingualer Textkollektionen mittels intelligentCAPTURE

Manfred Hauer stellte in seinem Vortrag intelligentCAPTURE vor. Hierbei handelt es um ein Projekt in Zusammenarbeit mit der Deutschen Nationalbibliothek, in dem mehrsprachige Textkollektionen automatisiert erschlossen werden. Als Basis für die automatische Inhalterschließung von Textdokumenten dienen eingescannte Inhalts-, sowie Stichwortverzeichnisse. Folglich wird aus den Scans ein Textkorpus automatisch extrahiert. Die Begriffe aus dem Korpus werden maschinell indexiert und es erfolgt eine vollautomatische Generierung von bibliographischen Daten zu dem jeweiligen Textdokument. Die maschinelle Indexierung dient einer umfangreicheren Trefferzahl bei der Recherche nach relevanter Literatur in Bibliothekskatalogen. Im Schnitt kann sie 606 Begriffe liefern, die mit dem Textdokument verknüpft sind, die zu einem breiteren und besseren Ergebnis führen.

 

Manfred Jaksch: Mehrwert schöpfen – Metasuche und Analyse von Fachinformationen

Der Referent sprach in seinem Vortrag über das Ziel, durch Wissensbeschleunigung in Unternehmen die Innovations- und Wettbewerbsfähigkeit zu steigern. Anhand von verschiedenen Plattformen präsentierte er Beispiele von Mehrwertangaben. In der anschließenden Fragerunde, stellte er die zusätzliche Visualisierung der Daten in Aussicht.

 

Frank Wiegand: Deutsches Textarchiv Qualitätssicherung (DTAQ)

In diesem Kurzvortrag präsentierte Frank Wiegand vom Deutschen Textarchiv eine webbasierte Anwendung, die Digitalisate von Handschriften in das XML-Format umwandelt. Zudem erkennt und verbessert sie Fehler, die im Zuge der Entwicklung der deutschen Sprache entstanden sind. In der Anwendung eingebettet ist zudem die Normalisierung historischer Schrift in zeitgemäße Schrift. Die Anwendung kann so historische und wertvolle Handschriften vor übermäßiger Abnutzung schützen. Außerdem trägt sie dazu bei, dass Handschriften einfacher gelesen werden können. Die Anwendung birgt also eine Menge Annehmlichkeiten für historisch forschende und interessierte Nutzer.

 

Stefan Geißler: Aufbau von Terminologien aus Dokumentenkorpora – wie ein wenig Mathematik und Sprachverarbeitung Tage und Wochen manueller Arbeit vermeiden hilft

Als Einstieg stellte der Referent den Wert von Thesauri und der Facetten-Suche dar. Anschließend stellte er das Projekt Luxid WebStudio vor, welches auf die automatische Indexierung aus Dokumenten spezialisiert ist. Anhand von verschiedenen Beispielen erläuterte er Funktionen des Projekts. Auch demonstrierte er, wie einfach neue Einträge eingefügt werden können.

 

Podiumsdiskussion: Informationsqualität und Information Professionals

Den Abschluss des ersten Konferenztages bildete die Podiumsdiskussion mit dem Thema Informationsqualität und Information Professionals. Die Diskussion wurde von Prof. Dr. Marc Rittberger vom Deutschen Institut für Internationale Pädagogische Forschung (DIPF) moderiert. Teilnehmer der Diskussion waren Frau Petry-Eberle von der Daimler AG, Herr Blumauer von der Semantic Web Company GmbH, Herr Karger vom DFKI und Herr Stuike-Prill vom FIZ Karlsruhe.

Zu Beginn erzählten die eingeladenen Diskussionsteilnehmer von ihren Aufgaben und von der Informationsqualität bzw. Qualitätssicherung in ihrem Unternehmen. Frau Petry-Eberle prägte den Satz, dass Informationsqualität durch Prozessqualität in der Leistungserstellung entstehe. Für Herrn Stuike-Prill hingegen ist es Qualität, „wenn der Kunde wiederkommt und nicht das Produkt“. Anfangs fand die Diskussion eher direkt zwischen den Teilnehmer statt, nach einer Weile stellte jedoch auch das Publikum Fragen. Später ging es dann um die Zukunft der Information Professionals, deren Ausbildung und die für den Berufszweig aktuell erforderliche Kompetenzen. Insgesamt lässt sich hierüber sagen, dass Information Professionals möglichst interdisziplinär ausgebildet sein sollten. Des Weiteren kamen die Diskussionsteilnehmer zum Ergebnis, dass sich das Aufgabengebiet vor allem in Richtung der (Weiter-)Entwicklung von Tools/Werkzeugen und dem Entwickeln und Bewerten von Ontologien bzw. Unternehmensterminologien verlagert hat.

 

Session 3: Social Knowledge Management

Der zweite Konferenztag startete am Freitagmorgen mit einer Session zu Social Knowledge Management. Stefan Geißler vom Unternehmen TEMIS moderierte die Session.

 

Angela Vorndran, Silvana Keutz, Daniela Olenik, Aida Raimbekova und Marc Rittberger: Social Media als Quelle berufsbezogener Information in der Unterrichtsvorbereitung

Frau Vorndran vom Deutschen Institut für Internationale Pädagogische Forschung (DIPF) berichtete in ihrem Vortrag über die Rolle von Social Media bei der Unterrichtsvorbereitung in den Schulen. Die Studie über dieses Thema wurde mit der Unterstützung von Masterstudenten der Hochschule Darmstadt und am Beispiel der virtuellen Berufscommunity für Lehrer und Lehrerinnen „4teachers„ durchgeführt. Das Ziel der Untersuchung war festzustellen, wie die Lehrer und Lehrerinnen vorgehen, wenn Sie das Internet für ihre Unterrichtsvorbereitung nutzen und welchen Einfluss Social Media auf die Unterrichtsvorbereitung hat.

 

Thorsten Förster, Lennart Lamerz, Agnes Mainka & Isabella Peters: The Tweet and the City: Eine Studie über Twitter-Aktivitäten in informationellen Weltstädten

Thorsten Förster und Lennart Lamerz berichteten darüber, wie kommunikativ informationelle Weltstädte auf Twitter sind. Anhand verschiedener Indikatoren wählten sie 31 Weltstädte aus. Für eine anschließende Studie untersuchten sie die Aktivitäten zu den Städten auf Twitter. Dabei beobachteten sie, dass Einwohnerzahl und Größe der Stadt die Twitter-Aktivitäten nicht allein beeinflussen. Auch andere Faktoren wie z.B. Datenschutz können einen Einfluss haben. Außerdem gingen die Referenten auf die Frage ein, woher die Nutzer stammen, die über eine Stadt twittern und ob sie eher über Städte twittern, in denen sie sich selbst aufhalten.

 

Sarah Baldin & Beate Renate Somorowsky: Enterprise 2.0 in Bibliotheken und Informationseinrichtungen – Neue Anforderungen an Wissensmanagement in Zeiten des Social Web

Die Referenten berichteten über Enterprise 2.0 in Bibliotheken und Informationseinrichtungen. Die zentrale Frage des Vortrags war dabei: „How can libraries learn from other service industries; how will librarians keep up with specific skills? “ Die Referenten stellten fest, dass das Thema „Web 2.0“ noch nicht dort angekommen ist. Weder in der Theorie noch in der Praxis. Es gibt zwar vereinzelte Ansätze, aber generell ist noch nicht bekannt, was Enterprise 2.0 ist und wie es eingesetzt werden könnte. Die Prinzipien des Web 2.0 werden von den Referenten mit folgenden drei Komponenten verknüpft: Mensch, Technik und Organisation. Somit stellen die Referenten die Frage: „Wie kann ein Wandel zur Enterprise 2.0-Bibliothek gelingen?“ Web 2.0 in Bibliotheken bedeute mehr als Tools. Es fordere passende innerbetriebliche Rahmenbedingungen. Die Referenten stellten zum Schluss fest, dass es bisher noch keine repräsentative Studie dazu gibt, ob und wie Web 2.0 in deutschen Bibliotheken genutzt wird. Deshalb regen die Referenten eine solche Studie an. Zudem empfehlen sie eine gezielte Untersuchung zur Vereinbarkeit des öffentlichen Dienstes mit Enterprise 2.0.

 

Session 4: Modellierung und Informationsinfrastrukturen

Anschließend folgte die letzte Session der DGI-Konferenz. Sie hatte Modellierung und Informationsinfrastrukturen zum Thema. Die Moderation der Session wurde von Prof. Dr. Christian Wolff von der Universität Regensburg übernommen.

 

Steffen Hennicke, Evelyn Dröge, Violeta Trkulja & Julia Iwanowa: Von ESE zu EDM und darüber hinaus: Wie Europeana Zugang zu Objekten des Kuturellen Erbes ermöglicht

In ihrem Vortrag stellte Evelyn Dröge die Entwicklung der in Europeana verwendeten Beschreibungsstandards dar. Europeana ist eine von der Europäischen Union initiierte und geförderte virtuelle Bibliothek mit dem Ziel, europaweit die Objekte aller Wissenschafts- und Kulturinstitutionen über ein zentrales Portal zugänglich zu machen. Da hierfür die Objektdaten aus verschiedenen Einrichtungen aus ganz Europa geliefert werden, liegen viele verschiedene Formaten und Metadatenstandards vor. Daher wurde mit den Europeana Semantic Elements (ESE) ein neuer, Linked-Data-konformer Beschreibungsstandard entwickelt. Dieser soll die Interoperabilität der Metadaten gewährleistet und somit eine einheitliche Suche und Darstellung der in Europeana enthaltenen Objekte ermöglichen. Die ESE wurden zum Europeana Data Model (EDM) weiterentwickelt, mit dessen Hilfe eine semantische Kontextualisierung der Inhalte erfolgt. Beim DM2E-Modell (Digital Mansucripts to Europeana) handelt es sich um eine spezielle Version des EDM für die Anreicherung von Manuskripten.

 

Ute Sondergeld, Dr. Andreas Kempf: Fachinformationssysteme als Basis der Wissenschaftsforschung. Verwendungspotentiale infrastruktureller Dienste für ein indikatorenbasiertes Forschungsmonitoring am Beispiel der Bildungsforschung

Andreas Kempf stellte in seinem Vortrag eine Untersuchung dar, mithilfe derer beurteilt werden sollte, ob und in wie weit sich Fachinformationssysteme als Basis für indikatorenbasiertes Forschungsmonitoring eignen. Dies wurde am Beispiel einer mehrdimensionalen Analyse von Projekten und Publikationen der Bildungsforschung überprüft, indem die im Rahmen dieser Analyse verwendeten Indikatoren hinsichtlich ihrer Ergebnisse untersucht wurden. Als Ergebnis lässt sich festhalten, dass mit den Indikatoren signifikante Aussagen generiert werden können. Somit kann mit Fachinformationssystemen als Datengrundlage erfolgreiches Forschungsmonitoring betrieben werden. Verglichen mit anderen Vorträgen war dieser Vortrag für in diesem Bereich unbewanderte Zuhörer nur schwer nachvollziehbar. Dieser Umstand ist aber wohl auf die Komplexität des Themas zurückzuführen.

 

Drechsler, Robert Strötgen & Esther Chen: Entwicklung eines Informationssystems für Lehrpläne – die Curricula Workstation

In diesem Vortrag berichtete Jessica Drechsler vom Georg-Eckert-Institut über ihre Erfahrungen bei der Entwicklung eines Informationssystems für Lehrpläne. Angeregt von den Nutzern, soll die Curricula Workstation einen zentralen Zugang zur Lehrplansammlung des Instituts bieten. Um den Anforderungen der Nutzer zu entsprechen, wurden diese durch Workshops und Befragungen von Anfang an in das Projekt einbezogen. Ebenso wichtige Ziele für die Workstation waren die Verwendung aktueller Standards und die nahtlose Einbindung in Forschungsinfrastrukturen. Damit dies gewährleistet werden konnte, zog das Georg-Eckert-Institut externe Berater hinzu und stellte eine Analyse der vorhandenen Strukturen an.

Keynote 2

Nach der Mittagspause hielt Reinhard Karger am Freitag die zweite und letzte Keynote, die den Abschluss der DGI-Konferenz bildete.

Reinhard Karger: Wenn Informationswelten und Weltwissen zusammenwachsen: Das Internet der Dinge erreicht die Welt der Gegenstände

In der amüsanten Keynote über die zukünftige Bedeutung des Internet der Dinge wurde ein schon existierender, aber noch neuer Aufgabenbereich von Informationsspezialisten dargestellt. Dem Vortragenden nach ist es die Aufgabe von Informationsspezialisten „Innovationslücken“ zu schließen, d. h. Produkte zu entwickeln, die Sensordaten aus vernetzten Dingen nutzen, um Menschen den Alltag zu erleichtern.

 

Abschließende Betrachtung

Insgesamt haben wir viele verschiedene Dinge zum Thema Informationswissenschaften gehört und gelernt. Leider gab es trotz des Titels der Veranstaltung „Informationsqualität und Wissensgenerierung“ nur wenige Vorträge zum Thema Informationsqualität. Die anderen Vorträge waren jedoch größtenteils dennoch für uns interessant und lehrreich. Neben den Vorträgen sind vor allem die Gelegenheiten zum gegenseitigen Austausch zu begrüßen, bei denen sich Studenten auch mal mit Berufstätigen über ihre Perspektiven und deren Aufgaben unterhalten können. Dies war zwischen den Sessions bei Kaffee und Kuchen beziehungsweise Mittagessen sehr gut möglich.

Gerne empfehlen wir die DGI-Konferenz auch anderen Studenten und Interessierten aus dem informationswissenschaftlichen Bereich weiter.

 

Dieser Beitrag wurde von den folgenden Personen verfasst: Anzhelika Belozer, Christoph Ewertowski, Daniel Schuler, Ingo Thellmann, Ingrid Peck, Lisa Benz, Luise König, Madeleine Gerlach, Matthias Letsch, Olena Demianets, Roland Fabritius, Sylvia Kullmann und Tatiana Ivanova.