DGI-Blog

#Studenten der #h_da für die #DGI: #Eindrücke der 3. #DGI-Konferenz

By | Allgemein | No Comments

3. DGI-Konferenz: Informationsqualität und Wissensgenerierung, 8.-9. Mai 2014

 

Der folgende Beitrag behandelt die 3. DGI-Konferenz zum Thema „Informationsqualität und Wissensgenerierung“, die vom 8. bis 9. Mai 2014 in Frankfurt am Main stattfand. Masterstudenten des Moduls Informationsqualität, angeboten von Prof. Dr. Marc Rittberger, nahmen an der Konferenz teil und verfassten einen Bericht darüber. In dem Bericht alle Beiträge kurz zusammengefasst. Eine ausführlichere Beschreibung der Vorträge findet sich im Tagungsband der Konferenz.

 

Keynote 1

Nachdem Dr. Luzian Weisel, der Vizepräsidenten der DGI, den Kongress eröffnet hatte, war die Keynote von Andreas Blumauer der erste Vortrag am Donnerstagmittag.

 

Andreas Blumauer: Linked Data – Das Ende des Dokuments?

Herr Blumauer referierte über das Produkt „PoolParty“. Mit diesem können aus vorliegenden Daten semi-automatisch Graphen erstellt werden. Informationsqualität zeichnet sich seiner Meinung nach vor allem durch Verständlichkeit aus. Die Art der Darstellung sei hierbei entscheidend und sollte interaktiv gestaltet sein. Mit Linked Data werden keine Dokumente mehr verknüpft, sondern Entitäten aus verschiedenen Quellen innerhalb einer Darstellung. Dies dient der Übersetzung zwischen Anwender und Techniker, vermeidet technische Lock-in-Effekte, hilft Standards zu etablieren, ermöglicht komplexere Wertschöpfungsketten und verbessert die Kommunikation. Die Software „PoolParty“ arbeitet mit Standards wie SKOS. Herr Blumauer betonte mehrmals die Wichtigkeit der Einhaltung und vor allem der Nutzung solcher Standards.

 

Session 1: Nutzungskontexte und Recherche

Im Anschluss an die Keynote begann gleich die erste Session mit dem Thema Nutzungskontexte und Recherche. Alexander Botte vom Deutschen Institut für Internationale Pädagogische Forschung (DIPF) moderierte die Session.

 

Hermann Bense: Recherche-Unterstützung durch Ontologie-Visualisierung im EnArgus2-Projekt

Mit dem EnArgus-Projekt, vorgestellt von Hermann Bense, soll es ermöglicht werden die „staatliche Förderpolitik im Bereich der Energieforschung transparenter zu gestalten und die Bewertung von Technologieentwicklung zu erleichtern“. Das nötige Fachwissen wird gesammelt und das Expertenwissen modelliert. Anschließend wird die Wiki-Suchfunktion — durch Navigation in den Hypertrees — unterstützt. Durch die Darstellungsform in einer Art von graphischem Lexikon, können bestimmte Begriffsbeziehungen besser veranschaulicht und die Navigation zwischen den Ebenen erleichtert werden. Außerdem ist es bei der Recherche nicht mehr nötig jede verwendete Bezeichnung zu kennen und einzeln zu recherchieren.

Nikolas Leichner: Google Scholar versus Fachdatenbanken Wie erfolgreich nutzen Studierende verschiedene Suchwerkzeuge?

In seinen Ausführungen befasste sich Nikolas Leichner, ein Doktorand am Leibniz-Zentrum, mit der Verwendung von Google Scholar und Fachdatenbanken bei Studenten. Hierbei zeigte sich deutlich, dass zwar zu Anfang das Google-Produkt bevorzugt wird. Im Laufe der Zeit nahm dessen Bedeutung jedoch ab. Diese Entwicklung begründete Herr Leichner damit, dass Google Scholar prinzipiell keine Alternative zu Fachdatenbanken darstellt. Für die Verwendung der besseren Fachdatenbanken ist jedoch Training erforderlich. Zuhörer verwiesen allerdings darauf, dass diese Schlussfolgerung nicht zwangsläufig stimmen. So wurde angeführt, dass die Google-Suche in manchen Bereichen, wie der Volltextrecherche, schlichtweg besser ist.

 

Session 2: Informationsorganisation und Qualität

Nach einer kurzen Pause wurde die zweite Session am Donnerstagnachmittag eingeleitet. Diese hatte das Thema Informationsorganisation und Qualität. Prof. Dr. Angela Schreyer von der Fachhochschule Potsdam moderierte die Session.

 

Christian Stein: Die Modellierung von Interdisziplinarität – Ontologiedesign für den Exzellenzcluster „Bild Wissen Gestaltung“

Christian Stein gab durch seinen Vortrag einen Einblick in die Arbeit des an der Humboldt Universität angesiedelten Exzellenzclusters „Bild Wissen Gestaltung“. Dieses interdisziplinäre Forschungsprojekt besteht aus über 20 Einzelvorhaben mit mehr als 25 beteiligten Disziplinen. Zum wurden die räumlichen und technischen Rahmenbedingungen innerhalb des Gesamtprojekts dargestellt. Zum anderen die Ontologie zur Abbildung interdisziplinärer Forschungsprozesse sowie datenschutzrechtliche Regelungen angeschnitten.

 

Markus Zoier, Bernd Fachbach, Manfred Rosenberger, Nadja Marko, Selver Softic & Alexander Stocker: Konzeption einer Architektur für flexible Suche und Informationsvernetzung in der Fahrzeugentwicklung

In dem Vortrag wurden vom Referenten die Herausforderung der Informationsbeschaffung im Engineering Bereich angesprochen. Das Ziel ist es, ein „Info Cockpit “ zur realisieren, in dem eine Virtuelle Umgebung sowie Prototypen erstellt werden.

 

Klaus Mak, Christian Meurers, Johannes Göllner: Von der Dokumentation zum organisationalen WissensPerformanceSystem

Der Referent legte in seinem Vortrag den Begriff „Wissen“ als Voraussetzung für Handeln oder Nichthandeln fest. Es wurde auf den Verlauf der Wissensentwicklung, vom Auftrag bis zur Entscheidung“ eingegangen. Anschließend wurde auch das Konzept von der Dokumentation zum Wissen Performance System vorgestellt.

 

 

Session: Kurzvorträge

Parallel zur zweiten Session fand eine Reihe von Kurzvorträgen in einem benachbarten Saal statt. Das übergreifende Thema der Kurzvorträge war Informationsqualität und Wissensgenerierung. Die Moderation wurde von Evelyn Dröge aus dem Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität übernommen.

 

Francesca Schulze: Datenqualität in der Deutschen Digitalen Bibliothek

Francesca Schulze berichtete von der Einbindung bzw. Verlinkungen der Daten in EUROPEANA mithilfe von ESE (Europeana Semantic Elements). Ebenso ging sie auf die größte Herausforderung ein, die heterogene Qualität der Lieferanten. Am Ende ihres Vortrages stellte die Rednerin noch die künftigen Ziele ihrer Arbeit vor: Zusätzliche Verknüpfungen zwischen den Objekten und die Verbesserung der Navigation. Mit dem Fazit, dass die Lieferanten die hauptverantwortlichen für die Datenqualität sind, die DDB jedoch nur Hilfestellung geben kann, schloss sie ihren Vortrag.

 

Andrea Horch: Semantische Online-Suchsysteme

Dieser Vortrag ist leider entfallen.

 

Gabriele Patzer: Social Media Research – der Wert der Meinung

In dem Kurzvortrag zum Thema „Social Media Research“ stellte Daniel Gradinger von Genios ein neues Angebot vor: Genios Media Monitoring. Dieses betreibt in Echtzeit datenschutzkonformes Text-Mining in sozialen Netzwerke. Zudem analysiert es die die gesammelten Daten analysiert und gibt Reporte aus.

 

Manfred Hauer: Hocheffiziente Tiefenerschließung multilingualer Textkollektionen mittels intelligentCAPTURE

Manfred Hauer stellte in seinem Vortrag intelligentCAPTURE vor. Hierbei handelt es um ein Projekt in Zusammenarbeit mit der Deutschen Nationalbibliothek, in dem mehrsprachige Textkollektionen automatisiert erschlossen werden. Als Basis für die automatische Inhalterschließung von Textdokumenten dienen eingescannte Inhalts-, sowie Stichwortverzeichnisse. Folglich wird aus den Scans ein Textkorpus automatisch extrahiert. Die Begriffe aus dem Korpus werden maschinell indexiert und es erfolgt eine vollautomatische Generierung von bibliographischen Daten zu dem jeweiligen Textdokument. Die maschinelle Indexierung dient einer umfangreicheren Trefferzahl bei der Recherche nach relevanter Literatur in Bibliothekskatalogen. Im Schnitt kann sie 606 Begriffe liefern, die mit dem Textdokument verknüpft sind, die zu einem breiteren und besseren Ergebnis führen.

 

Manfred Jaksch: Mehrwert schöpfen – Metasuche und Analyse von Fachinformationen

Der Referent sprach in seinem Vortrag über das Ziel, durch Wissensbeschleunigung in Unternehmen die Innovations- und Wettbewerbsfähigkeit zu steigern. Anhand von verschiedenen Plattformen präsentierte er Beispiele von Mehrwertangaben. In der anschließenden Fragerunde, stellte er die zusätzliche Visualisierung der Daten in Aussicht.

 

Frank Wiegand: Deutsches Textarchiv Qualitätssicherung (DTAQ)

In diesem Kurzvortrag präsentierte Frank Wiegand vom Deutschen Textarchiv eine webbasierte Anwendung, die Digitalisate von Handschriften in das XML-Format umwandelt. Zudem erkennt und verbessert sie Fehler, die im Zuge der Entwicklung der deutschen Sprache entstanden sind. In der Anwendung eingebettet ist zudem die Normalisierung historischer Schrift in zeitgemäße Schrift. Die Anwendung kann so historische und wertvolle Handschriften vor übermäßiger Abnutzung schützen. Außerdem trägt sie dazu bei, dass Handschriften einfacher gelesen werden können. Die Anwendung birgt also eine Menge Annehmlichkeiten für historisch forschende und interessierte Nutzer.

 

Stefan Geißler: Aufbau von Terminologien aus Dokumentenkorpora – wie ein wenig Mathematik und Sprachverarbeitung Tage und Wochen manueller Arbeit vermeiden hilft

Als Einstieg stellte der Referent den Wert von Thesauri und der Facetten-Suche dar. Anschließend stellte er das Projekt Luxid WebStudio vor, welches auf die automatische Indexierung aus Dokumenten spezialisiert ist. Anhand von verschiedenen Beispielen erläuterte er Funktionen des Projekts. Auch demonstrierte er, wie einfach neue Einträge eingefügt werden können.

 

Podiumsdiskussion: Informationsqualität und Information Professionals

Den Abschluss des ersten Konferenztages bildete die Podiumsdiskussion mit dem Thema Informationsqualität und Information Professionals. Die Diskussion wurde von Prof. Dr. Marc Rittberger vom Deutschen Institut für Internationale Pädagogische Forschung (DIPF) moderiert. Teilnehmer der Diskussion waren Frau Petry-Eberle von der Daimler AG, Herr Blumauer von der Semantic Web Company GmbH, Herr Karger vom DFKI und Herr Stuike-Prill vom FIZ Karlsruhe.

Zu Beginn erzählten die eingeladenen Diskussionsteilnehmer von ihren Aufgaben und von der Informationsqualität bzw. Qualitätssicherung in ihrem Unternehmen. Frau Petry-Eberle prägte den Satz, dass Informationsqualität durch Prozessqualität in der Leistungserstellung entstehe. Für Herrn Stuike-Prill hingegen ist es Qualität, „wenn der Kunde wiederkommt und nicht das Produkt“. Anfangs fand die Diskussion eher direkt zwischen den Teilnehmer statt, nach einer Weile stellte jedoch auch das Publikum Fragen. Später ging es dann um die Zukunft der Information Professionals, deren Ausbildung und die für den Berufszweig aktuell erforderliche Kompetenzen. Insgesamt lässt sich hierüber sagen, dass Information Professionals möglichst interdisziplinär ausgebildet sein sollten. Des Weiteren kamen die Diskussionsteilnehmer zum Ergebnis, dass sich das Aufgabengebiet vor allem in Richtung der (Weiter-)Entwicklung von Tools/Werkzeugen und dem Entwickeln und Bewerten von Ontologien bzw. Unternehmensterminologien verlagert hat.

 

Session 3: Social Knowledge Management

Der zweite Konferenztag startete am Freitagmorgen mit einer Session zu Social Knowledge Management. Stefan Geißler vom Unternehmen TEMIS moderierte die Session.

 

Angela Vorndran, Silvana Keutz, Daniela Olenik, Aida Raimbekova und Marc Rittberger: Social Media als Quelle berufsbezogener Information in der Unterrichtsvorbereitung

Frau Vorndran vom Deutschen Institut für Internationale Pädagogische Forschung (DIPF) berichtete in ihrem Vortrag über die Rolle von Social Media bei der Unterrichtsvorbereitung in den Schulen. Die Studie über dieses Thema wurde mit der Unterstützung von Masterstudenten der Hochschule Darmstadt und am Beispiel der virtuellen Berufscommunity für Lehrer und Lehrerinnen „4teachers„ durchgeführt. Das Ziel der Untersuchung war festzustellen, wie die Lehrer und Lehrerinnen vorgehen, wenn Sie das Internet für ihre Unterrichtsvorbereitung nutzen und welchen Einfluss Social Media auf die Unterrichtsvorbereitung hat.

 

Thorsten Förster, Lennart Lamerz, Agnes Mainka & Isabella Peters: The Tweet and the City: Eine Studie über Twitter-Aktivitäten in informationellen Weltstädten

Thorsten Förster und Lennart Lamerz berichteten darüber, wie kommunikativ informationelle Weltstädte auf Twitter sind. Anhand verschiedener Indikatoren wählten sie 31 Weltstädte aus. Für eine anschließende Studie untersuchten sie die Aktivitäten zu den Städten auf Twitter. Dabei beobachteten sie, dass Einwohnerzahl und Größe der Stadt die Twitter-Aktivitäten nicht allein beeinflussen. Auch andere Faktoren wie z.B. Datenschutz können einen Einfluss haben. Außerdem gingen die Referenten auf die Frage ein, woher die Nutzer stammen, die über eine Stadt twittern und ob sie eher über Städte twittern, in denen sie sich selbst aufhalten.

 

Sarah Baldin & Beate Renate Somorowsky: Enterprise 2.0 in Bibliotheken und Informationseinrichtungen – Neue Anforderungen an Wissensmanagement in Zeiten des Social Web

Die Referenten berichteten über Enterprise 2.0 in Bibliotheken und Informationseinrichtungen. Die zentrale Frage des Vortrags war dabei: „How can libraries learn from other service industries; how will librarians keep up with specific skills? “ Die Referenten stellten fest, dass das Thema „Web 2.0“ noch nicht dort angekommen ist. Weder in der Theorie noch in der Praxis. Es gibt zwar vereinzelte Ansätze, aber generell ist noch nicht bekannt, was Enterprise 2.0 ist und wie es eingesetzt werden könnte. Die Prinzipien des Web 2.0 werden von den Referenten mit folgenden drei Komponenten verknüpft: Mensch, Technik und Organisation. Somit stellen die Referenten die Frage: „Wie kann ein Wandel zur Enterprise 2.0-Bibliothek gelingen?“ Web 2.0 in Bibliotheken bedeute mehr als Tools. Es fordere passende innerbetriebliche Rahmenbedingungen. Die Referenten stellten zum Schluss fest, dass es bisher noch keine repräsentative Studie dazu gibt, ob und wie Web 2.0 in deutschen Bibliotheken genutzt wird. Deshalb regen die Referenten eine solche Studie an. Zudem empfehlen sie eine gezielte Untersuchung zur Vereinbarkeit des öffentlichen Dienstes mit Enterprise 2.0.

 

Session 4: Modellierung und Informationsinfrastrukturen

Anschließend folgte die letzte Session der DGI-Konferenz. Sie hatte Modellierung und Informationsinfrastrukturen zum Thema. Die Moderation der Session wurde von Prof. Dr. Christian Wolff von der Universität Regensburg übernommen.

 

Steffen Hennicke, Evelyn Dröge, Violeta Trkulja & Julia Iwanowa: Von ESE zu EDM und darüber hinaus: Wie Europeana Zugang zu Objekten des Kuturellen Erbes ermöglicht

In ihrem Vortrag stellte Evelyn Dröge die Entwicklung der in Europeana verwendeten Beschreibungsstandards dar. Europeana ist eine von der Europäischen Union initiierte und geförderte virtuelle Bibliothek mit dem Ziel, europaweit die Objekte aller Wissenschafts- und Kulturinstitutionen über ein zentrales Portal zugänglich zu machen. Da hierfür die Objektdaten aus verschiedenen Einrichtungen aus ganz Europa geliefert werden, liegen viele verschiedene Formaten und Metadatenstandards vor. Daher wurde mit den Europeana Semantic Elements (ESE) ein neuer, Linked-Data-konformer Beschreibungsstandard entwickelt. Dieser soll die Interoperabilität der Metadaten gewährleistet und somit eine einheitliche Suche und Darstellung der in Europeana enthaltenen Objekte ermöglichen. Die ESE wurden zum Europeana Data Model (EDM) weiterentwickelt, mit dessen Hilfe eine semantische Kontextualisierung der Inhalte erfolgt. Beim DM2E-Modell (Digital Mansucripts to Europeana) handelt es sich um eine spezielle Version des EDM für die Anreicherung von Manuskripten.

 

Ute Sondergeld, Dr. Andreas Kempf: Fachinformationssysteme als Basis der Wissenschaftsforschung. Verwendungspotentiale infrastruktureller Dienste für ein indikatorenbasiertes Forschungsmonitoring am Beispiel der Bildungsforschung

Andreas Kempf stellte in seinem Vortrag eine Untersuchung dar, mithilfe derer beurteilt werden sollte, ob und in wie weit sich Fachinformationssysteme als Basis für indikatorenbasiertes Forschungsmonitoring eignen. Dies wurde am Beispiel einer mehrdimensionalen Analyse von Projekten und Publikationen der Bildungsforschung überprüft, indem die im Rahmen dieser Analyse verwendeten Indikatoren hinsichtlich ihrer Ergebnisse untersucht wurden. Als Ergebnis lässt sich festhalten, dass mit den Indikatoren signifikante Aussagen generiert werden können. Somit kann mit Fachinformationssystemen als Datengrundlage erfolgreiches Forschungsmonitoring betrieben werden. Verglichen mit anderen Vorträgen war dieser Vortrag für in diesem Bereich unbewanderte Zuhörer nur schwer nachvollziehbar. Dieser Umstand ist aber wohl auf die Komplexität des Themas zurückzuführen.

 

Drechsler, Robert Strötgen & Esther Chen: Entwicklung eines Informationssystems für Lehrpläne – die Curricula Workstation

In diesem Vortrag berichtete Jessica Drechsler vom Georg-Eckert-Institut über ihre Erfahrungen bei der Entwicklung eines Informationssystems für Lehrpläne. Angeregt von den Nutzern, soll die Curricula Workstation einen zentralen Zugang zur Lehrplansammlung des Instituts bieten. Um den Anforderungen der Nutzer zu entsprechen, wurden diese durch Workshops und Befragungen von Anfang an in das Projekt einbezogen. Ebenso wichtige Ziele für die Workstation waren die Verwendung aktueller Standards und die nahtlose Einbindung in Forschungsinfrastrukturen. Damit dies gewährleistet werden konnte, zog das Georg-Eckert-Institut externe Berater hinzu und stellte eine Analyse der vorhandenen Strukturen an.

Keynote 2

Nach der Mittagspause hielt Reinhard Karger am Freitag die zweite und letzte Keynote, die den Abschluss der DGI-Konferenz bildete.

Reinhard Karger: Wenn Informationswelten und Weltwissen zusammenwachsen: Das Internet der Dinge erreicht die Welt der Gegenstände

In der amüsanten Keynote über die zukünftige Bedeutung des Internet der Dinge wurde ein schon existierender, aber noch neuer Aufgabenbereich von Informationsspezialisten dargestellt. Dem Vortragenden nach ist es die Aufgabe von Informationsspezialisten „Innovationslücken“ zu schließen, d. h. Produkte zu entwickeln, die Sensordaten aus vernetzten Dingen nutzen, um Menschen den Alltag zu erleichtern.

 

Abschließende Betrachtung

Insgesamt haben wir viele verschiedene Dinge zum Thema Informationswissenschaften gehört und gelernt. Leider gab es trotz des Titels der Veranstaltung „Informationsqualität und Wissensgenerierung“ nur wenige Vorträge zum Thema Informationsqualität. Die anderen Vorträge waren jedoch größtenteils dennoch für uns interessant und lehrreich. Neben den Vorträgen sind vor allem die Gelegenheiten zum gegenseitigen Austausch zu begrüßen, bei denen sich Studenten auch mal mit Berufstätigen über ihre Perspektiven und deren Aufgaben unterhalten können. Dies war zwischen den Sessions bei Kaffee und Kuchen beziehungsweise Mittagessen sehr gut möglich.

Gerne empfehlen wir die DGI-Konferenz auch anderen Studenten und Interessierten aus dem informationswissenschaftlichen Bereich weiter.

 

Dieser Beitrag wurde von den folgenden Personen verfasst: Anzhelika Belozer, Christoph Ewertowski, Daniel Schuler, Ingo Thellmann, Ingrid Peck, Lisa Benz, Luise König, Madeleine Gerlach, Matthias Letsch, Olena Demianets, Roland Fabritius, Sylvia Kullmann und Tatiana Ivanova.

Kommentar von Peter Cornelius zur SUMA-Jahrestagung 2014

By | Allgemein, Internet and Society | No Comments

Wege aus der Internet-Überwachungskatastrophe

Ethik im digitalen Raum –

war der Titel der Jahrestagung 2014 des SUMA e.V. (www.suma-ev.de) am 12.02.14 in Hannover.

Suchmaschinen und Überwachung, da bestehen sicher Zusammenhänge und die Leitlinien des SUMA e.V. sind weit gefasst, die Satzung: http://suma-lab.de/suma-ev/downloads/satzung.pdf.

Aber, was hat das mit Ethik zu tun ? Ist das die Ethik meines Verhaltens ? Oder die Ethik derjenigen, die mich überwachen wollen, sei es nun der „ehrliche“ Staat oder „böse“ andere Menschen ?

Wenn ich nicht digital überwacht werden will, dann sollte ich als erstes vielleicht einmal den gesunden Menschenverstand walten lassen und keine digitalen Spuren hinterlassen. Dies wäre doch schon mal eine Grundlage ! ?

Aber: ich kann auch anders in staatliche Überwachungsfilter geraten !

Sehr anschaulich wird dies in einem YOUTUBE-Video gezeigt ( http://www.youtube.com/watch?v=iHlzsURb0WI ), dass durch den SUMA e.V. in diesem Jahr mit 2500 EUR prämiert wurde. Berechtigt aus meiner Sicht !

Sehr anschaulich war auf diesem Kongress, der mit rund 50 Leuten besucht war, auch die Präsentation von Andy Müller-Maguhn vom Chaos Computer Club.

Für mich allerdings überhaupt nicht verständlich (auch akustisch nicht, weil er nicht in der Lage war in ein Mikrophon zu sprechen), waren die Ausführung von Rafael Capurro, ehemaliger Professor an der Hochschule der Medien in Stuttgart, der seine Gedanken schweifen liess, aber für mich keinen roten Faden und auch keine klaren Thesen zu seinen Überlegungen der Informationsethik erkennen liess.

Fazit:

Der Raum, der Hodlersaal im Neuen Rathaus in Hannover war sehr schön, die installierte Technik dort hatte allerdings große Mängel, sodass von den Vorträgen sehr wenig zu verstehen war.

Das gemeinsame Abendessen hatte das selbe Problem, denn die Akustik in der sehr gut besuchten und sehr, sehr lauten „Ständigen Vertretung“ war auch so, dass man sich nur mit Mühe mit seinem Gegenüber am Tisch und seinem Nachbar verständigen konnte.

Also:

ein großes Problem der Kommunikation der sicher auch an der gegenseitigen Kommunikation miteinander interessierten Teilnehmer. Wolfgang Sander-Beuermann, der rührige Organisator, der jährlichen SUMA-Veranstaltungen sollte darüber nachdenken und für die nächste Veranstaltung mehr bieten !

Vier bemerkenswerte Beiträge in gfwm THEMEN 6

By | Allgemein | No Comments

In Ausgabe 6 der fachlichen Publikation gfwm THEMEN hat das Redaktionsteam der Gesellschaft für Wissensmanagement e. V. gfwmTHEMEN6Titelvier bemerkenswerte Beiträge zusammen gestellt. Die Autoren hinterfragen bekannte Aspekte, bestehende Modelle, ja ganze Systeme und kommen zu beachtenswerten und teilweise auch unkonventionellen Ergebnissen:

– GfWM-Wissensmanagement-Modell – Vorschlag für eine Weiterentwicklung zur Version 2.0 – Wissensmanagement und Projektmanagement mit Social Software, von Sebastian Peneder, MA

– Zwischenruf: Management 1.0 versus Enterprise 2.0 – Wie passt das zusammen?, von Rainer Bartl

– Strukturen des NichtWissens, von Claus-Peter Leonhardt

– Wissensmanagement und Business Intelligence – Methoden zur Wissensgenerierung im Vergleich, von Ronald Billen

Die Publikation (41 Seiten) wird kostenfrei zum Download angeboten unter http://www.gfwm.de/files/gfwmTHEMEN6-Sep2013.pdf

Homepage gfwm THEMEN http://www.gfwm.de/node/8

Autoren und Redaktion freuen sich auf Rückmeldungen und Kommentare der Leser/innen.

Für Ideen zu fachlichen Beiträgen können sich Interessenten jederzeit an die Redaktion wenden.

Kontakt: themen@gfwm.de

Informationsvermittlung? – Obsolet!

By | DGI, Informationspraxis, Informationswissenschaft, Presse | 5 Comments

Werden Editorials in Publikationen von Fachgesellschaften von ihren Mitgliedern gelesen? – Die Frage sollte sich nicht stellen, denn die Antwort lautet: Ja, die Mitglieder einer Fachgesellschaft sollten Editorials im eigenen Interesse lesen, weil sich hier neben Meinungen eben auch Entwicklungen in der eigenen Organisation abzeichnen.

Das Tätigkeitsfeld der glorreichen Ära der Informationsvermittlung gehört der Vergangenheit an, ist vom Absterben begriffen und vielerorts obsolet … so die zusammen gefaßte Aussage von Stefan Gradmann in seinem Vorwort zur iwp Heft 6 im Dezember 2012.

Entrüsteter Aufschrei!?

Ein entrüsteter Aufschrei von aktiven Bibliothekaren, Archivaren, Researchern, Dokumentaren, Informationsvermittlern, FAMIs, DGI-Lehrgangsabsolventen …? – Nein, eigentlich kein Aufschrei. – Werden Editorials in Publikationen von Fachgesellschaften von ihren Mitgliedern also womöglich ignoriert?

Ist die Beobachtung von Stefan Gradmann vollständig, wenn er das Tätigkeitsfeld der „glorreichen Ära der Informationsvermittlung“ der Vergangenheit zuordnet und es „im Absterben begriffen“ sieht? – Bekannt ist in der Tat die Auflösung ganzer Informationsvermittlungsstellen in Unternehmen und die Mittelkürzungen für Bibliotheken und Archive. Im genannten iwp-Editorial jedoch unerwähnt bleibt die Auslagerung von Informationsdienstleistungen z. B. nach Osteuropa und Fernost. Der Service Informationsvermittlung wird also durchaus weiter genutzt, aber Arbeitsumfeld und Einsatzorte wurden restrukturiert und damit der Kreis der Information Professionals ziemlich brüsk neu definiert.

Diese Entwicklung kann eine Fachgesellschaft vermutlich nicht aufhalten. Aber kann sie darüber hinwegsehen? Die DGI will und kann kein Lobbyverband sein (so die eigene Aussage). Eventuell fehlt ihr dazu die Stoßkraft und letztendlich liegt’s vielleicht auch an den Eigenheiten der in ihr vertretenen Berufsgruppen? – Aber eine Fachgesellschaft, die dem „partikularen Interesse eines Berufsstandes“ nicht verpflichtet sein möchte, und dies mit der hinzugezogenen Begründung, dass es eine homogene Interessengruppe, für die man tätig sein könnte, nicht mehr gäbe? … Nein, auch hierzu keine Gegenstimme der so angesprochenen DGI-Mitglieder in ihren Berufsgruppen.

Eben nicht nur die fachlichen Inhalte

Die Interessengruppen der DGI kommen aus unterschiedlichsten Bereichen; durch diese Vielfalt der Interessenlagen werden sogar Veranstaltungen, wie die DGI-Praxistage im April 2013 mit dem Fokus auf semantische Technologien möglich. Doch neben den rein fachlichen Inhalten gibt es durchaus noch weitere Themen für die Auseinandersetzung in einer Fachgesellschaft. Daran erinnern zumindest bemerkenswerte Erklärungen von Vorständen, Mitgliedern und Referenten der DGI – das Ganze übrigens gestützt durch Aussagen über Ziele, Zielgruppen und Aktivitäten der DGI auf deren Webportal:

In Politik, Wirtschaft und Gesellschaft gab es in den letzten Jahren und gibt es aktuell zahlreiche Ereignisse und Anlässe, die direkt und teilweise schonungslos in die Lebens- und Arbeitsumgebungen der DGI-Mitglieder eingreifen.

Und hier zeichnet sich ein Paradox ab, auf das eine Fachgesellschaft wie die DGI zusteuert: Die Fachgesellschaft, ihre Vertreter und auch ihre Mitglieder nehmen für die Ausübung ihrer fachlichen Engagements selbstverständlich Infrastruktur, Forschungsgelder, Freiheiten und Grundrechte in Anspruch. Aber Einflußnahmen, Veränderungen und sogar Manipulationen und Reduzierung von damit verbundenen Parametern werden bei der Auseinandersetzung ausgeblendet.

Ein Testergebnis

So kann das Editorial in der iwp auch als aufrüttelnder und provozierender Kommentar an der Landschaft einer Fachgesellschaft verstanden werden. Ein Test vielleicht sogar, ob das zuvor gesagte zutrifft. Ich möchte Stefan Gradmann meine Anerkennung zollen, dass er in seiner Rolle als Präsident der DGI diesen Test getätigt hat: denn mit Blick auf die DGI und ihre Mitglieder und der Stille nach dem Test liegt jetzt dessen Ergebnis womöglich noch etwas klarer auf der Hand.

(Dieser Leserbrief wurde an die Redaktion der IWP geschickt und wird voraussichtlich in Heft 4/2013 der Information Wissenschaft & Praxis abgedruckt. Der Autor ist Mitglied der DGI.)

gfwm THEMEN 5 / Mai 2013 veröffentlicht

By | Ankündigung, Informationskompetenz, Informationspraxis, Informationswissenschaft, Internet and Society, Presse | No Comments

gfwm THEMEN 5
In der fünften Ausgabe der fachlichen Publikation gfwm THEMEN stellt das Redaktionsteam der Gesellschaft für Wissensmanagement e. V. ausgewählte fachliche Artikel und hochwertige Praxisbeiträge von Experten und Praktikern des Wissensmanagements vor. Das Ziel: eine anspruchsvolle Publikation weiterführen, mit der Redaktion und Verein eine Leserschaft auf fachlicher und unternehmerischer Ebene ansprechen.

In dieser Ausgabe:

– Woran scheitert die forschungsorientierte Kommunikation im Wissensmanagement? – Vorschlag eines Ordnungsrahmens – von Dada Lin, Paul Kruse, Lars Hetmank

– Das Haus des Wissensmanagements – Die Ziele: Ein praxisorientiertes Modell für die Einführung eines unternehmensspezifischen Wissensmanagements – von Uwe Dombrowski, Kay Fromhold-Treu, Katrin Nitzschke

– BerLearner – Ein Berliner Modellprojekt macht Schule – von Kerstin Illgen-Förster

– Die Ressource Mitarbeiterwissen richtig erschließen Unternehmen gehen neue Wege mit Social Forecasting – von Aleksandar Ivanov

– „Last-Monday“-Stammtische – Theorie und Praxis am Beispiel der Unternehmer-Stammtische des eBusiness-Lotsen Dresden – von Dirk Liesch

Kostenfreier Download der 40-seitigen Publikation als PDF
Homepage gfwm THEMEN & newsletter

Ist Big Data auch neutrale Data?

By | Internet der Dinge | No Comments

Wenn man das große Potenzial von Big Data sowie die Tatsache, dass diese Daten sowohl positiv als auch negativ verwendet werden können, in Betracht zieht, lässt es sich vermuten, dass Big Data per se neutral sein sollte.

Das war eine ähnliche Aussage aus einem Podcast (von @breitband), die am Wochenende eine rege Diskussion angestoßen hat. Jedoch behaupte ich, dass Big Data einiges sein kann, nur nicht neutral.

BIG? data.

Kurz zusammengefasst: mit Big Data sind große Datenmengen gemeint, deren Erfassung, Speicherung, Suche, Verteilung, Analyse und Visualisierung spezielle Methoden voraussetzen. Big Data wird dann verwendet, um Mustern (bzw. Anomalien) zu erkennen.

Weiterhin, Big Data ist zur Zeit ein Trend in Marketing und weiteren Geschäftsbereichen. Diese Unmengen an Daten werden aus verschiedenen Quellen wie Social Media, Online-Shopping, Finanztransaktionen, gelesene Nachrichten und Artikeln, Mobiltelefonen usw. gesammelt. Die gesammelten Daten werden dann ausgewertet und, natürlich, verkauft.

Vieles wurde bereits über die Nutzung von Big Data und dessen ethische Aspekte geschrieben. An dieser Stelle empfehle ich zwei Artikel von Evgeny Morozov und Danah Boyd als Beispiel.

(Nicht wirklich) neutrale Data

Der zugrunde liegenden Behauptung über die Neutralität von Daten (anders als Information), nämlich dass eine Sammlung von Zeichen bzw. 0 und 1 auf verschiedene Arten und Weisen verwendet werden können, kann ich nur zum Teil zustimmen, weil in der Praxis die Sache etwas komplizierter ist.

Der Komplexitätsgrad Daten→Information→Wissen steht in umgekehrte Relation zur „Neutralität“. Dies allerdings, bedeutet nicht, dass Daten neutral sind.
Die Informationsphilosophie hat bereits die Annahme, dass Informations- und Kommunikationstechnologie (u.a. Algorithmen und Online-Plattformen) neutral seien, annulliert. Das heißt, technologische Gegenstände (technological artifact) können für verschiedene Zwecke verwendet werden, positive wie auch negative, aber sie haben einen werte-geladene (value-laden) Charakter durch ihr Design (und die Sozialisation der verwendenden Person). Dieser werte-geladene Charakter begünstigt bestimmte Verwendungen des Gegenstandes und verhindert andere.
Dies ist für die Algorithmen, die Daten auswerten, und deren Anwendung zutreffend.

Aber dies gilt auch für die Daten selbst. Und das möchte ich zu erklären versuchen:
Eine willkürliche Sammlung von ‚0‘ und ‚1‘ dürfte eventuell neutral sein. Big Data allerdings (oder die meisten künstlich erzeugten und gesammelten Daten was das betrifft), ist keine willkürliche Sammlung von Bits. Das sind ganz bestimmte Arten von Daten, die durch gewisse Praktiken gesammelt wurden, in bestimmten Strukturen abgelegt wurden und all das für bestimmte Zwecke:

  • Big Data sind ganz bestimmte Arten von Daten: hauptsächlich persönliche und personenbezogenen Daten aber auch allgemeine Daten über Gewohnheiten, Verhalten, Ortsangaben usw. von Menschen.
  • Big Data wird durch gewisse Praktiken gesammelt: Harvesting, Zählpixel, Cookies, Verkauf und Ankauf an/durch Dritte, Mobiltelefone u.v.m.
    Sie können Ghostry installieren, um einen Einblick darin zu gewinnen, wer Sie überall im Internet verfolgt.
  • Strukturen: auch bevor man Algorithmen verwendet, um die Daten auszuwerten, werden diese in bestimmten Strukturen und Verlinkungen abgelegt. Diese Strukturen dienen natürlich den Zwecke derjenigen, die diese Daten sammeln. Und allein diese Strukturen können bestimmte Verwendungen der Daten begünstigen oder verhindern.
  • Intentionen: wie bereits erwähnt, all diese Daten dienen den Zwecken derjenigen, die sie sammeln und analysieren. Das heißt, die Daten werden mit gewissen Intentionen/Interessen gesammelt, sodass diese Intentionen wiederum einen Einfluss auf den Inhalt (Art) der Daten, auf ihre Strukturen und auf die Sammlungspraktiken haben.
    Diese Intentionen können, z.B., wirtschaftliche oder politische Interessen sein.

Diese Aspekte sind alles andere als neutral, auch wenn man mit einer Sammlung von Bits zu tun hat.

 

Eine Ausführliche (englischsprachige) Fassung dieses Artikels wurde auf dem Drawer 2.0 Blog veröffentlicht.

GfWM THEMEN 4 / Januar 2013

By | Ankündigung, Informationskompetenz, Informationspraxis, Informationswissenschaft, Internet und Gesellschaft, Social Media | No Comments

Mit ihrer fachlichen Publikationen GfWM THEMEN stellt das Redaktionsteam der Gesellschaft für Wissensmanagement gleich zu Jahresbeginn vier hoch interessante Beiträge vor, die mitunter durchaus berechtigte, ja vielleicht sogar fordernde Fragen stellen:

  • Alumni-Netzwerke als Beitrag zum betrieblichen Wissensmanagement mittels Social Media , von Kai Fetzer, Prof. Dr. Alexander Mädche, Susanne Ransweiler
  • GfWM Diskussionspapier – Wissensarbeit in modernen Arbeitswelten: Ein Zukunftsbild, von Dr. Stefan Rehm, Georg Bremer, Stefan Zillich, Dr. Hein Reuter, Gabriele Vollmar
  • Komplexe Zusammenhänge sichtbar machen und bewerten – So funktioniert „Exzellente Wissensorganisation“, von Christian Keller
  • „Maybe Knowing II“ – some further aspects on cross-fertilization of knowledge and art, von Günther M. Szogs

Kostenfreier Download als PDF http://www.gfwm.de/files/GfWMTHEMEN4-Januar2013.pdf

Homepage http://www.gfwm.de/node/8

BBK Workshop: „Zwischen Bibliothekaren und Bücherwürmern: Gesellschaftliches und politisches Engagement von Information Professionals“

By | Bildungspolitik, Informationspraxis, Informationswissenschaft, Internet and Society, Internet und Gesellschaft, Netzpolitik | No Comments

Am kommenden Dienstag (27.11.2012) findet im BBK (am Institut für Bibliotheks- und Informationswissenschaft, Humboldt Universität zu Berlin) eine Diskussionsveranstaltung zum Thema ‚Gesellschaftliches und politisches Engagement von Information Professionals‘.

Schwerpunkt der Diskussion ist die Rolle der Lehre und Forschung als Institutionen, die diese wichtigen Themen als integralen Teil des fachlichen Diskurses etablieren können sowie gesellschaftlich und politisch bewussten Information Professionals ausbilden können.

Das Abstract der Veranstaltung:

In der Epoche der Informations- und Wissensgesellschaft, mehr als je zuvor, haben Information Professionals (Bibliothekar_Innen sowie andere Informationsberufe) einen wichtigen Beitrag zu öffentlichen, gesellschaftlichen und politischen Debatten zu leisten. Tagtäglich geschehen Ereignisse, die aus einer fachlichen und informationsethischen Sicht betrachtet werden sollen und von der Information Community nicht unkommentiert gelassen werden können. Letzten Endes haben diese Ereignisse eine bedeutende Wirkung auf die Praxis der Informationsberufe, und noch wichtiger – auf die Gesellschaft, in der diese Berufe agieren. Doch inwieweit findet eine solche Diskussion innerhalb des Berufsumfeldes statt? Und wie wird diese nach außen kommuniziert? Welche Rolle erfüllen Forschung, Lehre, Praxis und professionelle Verbände? Als Forschungs- und Ausbildungseinrichtung muss sich das IBI mit diesen Fragen auseinandersetzen, um diese Themen als festen Bestandteil des beruflichen Diskurses zu etablieren. Für diese BBK-Veranstaltung ist eine Diskussion zum Thema vorgesehen.

 

Den Bericht über den Workshop sowie eine Aufzeichnung des Vortrags finden Sie auf dem Drawer 2.0 Blog.

Matching Points of Interest from Different Social Networking Sites

By | Datenbanken, Künstliche Intelligenz, Mashups, Social Media | No Comments

On September 25, we (Tatjana Scheffler, Rafael Schirru, and Paul Lehmann) had the chance to present our work about data integration for points of interest from different community Web sites at the 35th German Conference on Artificial Intelligence in Saarbrücken.

POI matching has become an important task for different systems such as map applications and location recommendation systems. In recent years, users have contributed valuable information about locations (points of interest, POIs) in community projects such as OpenStreetMap (OSM) as well as in commercial social networks like Yelp or its German variant, Qype. These platforms often provide different types of information for the same objects, for example ratings (Qype), check-ins (Facebook Places), descriptions, categories, etc. For researchers and application developers it is often necessary to merge these distinct representations of POIs in order to obtain rich and complete information about the associated locations. Unfortunately the records representing the POIs do not share a common identifier across platforms thus making their matching a difficult task. In our work we present an approach matching POIs from Qype and Facebook Places to their counterparts in OSM. The algorithm uses different similarity measures taking the geographic distance of POIs into account as well as the string similarity of selected metadata fields. An evaluation of our system has shown that our proposed approach achieves an accuracy of 79% for data integration with Qype and 64% with Facebook Places while at the same time reducing the number of false matches compared to two baseline algorithms.

Details about the approach can either be found in our paper or can be directly obtained from the authors.

Umfrage – Weniger Meinungsfreiheit wäre ok!?

By | Bibliothek und Information, Informationskompetenz, Internet and Society, Internet und Gesellschaft, Presse | 5 Comments

Die für Informationsspezialisten überraschende Information kam in der Moderation des ZDF-Politbarometers vom 28.09. eher beiläufig daher und verschwand angesichts der aktuellen Politikerbenotungen schnell hinter Zahlen und Informationen. Drum sei nochmal darauf hingewiesen: Laut der hier vorgestellten Ergebnisse würden annährend die Hälfte der befragten Personen (47 Prozent) ein Verbot religionskritischer Darstellungen befürworten, selbst wenn damit Einschränkungen der Meinungsfreiheit verbunden wären.

Die Meinungsfreiheit wird in Deutschland in Artikel 5 Abs. 1 des Grundgesetzes definiert: Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern und zu verbreiten […] Eine Zensur findet nicht statt.

Ein Blick in Geschichtsbücher und die Aussagen von Historikern bestätigen, dass der geschichtliche und politische Entwicklungsweg bis zu dieser Definition lang, mühevoll und mit Repressionen, Gewalt und Rückschlägen verbunden war.

Artikel 5 des Grundgesetzes stellt auch einen zentralen Pfeiler für alle mit dem Bibliotheks- und Informationswesen verbundenen Berufe und der damit zusammenhängender Branchen dar. Und sein Inhalt dient als wichtiger Gradmesser für die Situation des Staates mit Blick auf demokratische Grundrechte, auch in Europa. Nicht nur Politiker und Vertreter der Wirtschaft betonen zudem die Vorteile der Informations- und Wissensgesellschaft als Fortschritt.

Doch wie reif ist eine Gesellschaft für die „Informations- und Wissensgesellschaft“ tatsächlich, wenn fast die statistische Hälfte ihrer Teilnehmer zur Lösung aktueller Problemlagen gezielte Einschränkungen beim Zugriff auf Information hinnehmen würde?

Zeitungsleser im Hausgärtchen (Carl Spitzweg)

Selbst wenn man entschuldigend anführen möchte, dass die befragten Personen die Option „Einschränkung der Meinungsfreiheit“ als ein naheliegendes und erfüllbares Angebot zur Auflösung eines Problems vorgestellt bekommen, so bleibt dennoch ein Unbehagen. Als aufmerksame Beobachter/innen erinnern Sie sich bestimmt an nicht lange zurückliegende Ereignisse und Diskussionen, bei denen deutlich wurde, dass bestimmten Interessengruppen auch in Deutschland an einer Einschränkung der Meinungsfreiheit und des Zugangs zu Information offenbar durchaus gelegen ist. – Und so könnte das Zwischenergebnis aus dem Politbarometer des ZDF ausgerechnet von diesen Interessengruppen als durchaus ermutigender Anhaltspunkt verstanden werden …

 

Die Meinungsfreiheit wurde 1798 in der Erklärung der Menschen- und Bürgerrechte in Frankreich als eines der kostbarsten Rechte des Menschen bezeichnet. Nach politischen Aufständen und deren Niederschlagung um 1848/1849 wurden einmal erreichte bürgerliche Rechte weitgehend wieder eingeschränkt. Zeitungen wurden in diesem Zusammenhang verboten oder nur nach strenger Zensur publiziert. Lesegesellschaften wurden geschlossen. Phasenweise war es für den Bürger ratsam, sich politisch nicht zu äußern. Nur der Rückzug in den privaten Raum bot Schutz vor der Zensur. Nur hier kann der Zeitungsleser wie auf dem Bild von Carl Spitzweg wenigstens mimisch missbilligen, was in der Zeitung steht. Das Bild entstand um 1845/1858. (Bildquelle: Wikipedia)