Mastodon Skip to main content
Lade Veranstaltungen

« Alle Veranstaltungen

  • Diese Veranstaltung hat bereits stattgefunden.

Künstliche Intelligenz in Bibliotheken und der Hype um Large Language Models – trojanische Sau oder willkommenes Arbeitspferd?

29. Januar , 17:00 19:00

KI und LLMs in Bibliotheken

Mit dem Aufkommen von Anwendungen wie ChatGPT ist der Hype um die Künstliche Intelligenz in der Öffentlichkeit in allerjüngster Zeit erneut angefacht worden. Der letzte sogenannte KI-Winter ist jedoch bereits seit 2012 vorbei, und seither sind auch im Open-Source-Bereich eine Fülle an implementierten Machine-Learning-Methoden entstanden, die tatsächlich einsetzbar sind – auch und gerade an Bibliotheken.

Ein Beispiel: Die ZBW – Leibniz-Informationszentrum Wirtschaft betreibt seit 2016 eigene angewandte Forschung im Bereich Machine Learning mit dem Zweck, praktikable Lösungen für eine automatisierte oder maschinell unterstützte Inhaltserschließung zu entwickeln. 2020 begann ein Team an der ZBW die Konzeption und Implementierung einer Softwarearchitektur, die es ermöglichte, diese prototypischen Lösungen in einen produktiven Dienst zu überführen und mit den bestehenden Nachweis- und Informationssystemen zu verzahnen. Sowohl die angewandte Forschung als auch die für dieses Vorhaben („AutoSE“) notwendige Softwareentwicklung sind direkt im Bibliotheksbereich der ZBW angesiedelt, werden kontinuierlich anhand des State of the Art vorangetrieben und profitieren von einem engen Austausch mit den Verantwortlichen für die intellektuelle Inhaltserschließung. Der produktive Dienst läuft seit Mitte 2021 und hat seither bereits über 1,6 Mio. Metadatensätze verschlagwortet. Aus diesem Praxisbeispiel lassen sich einige notwendige Bedingungen ableiten, um Machine-Learning-Lösungen überhaupt erfolgreich an einer Institution für die Inhaltserschließung einsetzen zu können.

Mit Blick auf die rasante Entwicklung im Bereich der Künstlichen Intelligenz in den letzten Jahren stellen sich allerdings eine Reihe spannender Fragen und Herausforderungen: Werden Large Language Models (LLMs) die Inhaltserschließung – auch die automatisierte – obsolet machen? Wird ChatGPT die Suche obsolet machen, wie wir sie kennen? Werden damit Metadaten insgesamt obsolet werden? Oder bietet sich gerade jetzt eine einmalige Chance, Inhaltserschließung und Suche neu zu denken und unsere Metadaten in eine Form zu überführen, in der sie für die neuen Modellen von unschätzbarem Wert sein können?

Eine Kooperationsveranstaltung der DGI und des Informationszentrums Bildung (IZB) des DIPF I Leibniz-Institut für Bildungsforschung und Bildungsinformation.

Referentin:
Dr. Anna Kasprzik ist die Leitung Automatisierung der Sacherschließung (AutoSE) im ZBW – Leibniz-Informationszentrum Wirtschaft

Teilnehmeranzahl:
keine Beschränkungen

Tool / Technik:
Benötigt wird ein internetfähiges Endgerät (PC oder Laptop). In der Regel finden die Veranstaltungen über Zoom statt. Für Zoom benötigen Sie zudem eine Webcam sowie ein Headset oder ein anderes Audiosystem.

Kosten:
kostenfrei für alle Teilnehmenden

Deutsche Gesellschaft für Information und Wissen e.V. (DGI)

online, gratis