DGI-Blog

Monthly Archives: Februar 2023

Das Ende der Trefferlisten: Informationsinfrastrukturen und KI

By | Informationspraxis, Informationswirtschaft, Informationswissenschaft, Internet and Society, Internet der Dienste, Internet und Gesellschaft, Künstliche Intelligenz | No Comments

Sylvia Kullmann

Dass wir dem Ende der klassischen Trefferliste zur Anzeige von Suchergebnissen entgegengehen, wird in diesen Tagen stark diskutiert. Die großen Suchmaschinenanbieter Google und Bing integrieren KI-Sprachmodelle in ihre Produkte. Zu der bisherigen Trefferliste werden Nutzenden nun auch ausformulierte Antworten auf Suchanfragen versprochen. Mit Perplexity AI, you.com und Neeva kämpfen weitere Anbieter um die Gunst der Kunden. Künstliche Intelligenz spielt dabei überall eine zentrale Rolle. Und auch wenn nicht alles reibungslos läuft, wie die jüngsten Meldungen rund um die Einschränkungen der KI-Funktionen im Betatest des neuen Bing zeigen, kann man doch sagen: Die Zukunft der Suche hat begonnen!

Die aktuelle Ausgestaltung der neuen Suchmaschinenlösungen lässt vermuten, dass mit der Integration von KI-Technologien in Suchangebote eine Veränderung des Informationsverhaltens von Nutzenden einhergehen könnte. Schon heute haben bei alltäglichen Suchen im Internet Ergebnisse jenseits der Plätze 1 bis 10 auf der Trefferliste kaum eine Chance wahrgenommen zu werden. Für die Mehrzahl der Nutzenden wird eine vollständig ausformulierte Antwort, die vom Suchsystem erstellt und auf Wunsch vielleicht sogar vorgelesen wird, sehr viel attraktiver sein als eine Darstellung von Suchergebnissen in Listenform. Der bisherige Suchprozess, der vom Bewusstwerden und Konkretisieren eines Informationsbedarfs, der Wahl geeigneter Informationsquellen/-anbieter, der adäquaten Formulierung einer Suchanfrage bis hin zu Bewertung, Auswahl und Weiterverarbeitung geeigneter Informationsangebote reicht und jeden dieser Schritte gleichermaßen betont, wird in diesem Fall stark verkürzt. Im Fokus stehen dann nur noch die perfekt formulierte Suchanfrage und – im Idealfall – das kritische Bewerten des gelieferten Antworttextes.

Welche Qualität mit Blick auf Kriterien wie Relevanz, Vollständigkeit, Richtigkeit und Aktualität Nutzende von den generierten Antworttexten erwarten, wird wie bisher auch maßgeblich von der zugrundeliegenden Fragestellung und dem jeweiligen Kontext abhängen. Bei einfachen Fragen des alltäglichen Lebens wird der Anspruch zumeist geringer sein als bei Fachfragen in professionellen Umfeldern. Genau an dieser Stelle wird es für Anbieter von Informationsinfrastrukturen wie Rechercheplattformen, Bibliotheken und Fachinformationszentren spannend. KI-Sprachmodelle ermitteln die von ihnen ausgegebenen Texte letztlich mit Hilfe von mathematischen Algorithmen. Dabei kommt es vor, dass Texte zwar „rechnerisch richtig“, faktisch aber falsch sind. Das System halluziniert in diesen Fällen, wie es KI-Fachleute salopp ausdrücken. Ergebnis von solchen Halluzinationen können neben sachlich falschen Darstellungen natürlich auch fehlende oder erfundene Quellenangaben sein.

Professionelle Anbieter, die eine hohe Qualität ihrer Angebote anstreben, sehen sich an dieser Stelle besonderen Herausforderungen gegenüber. Wenn Nutzende nicht mehr nur eine Trefferliste erwarten mit der sie in Eigenregie weiterarbeiten können, sondern zusätzlich eine inhaltlich korrekte, vollständige und nachvollziehbare Auswertung der selektierten Suchergebnisse (gewissermaßen ein automatisch erstelltes Literatur Review oder einen „Super Abstract“ aus allen relevanten Informationsobjekten), stellen halluzinierende KI-Systeme ein gravierendes Problem dar. Doch nicht nur das. In vielen Fällen stehen aktuell zwar die formalen und inhaltlichen Metadaten von Informationsobjekten zur Suche bereit, nicht aber diese selbst. Die Inhalte sind grundlegende Voraussetzung für eine Arbeit mit KI-Technologien. Neben der Sicherstellung des Zugriffs auf die Volltexte wird die Klärung rechtlicher Fragen kein leichtes Unterfangen darstellen. Dürfen Texte mit KI überhaupt verarbeitet werden? Welche Kosten gehen damit einher? Welche Qualitätssicherungsverfahren werden benötigt, um urheberrechtlich unproblematische Textkorpora für KI-Anwendungen zu erhalten? Wie verhält es sich mit dem Datenschutz? Fragen, auf die Antworten gefunden werden müssen.

Die für alle sichtbaren Entwicklungen der vergangenen Wochen machen deutlich, dass sich auch Anbieter von Informationsinfrastrukturen und -diensten mit den Technikfolgen von KI befassen müssen. Welche konkreten Auswirkungen KI-Technologien auf das Kerngeschäft von Informationseinrichtungen tatsächlich haben werden, ist derzeit noch nicht vollständig absehbar. Die aktive Beschäftigung mit den Möglichkeiten und Grenzen von KI ist daher umso wichtiger, um Entwicklungen frühzeitig aktiv gestalten zu können. Als Fachgesellschaft geht die DGI gemeinsam mit dem Informationszentrum Bildung des DIPF Leibniz-Institut für Bildungsforschung und Bildungsinformation im Rahmen der Vortragsreihe KI – Vom Wunderkind zum Allrounder derzeit zentralen Fragen im Zusammenhang mit künstlicher Intelligenz nach. Auch auf der DGI Jubiläumstagung am 14. und 15. September 2023 in Frankfurt am Main besteht Gelegenheit, diese Fragen zu diskutieren.

Statisches Informationsobjekt vs. flexibel generiertes Informationsprodukt: Paradigmenwechsel in der Informationswissenschaft?

By | Allgemein | No Comments

Sylvia Kullmann

KI-Sprachmodelle wie sie durch GPT-3 am 30. November 2022 für die breite Öffentlichkeit sichtbar geworden sind, verändern in diesen Tagen vieles: die Sicht auf zwischenmenschliche Kommunikation und auf Mensch-Maschine-Interkation, auf Grenzen von Technologie, auf Lehren und Lernen und auch auf die Einschätzung, welche Kompetenzen in Zukunft weiterhin nur dem Menschen vorbehalten bleiben werden. Die Liste an Perspektiven auf KI und sich daraus ergebenden Fragestellungen lässt sich schnell erweitern, wenn einzelne fachliche Domänen betrachtet werden. Für die Informationswissenschaft wird man über typische Aufgabenbereiche wie die Erschließung von unterschiedlichen Informations-/Medienobjekten und den Umgang mit sprachlicher Vielfalt schnell auf die zu erwartenden Auswirkungen von KI-Sprachmodellen auf Kernbereiche informationswissenschaftlicher Tätigkeiten kommen. Dazu zählen Verfahren zur inhaltlichen Erschließung durch Klassifikationen und Thesauri. Auch Werkzeuge und Prozesse zur semantischen Modellierung von Realitätsausschnitten rücken in den Fokus.

Das Thema ist grundsätzlich nicht neu. Automatisierte Erschließungsverfahren werden schon seit einiger Zeit genutzt um Menschen bei der Erschließungsarbeit zu unterstützen. KI ist aber sicherlich eine „andere Liga“. Projekte wie sie bei der Deutschen Nationalbibliothek aktuell durchgeführt werden, könnten die nächste Stufe der automatisierten inhaltlichen Erschließung von Informationsobjekten einläuten. Es stehen durch die aktuellen Entwicklungen aber noch weitere, sehr grundsätzliche Fragen im Raum. Eine der interessantesten ist die nach einer möglichen Erweiterung oder gar einem Wechsel der bisherigen Perspektive auf das, was in Zukunft Gegenstand von Erschließungsarbeit ist und wie diese funktioniert. Generative KI-Sprachmodelle nehmen grob gesagt textbasierte Informationsobjekte als Ausgangsbasis und generieren auf eine Informationsnachfrage, einen sog. (natürlichsprachlichen) Prompt, maßgeschneiderte Informationsprodukte in Form von statistisch berechnetem Text. Die Leistungsfähigkeit dieser Modelle, insbesondere des aktuell als state of the art eingestuften GPT-3, ist beeindruckend. Und auch wenn es bei genauem Hinsehen noch eine ganze Reihe von Schwachstellen gibt (inhaltlich falscher Text, mangelnde Aktualität aufgrund von Trainingsdaten bis maximal aus dem Jahr 2021, fehlende Quellenangaben usw.) bietet GPT-3 doch Raum für Überlegungen, wie die Zukunft informationswissenschaftlicher Erschließungsarbeit aussehen könnte. Ganz konkrete Fragen sind:

  • Wird es auch in Zukunft bei der Fokussierung auf (einzelne) Informationsobjekte als Gegenstand der formalen und inhaltlichen Erschließungsarbeit bleiben oder wird sich der Schwerpunkt auf die Weiterverarbeitung des reinen Inhalts verlagern?
  • Werden Informationsobjekte langfristig ihre Eigenständigkeit verlieren und ihre Inhalte in einem allgemeinen Wissenspool aufgehen, aus dem „just in time“ individuelle, auf spezifische Bedürfnisse (von Nutzenden) ausgerichtete Informationsprodukte generiert werden?
  • Und noch weiter gefragt: Werden diese neuen Informationsobjekte zukünftig gar nicht mehr primär textbasiert, sondern multimodal (also aus einer Kombination unterschiedlicher Arten von Inhaltsträgern wie Text, Video, Audio, virtueller Realität etc.) aufgebaut sein?

KI-Modelle wie GPT-3 oder auch DALLE für den bildverarbeitenden Bereich geben erste Hinweise in diese Richtung. Auch Beiträge von Moritz Schubotz sowie von Friederike Kramer und Anika Wilde in unserer DGI-Vortragsreihe zu Herausforderungen und Chancen offener Infrastrukturen ließen diese Idee anklingen. In unserer parallel laufenden, neuen Vortragsreihe Künstliche Intelligenz – Vom Wunderkind zum Allrounder beschäftigen wir uns intensiv mit Möglichkeiten und Grenzen von KI. Wir werden sehen, welche disruptive Kraft KI-Sprachmodelle in unterschiedlichen Lebens- und Arbeitsbereichen tatsächlich haben werden.