Als ich Mitte der 80er Jahre als Gasthörer an der École des Hautes Études en Sciences Sociales in Paris studierte und für meine Dissertation in der alten Bibliothèque Nationale in der Rue de Richelieu forschte, konnte ich den Vorabend der Digitalisierung im Bibliothekswesen hautnah miterleben. Um die Bücher früherer Jahrhunderte ein für allemal vor dem schädlichen Licht und dem zersetzenden Schweiss blätternder Hände zu schützen, hatte man damit begonnen, sie Seite für Seite zu scannen und auf '
Microfiches'
bzw. '
Microfilme'
zu übertragen. Die Reihenfolge dieser '
Literaturverfilmungen'
wurde intelligenterweise von der Ausleihe bestimmt.
So war ich bei vielen Büchern aus der Französischen Aufklärung der letzte Forscher, der sie in den Händen halten und im sehenswerten ovalen Lesesaal – oder unter wachsamer Aufsicht im Hémicycle – lesen durfte. Bei der nächsten Ausleihe wurde dann nur noch eine Filmrolle herausgegeben, für die in den wenig spektakulären Gängen der ansonsten beeindruckenden – und seit September 2022 nach 10jähriger Restaurierung der Öffentlichkeit zugänglichen – Bibliothèque Richelieu erste Arbeitsplätze mit Lesegeräten eingerichtet worden waren.
Kopien solcher Microfilme konnte man erwerben, um sie später in aller Ruhe an der eigenen Universität zu lesen. Von den Microfiches einzelner Seiten waren auch relativ teure Ausdrucke erhältlich. Alternativ mussten die Auszüge für spätere Zitate abgeschrieben werden. Hinsichtlich Archivierung und Konservierung für die Nachwelt waren die Microfilme schon nahe an der Digitalisierung, für die Recherche boten sie über die – ortsunabhängigere – Lektüre hinaus keine Vorteile.
Zugang zu den kulturhistorischen Schätzen bestand nur über einen Handkatalog, der aus unzähligen Schubladen mit kleinen Karteikarten bestand, die im Laufe der Zeit mit der Schreibmaschine und/oder per Hand beschriftet und nach einer Reihe vorgegebener Schlagworte sortiert worden waren. Die Informationsbeschaffung im Rahmen von Forschungsprojekten war also deutlich aufwendiger als in der heutigen Zeit, in der viele Bibliotheken bereits digitalisiert sind oder diesen Prozess gerade durchlaufen. In den digitalen Archiven kann nach der Freigabe durch die Bibliotheken mit Hilfe von Suchmaschinen und Künstlicher Intelligenz – übergreifend – nach beliebigen Kombinationen von Suchbegriffen recherchiert werden.
Diese Entwicklung zeichnete sich damals schon ab und warf Fragen auf, die sich nun als unmittelbare Reaktion auf generative Sprachanwendungen wie ChatGPT, die Künstliche Intelligenz (KI) einsetzen und zum Teil auf konkrete Anforderungen in der Wissenschaft zugeschnitten sind, noch einmal neu stellen…
Zwischen 1981 und 1987 führten wir am Inter University Centre vor den Toren der Altstadt von Dubrovnik insgesamt vier legendäre Kongresse durch, an denen sich die damals international führenden Geisteswissenschaftler jeweils zwei Wochen lang mit Fragen zur '
Materialität der Kommunikation'
befassten. Diskutiert wurden etwa die Unterschiede zwischen mündlichen Kulturen und Schriftkulturen – oder die Frage, ob es für die Sinnbildung einen Unterschied macht, ob ich bei der Lektüre das Original eines Buches aus dem XVIII. Jahrhundert oder bloss eine Photokopie bzw. einen Microfilm davon vor mir habe. Nach und nach fanden wir heraus, was unserer Wahrnehmung durch die alleinige Konzentration auf die Texte selbst so alles entgangen war.
Als wir dann – in meinem Fall ab 1987 – die ersten wissenschaftlichen Arbeiten mit einem PC schrieben, veränderte sich auch die Arbeitsweise – im Vergleich zu einer IBM-Kugelkopf-Schreibmaschine – radikal. Es erwies sich als so viel sinnvoller, sämtliche vorgesehenen Zitate inklusive Quellenangaben bereits vor dem Schreiben der eigentlichen Arbeit zu erfassen, als separate '
Textbausteine'
abzuspeichern, auszudrucken und in der Reihenfolge ihres geplanten Erscheinens im Text anzuordnen. Die wissenschaftliche Arbeit konnte danach entlang der Ausdrucke der Zitate '
aus einem Guss'
formuliert werden.
Da das Einfügen eines bereits gespeicherten Zitats in wenigen Sekunden erledigt war, bestand nicht mehr die Gefahr, völlig aus dem Gedankengang gerissen zu werden, nur weil einige Zeit verging, bis das nächste Zitat herausgesucht und abgeschrieben war. Auch das Schreiben selbst entwickelte sich weg von einem linearen Prozess, denn auf einmal wurde es mit wenig Aufwand möglich, eine neue Version – etwa eines Kapitels – aus einer bestehenden zu erstellen, indem man den Text unter einem anderen Namen abspeicherte, bevor man ihn abwandelte. So konnte man am Ende verschiedene Versionen miteinander vergleichen und sich dann für eine von ihnen entscheiden.
Während die Vorstufe der Digitalisierung einer Ausweitung der Recherche und einer Vereinfachung der Informationsbeschaffung den Weg ebnete und die Computer die Arbeitsweise der Wissenschaftler beim Verfassen ihrer Texte revolutionierten, diskutierten wir, ob diese Veränderungen eine bessere Durchdringung der Materie und eine höhere Qualität bei den Ergebnissen zur Folge haben würden…
Einerseits wissen wir aus der Wahlforschung, dass eine kleine, aber repräsentative Auswahl der Wähler für die Befragung nach der Wahl Prognosen ermöglicht, die mit dem endgültigen Wahlergebnis praktisch übereinstimmen. Was die Annahme widerlegt oder zumindest relativiert, Quantität bedinge Qualität. Darüber hinaus muss die zusätzlich gefundene Literatur ja auch erst einmal gesichtet, also gelesen und auf ihre tatsächliche Relevanz hin überprüft werden. Mit dem Umfang des zu bearbeitenden Quellenmaterials wächst tendentiell das Risiko, den Fokus auf das Thema der Arbeit – und vielleicht sogar den Überblick – zu verlieren…
Andererseits ist die Lektüre definitiv '
intensiver'
, wenn ich bereits in der Bibliothek auswählen und abschreiben muss, was ich später als Zitat verwenden möchte. Zu diesem Zeitpunkt muss ich bereits eine klare Vorstellung von der gesamten Arbeit im Kopf haben, was auch auf die Niederschrift mit einer Schreibmaschine auf der Basis handschriftlicher Notizen zutraf. Jede Formulierung muss '
sitzen'
, die Argumentationslinie muss schon bis zum Ende durchdacht sein, weil nachträgliche Änderungen einen riesigen Aufwand verursachen.
Meine damalige Einschätzung teile ich heute noch: Computer und Digitalisierung haben zwar die Form und die Inhalte wissenschaftlicher Arbeiten sowie deren Produktion (inklusive Recherche) und Rezeption grundlegend verändert, doch eine bessere Qualität lässt sich daraus nicht ableiten, obwohl gerade das heute gerne behauptet wird, ohne es belegen zu können. Die zahlreichen Funde der Plagiatsjäger vermitteln jedenfalls eher den Eindruck, den Autoren gingen – nicht nur in der Wissenschaft – schon seit längerem die Ideen aus. Aber vielleicht lassen sich Plagiate im Zuge der Digitalisierung ja auch einfach nur besser aufspüren…
Diese mit groben Strichen skizzierte Vorgeschichte macht die gewaltigen Veränderungen besser nachvollziehbar, die derzeit in der Wissenschaft von Anwendungen auf der Basis Künstlicher Intelligenz geradezu euphorisch begrüsst oder mit unguten Gefühlen erwartet werden… Sie sind offenbar das Thema, dem die wissenschaftliche Gemeinschaft aktuell ihre grösste Aufmerksamkeit schenkt. Erste KI-Werkzeuge sind bereits im Einsatz, darüber hinaus befinden sich viele Zukunftsszenarien noch im Bereich der Spekulation, und vieles ist auch noch nicht in allen Konsequenzen zu Ende gedacht.
Da für mich das '
Neuere'
nicht automatisch – und tatsächlich oft nicht – das '
Bessere'
ist, lohnt sich eine Kontrastierung mit früheren Praktiken auch, um zu einer besseren Einschätzung und Bewertung der aktuellen Entwicklungen zu gelangen. Bei der Invasion der Künstlichen Intelligenz in sämtliche Prozesse wissenschaftlichen Arbeitens gibt es durchaus neuralgische Punkte, auf die ich nachfolgend – ohne Anspruch auf Vollständigkeit – eingehen werde. Dabei interessiert mich nicht, was KI noch nicht – im doppelten Wortsinn – '
beherrscht'
. Mir geht es vielmehr um grundsätzliche Einwände und Bedenken, die aus meiner Sicht bisher nicht – ausreichend – zur Geltung kommen…
1. Die alles entscheidende Prämisse
Bei KI-basierten Sprachanwendungen wie ChatGPT wird wie selbstverständlich – und meist stillschweigend – davon ausgegangen, dass die zugrundeliegenden Sprachmodelle immer besser werden. Diese Annahme hat nun einen schweren Wirkungstreffer erhalten, denn Tests an der Stanford University haben für den Zeitraum März-Juni 2023 erstmals eine zum Teil dramatische Zunahme der Fehleranfälligkeit nachgewiesen: ChatGPT scheitert auf einmal an zuvor problemlos gelösten Aufgaben. Erste Erklärungsversuche sprechen von einem '
KI-Wahnsinn'
, der KI-Systeme in dem Masse befällt und degenerieren lässt, wie durch deren millionenfache Nutzung immer mehr KI-generierter Text in die Welt – und vor allem in die Datenbasis der Sprachmodelle gelangt.
Es bleibt abzuwarten, ob dieses Problem lösbar ist und ob weitere Anomalien auftreten, die KI-basierte Sprachanwendungen unbrauchbar machen. Es könnte sich ja auch um das Ergebnis breitflächig angelegter Angriffe durch andere KI-Systeme handeln, mit denen die Konkurrenz aus dem Feld geschlagen werden soll. Sollte nicht herausgefunden werden, warum in der '
Black Box'
ChatGPT mit ihrer gigantischen Menge an Parametern und Basisdaten die Fehlerquote plötzlich so enorm ansteigt, wäre es durchaus denkbar, dass die generativen Sprachanwendungen als grösster und teuerster Flop in die Geschichte eingehen.
2. Formalisierung des Wissens
Es hat sich herumgesprochen, dass mit KI-basierten Anwendungen viel Geld zu verdienen ist. Daher schiessen jetzt ständig neue Angebote wie Pilze aus dem Boden, vor allem Sprachanwendungen. Der Markt für Branchenlösungen wird momentan völlig neu verteilt. Hier nur ein paar Beispiele für Anwendungen zur künftigen Unterstützung bei der Erstellung wissenschaftlicher Arbeiten:
a) allgemeine und fachspezifische Recherchetools, die alle auf ihre Brauchbarkeit, insbesondere auf die Vollständigkeit und die Richtigkeit ihrer Ergebnisse getestet werden müssen. Hinzu kommt ein aufwendiges Herantasten an die Art und Weise, wie Inputs formuliert werden müssen, um die gewünschten Outputs zu erhalten (Prompt Writing/Prompt Design). Wie – etwa – bei Restaurant-Apps kann vermutlich nicht ausgeschlossen werden, dass aufgrund einer lückenhaften Datenbasis wichtige Literatur nicht gefunden wird und deshalb unentdeckt bleibt.
Vorsicht ist auch geboten bei Apps, die vorgeblich die '
relevanteste'
Literatur zu einem Thema oder Forschungsfeld liefern. Zusätzlich geprüft werden muss, ob die Quellen im Ergebnis richtig ausgewiesen werden, damit sich nicht unbemerkt Plagiate einschleichen. Recherchetools können Texte zusammenfassen oder die Beziehungen zu anderen Texten sowie Trends darstellen, die einen bestimmten Forschungsbereich betreffen. Auch hier muss vorgängig die Zuverlässigkeit und Brauchbarkeit nachgewiesen werden, ehe man sich darauf einlassen kann. Es gibt ebenfalls Anwendungen, die sich auf – aktuelle – wissenschaftliche Veröffentlichungen beschränken und die bei der Organisation, der Analyse und dem Zitieren unterstützen.
b) Andere Tools machen schon beim Schreiben sprachliche und grammatikalische Verbesserungsvorschläge oder prüfen nachträglich einen Text auf Fehler in Grammatik, Orthographie, Interpunktion und Vokabular. Was mutmasslich zu einer starken Abänderung des Textes und zu dessen Entfremdung von seinem Autor führen wird. Dazu zählen auch Tools, die einen Text sowie dessen Zitate und Literaturangaben an den '
üblichen'
Stil einer wissenschaftlichen Publikationsreihe anpassen, was u.U. mit erheblichen Eingriffen in die Struktur und den Inhalt des Textes verbunden ist. Danach dürften dann sogar Plagiate nicht mehr – so einfach – zu erkennen sein…
Zu allen diesen Helfern gibt es nicht nur eine Anwendung, sondern gleich mehrere, mit unterschiedlichen Nuancen in der Funktionalität. Es lässt sich unschwer erahnen, wie unendlich viel Zeit aufgewendet werden muss, um in diesem Bereich einen Überblick zu gewinnen und auf dem aktuellen Stand zu halten. Denn es geht nicht nur um die Evaluation der besten Tools, von denen man sich die grössten Erleichterungen und Verbesserungen verspricht, sondern auch um die Kostenfrage. Einige Anwendungen verlangen bereits Monatsgebühren, die anderen werden ganz sicher bald nachziehen. Der Überblick soll also auch vor Fehlinvestitionen schützen und die Einhaltung von Budgets sicherstellen.
In diesem Kontext wird gerne das Verkaufsargument von '
Zeitgewinnen'
übernommen, die man dann für '
Kreativität'
nutzen könne. Als ob Kreativität – bloss – eine Frage der Musse wäre. Für mich sind solche Zeitgewinne eine reine Fiktion, die Selbstbetrug Vorschub leistet. Das haben schon die Vorbereitungen zu diesem Beitrag bestätigt. Übersehen und unterschätzt wird die mit der Digitalisierung der Arbeitsprozesse einhergehende '
Formalisierung'
des Wissens. Schon vor über 80 Jahren sorgten die Kopiergeräte dafür, dass viele Texte nur noch abgelegt und nie gelesen wurden, was eine langsame Transformation des '
Wissens über die Welt'
in '
Wissen über den Zugang zu Wissen über die Welt'
bewirkte. Nun wird die Formalisierung des Wissens – und sogar des Denkens – auf eine neue Stufe gehoben, auf der Texte zur '
Knetmasse'
von KI-Anwendungen werden, die sie nach Belieben abändern und in neue Formen giessen.
Die Beherrschung dieser ganzen Tools wird einen breiten, wie ich finde viel zu breiten Raum einnehmen, der dann für die Arbeit an den Themen selbst und für die Lektüre der Quellentexte fehlt. Ob dieses Schweben über den Themen, das aufwendige Prüfen jedes einzelnen Outputs und das technische Manipulieren der eigenen Texte mit einer besseren Durchdringung der jeweiligen Materie einhergeht, darf stark bezweifelt werden. Die perfekt gestalteten Endprodukte werden sich zwangsläufig inhaltlich und formal immer stärker angleichen, wie die Autos verschiedener Hersteller, nachdem sie den Windkanal wieder verlassen haben… Persönliche Schreibstile fallen den Modulationen der Texte durch generative KI-Anwendungen zwangsläufig zum Opfer…
3. Die Autorenschaft
Die Überlegungen zur künftigen Nutzung KI-basierter Sprachanwendungen bei der Erstellung wissenschaftlicher Arbeiten setzen aber noch früher an: sie sollen zur Gewinnung neuer Erkenntnisse beitragen, Teil von Denkprozessen werden, indem sie als '
Repräsentanten des Weltwissens'
in einen Dialog eingespannt werden, aus dem gemeinsame Ergebnisse hervorgehen sollen. Am Ende wird es nicht mehr möglich sein, die intellektuelle Leistung des jeweiligen Wissenschaftlers zu identifizieren. '
Autor'
wird in der Zukunft vielleicht kein Mensch mehr sein, sondern nur noch ein Fluchtpunkt verschiedenster Inputs und Outputs. Damit stirbt dann auch das geistige Eigentum. Dennoch wird die Urheberschaft weiterhin unverzichtbar bleiben, wenn es um die Verantwortung für den – bspw. rassistischen – Inhalt eines Textes und um Haftungsfragen geht, die sich aus der Nutzung solcher Outputs ergeben.
4. Die Materialität der Texte
Auch die Texte selbst könnten sich auflösen, nicht nur im Sinne der angesprochenen '
Knetmasse'
für allerlei Anwendungen, die ein zukünftiger ehemaliger Verfasser bei der Erstellung einer wissenschaftlichen Arbeit über seinen Text laufenlässt. In dem Diskussionspapier*, das den Anstoss zu diesem Beitrag gab, ist auch die Rede davon, dass durch den Einsatz von KI ein an sich schon '
fluider'
Text anhand der Profile der Autoren und der Leser, die dann Bestandteil der Datenbasis sein werden, ausgerichtet werden könnte… auf '
individuelle Merkmale, Vorlieben und Bedürfnisse'
, ja sogar auf '
den Schreibstil und die Rezeptionsgewohnheiten, (…) auch die tieferen Gedanken, Gefühle und Absichten'
(cf. S. 16 sq.), natürlich nicht ohne Rücksichtnahme auf alle potentiellen Befindlichkeiten der Leser. Am Ende wird ein Autor seinen Text nicht mehr wiedererkennen, von dem es dann vielleicht so viele Versionen wie Leser geben wird. Wie soll dann noch der eigentliche Inhalt einer wissenschaftlichen Arbeit identifiziert werden, der etwa im Falle einer Dissertation dem Kriterium der Innovativität entsprechen muss? Lässt er sich dann – wie eine Art Skelett – wiederum mit Künstlicher Intelligenz aus einem fliessenden Text herausdestillieren? Da fehlt mir – ganz ehrlich – die nötige Vorstellungskraft…
5. Fazit
Bereits die Gegenwart, vor allem aber die Zukunft wissenschaftlichen Schreibens führt zu einer Auflösung aller Aspekte der bisherigen Praxis. Die verschiedenen KI-basierten Sprachanwendungen, die an diesem Prozess künftig beteiligt werden sollen, erinnern mich an die Hunde und Katzen in früheren Microsoft Office-Anwendungen, die ständig auftauchten, um den Anwendern ihre Hilfe anzubieten. Warum sind sie eigentlich wieder verschwunden? Weil sie die Anwender wie Kleinkinder an die Hand nahmen und durch einen zeitaufwendigen Parcours geleiteten, wobei ein Lerneffekt weder beabsichtigt war, noch tatsächlich stattfand. Bei jedem neuen Brief sollte wieder derselbe Parcours durchlaufen werden, anstatt den Anwendern beizubringen, wie sie sich eigene Vorlagen aufbauen, um künftig massiv Zeit zu sparen.
Wissenschaftler werden künftig immer mehr Zeit für das Erlernen der Handhabung von KI-Werkzeugen (formales Wissen) und für die Überprüfung der Outputs aufwenden müssen, die ihnen dann fehlt, um sich '
Wissen über die Welt'
anzueignen, ohne das es weder Kreativität noch Ideen geben kann, die zu Thesen verdichtet werden, mit denen man sich dann wissenschaftlich auseinandersetzt. Als Nebenwirkung der Formalisierung des Wissens leidet nicht zuletzt die Fähigkeit, komplexere Zusammenhänge zu erkennen und herzustellen.
Sogar die Sprachbeherrschung und der aktive Wortschatz werden sich zurückbilden, wenn KI künftig das Formulieren und das Übersetzen übernimmt. Nach Wilhelm von Humboldt bedingt Sprache aber die Weltsicht. Wie sollen denn bei stark eingeschränkter Sicht Kreativität und Ideen entstehen? Soll KI sich darum auch noch kümmern? Wie sollen bei aller Ablenkung durch die ganze Software noch kohärente und stringente Gedankengänge '
aus einem Guss'
zustandekommen? Und wie soll bei dem permanenten Oszillieren zwischen der Inhaltsebene und einer technisch-instrumentellen Metaebene die Überprüfungskompetenz aufgebaut werden, die bei der Perspektivierung der Thematik bisher überall so unterbelichtet bleibt, obwohl ausnahmslos alle Outputs von KI-Systemen auf ewig hinsichtlich ihrer Vollständigkeit, Korrektheit und Brauchbarkeit geprüft werden müssen? Nochmals: kann da noch genügend Zeit übrigbleiben, um die jeweilige Materie tatsächlich gedanklich zu durchdringen?
Derzeit wirft Künstliche Intelligenz mehr Fragen auf, als sie Antworten liefert. Und bis die Antworten vorliegen, kann sich die Welt der Wissenschaft durch KI schon – bis in die Denkstrukturen hinein – sosehr verändert haben, dass es kein Zurück mehr gibt. Mich erstaunt nach wie vor die weitverbreitete Naivität im Umgang mit KI-basierten Sprachanwendungen, obwohl diese in den Worten von John Searle nur '
Zeichen hin- und herschieben'
(Ebene der Syntax), aber keinen Zugang zu den Bedeutungen (Ebene der Semantik) und schon gar nicht zu den Bedeutungen in konkreten Situationen (Ebene der Pragmatik) haben, noch jemals erlangen werden. Das habe ich in früheren Beiträgen bereits hinreichend dargelegt.
Und was geschieht, wenn das '
Märchen von der Künstlichen Intelligenz, welche die Menschheit auf eine neue Stufe der Evolution katapultiert'
, nicht nur nicht wahr, sondern als blosses profitorientiertes '
Storytelling'
entlarvt wird, mit dem Techfirmen Milliarden einstreichen und immer mächtiger werden, bevor möglicherweise alles implodiert? Ich denke, solche Fragen sind nicht nur legitim, sie müssen jetzt gestellt und beantwortet werden. Sie als Ausdruck '
typisch deutscher Skepsis'
zu bagatellisieren oder zu pathologisieren, könnte teuer werden. Eines wird niemand mehr bezweifeln: es wird nicht lange dauern, bis die Künstliche Intelligenz selbst uns die Antworten geben wird… und egal, wie sie dann ausfallen: wir sollten auf alle erdenklichen Eventualitäten optimal vorbereitet sein.
* Dieser Beitrag wurde angeregt durch das Diskussionspapier «Zehn Thesen zur Zukunft des Schreibens in der Wissenschaft» (Juni 2023) von neun Wissenschaftlern aus verschiedenen Disziplinen, die jedoch weder als Personen, noch als Vertreter der Geisteswissenschaften für sich in Anspruch nehmen können, repräsentativ zu sein. Sie denken die aktuellen Entwicklungen gemeinsam in verschiedene Richtungen weiter und veranschaulichen ihre dazu entwickelten Thesen an verschiedenen Szenarien. Mein Blick auf das Thema findet sich kaum darin wieder. Insbesondere für die Aussagen und Ausblicke in ihrem Fazit fehlt mir jede Evidenz. Trotzdem empfehle ich dieses Diskussionspapier als eine Art Brainstorming – am Beispiel des wissenschaftlichen Schreibens – zu dem, was uns von Künstlicher Intelligenz so alles blühen kann, wenn diese immer totalitärere Formen und Ausmasse annimmt und dabei auf so gut wie keine Gegenwehr trifft, obwohl es danach aussieht, als würde sich am Ende alles auflösen und zu einem grossen Ganzen verbinden, dessen Aggregatszustand vermutlich '
flüssig'
oder '
gasförmig'
sein wird, auf keinen Fall aber mehr '
fest'
. Diese Vision erinnert mich irgendwie an den französischen Schriftsteller Stéphane Mallarmé (1842-1898), der als Symbolist von dem einen Buch träumte, in dem alles gesagt ist. Es ist ihm nicht gelungen, es zu schreiben…