Künstliche Intelligenz kann Intelligenz! Ach ja?
KI ahmt die Abläufe im Gehirn nach, daher seien die Ergebnisse so überzeugend – so die Hintergrundannahme der zahlreichen Veröffentlichungen, wenn über die zugrunde liegenden Algorithmen von KI geschrieben wird. KI setzt auf neuronalen Netzen auf, also Nervenzellen, die miteinander in einem Netzwerk verbunden sind. Vieles jedoch wird in dieser oberflächlichen Sicht übersehen.
Die ursprüngliche Annahme, dass definierte Funktionen wie das Sehen oder Hören in spezifisch geschalteten Teilen dieses Netzwerks (des Gehirns) ablaufen, gilt schon lange nicht mehr. Vermutlich ist das noch nicht bis zu den KI-Designern durchgedrungen. Sie setzen darauf, dass KI auf Basis von Chips, mathematischen Algorithmen und Trainingsdaten die biologische Vernetzung von Neuronen und spezifischen Gebieten simuliert.
Der komplexe Aufbau des Gehirns
Das menschliche Gehirn funktioniert viel komplexer als ein Verbund von Neuronen. Unser Wissen über das Gehirn ist vergleichbar mit dem Zehntel eines Eisberges, der aus dem Wasser ragt. Wir kennen noch sehr wenig von den Vorgängen im Gehirn und stehen vor der schwierigsten wissenschaftlichen Frage überhaupt: Was ist Bewusstsein? Was wir bisher wissen, zeigt, dass die direkte Verbindung von Nervenzelle zu Nervenzelle nur einen Teil der Wahrheit darstellt.
Organoide als Forschungsinstrumente
Die biologische Gehirnforschung hat neue Wege eingeschlagen, um mehr darüber zu erfahren. Ein vielversprechender Ansatz ist die Verwendung von Organoiden (1), miniaturisierten Gehirnmodellen, die aus menschlichen Stammzellen gewonnen werden. Diese organähnlichen Nervengebilde entwickeln sich selbstorganisierend und ermöglichen es den Forschern, die Bildung bestimmter Gehirnstrukturen und -funktionen zu beobachten.
Interessanterweise zeigen diese Miniatur-Gehirne eine drahtlose Verbindung zwischen Zellen, selbst über weit entfernte Areale hinweg. Dies geschieht durch oszillierende Schwingungen mit unterschiedlichen Amplituden. Die drahtlosen Verbindungen in den Organoiden ähneln in gewisser Weise der Funktechnologie, die bereits seit über einem Jahrhundert bekannt ist und beispielsweise in Mobiltelefonen zum Einsatz kommt.
Die Rolle von Schwingungen und Frequenzen
Ein hilfreiches Bild zur Veranschaulichung dieses Phänomens ist die Vorstellung, dass verschiedene Bereiche von Nervenzellen in den Organoiden wie Instrumente eines Orchesters agieren. Sie synchronisieren sich gegenseitig über Feedback-Schleifen und übertragen Informationen. Kommunikation könnte auf Kohärenz beruhen, also einem Zusammenhang, der den gleichen Sinn im Fokus hat (2). Diese Art eines präzisen und selektiven Informationsaustauschs ähnelt einer Art Bluetooth-Verbindung im Gehirn.
Eine Abbildung eines Querschnitts aus einem Gehirn-Organoid verdeutlicht die "funkverbundenen" Neuronencluster mit gleichen Amplituden.
Querschnitt-Karte von Neuronencluster mit gleichen Amplituden in einem dreidimensionalen Organoid eines Teilmodells des menschlichen Gehirns. Ausgelesene 1020 Top-Elektroden auf Basis von 24.600 angebrachten Mini-Elektroden insgesamt. Quelle: (3)
Unser Gehirn gleicht einer Kombination aus Theater und Konzertsaal, nur dass die Zuschauer mitspielen und die Musikanten verteilt im Zuhörerraum sitzen. Ein Geiger sitzt links, ein anderer rechts, ein Chellospieler vorne, zwei hinten. Die Musikanten fordern einander auf und spielen miteinander. Sie synchronisieren ihre Rhythmen und spielen langsame oder rasche, lustige oder traurige Melodien.
Die Zuhörer und gleichzeitigen Schauspieler zwischen den Musikanten halten die Hände ihrer Nachbarn erzählen einander Geschichten. Sie erzählen einander von Szenen in der sogenannten Außenwelt, die den Schattengestalten von Platons Höhlengleichnis ähneln. Sie flüstern bei langsamen Klängen der Musikanten, erzählen von Unbekanntem oder schreien, falls die Trommler von existenziell bedrohenden Nachrichten aus der Außenwelt verkünden. Echte emotionale verflochtene Intelligenz eben. Das Gehirn gleicht somit einer symbiotischen Zusammenarbeit von Musikanten und Zuschauern in einem Musiktheater.
Die Grenzen der aktuellen KI-Programme
Die derzeitigen KI-Programme basieren hauptsächlich auf der Nachbildung von Verbindungen und Funktionen neuronaler Netze. Sie sind jedoch nicht in der Lage, Informationen über oszillierende Schwingungen drahtlos zu übertragen, wie es im menschlichen Gehirn der Fall ist. Aus diesem Grund sind sie bestenfalls eine halbe Künstliche Intelligenz. Um wahre Künstliche Intelligenz zu erreichen, müssen wir einen fundamental anderen Ansatz verfolgen. Hier kommen Quantencomputer ins Spiel.
Quantencomputer als Mit-Zukunft echter Künstlicher Intelligenz?
Die Entwicklung von Quantencomputern verspricht eine revolutionäre Rechen- und Übertragungsart, die eine weitere Grundlage für echte Künstliche Intelligenz sein könnte. Durch die Ausnutzung der Eigenschaften der Quantenphysik können Quantencomputer Informationen parallel verarbeiten und komplexe Berechnungen durchführen, die für herkömmliche Computer unmöglich sind. Quantencomputer simulieren gleichsam die Musikanten des Gehirns.
Ein Verbund aus klassischen Rechnern und Quantencomputern könnte den Weg zu einer ganzen und nicht nur halben Künstlichen Intelligenz ebnen.
(1) Ein Organoid ist eine wenige Millimeter große, organähnliche Mikrostruktur, die mit Methoden der Zellkultur artifiziell erzeugt wird. Sie zeigen physiologisch relevante und organähnliche Eigenschaften; Näheres ist hier zu finden: Organoid-Zellatlas (2021). Nature Biotechnology, Vol. 39, January 2021, S. 13–17; https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7801253/pdf/41587_2020_Article_762.pdf
(2) Fries, P. (2015). Rhythms for cognition: Communication through coherence. Neuron, 88(1), 220-235.
(3) Sharf, T./van der Molen, T./Glasauer, S./ Guzman, E./Buccino A. et al. (2022). Functional neuronal circuitry and oscillatory dynamics in human brain organoids. Nature Communications (2022) 13:4403, S. 2
27. Juni 2023
Chat-GPT oder wie ein verflüssigtes soziotechnische System einen Akteur gebiert
Achtung, Triggerwarnung:Der folgende Text wird etwas theoretisch sein, er kann aber zu einem besseren Verständnis von strukturellen Prozessen und Verschiebungen in Gesellschaften führen. 😉
Wie klar war sie noch vor wenigen Jahren: Die so genannte Schnittstelle, die Verbindung zwischen Mensch und Computer oder zwischen verschiedenen Programmen auf einem Computer oder zwischen verschiedenen Maschinen in einem Netzwerk. Betrachten wir nur das Modell eines Mensch-Maschine-Systems: Aus einer nicht definierten Umwelt gibt es eine Eingabe (in der Regel in Form einer Aufgabe), die von einem Menschen an eine Maschine in formalisierter Sprache weitergeleitet wird.
Die Maschine erzeugt eine ebenso formalisierte Antwort/Lösung, die als Output in die Umwelt weitergegeben wird, wie in der Abbildung unten dargestellt.Die Anfrage des Menschen an die Maschine musste in einer geeigneten und hochformal strengen Form stattfinden, sonst ‚versteht‘ die Maschine nichts, oder es gibt keinen Output oder noch schlimmer: einen falschen oder unbrauchbaren, der nicht als solcher erkannt wurde. Und die Schnittstellen zwischen den Programmen unterschiedlicher Computer hatten es in sich: Formate und Inhalte der Daten mussten adäquat sein. Dies bot im Lauf der letzten Jahrzehnte zig Millionen Programmierern, Designern und Systemanalytikern sichere und gut bezahlte Arbeitsstellen.
Der Funktion der Maschine ist die eines Werk-Zeuges. Werk, die Wortherkunft des ersten Teiles dieser Zusammensetzung von Werk deutet auf wirken, machen, flechten, hervorbringen oder fertigstellen (1). Auf diese Weise wird etwas wirksam und sogar wirklich. Die Wortherkunft von Zeug weist auf ein Gerät oder eine gesamte Ausrüstung. Ein oder mehrere Dinge, die durch Aufwand geschaffen, also gezeugt und geboren werden (2).
Die Zusammensetzung Werkzeug beinhaltet daher einen verketteten Ablauf: Etwas wird geschaffen, um in der Folge damit etwas Weiteres hervorzubringen. Werkzeug im gegenwärtigen Zusammenhang heißt: Die Maschine wurde geschaffen, um damit durch die Hand des Menschen einen Input aus der Umgebung des Mensch-Maschinen-Systems zu einem Output umzuformen und wieder der Umgebung zuzuführen.
Ja, richtig, viele Worte für einen einfachen Vorgang. Diese modellhafte Auffassung vom Mensch-Maschinen-Schnittstellen-System ist simpel und auch nicht mehr als ein erster Verständnisschritt. Betrachtet man die hohe Zahl an täglich veröffentlichten Artikeln zu einzelnen KI-Themen, fragt man sich, was ist da grundsätzlich los? Ein Schritt zurück könnte helfen, einen weiteren Horizont zu erhalten – aus einer Modellsicht des Geschehens heißt das vorerst: Welche Elemente oder Faktoren spielen in welchen Interaktionen eine Rolle? Oder: Welche Personen geben aufgrund der gesellschaftlichen Struktur und der entsprechenden Rollen die spezifische Aufgabe einem spezifischen Programm zur Lösung in Auftrag?
Statt des simplen Schnittstellen-Modells ist differenzierter vorzugehen. Vor zwei Generationen wurde das zentrale Arbeitsmodell eines soziotechnischen Systems entwickelt (4):
Es enthält zwei Teilsysteme, das soziale und das technische Teilsystem. Das technische beruht auf Interaktionen zwischen zwei Komponenten: der Aufgabe und der Technologie. Das soziale beruht auf Interaktionen zwischen Menschen in der jeweiligen vorstrukturierten Rolle. Wie die Pfeile symbolisieren, sind alle Teilkomponenten voneinander abhängig bzw. aufeinander bezogen. Das soziale Teilsystem kreist um das Selbstverständnis von Personen und Gesellschaft, während im technischen die mechanisch-elektronische Weiterentwicklung im Fokus steht.
Spiegelt dieses nun komplexere Modell die gegenwärtige „Realität“ wider? Vorsicht ist aus wissenschaftstheoretischer Sicht bei den Begriffen Realität oder Wirklichkeit angebracht; sie sind trügerische Konzepte. Denn der berühmte Satz vom britischen Statistiker Box könnte richtig sein: „All models are wrong but some are useful“(3).
Box machte darauf aufmerksam, dass vorab getroffene Annahmen und Ausgangs-Axiome bei den Ergebnissen und deren Interpretationen explizit wieder zu berücksichtigen sind. Er geht aber erfreulicherrweise davon aus, dass selbst „realitäts-falsche“ Modelle zu robusten und nützlichen Ergebnissen führen können. Und dies nicht nur in der Statistik, sondern auch in anderen wissenschaftlichen Disziplinen.
Um trotz der rasant ablaufenden KI-Revolution die Modell-Brauchbarkeit zu erhalten, ist etwa zu fragen, welche Schwächen das angeführte soziotechnische Arbeitsmodell hat, die jetzt zum Tragen kommen. Eine zentrale Schwäche ist im Nichtbeachten der Zeit. Während das technische Teilsystem auf Kurzfristigkeit (Minuten, Tage, Wochen, Monate) angelegt ist, beruht das soziale Teilsystem auf Langfristigkeit (Jahre, Jahrzehnte). Gesellschaften und Rollen änderten sich aufgrund von Systembrüchen (Revolutionen, Kriege) oder traditionell in der Abfolge menschlicher Generationen.
Mit anderen Worten, die Brauchbarkeit des soziotechnischen Systemmodells wird durch die KI-Revolution gesenkt, wenn nicht gar zunichte gemacht. Beachtet man die Algorithmen und die Trainingsbasis der Sprachmodelle, sind nun Aufgabe und KI/maschinelles Lernen aufs Engste verknüpft und rekursiv in einem Schleifen-Modus eingespannt. Die Grenzen haben sich aufgelöst. Input und Output sind normal zu lesende Texte geworden. All dies hat fundamentale und rasche Auswirkungen auf die Mitglieder und die Struktur der Gesellschaft.
Aus den fein säuberlich abgegrenzten Elementen und deren Interaktionen des soziotechnischen Systemmodells wird ein flüssiger Wirbel eines systemischen Gesamtgeschehens. Allerdings nun mit einem neuen Akteur!
Beide Teilsysteme sind dynamisch und flüssig geworden. Im sozialen Teilsystem bahnt sich an: Berufsgruppen, welche bisher auf geistiger Routinearbeit beruhte, werde in ihrer Bedeutung abgewertet werden. Klar abgegrenzte Berufe und Fertigkeiten werden seltener die Schlüsselkompetenz für eine erfüllende und erfolgreiche Existenz werden. Dies wird sowohl für Einzelpersonen, sozial institutionalisierte Gruppierungen als auch für Gesamtgesellschaften im Wettbewerb muntereinander gelten.
Ein gekonnter Umgang mit KI, dem Verstehen dieses neuen Akteurs im Geschehen wird zu einer Schlüsselkompetenz im beruflichen oder privaten Leben. Es dreht sich nun darum, ob der menschliche Akteur den KI-Akteur akzeptiert und vor allem die jeweiligen Stärken und Schwächen aufgrund der fachspezifischen Trainingsdaten und Algorithmen kennt, entsprechend nutzt oder korrigiert.
(1) Kluge (2011). Etymologisches Wörterbuch der deutschen Sprache. 25. Auflage. Berlin: Walter de Gruyter S. 991
(2) Ebd., Kluge, (2011), S. 1008
(3) Sydow, J. (1985). Der soziotechnische Ansatz der Arbeits- und Organisationsgestaltung: Darstellung, Kritik, Weiterentwicklung, Frankfurt am Main: Campus, S. 29
(4) Box, G. (1979). Robustness in the Strategy of Scientific Model Building. In: Launer, R./Wilkinson, G. (ed.): Robustness in Statistics. S. 202)
27. Juni 2023
PS: Erstantworten von KI sind zumeist allgemein und tendenziell oberflächlich. Zu empfehlen ist daher, die KI als eigenständigen Akteur bestenfalls in der Rolle einer Sparringpartnerin anzusehen. Daher mit KI in einen Dialog für mehr Tiefe und zusätzlichen Optionen einzusteigen und – wie nach Brainstorming-Sitzungen üblich – die schlechten "erstürmten Blüten" ausmisten.
PPS: Gemäß der Pinzipal-Agent-Theorie herrscht eine grundsätzlich Macht-Asymmetrie. Der Mensch ist Auftraggeber, die KI ist die ausführende Agentin, auch wenn aus Informationssicht die KI über den Zugriff zu einem um Größenordnung höheren quantitativen Informationspool hat. Das qualitative Bewerten bleibt jedoch dem Prinzipal!
Das Eindringen von KI-Modulen in bisherige Standard-Software
Bin überrascht – ich hatte es mittelfristig erwartet, aber nicht jetzt. Eines der global bedeutendsten Programme für qualitative Inhaltsanalyse läuft seit Kurzem auf meinem Computer mit integrierter Künstlicher Intelligenz. Zwar ist dies eine Testversion (Beta-Version), wovor ich mich üblicherweise hüte, denn zusammenbrechende Computer mit Datenverlust ist nicht meins. Aber alles mit KI ist derzeit heiß, also ausprobieren!
Interessant, dass selbst in der deutschen Version des Programms die KI nun AI (Artificial Intelligence) heißt, aber das spielt keine Rolle: The rat race is in full swing. Weltweit schießt die KI-Branche vorläufige Versionen raus und/oder kündigt die Integration von KI für Bürosoftware und Office-Anwendungen für die nächsten Monate an. Wie schön, jedoch bedeutet das auch, dass diese AI-Programme beim Kunden reifen. Wie das oft der Fall in der IT-Branche ist: Die zahlenden Kunden verbessern durch ihre Beschwerden und Anregungen das Produkt.
Die von von mir hauptsächlich verwendete Qualitative Data Analysis-Software (QDA) ist Maxqda, wie unschwer meiner Homepage zu entnehmen ist. Wo und für welche Funktionen wird hier AI angeboten? Das nämlich ist das Spannende an dieser Beta-Version; die bereits erkennbare Stärke von KI wird konsequent genutzt und gleichzeitig beinhart kanalisiert.
Das Grundprinzip eines derzeit gut funktionierenden Prompts (Frage und Detaillierungen an die KI) wird durchgehend realisiert: Erstens, die Aufforderung für einen Text steht am Anfang des Prompts; zweitens, die einengend-präzisierenden Zusatzinformationen kommen anschließend.
Die Umsetzung dieses Prinzips sieht bei Maxqda 2022.7.ß so aus:
- Die Funktion Subcodes vorschlagen: Das für die Daten entwickelte Codesystem – sei es deduktiv oder induktiv oder beides gemischt – stellt das zentrale Werkzeug einer qualitativen Inhaltsanalyse dar. Die Hauptcodes sollten beschrieben (definiert) und im Idealfall mit Ankerbeispielen versehen sein. Fordere nun die integrierte AI auf, zu einem definierten Hauptcode Subcodes vorzuschlagen, so ist dies für die AI aufgrund der klaren Vorgaben ein Leichtes, zentrale Subcodes vorzuschlagen.
- Die Funktion Codierte Segmente zusammenfassen: Ein Heimspiel für jede Text-AI! Codierte Text-Fundstellen (Segmente) werden zusammengefasst und in den zugeordneten Code-Kommentaren gespeichert. Die Profis geben noch an, in welchem Umfang die Zusammenfassung sein oder worauf besonders Wert gelegt werden soll. Dies bietet die zusätzliche Funktion Ergebnisse nach Wunsch anpassen.
- Die Funktion Ausgewählte Textpassagen zusammenfassen: Die markierten Textpassagen werden exzerpiert und direkt in ein Memo gespeichert. Diese scheinbare Allerwelts-Funktion könnte allerdings jede qualitative Inhaltsanalyse fördern. Denn das Verfassen von Memos hält spontane Gedanken und eventuell kreative Überlegungen zwischendurch fest. So wie es etwa in der die Grounded Theory angeraten und gefordert wird. Wodurch die Qualität der Memos berücksichtigenden Analyse sich verbessern sollte.
- Die Funktion Automatische Zusammenfassungen erstellen: Dies kann als nette Finger- und Eingangsübung angesehen werden. Qualitativen Ansprüchen an eine gediegene Inhaltsanalyse kann das aus wissenschaftlicher Sicht nicht gerecht werden. Der Kontext (Problemstellung, Forschungsfragen, Setting der Datenerhebungen etc. ) ist der AI nicht bekannt.
Für alle Funktionen gilt: Die Bachelor-, Master- und DoktorkandidatInnen sind gefragt, einzugreifen und KEINESFALLS das erste Ergebnis so stehen zu lassen.
21. Juni 2023
Humor von Chat-GPT
Aufforderung: Tell me a joke about writing an academic thesis
KI-Antwort: "Warum wurde der Doktorand ein Marathonläufer?
Weil er es leid war, eine Doktorarbeit zu schreiben – und die Freude erleben wollte, eine Ziellinie zu erreichen."
18. Juni 2023
KI wird ForscherInnen dazu bringen, den Forschungsweg offenzulegen.
Früher gaben Doktoranden nach drei oder vier Jahren des Recherchierens, Forschens und Schreibens eine reich gegliederte Arbeit mit einem mehrdutzendseitigen Literaturverzeichnis als Dissertation ab. Das Thema war in der Regel seriös und tiefschürfend aufbereitet worden, keine Frage. Fehlende Problemstellung, grobe Zielangabe, die aus einer Wiederholung des Themas besteht, und nicht genau formulierte Forschungsfragen führten häufig zu mäandernder Darstellung und folglich mangelnder Stringenz.
Es entstanden mehrhundertseitige akademische Wälzer, die verschiedene Perspektiven des Themas lose zusammenhängend durchleuchtet hatten. Man erfuhr, wie die rechtliche Seite in der Schweiz aussieht, die historische Situation in Österreich und die administrative Umsetzung in Deutschland. Immer dabei: ein Exkurs. Ein unpassendes Kapitel, was der Name schon anzeigt: Ex-Kurs, ein Synonym für ‚Abweichung, Vom-Wege-abgekommen-Sein ‘.
Das ist seit einigen Jahren weitgehend vorbei, abgesehen von Ausnahmen. Es wird eine stringente lineare Argumentationsstruktur gefordert, beginnend mit der Problemstellung, dann –> den abgeleiteten Forschungsfragen (und im quantitativen Fall präzisierten Hypothesen) –> dem Forschungsdesign –> dem Forschungsstand –> den verwendeten Methoden –> den Ergebnissen inklusive Schlussfolgerungen –> der Diskussion, Limitation und Ausblick. Jeder Schritt und die Reihenfolge müssen überzeugend begründet sein, um einen roten Faden erkennbar zu machen.
Dabei weiß jeder, dass Forschung anders verläuft: in un-zusammenhängenden Schüben und in wiederkehrenden Loops. Möglicherweise sogar von der Mitte aus gestartet – gleichsam vom zweiten Akt eines Theaterstücks: Hat die ForscherIn einen Zugang zu welchen Zielgruppen? Dann bestimmt rekursiv (!) dieser empirische Zugang die nun nur mehr formal ersten Glieder der Argumentationskette mit Problemstellung –> Forschungsfragen –> etc.
Es wird noch schlimmer, denn solche Arbeiten können brillant sein und neue Erkenntnisse liefern! Nur hat die erwartete und ewig gleiche formale Darstellung des fiktiv-idealisierten Ablaufs einen Fake-Aspekt: So ist es NICHT gelaufen. Dieser Fake-Aspekt stellt einen wunden Punkt in Wissenschaften dar, in Gebieten, die sich der Wirklichkeit und Wahrheit verpflichtet sehen. Denn es gilt nicht nur für Statistik: Die Ergebnisse sind eng mit dem Weg ihrer Erzeugung verbunden. Doch der real gegangene Weg existiert offiziell nicht mehr.
Wie bei einer fixen Sightseeing-Tour für Städtetouristen werden vieltausendmal immer die selben Stationen abgeklappert. Was daneben oder dahinter liegt, weiß man nicht.
Aufschluss über den tatsächlichen Weg der Forschung (und damit zu den Ergebnissen) kann erreicht werden Protokollieren der Forschungabläufe: das Forschungsprotokoll. In einigen wenigen Fächern wie etwa der Ethnologie ist dies ein Muss. In vielen Fächern wird das Protokollieren von Annahmen, Ideen und Zwischenergebnissen in Veranstaltungen zu wissenschaftlichen Methoden zwar erwähnt, doch umgesetzt wird es kaum.
Richtig, konventionell-lineare Forschungsgliederungen haben den Vorteil, wichtige Stationen der Forschung kurz und prägnant zu vermitteln. Allerdings werden KI-Chatbots den Unbedingtheitsanspruch solcher gekünstelten Gliederungen relativieren. Die oft entscheidende Reihenfolge der Forschungsstationen und Überlegungen sollte nicht mehr verschwiegen werden. Das Instrument des Forschungsprotokolls könnte in Zukunft in jeder Phase den Einsatz aller genutzten Werkzeuge (Literaturquellen, KI-Chatbots etc.) belegen.
Auf diese Weise würde das fundamentale wissenschaftliche Gütekriterium der "intersubjektiven Nachvollziehbarkeit" in den Geistes-, Sozial- und Kulturwissenschaften voll zum Tragen kommen. Großartig, ein Hoch der KI!
16. Juni 2023
Der Dialog mit Chat-GPT bringt's!
Die Antworten von Chat-GPT sind nett, zeigen wenig Ecken und Kanten und lesen sich auf den ersten Blick überzeugend. Den Entwicklern hatten in der Ausgabe ein höfliches und allseits abgerundetes Verhalten verordnet. Gleicht fast schon einem Smalltalk. Fast. 😊
Jedenfalls ist das für tiefgehendes und präzises Arbeiten im Rahmen eines Forschungsprojekts ungeeignet. Die universitären Betreuer und Gutachter werden diesen Stil relativ schnell erkennen und – völlig zu Recht – durchschauen. Für einen angehenden Akademiker ist daher das Wichtigste nicht der Text der Erstantwort, sondern ein Klick auf den Button "Regenerate response" samt detaillierten Anforderungen wie "Nennen Sie mir die wichtigsten Quellen".
Auf diese nachbohrende Weise werden nicht nur interessantere Antworten generiert, sondern man erkennt rasch die Limitationen des Sprachmodells, nämlich worauf es nicht trainiert wurde, was es nicht in seinem Repertoire hat.
So führt ein Satz wie "Nennen Sie mir aktuelle Reviews/Übersichtsarbeiten zur Anwendung von Bayesschen Linearen Regression in der Medizin" nur zu einem allgemeinen Verweis auf Literaturrecherchen mittels Google Scholar oder der medizinischen Metadatenbank PubMed. Dies geschieht, nachdem Chat-GPT zuvor ganz nett und verständlich die Methode der Bayesschen Linearen Regression erklärt hat.
Chat-GPT ist eben ein Werkzeug, und wie jedes Werkzeug kann es manches sehr gut und anderes gar nicht. Mit einem Hammer werden Sie eben keine Sachertorte zerteilen können.
PS: Diesen Text hab ich von von der KI-Maschine auf grammatikalische Fehler lektorieren lassen. Wozu haben wir sie.
PPS: Meine strenge Lektorin hat dennoch zwei Fehler gefunden, quod erat demonstrandum. Sie sprach von Kauderwelsch, verrät es aber nicht. ;-)
13. Juni 2023
"Schnatter-Roboter"
Chatbots wie ChatGPT, Llama, Bard oder T5 schlagen weltweit in vielen gesellschaftlichen Bereichen wie Bomben ein. Experten erwarten durch den leichten und öffentlichen Zugang zur Künstlichen Intelligenz (KI) Veränderungen in der Gesellschaft, wie es historisch die Dampfmaschine oder das Automobil vollbrachte. Da ist viel dran, dennoch schraubt Technik- und Fortschrittsglaube viele Erwartungen illusionär hoch.
Zuerst, was ist ein Chatbot? Bot zeigt als Abkürzung für Roboter auf einen elektronischen Algorithmus, der bestimmte Aufgaben durchführt. Chat kommt aus dem Englischen und meint reden, plaudern, sich unterhalten, eventuell auch im Sinne von Gerüchte streuen1. Eine wortwurzelgetreue und sehr passende Übersetzung wäre 'Schnatterroboter'. Chatbots, also Programme, die plaudernd ein menschliches Gegenüber simulieren, beherrschen derzeit die Schlagzeilen.
Doch so neu sind sie nicht. Schon 1966 entwickelte der deutsch-amerikanische Informatiker Joseph Weizenbaum den Prototypen eines Chatbots, nämlich ELIZA. An sich wollte Weizenbaum mittels eines einfachen Programms nur aufzeigen, wie natürliche Sprache im Computer verarbeitet werden kann. Eliza jedoch wurde ein Erfolg, viele nutzten es als virtuellen Psychotherapeuten. Weizenbaum warnte in der Folge über Jahrzehnte vor dem naiven Glauben an die Wahrheit aus dem Computer.
Denn Begriffe KI oder AI (Artificial Intelligence) enthalten in der Wortzusammensetzung bereits überzogene Ansprüche in Richtung intelligent, einsehen oder gar erkennen. In der Informatik werden diese Chatbots präziser als große Sprach-Modelle bezeichnet. Mit riesigen Datensätzen und hoher Rechnerleistung durch spezielle KI-Chips (etwa von Nvidia) erzeugen Chatbots Texte, die wie von Menschenhand geschrieben wirken. Große Sprach-Modelle sind wortwörtlich das, was sie sind: large language models. Und sie liefern gemäß Input und Training einen Output. Das ist vorerst mal alles.
Ein bisschen Begriffsarbeit, und die Prozesse samt Ergebnissen werden deutlicher:
- Ein Modell ist etwas zutiefst Pragmatisches, also nicht mit der objektiven Wirklichkeit abgestimmt, sondern eine Selektion bestimmter Attribute oder Größen des Darzustellenden, die am nützlichen Gebrauch orientiert sind. Diese Selektion führt zur Vereinfachung bei gleichzeitiger Verzerrung komplexer Sachverhalte.
- Sprache besteht als komplexes Zeichensysteme zur Kommunikation, welche nur begrenzt logischen Normen unterworfen ist. Neben sachinhaltlichen Funktionen zählen sozialpsychologische und soziale.
- Groß bezeichnet eines spezifische Qualität, welche durch schiere Quantität erzeugt wird. Groß war etymologisch gesehen ursprünglich ein Wort für das Grobkörnige, nun auch „in Ausdehnung [nach irgendeiner Richtung] oder Umfang den Durchschnitt oder einen Vergleichswert übertreffend“2.
Die genannten Modelle werden auf Basis der Inhalte unzähliger Web-Sites (eben auf der Basis des Großen) trainiert. Das können Inhalte von strukturierten Datenbanken wie Wikidata sein, es können Patentdatenbanken, aber auch private Blogs mit nicht immer seriösen Ansprüchen sein. Die geheim gehaltenen Algorithmen bauen zum Schluss und jetzt erst im Abfragefenster sichtbar im Themenrahmen sukzessive Wort für Wort und Satz für Satz gemäß linguistischen Wahrscheinlichkeitsvektoren auf.
Was kommt heraus? Ein schriftlich eleganter und flüssig aufgebauter Essay (wortwörtlich ein ‚Versuch‘), der Themen- und Aspektspezifisches bietet. Wie von Geisterhand schreibt der Computer eine Geschichte, einen Versuch, auf der Grundlage von Konstruiertem, kombiniert mit Wahrscheinlichem und Falschem. Selten werden Originalquellen angegeben, wie auch, wenn das Modell auf unzählbaren Quellen basiert. Systematische Verzerrungen und Fehlinformation können eingebaut sein. Diese systematischen Verzerrungen sind weder auf den ersten noch auf den zweiten Blick erkennbar. Wie bei Gerüchten entstehen Entstellungen, Verfälschungen und Fehlinformationen. Diese Zerrbilder zeigen sich allerdings in einer wohlaufgebauten und verführerischen Sprache.
Was heißt Verzerrung, im wissenschaftlichen Jargon: der Bias?
Ein Beispiel soll dies verdeutlichen. Angenommen, es wird gezielt ein konkretes Thema in einem bestimmten Bereich abgefragt. Nehmen wir den großen Bereich „menschliche Gemeinschaft“3. Hier dominiert Religion. Völlig befremdlich aus heutiger Sicht. Im Mittelalter in Europa wäre eine gewisse Berechtigung dafür gewesen, aber auch jetzt, und wie war bzw. ist es weltweit? Doch es wird noch schräger: Innerhalb Religion sind von den 20 Top-Sites 16 christlich! Verzerrter geht es kaum. Weder kann der Begriff Gemeinschaft global auf Religion beschränkt sein, noch Religion wiederum auf das Christliche. Die Bühne, auf welcher die Chatbots ihre Zauberkunststücke aufführen, könnte zumindest hier nicht ir-realer sein.
1 Chambers. Dictionary of Etymology, 2008, S. 162
2 Duden. Deutsches Universalwörterbuch 8. Auflage. 2015, S. 758
3 Entnommen aus Schaul, K/Chen, S. & Tiku, N. (April 19, 2023). Inside the secret list of websites that make AI like ChatGPT sound smart. The Washington Post.
6. Juni 2023
Wie Hochschulen mit der KI-Revolution umgehen könnten
Wie ein Tsunami dringen Chatbots in den tertiären Bildungsbereich ein. Selbst Studierende des ersten Semesters haben mit wenigen Klicks einen Zugang zu einem „verarbeiteten Wissen“ durch Chat-GPT und Schwester-Textprogramme. Derzeit (Juni 2023) reagieren Unis, Fachhochschulen und akademische Lehrgänge kaum darauf, wie das bei großen Organisationen der Fall ist und auch sein muss.
Sie sind Riesentanker, die selbst für kleine Abweichungen vom Kurs viel Zeit und viele zwischenzeitlich gefahrene Kilometer benötigen. In den Seminaren wird vielleicht gesagt, dass Plagiatsprogramme solchen ‚Tricks‘ auf die Spur kommen. Nur, es funktioniert nicht.
Selbst die besten derzeitigen Plagiats-Entdeckungsprogramme wie Turnitin können nur Wahrscheinlichkeiten angeben. Zahlreich durchgeführte Tests mit tatsächlich von Menschen geschriebenen Essays zeigen, dass einige (wenn zugegebenermaßen wenige Essays) falsch als von der KI geschrieben angeprangert werden. Selbst die amerikanische Unabhängigkeitserklärung aus 1776 mit Thomas Jefferson als Hauptautor wird zu 99,9% als KI-geschrieben angesehen (1).
Zuverlässig und als seriöse Bildungsorganisation sich darauf zu verlassen, geht daher nicht. Die Ergebnisse sind zur Bewertung studentischer Arbeiten nicht geeignet. Pauschalverbote wären kontraproduktiv.
Mögliche Strategien eines Miteinanderlebens von Institution Hochschule und KI wären:
- Es ist jetzt schon möglich, dass zwei oder mehr Personen eine wissenschaftliche Arbeit (meist eine Dissertation) gemeinsam erarbeiten. Dies wird anerkannt, sofern ersichtlich ist, wer was verfasst hat. Dies könnte auch für den Einsatz von KI verwendet werden. Der Einsatz von KI muss offengelegt werden – entweder jeweils gekennzeichnet innerhalb des Haupttextes der Arbeit oder im Anhang. KI wäre damit eine herausgehobene Super-Quelle des Literaturverzeichnisses.
- Die Dokumentation und Qualität des individuellen Studienverlaufs wird wichtiger. Haben bis vor Kurzem Studierende inkonsistente Hausarbeiten mit groben Rechtschreibfehlern abgegeben und glänzen nun mit geschliffenen Formulierungen, so wäre dies näher zu prüfen. Eine solche Vorgehensweise hätte überdies den Vorteil, dass sich Hochschulen von einer in einigen Fächern bestehenden Massenabfertigung verabschieden.
Hurra, die direkte und persönliche Betreuung wäre wieder an der Tagesordnung. Genauso wie es ab dem 11. Jahrhundert, der Gründung von europäischen Universitäten der Fall war: Vortragende/Magistri und Studierende waren eine überschaubare Lern- und WissensGEMEINSCHAFT, eben eine universitas !
- Die Bedeutung schriftlicher Arbeiten wie Haus- oder Seminararbeiten wird sinken. Die Bedeutung mündlicher Prüfungen wird steigen. Dies führt in ein Dilemma, denn es impliziert einen deutlich höheren Ressourcen-Aufwand. Etwas, das die Hochschulen aus budgetären Gründen kaum stemmen können.
- Die Einführung von Hybrid-Prüfungen: Mündliche und schriftliche Prüfungen werden kombiniert. Etwa durch eine Acht-Stunden-Klausur, in welcher nur ein Laptop mit Internetanschluss erlaubt ist. Am Beginn wird eine Problemstellung genannt wird und die Studierenden nutzen KI-Programme zusätzlich zu ihrem inhaltlichen und methodischen Wissen für bestimmte Teil-Aufgaben. Es ist leicht, jeden dieser Schritte elektronisch zu dokumentieren und mit dem Endergebnis zu vergleichen. Die Studierenden könnten dann die – auch bisher geforderte – zentrale Einschätzung von Quellen und des Vermögens, sie entsprechend zu verarbeiten, zeigen. Womit ein seriöser Transfer bei der Bearbeitung der Probleme oder des vorgegebenen Themas gewährleistet wird.
Bisherige Bildungsziele werden rascher und tiefergehend erreicht. Verschwörungstheoretischem Schwurbeln, das auf simplen und nicht überprüften Argumenten beruht, wird das Wasser abgegraben. Da KI aus dem Leben in allernächster Zukunft nicht mehr wegzudenken sein wird, entspräche das einem oft geforderten Anspruch an tertiäre Bildungsinstitutionen, Praxis- und Gesellschaftsaspekte schwerpunktmäßig aufzunehmen.
Was auch immer sein wird: Der Arbeitsmarkt der nahen Zukunft wird einen versierten Umgang mit KI auf jeden Fall verlangen!
(1) Agarwala, A. (7. Juni 2023). Diesen Text hat eine KI geschrieben. Behauptet eine KI. Aber hat sie auch recht? Wissen. Die Zeit Nr. 25, S. 29
30. Mai 2023
KI und das Verfassen von wissenschaftlichen Arbeiten
Mit großer Wucht durchpflügen leicht zugängliche Künstliche-Intelligenz-Systeme wie Chat-GPT das weite Feld des Erstellens von Seminar-, Bachelor- und Masterarbeiten. Im ersten Moment scheint es, als bliebe kein Stein auf dem anderen. Bei näherer Beschäftigung wird klar, dass diese KI-Systeme zwar einem Werkzeug mit neuer Qualität entsprechen, aber der Werkzeugcharakter dennoch bestehen bleibt. Um drei Punkte herauszuheben:
1. Allein, wie Prompt und Frage formuliert sind, zeigt, dass vom Nutzer des KI-Systems ein ähnliches Know-how benötigt wird wie in der Recherche in der Fachliteratur mit Keywords. Abweichende Formulierungen erzeugen andere Ergebnisse.
2. Inhaltlich sind die Ergebnisse nun noch viel intensiver zu prüfen als die Quellen bisher schon: Check - ReCheck - DoubleCheck. Die Einschätzung von Quellen auf Seriosität war eine geforderte Fähigkeit, die allerdings im Begutachtungsverfahren nicht immer ein großes Gewicht hatte. Damit ist es nun vorbei. Die Quellen-Untersuchung und -Bewertung wird ein entscheidendes Kriterium werden für eine gehaltvolle wissenschaftliche Arbeit.
3. Das 'Gehirnschmalz' der VerfasserInnen wird sich auf das Eigentliche der Erkenntnisarbeit konzentrieren müssen, also auf jene Bereiche, welche die KI (derzeit noch nicht und eventuell für eine längere Zeit) nicht kann: Forschungsdesign und Umsetzung im wissenschaftsoziologischen und -inhaltlichen Kontext, argumentative Stringenz/roter Faden, Tiefe, Berücksichtigung psychologischer und sozialer Auswirkungen, etc.
Es ist zu vermuten, dass die Schere zwischen souveränen, die Methoden anwendenden, und lässigen, sich eher ans Formale haltenden Studierenden noch weiter aufgehen wird.
30. Mai 2023