KI-Blog 2025

 

 

 

Stil und KI-Rolle

Der Einfluss des Prompt-Engineerings auf den Stil wissenschaftlicher Texte

  

Der Einsatz von Künstlicher Intelligenz (KI) in wissenschaftlichen Arbeiten erfordert nicht nur die Beachtung inhaltlicher Kriterien, sondern auch stilistische Überlegungen. Wissenschaftliche Texte folgen strengen Regeln hinsichtlich Sachlichkeit, Nachvollziehbarkeit und struktureller Klarheit. Die Art, wie ein Prompt formuliert wird, beeinflusst maßgeblich die Antworten der KI. 

 

Der Stil in wissenschaftlichen Arbeiten

Wissenschaftliche Texte sind geprägt von einer präzisen, objektiven und neutralen Sprache – oder streben das zumindest an. Emotionale oder subjektive Formulierungen sind zu vermeiden, jede Aussage sollte nachvollziehbar, begründet und belegt sein. Eine KI, die für akademische Zwecke eingesetzt wird, ist daher so zu instruieren, dass ihre Antworten diesem Stil entsprechen.

Eine weniger formelle Anrede oder eine umgangssprachliche Formulierung wird dazu führen, dass die KI in einem lockeren und weniger präzisen Stil antwortet. Das allerdings ist in wissenschaftlichen Texten nicht erwünscht.

  

Unterschiedliche Rollen der KI und ihre stilistischen Ausprägungen

Festzuhalten ist jedoch: Nicht alle KI-Rollen in der Wissenschaft erfordern den objektivierenden Stil. Während analytische Texte einen sachlichen Stil voraussetzen, kann die KI in anderen Kontexten, etwa als Motivationscoach bei Schreibblockaden, einen persönlichen Tonfall annehmen. Hier wird es sinnvoll sein, die KI bereits mit einer freundlichen Sprache zu adressieren, um unterstützende Wirkung zu erzielen: Sprich die KI mit "du" an, sag eventuell "bitte". Die KI antwortet dann vielleicht mit „Gerne. ...“.

Nicht dass der Chatbot nun Gefühle entwickelt hätte, aber ein solcher Stil hat den Vorteil, dass DU (die Anwenderin, der Anwender) durch die persönliche Antwort dich unmittelbar angesprochen fühlst. Ein Beispiel:

  • Wissenschaftlicher Textbaustein: „Erkläre die Prinzipien des Prompt-Engineerings in wissenschaftlichen Arbeiten mit Fokus auf Objektivität und Nachvollziehbarkeit.“

  • Motivationsfördernder Textbaustein: „Ich brauche Unterstützung, um meine Masterarbeit weiterzuschreiben. Ermutige mich bitte mit positiven Formulierungen und konkreten Schreibtipps.“

  

Was der Chatbot nicht erleben kann: den Sonnenaufgang in einer chilenischen Wüste

 

Risiken und ethische Aspekte der KI-Nutzung

Die Nutzung von KI in akademischen Arbeiten birgt neben stilistischen Fragen auch ethische Herausforderungen für alle Beteiligten. Insbesondere bei der Interaktion mit KI-gestützten Tools geben Nutzende persönliche Informationen preis. Und diese werden von den marktdominierenden US-amerikanischen Tech-Konzernen wohl sofort ausgewertet. Um Datenschutzrisiken zu minimieren, empfiehlt es sich, Chatbots gelegentlich zu wechseln.

Hier bietet sich etwa die chinesische DeepSeek-App an. Jedoch das aber bedeuten, dass man vom "Regen in die Traufe" kommt. Zumindest wären dann die Risiken geteilt und damit insgesamt kleiner. Europäische Anbieter mit höheren Datenschutzstandards sollten bevorzugt werden. Sie sind derzeit noch klein, aber fein.

Beispiele hierfür sind Aleph Alpha aus Deutschland für Unternehmen oder Le Chat von Mistral AI aus Frankreich (leider kostenpflichtig). Sie halten sich an die DSGVO-Richtlinien der EU. 

 

Fazit

Das Prompt-Engineering spielt eine zentrale Rolle für die Qualität und den Stil von KI-generierten wissenschaftlichen Texten. Eine bewusste Steuerung des Tonfalls hilft, präzise und den akademischen Standards entsprechende Antworten zu erhalten. Gleichzeitig sollte der Schutz der eigenen Daten nicht aus den Augen verloren werden.

31. März 2025 

 

 


 

Die Rolle

(Prompt-Engineering II)

 

 

Zur Wiederholung: Prompt-Engineering bedeutet die gezielte Gestaltung von Eingaben, um von einer KI präzise und relevante Antworten zu erhalten. Wir haben das letzte Mal drei Dimensionen eines effektiven Prompts angesprochen: Rolle, Kontext und Anweisung. Einige ausgewählte KI-Rollen werden nun aus Sicht von Studierenden an Universitäten und Hochschulen näher betrachtet. 

 

Das Problem klar formulieren

Zuerst kläre das aktuelle Problem – genauso, wie es bei wissenschaftlichen Arbeiten im Rahmen der Einleitung erfolgt. Dieses Problem reicht von der Themensuche bis zur grammatikalischen und stilistischen Endkorrektur. Auf das Problem (oder das Erkenntnisinteresse) wird die spezifische Rolle der KI angepasst. Hier drei Beispiele:

  • „Ich weiß nicht, wie und wo ich anfangen soll.“ Dann kann die KI in der Rolle als Berater, Motivationscoach oder Strukturoptimierer Vorschläge machen. Ich schreibe deshalb Strukturoptimierer und nicht Strukturentwickler, weil die grundsätzliche Gliederung als Basiswissen bzw. als Erstvorschlag vom Studenten selbst kommen sollte.
  • „Mein Text ist nicht im wissenschaftlichen Stil formuliert.“ Hier könnte die KI als Lektor oder als Kritiker eingesetzt werden. 

  • „Wie soll ich die vorhandenen (oder demnächst zu erhebenden) Daten analysieren?“ Nutze die KI als Argumentations- bzw. Begründungsberater, als Methodencoach oder als Datenanalyst.

Wie aus meinen Kommentaren zu den drei Beispielen erkennbar wird, können zahlreiche Rollen relevant werden. Im Folgenden werden zwei Rollen detaillierter behandelt.

 

Eine Rolle zuweisen

Teile die jeweilige Rolle der KI explizit mit: „Du bist in der Rolle eines XXXX [zB eines Methodencoaches].“

Was die KI an Funktionen in einer spezifischen Rolle leistet: 

  • In der Rolle als Berater: Hier könnte die KI das Thema eingrenzen. Ein häufiger Fehler ist eine zu breite Themenwahl bei der Gliederung. Dies geschieht oft aus der Sorge der Studierenden, nicht genug Stoff für das Schreiben zu finden. Eine meist unbegründete Sorge.

    Weitere ergiebige Fragen in der KI-Rolle als Berater sind: "Wie können die gewählten theoretischen Konzepte/Modelle mit der Empirie verbunden werden?" oder "Wie können die Ergebnisse mit aktuellen gesellschaftlichen Entwicklungen verknüpft werden? "

  • In der Rolle als Recherche-Assistent: In dieser Rolle sollte die KI mit Bedacht eingesetzt werden! Die Antworten sind für eine seriöse akademische Recherche meist zu fehleranfällig und unzuverlässig. Aktuelle Suche in der Fachliteratur zur spezifischen (von der KI kaum richtig zu erkennenden) Forschungslücke bleiben Aufgabe des Studierenden.

    Sonst gibt es Allerweltsantworten, die Durchschnittliches aus der Vergangenheit spiegeln. Dies genügt nicht wissenschaftlichen Standards! Für Dissertationen etwa erwartet man grundsätzlich Neues. Die Rolle als Recherche-Assistent ist jedoch hilfreich, wenn man rasch eine Zusammenfassung einer ausführlichen Studie benötigt.

 

Nachdem die Rolle der KI definiert wurde, bleibt eine zentrale Frage: Wie sind die Antworten der KI zu bewerten? Damit die Zuweisung einer Rolle zu verwertbaren und akademisch seriösen Ergebnissen führt, ist eine richtige Verarbeitung der Antworten entscheidend. Genau hier greift die Sandwich-Regel.

 

Die Sandwich-Regel als Leitprinzip

Eigenständiges Denken steht vor dem Einsatz von Chatbots. Erst danach kommt die KI zur Anwendung. Die Beurteilung, Überprüfung und Weiterverarbeitung der KI-Antworten obliegen wieder dem Nutzer. Die KI ist lediglich die 'Füllmasse' im Sandwich.

Richtig vorgegangen zeigt sich ein lernpsychologischer Effekt: Klar zu denken ist das Allerwichtigste. Die Fähigkeit, zwischen hilfreichem und unbrauchbarem Output zu unterscheiden, bleibt eine zentrale menschliche Kernkompetenz. Doch der Umgang mit fehlerhaften oder ungeeigneten Antworten lässt sich erlernen. 

 

Strukturierendes und logisches Denken sowie entsprechendes Formulieren lassen sich letztendlich nicht an die KI übertragen. KI kann den Boden für ein fruchtbares Lernen bereiten. Chatbots sollen zum Beispiel genutzt werden, ineffiziente Recherchen zu verringern. Das wiederum erhöht die Freude am eigentlichen Forschen und am Schreiben einer wissenschaftlichen Arbeit.

 20. März 2025 

 Freude am Tun

 


 

 

Prompt-Engineering I

 

 

Studenten nutzen seit fast zweieinhalb Jahren die generative KI für ihr Studium. Allerdings regelmäßig mangelhaft. Sie starten den Chatbot und schreiben ohne viel nachzudenken einfache Anweisungen wie „Mach eine Liste zu ...“ oder „Erkläre das …“

Doch diese unspezifischen Anfragen liefern nur mittelmäßige Antworten. Sie gleichen Einheitsgrößen in der Kleiderbranche: passend für viele, aber selten perfekt. Die Antworten der Chatbots sind durchschnittlich und wenig auf das jeweilige Problem zugeschnitten. Leider merken die Anwender nicht, dass sie nur einen Bruchteil des tatsächlichen KI-Potenzials ausschöpfen.

Unspezifische Prompts wirken wie ein Jäger, der blind in die Luft schießt – und dennoch erwartet, dass ihm gerupfte und gebratene Enten vor die Füße fallen. Also:

So funktioniert das nicht. Doch wie dann? 

Large Language Models (LLMs) zeigen große Problemlösungsfähigkeiten. Die KI-Effektivität jedoch variiert enorm. Die Effektivität ist abhängig von der Formulierung der Anweisung (Prompts). Sie ist überdies kontingent. Das heißt, die Antworten sind mal so, mal so, abhängig von modellinternen Strukturen und Prozessen. Umständen, die wir nicht erkennen oder nur wenig beeinflussen können.   

Die Kunst des Prompt-Engineering – also das gezielte Formulieren von Anweisungen an die KI – hat sich zu einer gefragten Fähigkeit entwickelt. Soziale Medien sind voller Beispiele, und Influencer versuchen mit spezifischen Prompt-Techniken, Follower (und damit Geld) zu gewinnen.

 

Warum die Formulierung von Prompts entscheidend ist

Doch um das volle Potenzial von KI-Modellen auszuschöpfen, reicht es nicht, diese Techniken zu kopieren. Man muss verstehen, wie die Modelle grundsätzlich funktionieren. Wer KI sinnvoll anwenden will, benötigt daher ein solides Grundwissen

 

Eine der Grundstrukturen eines effektiven Prompts

Die effektive Nutzung von Chatbots beruht auf einer klaren Struktur:

  • Rolle: Wer gibt die Antwort? Die KI erhält eine klare Rolle und weiß, aus welcher Perspektive die Anfrage zu beantworten ist.
     
  • Kontext: In welchem Zusammenhang steht die Anfrage? Der Kontext hilft der KI, die Situation besser einzuordnen.
     
  • Anweisung: Was soll konkret geschehen? Die Anweisung sollte präzise und eindeutig sein.

 

Ein Beispiel

„Du bist ein Experte für Musikpädagogik. Ich bin mäßig fortgeschritten im Klavierspiel. Wie soll ich vorgehen, damit ich klassische Musikstücke besser auswendig lerne?“

Mehr über das Prompt-Engineering im Folgeblog.

 

12. März 2025

  

 

Die KI kennt sich nicht aus.


(In realiter: Eine Gruppe nachts in Nordnorwegen am Feuer, die auf das Erscheinen von Polarlichtern wartet.)

 

 


 

 

Wie Hochschulen mit KI überfordert sind –
und warum ihre Regeln scheitern

 

 

„Schluss mit absurden KI-Regeln!“1 – dieses Statement von Doris Wessels, Professorin für Wirtschaftsinformatik, schlägt Wellen in netzbasierten Medien2. Wessels berichtet von einem AbsurdKIstan an Hochschulen. Seltsame Regeln für den Einsatz von Chatbots lassen vermuten, dass nicht wenige Hochschulen überfordert sind, selbst mehr als zwei Jahre nach ChatGPT-Einführung.

KI-Nutzung erschüttert das Bildungssystem. Massenhaft und unreflektiert werden Inhalte übernommen, hierzu wurde ein eigener Begriff erfunden: der AI-Giarismus, vermutlich entstanden als Ableitung und Pendant zum Plagiarismus. Betroffen sind beide involvierten Akteure: Studierende und Hochschulen.

Die Unehrlichkeit (Faulheit?) der Studenten trifft auf die mangelnde Bereitschaft der Hochschulen, fundiert und effektiv damit umzugehen. Kein Wunder, dass dies entsprechende Diskussionen in internationalen Konferenzen befeuert3. Wie einfach war der gute alte Plagiarismus.

 

Hilflosigkeit

Hochschulen schwanken zwischen KI-Verboten und veralteten Regeln, etwa dem Zitieren des Urhebers einer Aussage. Und deshalb sollen nun KI-Programmierer zitiert werden, so eine Hochschule laut Wessels. 

Sind KI-Programmierer die Urheber? Soll der Programmierer als Quelle zitiert werden? Nein, sie schreiben die Texte ja nicht. Sie stoßen vielmehr die KI an, verbale Splitter aufgrund statistischer Beziehungen zwischen abstrakten Kategorien zu jonglieren.

Inadäquate Regeln zeugen von Hilflosigkeit. In der realen Welt stößen Zitierende sofort auf die Barriere, dass die Programmierer unbekannt sind. Ist dann ersatzweise Sam Altmann zu nennen, weil er der CEO von OpenAI ist? Unbrauchbare KI-Regeln zeigen, dass klassische Zitierregeln versagen. Gefragt ist eine intelligente Anpassung. Wäre dies nicht gerade von „Hoch“-Schulen und Universitäten zu erwarten? Wo, wenn nicht hier?

 

Angriff auf das Zitieren, ein Fundament der Wissenschaft

Seit mehreren Jahrhunderten verlangt die Wissenschaft exakte Quellenangaben. KI-Regeln, die auf diesen Vorgaben fußen, offenbaren ein zentrales Warum des Zitierens: Die Wurzel eines Gedankens oder Konzeptes soll lokalisiert werden.

Die kontextuell mitschwingende Gedanken- und Erfahrungswelt des Autors kann erkundet und nachverfolgt werden. Wir erkennen unzureichende Schlussfolgerungen oder implizit getroffene Annahmen. Aussagen können so von der wissenschaftlichen Community relativiert werden. Dadurch steigt der Wahrheitsgehalt eines Gedankens oder Konzepts.

Wir bauen durch Zitieren gesicherte Gedanken- und Ideennetze auf, ohne jedesmal neu bei Adam und Eva anzufangen. Genau das passiert, wenn man die KI unkontrolliert einsetzt. Ein Zurückfallen in eine Zeit, wo alles Geschriebene per se heilig war. Was damals wie heute Konsequenzen hat:

Gefangen im Nebel überzeugend klingender Sätze wissen wir nun nicht, was wahr ist oder nur gut erdichtet.

23. Februar 2025

 

Blockierendes Geröll in unübersichtlicher Lavahöhle auf Lanzarote

 

1 Wessels, D. (16.01.2025). Die Zeit. Die Position: Schluss mit absurden KI-Regeln!  https://www.zeit.de/2025/03/kuenstliche-intelligenz-studium-hochschulen-regeln.

2 Europa One AI News (16.01.2025). Artificial Intelligence in Higher Education:  Ending Absurd AI Rules in German Universities. Criticism of AI Policies in Higher Education. https://oneainews.com/kunstliche-intelligenz-im-studium-ending-absurd-ai-rules-in-german-universities/

3 Mironova, L./Riashchenko, V. et al. (2024). Ethical Concerns in Using of Generative Tools in Higher Education: Cross - Country Study. Environment. Technology. Resources. Rezekne, Latvia. Proceedings of the 15th International Scientific and Practical Conference. Volume II, 444-447, https://vb.kvk.lt/object/elaba:200959443/

 

 


 

 

Unis ertrinken im KI-Teich

 

 

Sie gehen still unter – die Ertrinkenden. Anfangs schlagen sie noch mit den Armen, doch von außen bemerkt es niemand. Wasser füllt die Lunge, sie versinken.

 

Weissensee in Kärnten 


Genauso drohen Hochschulen im Strudel der KI unterzugehen. Sie ignorieren die Entwicklung oder erlassen absurde KI-Regeln1. Verantwortung wird auf Institute oder Dozierende abgeschoben, manche verzichten sogar auf Bachelorarbeiten. Alles unwürdig einer Hochschule.

 

Dabei erschüttert KI unser gesamtes Privat- und Berufsleben. Doch statt sich aktiv mit den Herausforderungen auseinanderzusetzen, stecken Universitäten den Kopf in den Sand oder treffen Fehlentscheidungen. Wie Verkehrspolizisten, die Autos in die falsche Richtung leiten2.

Sichtbar wurde dieses Dilemma in der Vorbereitung auf das eigentliche Uni-Studium: In Österreich wurde die Verpflichtung zur vorwissenschaftlichen Arbeit (VWA) als Maturabestandteil abgeschafft. Die VWA ist nun eine Option. Das Problem  vor die Tür setzen – als wäre es damit gelöst: So einfach macht es sich die nationale Bildungspolitik.

  

Auch innerhalb der Hochschulen zeigt sich Unsicherheit. Viele setzen neben Plagiatssoftware zusätzlich KI-Erkennungsprogramme ein. Doch diese liefern keine sicheren Ergebnisse, sondern nur Wahrscheinlichkeiten – basierend auf veralteten Trainingsdaten und überholten Modellen. Solche Wahrscheinlichkeiten sind keine verlässliche Grundlage für Urteile. Das wusste man schon in der Antike.

Eine der oft negierten Wurzeln des Begriffes Wahrscheinlichkeit liegt in der Dichtkunst. Beispielhaft zu finden beim griechischen Komödiendichter und Satiriker Aristophanes. KI-Entdeckungssoftware malt – gleich einer Schmierenkomödie – jeden Absatz rot, wenn auch nur die geringste Wahrscheinlichkeit eines KI-Einsatzes auftaucht.

 

Ein konkretes Beispiel zeigt, wie problematisch diese Software ist: Ein Klient berichtete mir 2024, dass zwei, drei Absätze in seiner Masterarbeit wegen angeblicher KI-Nutzung rot markiert wurden. Dabei war er extrem gewissenhaft gewesen, hatte jede Quelle und jedes Zitat akribisch überprüft. Trotzdem erhielten alle (!) Kandidaten eine schriftliche Verwarnung – unabhängig davon, ob nur zwei Absätze oder viele Seiten durchgehend rot aufgeleuchtet hatten.

Unbelegte Behauptungen einer fehleranfälligen Software dürfen kein Urteil begründen! Hochschulen setzen damit ihren Ruf aufs Spiel. Sie zerstören das Vertrauen der Studierenden. Achtung vor der Institution Hochschule? Ertrunken in den Untiefen universitär-systemischer KI-Inkompetenz.

30. Jänner 2025

 

PS: Müssen wir uns bald an chinesischen Universitäten einschreiben, um den professionellen Umgang mit KI zu erlernen?

 

1 Darüber mehr in den Folgeblogs

2 Es gibt hell leuchtende Ausnahmen von KI-kompetenten Dozenten und lohnenden Veranstaltungen. Auch darüber später mehr.