NICHT von der KI zu erfragen (B):
3) Zitieren und Zitate suchen
Angenommen, du hast zu offenen Fragen spontane Aussagen von 700 Personen. Diese Aussagen werden in der weiteren Analyse in Kategorien unterteilt. Wenn du nun nach bestimmten Aussagen suchst, wirst du ein blaues Wunder erleben. Dies gilt auch dann, wenn du ausdrücklich darauf hinweist, dass du Originalaussagen präsentiert haben willst.
- Vergleichsweise harmlos ist das erste Beispiel: Aus der Originalaussage "1 Kind" wird "Ein Kind".
- Schon deutlich abweichender ist das zweite Beispiel: Aus der Originalaussage "Auch die Lehrkräfte waren" wird "Die Lehrer:innen waren". Überdies fehlt das "Auch", wodurch es zu Sinnveränderungen kommt. Ebenso verändernt GPT die unzulässigerweise die Aussage, indem er meint, gendern zu müssen.
Ein schwerwiegende Fehler entsteht aber aus der Tatsache, dass GPT4 – angabenwidrig – Zusammenfassungen mehrerer Originalaussagen macht und als eine (!) Originalaussage präsentiert.
Fazit: Vieles sieht man nicht sofort (daher alles, aber auch wirklich alles checken!), manches ist als Zusammenfassung sofort zu erkennen. Wenn zum Beispiel nach der Situation in der einzelnen jeweiligen Familie während der Corona-Pandemie gefragt wurde, aber als "Originalaussage" präsentiert wird: "Einige Familien erlebten [...]", dann weißt du, dass du diese Aussage im eingegebenen Text nicht finden wirst. Sie ist schlicht falsch.
Worauf die nächsten beiden Don't do that logisch folgen:
4) Vertraue nicht darauf, dass die KI etwas ganz spezifisch Gesuchtes findet.
Das Gesuchte ist möglicherweise NICHT im Text vorhanden --> simple Texteditoren oder Spreadsheets wie Excel können das besser.
5) Vertraue nicht darauf, dass die KI etwas ganz spezifisch Gesuchtes im eingegebenen Text tatsächlich nicht vorhanden sein.
Das Gesuchte kann DENNOCH im Text vorhanden sein --> simple Texteditoren oder Spreadsheets wie Excel können das besser.
15. Mai 2024
Die Fehler-Bugs lauern überall