Kommunikation, Kreativ & frei, Kunde & Co., Künstliche Intelligenz

Auftrag abgelehnt

Ich habe einem langjährigen Kunden mitgeteilt, dass er von mir nicht mehr die Leistungen bekommt, die er bisher erhalten hat. Schuld daran ist die KI – aber letztlich auch der Kunde selbst.

Unternehmen und andere Institutionen probieren sich gerade zunehmend darin aus, Kreativleistungen selbst zu erbringen. Wobei „selbst“ heißt: mit Hilfe generativer Sprachmodelle. KI erstellt in Sekunden Bilder, Texte oder ganze Websites. So weit, so (un)gut. Denn für alle kreativen Berufe bedeutet das einen Zeitenwandel. Ihnen gehen Aufträge und Einkommen verloren. Welchen Umfang das hat, ist je nach Beruf, Spezialisierung und Person verschieden. Bei mir ist das (noch) weniger der Fall. Es zeichnet sich nämlich immer deutlicher ab, dass der Einsatz von KI in der Wissenschaftskommunikation mit so großen Risiken verbunden ist, dass man sich schlichtweg nicht auf sie verlassen darf. Wissenschaftliche Ergebnisse und Erkenntnisse müssen präzise, nachvollziehbar, reproduzierbar und zu 100 Prozent fehlerfrei sein. All das ist KI nicht. Daraus resultiert nicht nur ein Karriererisiko für Studierende oder Wissenschaftler:innen. Es ist auch eine ernstzunehmende Gefahr für die Reputation von Hochschulen, Unternehmen und NGOs.

KI-Kontamination

Von meinem besagten Kunden (eine mittelgroße NGO) hatte ich einen Lektorats- bzw- Redigatsauftrag erhalten. Solche Aufträge wechseln mit anderen redaktionellen Leistungen wie etwa der Erstellung von Interviews, Publikationen oder Positionspapieren. In diesem Fall war es jedoch anders. Denn eigentlich war mir die zu redigierende Publikation, ein Handlungsleitfaden, im vergangenen Jahr als vollständiger Redaktionsauftrag angekündigt worden. Ich sollte den gesamten Leitfaden schreiben. Nun lag er also vor mir und es hat nicht mal eine Minute gedauert, bis ich realisierte, dass es ein von KI erstellter Text war.

Um es vorwegzunehmen: Ich habe den Auftrag abgelehnt.

Die Gründe dafür sind ebenso einfach wie naheliegend: Das Lektorat wäre schlichtweg aufwändiger gewesen, als wenn ich die Publikation gleich selbst geschrieben hätte. Das ist bei Lektoraten normalerweise nicht der Fall. Durch die Mitarbeit von KI aber wird ein Text inhaltlich-sprachlich so stark kontaminiert, dass man ihn nicht mehr mit vertretbarem Aufwand von dem ganzen KI-Slob trennen kann. Die Probleme dahinter sind unterschiedlicher Art:

  1. Fakten- und Quellenprüfung nicht leistbar: Zum Fachlektorat gehören immer ein Faktencheck und die Überprüfung der zitierten Quellen. KI aber ist eine Blackbox. Der Ursprung vieler ihrer Aussagen bleibt verborgen, häufig werden unseriöse Quellen zitiert (Youtube, Reddit etc.) oder sie wurden von ChatGPT & Co. frei erfunden. Die Recherche verlässlicher Aussagen und Fakten beginnt damit in vielen Fällen wieder bei null. Nur so lässt sich gewährleisten, dass sie richtig oder überhaupt echt sind.
  2. KI ist stilistisch beschränkt: Von generativen Sprachmodellen erstellte Texte sind in Ausdruck, Form und Stil stereotyp und extrem reduziert. Das macht sie als solche leicht erkennbar. Es macht sie aber auch unlektorierbar. Will man alle KI-typischen Elemente entfernen und nuanciertere Stilelemente integrieren, müsste man den gesamten Text neu aufsetzen.
  3. Die inhaltlich-konzeptionelle Richtung lässt sich nicht mehr ändern: Was einen Text ausmacht, sind neben den ausgewählten Inhalten seine Struktur, seine inhaltliche Kongruenz und seine argumentative Logik. Dafür braucht es neben einem abgestimmten Textkonzept auch das stetige Überprüfen und Justieren während des Schreibens. Als Erstautor stimme ich mich zum Beispiel ständig mit den verantwortlichen Projektmanager:innen oder beteiligten Wissenschaftler:innen ab. Schreiben ist ein Prozess. Ein Text entwickelt sich, braucht Zeit. Gedanken und Argumente werden formuliert und wieder verworfen. Diesen „Reifeprozess“ durchläuft ein KI-Text nicht. Er wird in viel kürzerer Zeit erstellt und abgesegnet. Was im Lektorat dann an grundlegenden inhaltlich-konzeptionellen Mängeln auffällt, wird von mir als Lektor zwar angemerkt, aber nicht mehr korrigiert. Das ist Aufgabe der Autor:innen, die es bei KI allerdings nicht gibt. Was direkt zum nächsten Punkt überleitet:
  4. Es heißt Lektor, nicht Autor: Autorenleistungen durch die Hintertür, diesen Versuch gab es schon vor KI. Es sind Kunden, die schnell und schlecht zusammengezimmerte Texte ins Lektorat geben, mit der Bitte, daraus doch einen Pulitzerpreis-Text zu machen. Nice Try! Damit sollen natürlich die höheren Kosten für eine Texterstellung durch Profis umgangen werden. Mit Entwicklung der generativen Sprachmodelle ist hier die Versuchung noch ein Stück größer geworden. Die Textvorlage wird vom Kunden schnell erstellt und die Lektor:in zaubert daraus einen professionellen Fachartikel – nein, tut sie nicht. In welchem Umfang eine Lektor:in direkt in den Text eingreift (oder nur Änderungsvorschläge macht), ist individuell verschieden. Bei größeren Baustellen gibt sie die Aufgabe auf jeden Fall wieder zurück an die Autor:innen. KI ist eine Mega-Baustelle.

Mit meinem NGO-Kunden bin ich in Sachen Handlungsleitfaden nicht mehr zusammengekommen. Beim Einsatz von KI trennt sich die Spreu vom Weizen. Das geht auch Fotograf:innen und Gestalter:innen so. Setzen ihre Kund:innen auf Künstliche Intelligenz, ist es zunächst mal deren freie Entscheidung. Was auf jeden Fall nicht sein kann, ist, dass KI-Produkte auf dem Tisch von Kreativprofis landen, um sie so aussehen zu lassen, als seien sie von ihnen erstellt worden.