Wenn es um künstliche Intelligenz sowie maschinelles Lernen geht, machen sich viele Beteiligten unehrlich. Einige spielen die Lage nicht nur herunter, sondern reden sich die Situation regelrecht schön – zumindest nach außen. Sogar große Unternehmen haben offenbar Panik, die Wahrheit auszusprechen, denn wer es macht, muss offenbar mit existenziellen Konsequenzen rechnen.

Schon kurz darauf, als KI-Tools wie ChatGPT, Bard und Co veröffentlicht wurden, konnte man den Eindruck bekommen, wer die negativen Aspekte ausspricht, übertreibt und will alles nur schlecht reden. Diese Vorurteile halten sich bis heute. Wer die künstliche Intelligenz nicht in Gänze beweihräuchert, hat eben nur nicht verstanden, wie sie funktioniert und wie diese bereichernd eingesetzt werden kann – so die gängigen Andeutungen.

Die Angst vor existenziellen Konsequenzen

Vor allem die Textbranche leidet aktuell sehr unter dem rasanten Fortschritt von auf maschinellem Lernen basierenden Text-Bots. Doch obwohl die Textaufträge auf vielen Plattformen schon kurz nach Erscheinen von ChatGPT massiv eingebrochen sind und mittlerweile praktisch gegen null tendieren, macht sich die Branche einfach unehrlich. Das zeigen unter anderem Äußerungen wie die im erst kürzlich veröffentlichten KI-Statement von Textbroker immer wieder aufs Neue.

Niemand verlangt, dass die Branche den Kopf in den Sand stecken und auf den „Untergang“ warten soll. Im Gegenteil: Es ist doch niemandem geholfen, wenn klare und offensichtliche Probleme verschwiegen werden. Nur wenn diese klar angesprochen werden, können sie auch gemeinsam gelöst werden.

Welche Gründe haben also solche teilweise stark widersprüchlichen Aussagen und dieses ganz offensichtliche Schönreden der tatsächlichen Lage? Es ist offenbar die nackte Angst vor existenziellen Konsequenzen, die damit einhergehen könnten, gäbe man zu, dass KI tatsächlich ein Problem ist. So ist es für viele Beteiligten ein Drahtseilakt, das Problem irgendwie anzusprechen, KI aber auch nicht zu verteufeln – obwohl das niemand verlangt.

Große Unternehmen haben einfach Angst, sich zu outen

Auch größere Unternehmen haben offenbar schlichtweg Panik, sich zu outen, dass sie durch KI tatsächlich gefährdet sind. Die meisten sprechen nach außen immer von der angeblichen KI-Innovation. Tatsächlich ernsthaft revolutionieren wird KI nur sehr wenige Unternehmen. Nämlich diese, die die Technologie schon immer zu nutzen wussten und in deren Branchen sie auch wirklich gewinnbringend sowie bereichernd eingesetzt werden kann.

Unternehmen, die den eigenen künftigen Nutzen von künstlicher Intelligenz am lautesten herausschreien, sind in der Regel diejenigen, die offenkundig kein bisschen von KI profitieren würden. Im Gegenteil: Die Verantwortlichen solcher Unternehmen glauben, nach außen auf der Welle der Lobpreisung von KI mit schwimmen zu müssen, aus purer Angst vor ernsten negativen Konsequenzen.

Dass das kein Hirngespinst ist, zeigt das „Outing“ des US-amerikanischen Bildungsanbieters Chegg. Die Plattform gilt als umstritten, weil sie insbesondere von Studierenden unter anderem dazu genutzt wird, Lösungen für Prüfungen zu erwerben. Als Chegg Anfang Mai dieses Jahres jedenfalls als eines der ersten Unternehmen überhaupt offiziell zugab, vor allem durch ChatGPT massive Probleme zu haben, stürzten dessen Aktien umgehend um satte 50 % ab. Doch dabei blieb es nicht. Nachdem dies bekannt wurde, rutschten auch die Aktien anderer Bildungsanbieter in den Keller. Solche Beispiele lassen viele Unternehmen mehrmals überlegen, ob sie in der Öffentlichkeit zugeben, dass sie betroffen sind.

Auch Textbroker befindet sich in diesem Dilemma

Auch Textbroker befindet sich in diesem Dilemma und dem Zwiespalt zwischen schonungsloser Ehrlichkeit und dem Versuch, nicht unterzugehen. Einerseits ist man sich der Problematik durchaus bewusst und spricht diese mittlerweile zaghaft an. Andererseits jedoch ist man eher um Schadensbegrenzung bemüht und versucht, KI auch im Textbereich sinnvoll zu integrieren.

KI, die die eigene Branche massiv gefährdet, dennoch maß- und sinnvoll zu integrieren, ist jedoch schwieriger als vermutet. Letztlich münden diese Versuche aber immer in einer „Nicht-Fisch-Nicht Fleisch-Situation“. Im Grunde genommen herrscht immer dieselbe Aussage vor: „Nutze KI, um deine Expertise zu verbessern.“

Doch was bedeutet eine solche Aussage? Soll künstliche Intelligenz den eigenen Expertenstatus stärken? Expertinnen und Experten nutzen also fortan ein Tool, welches eigentlich dafür verantwortlich ist, dass diese künftig scheinbar nicht mehr gebraucht werden!? Diese Widersprüchlichkeit bildet sich auch in den KI-Regeln von Textbroker ab:


Quelle: www.textbroker.de – Allgemeine Regeln zur Nutzung von KI in Textaufträgen

Darin heißt es kurz und knapp, dass KI zwar als untergeordnetes Hilfsmittel zur Erstellung einer Textstruktur, zur Ideenfindung und Grundlagenrecherche, sowie zur Stiloptimierung genutzt werden darf. Allerdings dürften Textbausteine und Überschriften hierbei weder in Gänze noch in Teilen übernommen werden. Meiner Ansicht nach schließt das die Nutzung zur Strukturerstellung schon fast aus. Wenn man das alles danach noch umschreiben muss, kann man es auch gleich selbst tun. Jedenfalls droht Autorinnen und Autoren, die KI-Tools darüber hinaus nutzen, die umgehende Sperrung des eigenen Accounts.

Generell kann man solche Regeln doch nur festlegen, wenn man auch in der Lage ist, den Einsatz von KI tatsächlich zu überprüfen beziehungsweise zu erkennen. Ob das allerdings ernsthaft funktioniert, ist die ganz große Frage – nicht nur für Textbroker.

Können KI-Texte ernsthaft als solche erkannt werden?

Aufgrund der großen Probleme, die künstliche Intelligenz der gesamten Textbranche jetzt schon bereitet, aber auch hinsichtlich Falschmeldungen sowie Fehlinformationen, wird immer wieder gefordert, KI-Texte müssten als solche gekennzeichnet werden. Um das zu können, muss es jedoch erst einmal möglich sein, überhaupt erkennen zu können, ob es sich bei einem Text um eben einen solchen oder einen durch Menschenhand handelt.

Das fast schon Schizophrene an der ganzen Sache ist: Einerseits sind KI-Texte angeblich nicht mehr von menschlichen zu unterscheiden. Andererseits heißt es jedoch immer, dass KI-Texte gekennzeichnet werden müssten. Wenn Ersteres stimmt, wie sollen Texte gekennzeichnet werden? Und vor allem, wie soll das überprüft werden?

Entweder sind KI-Texte erkennbar, dann ist alles gut und alle können künftig entscheiden, ob sie diese nutzen möchten, oder sie sind eben nicht erkennbar, dann kann man sich auch eine Kennzeichnung sparen, wenn diese sowie niemand überprüfen kann.

Tool erkennt angeblich 99 % aller KI-Texte

Programme, die KI-Texte angeblich als solche entlarven, gibt es fast seit der Einführung von ChatGPT. Sogar Textbroker selbst hatte damals schon sehr zeitnah ein eigenes Tool zur Erkennung von KI-Texten bereitgestellt. Die allermeisten dieser Programme scheiterten bis heute jedoch mehr oder weniger kläglich. Aber immer wieder behaupten diverse Programmierende, dass ihr Tool jetzt aber wirklich zuverlässig funktioniert.

So haben beispielsweise Forschende der Universität Kansas bestimmte stilistische Kriterien ermittelt, in denen sich menschliche und KI-generierte Texte deutlich unterscheiden sollen. Anhand dieser in einem zwölfseitigen Papier veröffentlichten Kriterien soll es mithilfe ihres Tools so möglich sein, Texte von etwa ChatGPT mit einer Wahrscheinlichkeit von 99 % zu überführen.

Insgesamt 20 Kriterien in vier Hauptkategorien

Insgesamt haben die Forschenden 20 Merkmale ausgemacht, die sie anschließend den vier Hauptkategorien Absatzlänge, Zeichensetzung, Satzlänge und beliebte Wörter zuordneten. Laut den Forschenden sei bei ChatGPT besonders zu beobachten, dass dieses – im Gegensatz zu Menschen – eher kurze Absätze mit dementsprechend weniger Sätzen sowie Wörtern formuliert. Zudem würden Menschen dazu neigen, die Länge ihrer Sätze innerhalb von Texten stärker zu variieren.

In Bezug auf das Verwenden von Satzzeichen und besonderen (beliebten) Wörtern, sei laut den Forschenden zu erkennen, dass Menschen deutlich mehr Zeichen wie Doppelpunkte, Fragezeichen, Klammern oder Bindestriche nutzten, als eine KI. Ok., wenn ich ehrlich bin, dann bin ich eindeutig ein Mensch. *lach* Beliebte Wörter seien darüber hinaus vor allem „obwohl“, „aber“ oder „weil“.

Ist dieses Tool jetzt die Lösung aller Probleme?

Kurz und knapp: Nein! Zum einen betonen die Forschenden, dass es bei den oben genannten Kriterien und Sprachmustern hauptsächlich um wissenschaftliche Texte geht. Zum anderen lässt sich feststellen, dass ChatGPT das Verwenden solcher Kriterien mit den entsprechenden Prompts auch ganz einfach „eingeimpft“ werden kann.

Wer die KI also Texte schreiben lassen möchte, die unter anderem dieses Tool umgehen sollen, fordert sie schlichtweg auf, beim Erstellen darauf zu achten, mehr Interpunktionen zu nutzen, bestimmte Wörter vermehrt zu verwenden und die Absätze entsprechend kurz oder lang zu halten. Wenn man es böse formulieren möchte, könnte man sagen, dass dieses Tool eher dabei hilft KI-Tools noch besser zu machen, weil sie durch solche „Umgehungsversuche“ eher noch weiter trainiert werden – Stichwort „maschinelles Lernen“.

0 Kommentare
Inline Feedbacks
Alle Kommentare anzeigen