Als der auf künstlicher Intelligenz (oder vielmehr maschinellem Lernen) basierende Textbot ChatGPT im November letzten Jahres offiziell veröffentlicht wurde, gab es sofort Stimmen, die davor warnten, dass solche Programme in vielen Branchen ganze Existenzen zerstören können. Auch ich wies hier frühzeitig auf diese Gefahr hin – insbesondere in Bezug auf die Textbranche.

Denn schon sehr früh konnte ein zeitlicher Zusammenhang zwischen dem Release von ChatGPT sowie dem massiven Auftragsabfall auf Plattformen wie Textbroker und Co einfach nicht geleugnet werden. Für einige klang diese Vorstellung wie ein übertriebenes Science-Fiction-Szenario. Wiederum andere machten sich sogar über die ernsten Existenzsorgen vieler Menschen lustig, doch vielen davon blieben die Witze schnell im Hals stecken.

Es trifft Branchen, die es nie gedacht hätten

Seit der offiziellen Veröffentlichung von ChatGPT sind mittlerweile sieben (siebeneinhalb), seit meinem Artikel zu Textbroker mehr als vier Monate vergangen. Ein Grund, das seither Geschehene einmal Revue passieren zu lassen und zu schauen, was seitdem wirklich passiert ist.

Vorweg: Die Welt ist (natürlich) nicht untergegangen. Die Vorstellung, KI-Maschinen würden sich binnen weniger Monate selbstständig machen und die Menschheit übernehmen, ist logischerweise Unfug und albern. Schlimm genug, dass man das überhaupt erwähnen muss, denn genau solche blödsinnigen Übertreibungen wurden in diesem Zusammenhang auch teilweise verbreitet. Meist eben, um sich über die Existenzsorgen anderer lustig zu machen und diese ins Lächerliche zu ziehen. Fakt ist jedenfalls, dass neben der Textbranche noch viele weitere Bereiche stärker von den negativen Auswirkungen künstlicher Intelligenz betroffen sind, als vormals angenommen.

ChatGPT: Für Programmierende ein Segen, für Plattformen ein Fluch

KI-Bots wie ChatGPT oder Bard schreiben vor allem Texte, doch das ist bei Weitem nicht das Einzige, was diese in sehr kurzer Zeit erstellen können. Neben Texten produzieren sie mittlerweile Bilder und sogar ganze Videos, die auf reiner Texteingabe basieren. Aber auch programmieren kann die KI hervorragend, wenn auch noch nicht ganz perfekt und fehlerfrei.

Für Programmierende oder jene, die es gerne wären, ist das natürlich ein Segen. Einerseits haben jetzt fast alle Menschen die Möglichkeit, zumindest kleinere Anwendungen von der KI entwickeln zu lassen. Andererseits greifen aber auch immer mehr Profientwickler auf solche Tools zurück, um beispielsweise den Quellcode optimieren zu lassen, um Hilfe zu erhalten, wenn sie nicht weiter wissen oder um das bereits Programmierte schlichtweg zu ergänzen.

Genau diese Tatsache bekommen jetzt Plattformen zu spüren, wie beispielsweise das bei Programmiererinnen und Programmierern sehr beliebte Stack Overflow. Dabei ist die Plattform vergleichbar mit dem unter Nichtprogrammierenden bekannteren Reddit, nur eben speziell für Entwicklerinnen und Entwickler. Hier können sich Gleichgesinnte austauschen, Fragen stellen, Antworten erhalten und sich so gegenseitig bei ihrer Arbeit unterstützen. Alleine zwischen April und Mai dieses Jahres brach der Traffic der Seite um stolze 18 Prozent ein – bei mehr als 20 Millionen registrierten Nutzerinnen und Nutzern. Dabei ist Stack Overflow nur ein Beispiel, denn es betrifft auch andere ähnliche Portale.

KI-Gemälde gewinnt den ersten Preis

Auch die Fotografie sowie die Filmbranche werden von KI massiv verändert werden. Spätestens seit das durch künstliche Intelligenz generierte Gemälde „Théâtre D’opéra Spatial“ von Jason Allen in einem Kunstwettbewerb in den USA sogar den ersten Preis abräumen konnte, herrscht in der Kunstbranche, aber auch der Fotografie, teilweise regelrechte Panik.

Selbst Drehbuchautorinnen und -autoren in Hollywood bestreikten die Streamingdienste. Zugegebenermaßen nicht nur wegen KI, aber eben auch. Massive Kritik hagelte es beispielsweise für das KI-Intro der neuen Serie „Secret Invasion“ von Marvel. Darin geht es – kurz gefasst – unter anderem darum, wie Menschen nachgeahmt werden, um sie am Ende zu ersetzen. Ein hierfür durch KI generiertes Intro zu nutzen, kann man einerseits als passend, andererseits aber eben auch als peinlich empfinden. Bei vielen Menschen löste es jedenfalls großes Entsetzen aus.

Die, die sich lustig machen, wird es als Erste treffen

Über KI kann man sicherlich sehr viele Witze machen und sicherlich gibt es auch welche, die diese Bezeichnung tatsächlich verdient haben. Was mir persönlich allerdings immer ganz übel aufstößt, ist, wenn Witze auf Kosten anderer und vor allem deren Existenz gemacht werden.

Schon relativ schnell war zu beobachten, als die Debatten darüber so richtig losgingen, dass sich unter anderem Radiomoderatoren in ihren Sendungen gerne darüber lustig machten, wenn Menschen Sorgen darüber äußerten, dass die KI ihren Job gefährden könnte. Immer ein gewisser Unterton war herauszuhören, man solle sich doch nicht so anstellen, das sei alles übertrieben und schlimmer als künstliche Intelligenz, sei doch menschliche Dummheit und solch ein Mist.

In den letzten Monaten ist es diesbezüglich relativ still geworden: Ein Hauptgrund könnte sein, dass auch Radiomoderatorinnen und -moderatoren langsam begreifen, dass ihre Branche eine der ersten wäre, die sofort ersetzt werden könnte, würde es wirklich ernst.

Ein weiterer Grund könnte sein, dass genau das bereits mehrfach ausprobiert wurde. So hat der Schweizer Radiosender Couleur 3 beispielsweise eine KI unter anderem testweise die Stimmen von fünf seiner Moderatorinnen beziehungsweise Moderatoren imitieren sowie die Songauswahl tätigen lassen. Dabei blieb der Sender aber ehrlich und stellte zwischendurch immer wieder klar, dass aktuell eine KI am Werk sei. Allerdings forderten die Zuhörerinnen und Zuhörer die menschlichen Moderierenden schnell wieder zurück. Ob dies in Zukunft so immer sein würde, dürfte sicherlich vor allem von den jeweils Moderierenden abhängig sein.

Künstliche Intelligenz hat kein Gewissen

Eines ist seit der Veröffentlichung von KI-Bots wie ChatGPT oder Bard klar geworden: Künstliche Intelligenz beziehungsweise auf maschinellem Lernen basierende Anwendungen haben kein Gewissen und setzen nahezu grenzenlos sowie ohne Hinterfragen um, was Nutzerinnen und Nutzer ihnen durch ihre sogenannten Prompts „befehlen“.

Für eigene sinnvolle Zwecke und verantwortungsvoll eingesetzt, ist KI gewiss ein Segen. So ist der Einsatz in ganz vielen Bereichen mittlerweile kaum noch wegzudenken und unterstützt tatsächlich extrem wirkungsvoll bei der täglichen Arbeit.

Doch das bereits angesprochene fehlende Gewissen und das damit verbundene extrem hohe Missbrauchspotenzial zeigen sich bereits jetzt ganz deutlich. Auf die massive Flut an falschen Bewertungen in Online-Shops oder das Verbreiten von Falschinformationen sowie der Missbrauch durch echte Kriminelle, braucht man gar nicht erst näher einzugehen. Es reicht schon zu erkennen, dass Textbots wie ChatGPT und Co sogar die scheinbar renommiertesten Journalistinnen und Journalisten zu den fragwürdigsten Aktionen zu verleiten scheinen.

Schumacher-Interview kostet Chefredakteurin den Job

Für Aufsehen sorgte im April ein erfundenes Interview mit dem Ex-Formel-Eins-Fahrer Michael Schumacher, der nach einem schweren Skiunfall im Jahr 2013 mit seiner Familie zurückgezogen lebt und vermutlich (!) ein Pflegefall ist, der nicht mehr ganz gesund werden wird.

Erschienen ist das durch künstliche Intelligenz verfasste und mit erfundenen Zitaten gespickte Interview in der Zeitschrift „Die Aktuelle“. Zwar wurde im Kleingedruckten darauf hingewiesen, dass das Interview von einer KI stammt, doch ist so etwas an Geschmacklosigkeit nicht zu überbieten. Die Familie leitete umgehend rechtliche Schritte ein und die zuständige Chefredakteurin musste darüber hinaus umgehend ihren Hut nehmen. Böse Zungen sprechen davon, dass KI tatsächlich Jobs killt – in diesem Fall aber eben anders als erwartet.

Student generiert Windows-Keys mithilfe von ChatGPT

Sehr peinlich für Microsoft selbst – dem größten finanziellen Unterstützer von OpenAI – dürfte der Vorfall sein, dass es ein Student geschafft hatte, mithilfe von ChatGPT funktionierende Lizenzschlüssel für das Konzern-eigene Betriebssystem Windows* zu generieren. Daraufhin versuchte der Konzern, den Vorfall schnell unter den Teppich zu kehren und herunterzuspielen.

Tatsächlich gelang es dem Studenten und YouTuber erst nach einem gewissen Feintuning seiner Prompts und auch nur in Bezug auf das längst veraltete Betriebssystem Windows 95. Doch angesichts dessen, dass ChatGPT nach Entwicklerangaben immer weiter dazulernen soll, scheint in Zukunft nichts unmöglich. Zumindest zeigt es jedoch, dass ChatGPT noch sehr anfällig ist, wenn es darum geht, selbst ausgetrickst und so zu kriminellen Handlungen „verführt“ zu werden.

Fazit: KI bereichert, aber bleibt gefährlich

Unterm Strich lässt sich nach etwa siebeneinhalb Monaten ChatGPT festhalten, dass die künstliche Intelligenz und die damit verbundenen auf maschinellem Lernen basierten Anwendungen vor allem die Arbeitswelt insgesamt sicherlich bereichert haben. Doch es lässt sich – so sehr es manche auch versuchen – einfach nicht wegdiskutieren, dass sie in mittlerweile immer mehr Branchen für sehr große Existenzangst sorgen und in einigen teilweise sogar bereits sehr unschöne Fakten geschaffen haben.

Darüber hinaus sind ChatGPT und Co streng genommen noch ziemlich „dumm“, wenn man bedenkt, dass die ausgespuckten Informationen mindestens zweieinhalb Jahre alt sind. Dazu sollte man wissen, dass vor allem ChatGPT (noch) nicht ans Internet „angeschlossen“ ist, um dieses quasi live zu durchsuchen, sondern lediglich auf eine mehr oder weniger statische Wissensdatenbank zugreift, die nur mit Informationen bis einschließlich 2021 gefüttert wurde. Aus diesem Grund ist es keine wirkliche künstliche Intelligenz, sondern eben eine Anwendung, die auf maschinellem Lernen basiert.

Besonders im Hinblick auf das enorme Missbrauchspotenzial durch Kriminelle sowie das Verbreiten von Falschinformationen aller Art müssen solche Anwendungen in Zukunft irgendwie reguliert werden. Ob das (noch) ernsthaft möglich sein wird, ist sicherlich eine andere Frage.

Die Verantwortlichen wissen ganz genau, was sie verbockt haben

Die Verantwortlichen der entwickelnden Unternehmen wie OpenAI (ChatGPT) oder auch Google (Bard) wissen ganz genau, was sie hier verbockt haben, um es mal etwas überspitzt zu formulieren. Kein Wunder, dass vor allem deren CEOs mittlerweile offen Regulierungen fordern.

Angesichts dessen, dass sie diese Regulierungen eigentlich selbst freiwillig vornehmen könnten, sind diese Forderungen aus meiner Sicht geheuchelt. Denn eines ist auch klar: Würde einer damit beginnen, etwas zu regulieren, würde der Mitbewerber stets versuchen, einen Schritt weniger zu unternehmen, um letztlich mehr ermöglichen zu können. Das wäre also dann doch der berühmte Griff ins Klo.

Ganz grundsätzlich und vollkommen unabhängig von allen Gefahren, könnte man im Übrigen schon die Frage stellen, ob es wirklich nötig war, eine solche Technologie ausgerechnet in solchen unsicheren Zeiten, mit Inflation*, generellen Existenzängsten sowie allen anderen bekannten Umständen der letzten Jahre bis heute „freizulassen“!?

0 Kommentare
Inline Feedbacks
Alle Kommentare anzeigen