Zugegeben, in letzter Zeit habe ich mich hier viel mit dem Thema „Künstliche Intelligenz“ beschäftigt – vor allem mit Chatbots wie Bard oder ChatGPT. Viele schreiben mich an und fragen, ob ich das Ganze nicht zu negativ sehe. Wenn ich ehrlich bin, dann sind meine bisherigen Artikel dazu sicherlich überwiegend negativ-kritisch. Warum das so ist, habe ich aber auch mehrfach betont:
Aus meiner Sicht wird die negative Seite dieser Medaille zu wenig betrachtet und teilweise sogar (gezielt) ausgeblendet. Nach außen hin scheint um ChatGPT, Bard und Co alles rosa-rot: Die künstliche Intelligenz bringt nur Fortschritt, Verbesserungen, Erleichterungen im Alltag und ist für alle eine Win-win-Situation. Aber das ist sie eben in vielen Bereichen nicht.
Die Reaktionen, die ich so wahrnehme, sind typisch und zeigen mir, dass ich einerseits (mal wieder) in ein Wespennest gestoßen habe und anderseits, dass die Wahrheit eben manchmal „weh tut“. Manche scheinen sogar Angst zu haben, dass sie ausgegrenzt würden, wenn sie auf der Welle der Begeisterung nicht bedingungslos mitschwimmen.
Immer diese bösen „Wellenbrecher“, die auch mal die andere Seite der Medaille aufzeigen… tz… Dabei habe auch ich die künstliche Intelligenz beispielsweise zu keinem Zeitpunkt pauschal infrage gestellt und die eigene (künftige) Nutzung für mich keinesfalls ausgeschlossen, das ändert aber nichts an den Tatsachen, die eben auch dazu gehören:
Die realen Ängste vieler Menschen sind einfach nicht wegzudiskutieren und die Gefahren, die solche Chatbots in vielen Bereichen auch mitbringen, eben auch nicht. Sei es die Angst der Textbranche oder die Sorgen der eigenen Belegschaft von Google (Alphabet), die durch ihre Proteste sogar dafür sorgte, dass Google die Integration seines Chatbots Bard in die eigene Suche zumindest kurzzeitig überdachte. Auch in Sachen Datenschutz, Fehleranfälligkeit und mangelnder Marktreife ist nicht alles rosa-rot.
Wer das anspricht, gilt sofort als Gegner von KI oder Miesmacher. Doch das sind alles keine Erfindungen, sondern real existierende Fakten. Und es trifft langfristig eben nicht nur einzelne Branchen, sondern kann grundsätzlich für alle Websitebetreibende ernsthafte Folgen haben – selbst für die großen Tech-Giganten selbst.
Künstliche Intelligenz birgt auch eine wirtschaftliche Gefahr für die Großen
Vor allem für Suchmaschinen, die künftig nur noch auf künstlicher Intelligenz basieren sollen, birgt das Ganze auch enorme wirtschaftliche Gefahren. Dabei spielen nicht nur missglückte Vorstellungen, wie etwa die peinliche Demo von Googles Bard (die Google letztlich Milliarden kostete) eine Rolle, sondern die Suchanfragen selbst:
Dass auf künstlicher Intelligenz basierende Bots wie Bard, ChatGPT, Blender Bot – wie sie auch alle heißen – einen extrem großen ökologischen Fußabdruck erzeugen werden, ist längst bekannt. Aber auch der ökonomische kann für die jeweiligen Konzerne ein extrem großer werden. Dienste wie ChatGPT und so weiter laufen über die leistungsstärksten Systeme und Clouds, was Unmengen an (zusätzlicher) Energie benötigt und immer höhere Kosten verursacht.
Diversen Schätzungen zufolge könnte eine einzelne Suchanfrage, die auf KI basiert, um bis zu zehnmal teurer werden – gemessen an den Energiekosten, Aufwendungen für Hardware, Server und so weiter. Dieses Problem werden in Zukunft sowohl Google als auch Microsoft und andere Konzerne haben, wenn sie ihre KI in Suchmaschinen integrieren.
Das könnte einer von zahlreichen Gründen dafür sein, dass vor allem diese Internet-Giganten, deren Wachstum in den letzten Jahrzehnten schier unendlich schien, seit geraumer Zeit massiv Kosten senken und vor allem Mitarbeiter entlassen, obwohl sie sich trotzdem weiterhin mit Milliardengewinnen brüsten.
Websitebetreibende könnten ihre Existenzgrundlage verlieren
Ganz normale Websitebetreibende, wie Bloggerinnen und Blogger oder Menschen mit simplen Content-Seiten könnten in Zukunft massive Probleme bekommen, ihre Websites vernünftig zu monetarisieren, um damit Geld zu verdienen. Denn wie arbeiten künstliche Intelligenzen wie Bard oder ChatGPT letztlich?
Das „Wissen“ solcher Textroboter ist nicht vom Himmel gefallen, sondern besteht aus durch Menschenhand „gefütterten“ Informationen. Auch künftig, wenn es darum geht, dass die Chatbots weiter lernen, werden die Informationen von Menschen kommen. Diese Menschen wiederum sind Bloggerinnen und Blogger, Betreiberinnen und Betreiber von Content-Seiten, die dort ihr eigenes Wissen, ihre Meinungen, ihre Erfahrungen teilen.
Chatbots greifen vollautomatisch auf genau diese Inhalte zu, durchforsten das Internet und eben jene Inhalte und geben diese (mehr oder weniger intelligent) zusammengefasst als „die ihren“ aus. Streng genommen kann man hier vom Diebstahl geistigen Eigentums durch Maschinen sprechen. Diese Problematik ist natürlich längst erkannt, findet aber zu wenig Anklang, weil es offenbar niemanden zu interessieren scheint.
Betrachtet man nun die Tatsache, dass auf künstlicher Intelligenz basierende Textroboter, die in Suchmaschinen integriert werden, genau diese „zusammengetragenen“ Informationen selbstständig direkt ausgeben, wird es in Zukunft für Suchende nicht mehr nötig sein, eine entsprechende Website mit diesen Informationen tatsächlich noch zu besuchen.
Simples Beispiel: Eine Person möchte wissen, wie sie Tomatenpflanzen selbst vermehren kann. Intelligente Suchen mit ChatGPT oder Bard werden diese Information künftig (teilweise jetzt schon) sofort ausgeben und beantworten. Warum sollte die suchende Person jetzt noch ernsthaft eine der entsprechenden Content-Seiten besuchen, mit der sich der oder die Websitebetreibende unter Umständen sehr viel Mühe gemacht hat? Ergo: Kein Traffic auf der Website, keine Monetarisierung. Das scheint den allermeisten (noch) gar nicht klar zu sein.
Sind Websites künftig nur noch Content-Lieferanten?
Stellt sich also die nicht ganz unberechtigte Frage: „Sind Websites beziehungsweise deren Betreiberinnen und Betreiber künftig nur noch Content-Lieferanten?“
Die Frage stellt sich genau aus dem oben genannten Grund und deshalb müsste es in Zukunft entweder eine klare Regelung zur Nutzung des Contents durch Chatbots geben oder es müsste sichergestellt werden, dass Urheberinnen und Urheber von solchem Content für dessen Nutzung gezielt durch eine Abgabe finanziell „entschädigt“ werden.
Was ist grundsätzlich mit dem Urheberrecht?
In diesem Zusammenhang ist es zudem interessant, das Urheberrecht* in Bezug auf Textroboter generell einmal zu durchleuchten. Denn sowohl aus Sicht der Nutzerinnen und Nutzer solcher Tools als auch hinsichtlich des so oder so in Massen entstehende Duplicate-Content – wenn man hier überhaupt noch von „duplicate“ sprechen kann:
Gerade das Thema „Duplicate-Content“ (doppelter Inhalt) spielt eine extrem wichtige Rolle in Bezug auf die Suchmaschinenoptimierung* einer Website. Dass Inhalte unerlaubt dupliziert oder übernommen wurden, das gab es natürlich schon lange vor Textrobotern. Die Problematik, die jetzt aber entsteht, ist die unkontrollierbare Verbreitung von Inhalten, die durch diese Textroboter erzeugt werden.
Bedenkt man, woher deren Inhalte letztlich kommen (siehe oben), kommt man zwangsläufig zur Erkenntnis, dass deren weitere Verbreitung unweigerlich dazu führen wird, dass das Internet künftig voller – mehr oder weniger – identischem Content sein wird.
Das wiederum kann Google eigentlich nicht gefallen, hat es doch jahrelang sogenannten „Duplicate-Content“ in Sachen SEO betrafst und „Unique-Content“ aktiv belohnt. In einem ersten Reflex nach der Veröffentlichung von ChatGPT hieß es seitens Google, man wolle gegen diese Gefahr durch Textroboter vorgehen. Angesichts der eigenen Veröffentlichung von Bard scheint das jetzt aber eher eine Farce zu sein.
Stellt sich also unterm Strich eine entscheidende zusammenhängende Frage: „Wer hat die Urheberrechte an den durch Textroboter verfassten Inhalten und inwiefern dürfen Inhalte aus eben jenen Textrobotern tatsächlich veröffentlicht werden, ohne die Rechte der eigentlichen Urheber zu verletzen?“
Viele dieser Aspekte dürften – wie so oft – noch völlig ungeklärt sein. Dass die Chatbots mit künstlicher Intelligenz diese Problematik (bisher) nicht wirklich vermeiden können (sollen?), zeigt das Beispiel von Googles KI „MusicLM“, die eigene Musikstücke komponieren können soll:
So wurde bekannt, dass die KI nachweislich mindestens ein Prozent seiner Werke schlichtweg von anderen Komponisten gestohlen hat. Wer ein solches durch KI generiertes Musikstück dann wiederum selbst veröffentlicht, bekommt es möglicherweise mit ernsthaften rechtlichen* Konsequenzen zu tun.
Und genau vor diesem ernst zu nehmenden Problem werden in Zukunft auch alle Nutzerinnen und Nutzer von durch KI generierten Texten stehen, wenn sie diese veröffentlichen oder sogar für gewerbliche Zwecke verwenden. Wer sich jetzt solche automatisierte Texte zu eigen macht und beispielsweise im eigenen Blog, in der eigenen Content-Seite oder in irgendeiner sonstigen Art und Weise nutzt, sollte gleich mehrere Aspekte beachten:
Zum einen steht die eigene Suchmaschinenoptimierung* durch doppelten Inhalt gegebenenfalls auf dem Spiel und zum anderen kann das Ganze urheberrechtliche Konsequenzen nach sich ziehen. Denn veröffentlicht ist veröffentlich… oder glaubt im Ernst jemand daran, dass im Falle der Fälle Microsoft oder Google dafür haften werden?
Fazit: Vieles im Hinblick auf KI ist vollkommen ungeklärt
Wie in meinen bisherigen Artikel zu ChatGPT, Bard und Co bereits des Öfteren erwähnt, sind die KI-Bots allesamt noch viel zu fehleranfällig und unausgereift. Darüber hinaus gibt es aber auch viele rechtliche Aspekte, die bisher einfach vollkommen ungeklärt zu sein scheinen und die in Zukunft massive Probleme verursachen könnten.
Künstliche Intelligenz und darauf basierende Textroboter können – richtig angewendet – eine echte Bereicherung sein, bergen jedoch viele Gefahren und Fallstricke, deren Ausmaße bisher noch gar nicht in voller Gänze absehbar sind. Gerade der Bereich des Urheberrechts kann erhebliche Probleme bringen – wenn nicht jetzt sofort, dann ganz sicher in Zukunft. Wer jetzt planlos KI-Texte nutzt und veröffentlicht, der wird sich in Zukunft vielleicht die Frage stellen müssen, ob er es nicht besser gelassen hätte.
Schafft sich solche KI irgendwann selbst ab?
Am Ende werfe ich einfach mal die provokante Frage in den Raum: „Kann es sein, dass sich eine solche künstliche Intelligenz am Ende irgendwann selbst abschafft?“
Denn was passiert, wenn theoretisch niemand mehr Texte schreibt oder sonstige Inhalte produziert, die die KI „füttern“? Wird die KI dann „verhungern“ beziehungsweise einfach stagnieren und ab einem gewissen Zeitpunkt nicht mehr dazu lernen? Falls die dann immer weiter den vorhandenen Content „aufbereitet“, wird vielleicht eine unendliche Spirale des künstlichen Recycelns alter Inhalte entstehen.