Seit künstliche Intelligenz und darauf basierende Bots durch maschinelles Lernen in Sekundenschnelle Texte, Videos und Bilder generieren können, gibt es immer wieder heftige Diskussionen ums Urheberrecht. Ein neues Tool soll nun Inhalte „vergiften“, um KI unbrauchbar zu machen.

Dass sich Chatbots wie ChatGPT und Co zum Erstellen verschiedener Inhalte bei urheberrechtlich geschütztem und durch Menschen erzeugtem Material bedient, ist kein Geheimnis. Um diesem offenkundigen Diebstahl geistigen Eigentums etwas entgegenzusetzen, wurden in den letzten Monaten immer wieder Tools entwickelt, die KI austricksen sollen. Die Resultate dieser Anwendungen waren jedoch mal mehr und mal weniger von Erfolg gekrönt.

Eine der ersten Brachen, neben der Textbranche, die die Macht von künstlicher Intelligenz negativ zu spüren bekam, war die von Fotografinnen und Fotografen sowie Grafikerinnen und Grafikern. Menschen, die Fotos und Bilder schaffen – auch für Websites. In wenigen Sekunden erstellen Chatbots mittlerweile durch simple Textbefehle Bilder oder bilden existierende 1:1 nach – auf Kosten des Urheberrechts.

Bisher konnten sich Kunstschaffende – ähnlich wie Textende – (wenn überhaupt) nur gerichtlich dagegen währen. Kommt jetzt mit einem neuen Tool die Wende und ist dieses endlich die langersehnte „Waffe“ gegen künstliche Intelligenz?

Nightshade vergiftet Bilder

Ein von Ben Zhao, Professor an der University of Chicago, geleitetes Forschungsteam hat nun ein Tool mit dem Namen „Nightshade“ entwickelt, welches vor allem Bilder gezielt „vergiften“ soll. Hierdurch soll es KI-Bots künftig unmöglich sein, die entsprechenden Kunstwerke nachzubilden. Durch das Tool sollen maschinell lernende Systeme verwirrt werden, sodass bei der Erstellung beispielsweise Hunde zu Katzen, Autos zu Kühen und weiter werden.

Laut den Entwicklerinnen und Entwicklern soll das Tool in Zukunft unter sogenannter Open-Source-Lizenz frei genutzt werden dürfen. Darüber hinaus soll es Künstlerinnen sowie Künstlern als eine Art Verteidigungs-Werkzeug gegen Urheberrechtsverletzungen durch KI dienen und gleichzeitig Tech-Firmen eine Warnung sein, die eben jenes Urheberrecht missachten. Letztere wiederum haben nach eigenen Angaben bereits reagiert und ermöglichen es Kunstschaffenden, ihre eigenen Werke aus den Lerndaten der Bots löschen zu lassen, was allerdings extrem umständlich ist und für jedes einzelne Bild angefragt werden muss.

Zudem darf an dieser Stelle sicherlich die Frage gestellt werden, ob es (moralisch oder rechtlich) in Ordnung ist, die Werke von Menschen zunächst einfach zu nutzen und diese Nutzung erst auf Anfrage dieser einzustellen. Normalerweise sollte dies genau umgekehrt sein und zeigt mal wieder, wie die Moral hier auf der Strecke bleibt. Aber KI hat sowieso keine Moral…

KI hat keine Moral und soll sie offenbar auch nicht haben!?

Dass KI eben keine Moral kennt und sie – das ist die eigentliche Schande – offenbar auch in keinster Weise antrainiert bekommt, ist das eigentliche Problem bei der ganzen Sache. Das zeigen nicht zuletzt die immer wieder erschreckenden Vorfälle, die regelrecht geschmacklos sind und letztlich rufschädigend. Auch für jene, die großzügig auf KI setzen und sie beweihräuchern, um dann über die Konsequenzen zu jammern…

Dass in Anfragen über ChatGPT zweifellos noch lebende Menschen gerne mal für tot erklärt werden, lässt einen – angesichts dessen, dass es glücklicherweise nicht so ist – vielleicht noch leicht schmunzeln. Doch es geht schlimmer: Eines der bekanntesten Beispiele ist sicherlich das von einer KI erfundene Schumacher-Interview, das am Ende eine Chefredakteurin ihren Job kostete. Ganz aktuell erhitzt eine absolut pietätlose, ekelhafte Umfrage die Gemüter, die automatisch durch eine KI erzeugt und neben einem Artikel der englischen Zeitung „The Guardian“ auf der Microsoft-Startseite platziert wurde. Im Artikel geht es um die mit einer Kopfverletzung tot aufgefundene Wasserballtrainerin Lilie James. In der besagten Umfrage konnten Leserinnen und Leser letztlich über die Todesursache spekulieren und abstimmen – unsäglich!

Hier schließt sich der Kreis zum Urheberrecht

Die Tatsache, dass die entsprechende KI-Umfrage zwar neben dem Artikel des Guardian platziert wurde, dieser jedoch auf der MSN-Startseite von Microsoft (größter Finanzier von ChatGPT) erschien, zeigt darüber hinaus, wie alles auch mit dem Urheberrecht zusammen hängt. Nämlich dann, wenn nicht nur die Chatbots selbst, sondern auch Plattformen Dritter ganze urheberrechtlich geschützte Inhalte veröffentlichen und diese dann mit eigenen, fragwürdigen, durch KI erzeugten Inhalten versehen.

In diesem konkreten Fall gehört allerdings auch zur Wahrheit dazu, dass Microsoft mit „The Guardian“ einen Lizenzvertrag hat, der es erlaubt, die Artikel auf seiner Plattform zu veröffentlichen. Dies wiederum zeigt das teilweise Geheuchelte rund um künstliche Intelligenz und dass viele offenbar immer noch glauben, alles ist super – bis es mich selbst trifft.

Dass Microsoft nicht zum ersten Mal sehr negativ auffällt, was seine KI betrifft, zeigen weitere unsägliche Veröffentlichungen. Unter anderem bezeichnete ein komplett durch KI generierte Artikel auf MSN im September den kürzlich verstorbenen NBA-Star Brandon Hunter als „nutzlos“ oder führte eine Lebensmitteltafel in Ottawa als nicht zu verpassendes Touristenziel an. Solche Entgleisungen häufen sich und können ganz sicher nicht mehr als kleine Macken der KI abgetan werden. Lustig sind und waren sie sowieso nie.

0 Kommentare
Inline Feedbacks
Alle Kommentare anzeigen