Es ist wieder passiert und es wird in Zukunft wohl noch häufiger dazu kommen: OpenAI, das Unternehmen hinter ChatGPT, sowie dessen Geldgeber Microsoft wurden erneut auf Schadenersatz in Milliardenhöhe verklagt. Wer und was stecken diesmal genau dahinter?

Bereits Mitte letzten Jahres verklagte der US-Anwalt Ryan Clarkson die beiden Unternehmen und auch Google mittels einer Sammelklage auf einen milliardenschweren Schadenersatz. Der Hauptvorwurf des Anwalts lautete schon damals: „Diebstahl in einem noch nie da gewesenen Ausmaß“ im Zuge dessen er ergänzte, bei Google müsse man endlich verstehen, dass ihnen das Internet nicht gehöre. Konnte man diese Klage vielleicht noch als eine Art „Zeichen setzen“ oder einen plumpen Profilierungsversuch eines Rechtsanwalts bezeichnen, sieht die Sache diesmal deutlich anders aus.

Kein Geringerer als die New York Times, eine der weltweit bekanntesten und renommiertesten Tageszeitungen, verklagte das Unternehmen OpenAI sowie dessen Hauptfinanzier Microsoft nun ebenfalls. Das Ganze geschah bereits Ende letzten Jahres, während es auch hier unter anderem um Datendiebstahl und Nutzungsrechte ging. So soll OpenAI seinen Textbot ChatGPT ohne Zustimmung millionenfach mit Artikeln der US-Tageszeitung gefüttert haben. Daraus entstanden der New York Times nach eigener Aussage gesetzliche sowie tatsächliche Schäden in Milliardenhöhe.

Eigentlicher Hintergrund der nun erfolgten Klage ist unter anderem die Tatsache, dass sich die New York Times wohl schon im April 2023 mit OpenAI in Verbindung setzte, um einerseits seine Bedenken hinsichtlich der Inhaltsnutzung kundzutun und andererseits eine für beide Seiten annehmbare Lösung zu finden. Diese Gespräche führten laut NYT zu keiner Lösung, weshalb man letztlich den Rechtsweg ging. Besonders brisant ist im Übrigen, dass OpenAI beim Füttern seiner KI sogar Premium-Artikel nutzte und wohl auch offen zugänglich machte, die eigentlich nur zahlenden Abonnentinnen sowie Abonnenten der Zeitung vorbehalten sein sollten. Zumindest behauptet das die New York Times. Ein Statement von OpenAI oder Microsoft dazu kam bis dahin keines…

OpenAI wirft der New York Times Manipulation vor

Dann Anfang dieses Jahres äußerte sich OpenAI erstmals zu den Vorwürfen, nach dem Motto „Lass die anderen reden… es wird schon gut gehen…“. Man könnte auch schlichtweg annahmen, das Unternehmen merkt langsam, dass es zumindest die prominenten Opfer seines Datendiebstahls wirklich ernst meinen und handeln, statt nur zu reden. Die New York Times zumindest ließ sich von der schweigenden Arroganz des KI-Konzerns nicht abwimmeln, wie es kleinere Opfer vermutlich täten beziehungsweise zwangsläufig müssten (traurig genug). Doch anstatt zuzugeben, dass Datendiebstahl, Plagiatsvergehen sowie Nutzungsrechtsverletzungen so stattgefunden haben und man an einer einvernehmlichen Lösung interessiert sei, reagiert man seitens OpenAI (wie heutzutage leider so häufig) mit einer Täter-Opfer-Umkehr:

So wirft OpenAI der New York Times eine gezielte Manipulation der Prompts vor. Zur Erinnerung: Als sogenannte Prompts werden die Befehle bezeichnet, die Nutzerinnen und Nutzer bei ChatGPT eingeben, um daraus automatisierte Resultate zu bekommen – eben einen Text. Tatsächlich ist längst bekannt, dass sich ChatGPT gegen gezielte Prompts und Wiederholungen durchaus seine Trainingsdaten entlocken lässt. Anfang Dezember des letzten Jahres fand dies ein Forschungsteam mit Beteiligung der ETH Zürich heraus. Doch sind hierfür die Nutzenden verantwortlich?

Weiter gibt das KI-Unternehmen an, diese Nutzung sei kein typisches Verhalten von Nutzenden des Chatbots und würde zudem gegen die Nutzungsbedingungen verstoßen. Böse Zungen könnten sich jetzt fragen, wie eine so intelligente „Spezies“ sich so einfach überlisten lassen kann. Die Nutzerinnen und Nutzer von ChatGPT hält OpenAI offenbar für dumm, wenn es im Vorfeld nicht davon ausgeht, dass diese mit ihren Prompts durchaus auch so experimentieren. Zudem sollte doch klar sein, dass ChatGPT auch von Menschen genutzt werden würde, die sich technisch intensiv damit auskennen. Jedenfalls hält sich OpenAI selbst von Anfang an nicht an Regeln und warf schon ganz früh seine eigenen Ideale über Bord – so viel dazu.

Darüber hinaus zeigt es einmal mehr, wie simpel solche KI-Bots doch „ticken“ und wenn sich diese durch die Eingabe gezielter Prompts des Datendiebstahls verraten, ist das mehr als peinlich und ganz bestimmt nicht die Schuld der Nutzenden. Das erinnert an den Vorfall des Studenten, der es schaffte, mithilfe von ChatGPT gültige Lizenzschlüssel für Microsoft Windows zu generieren – ebenfalls ein peinlicher Vorfall, der seitens des Unternehmens schnell unter den Teppich gekehrt wurde. Ein Beispiel dafür, wie sich die eigene KI schnell gegen einen selbst wenden kann.

0 Kommentare
Inline Feedbacks
Alle Kommentare anzeigen