ChatGPT von OpenAI ist weiter in aller Munde. Doch OpenAI ist längst nicht der einzige Konzern, der in diesem Geschäft mitmischen will und so bahnt sich eine „Schlammschlacht“ der Großen an. Einer davon hatte Jahre lang sogar die Hosen voll, machte dann eine Kehrtwende, um jetzt wieder zurück zu rudern.
Das Thema ChatGPT bewegt seit Monaten die Gemüter und reißt nicht ab. Während sich die einen große Sorgen bezüglich der Gefahren von künstlicher Intelligenz machen, sind die anderen hellauf begeistert über den Nutzen des Chatbots.
Doch auch wenn ChatGPT derzeit unangefochten zu sein scheint, gibt es längst andere Großkonzerne, die im Bereich der künstlichen Intelligenz kräftig mitmischen wollen. Was ich im Fazit meines letzten Artikels über die über Bord geworfenen Ideale von OpenAI bereits anschnitt, möchte ich etwas ausführen. Dabei stelle ich die provokante Frage:
„Liefern sich die Großen mal wieder eine Schlammschlacht und wird es schon wieder peinlich?“.
Das erinnert doch glatt an die „Schlammschlacht“ von 2011 und Facebooks PR-Flop. ;-)
Integration in Bing war eine Peinlichkeit
Wie ich jetzt bereits mehrfach hier im Blog erwähnte, ist Microsoft der größte „Sponsor“ von OpenAI. Die für die Weiterentwicklung von ChatGPT investierten 10 Milliarden US-Dollar im Januar dieses Jahres haben vor allem ein Ziel: Die Integration des Chatbots in die eigenen Produkte – vor allem in die hauseigene Suchmaschine Bing, um so endlich die Vormachtstellung von Google zu beenden.
Doch die ersten Schritte von ChatGPT in Bing waren eine einzige Peinlichkeit. Erst kürzlich im Februar schaffte es ein Student, (ungewollt!?) Einblick in eine Vorschau der Bing-Integration zu bekommen. Bevor Microsoft dies bemerkte und die Lücke schloss, hatte dieser jedoch Screenshots anfertigen können.
Zumindest war dort bereits ersichtlich, dass die Vorschauversion von Bing künftig einen der größten Kritikpunkte berücksichtigt: die fehlenden Quellenangaben der Antworten. Diese Quellen können von den Suchenden dann überprüft werden, was allerdings ein Witz ist, denn könnten Suchende selbst die Korrektheit einer Antwort garantieren, würden sie zuvor wohl kaum danach fragen…
Davon abgesehen ist es sicherlich legitim, sich einmal die Frage zu stellen, wie intelligent etwas sein kann, auf dessen „geheime“ Vorschauversion bereits im Vorfeld ungewollt (!?) Zugriff erlangt werden kann. Vielleicht sollte die künstliche Intelligenz zunächst auf den Schutz der Systeme angesetzt werden, aber dass dem offensichtlich nicht so zu sein scheint, hat wohl gewisse Gründe…
Hohe Fehleranfälligkeit: Wenn aus Spaß bitterer Ernst wird
Aber auch unabhängig von sogenannten Leaks scheint ChatGPT noch sehr fehleranfällig zu sein. Grundsätzlich wäre das sicherlich nicht zu verurteilen, doch angesichts dessen, dass OpenAI bereits knapp drei Monate nach der Veröffentlichung ein kostenpflichtiges Abomodell für 19 Euro bringt und auch die kostenlose Version nahezu ungebremst auf die Internetwelt losgelassen wird, ist das schon „bemerkenswert“.
Zahlreiche Berichte über peinliche Antworten des Chatbots kursieren immer wieder im Netz. Das reicht von simplen Falschinformationen über falsche oder unsinnige (fragwürdige) Quellenangaben bis hin zu richtig dummen Behauptungen, bei denen man sich wirklich die ernsthafte Frage stellen muss, was daran so „intelligent“ ist.
Eines der mittlerweile bekanntesten Beispiele ist die Behauptung, der Elefant sei das größte eierlegende Säugetier auf der Erde. In anderen Fällen werden lebende Personen gerne auch mal „für tot erklärt“, während sich deren Beschreibung wie ein Nachruf liest. Was im ersten Moment vielleicht lustig klingt – ich musste beim Elefanten auch erst einmal lachen – ist bei näherer Betrachtung aber bitterernst. Denn wenn eine KI schon bei solch simplen Aufgabenstellungen derart versagt, wie soll man ihr denn dann bei hochkomplexen Sachverhalten vertrauen?
Selbst der Microsoft-Gründer und ehemalige CEO Bill Gates räumte in einem Interview mit dem Tagesspiegel kürzlich ein, dass der Alltag mit der KI angesichts dieser großen Fehleranfälligkeit ernüchternd sei. Dann schob er nach, dass die Lösung dieses „Fehler-Problems“ wohl Jahre dauern wird…
Mogelpackung: „Windows 11 mit Bing ist völliger Müll“
In einem Artikel von WinFuture ist sogar die Rede von einer „Mogelpackung ChatGPT“ bezüglich dessen Integration durch die Bing-KI in Microsofts Betriebssystem Windows 11. Auch von „völligem Müll“ ist zu lesen. Zeigt das, dass die Beteiligten ganz genau wissen, dass diese künstliche Intelligenz bei Weitem noch nicht ausgereift ist?
Google hatte Jahre lang „Angst“ vor einer Veröffentlichung
Wenn wir schon bei Jahren sind, dann ist interessant, dass kein Geringerer als Google beziehungsweise Alphabet bereits seit Jahren einen eigenen Chatbot in der Schublade liegen hatte. Vor der Veröffentlichung jedoch hatte man dort Bedenken – um nicht zu sagen „Angst“. Grund dafür waren unter anderem genau solche Gefahren der KI für Menschen, die ich hier bereits beschrieben habe, aber auch – nicht ganz eigennützig – die daraus resultierende Kritik sowie gefürchtete Reaktionen in Bezug auf den Datenschutz bei diesem Thema.
Angesichts der jüngsten Veröffentlichung von ChatGPT durch OpenAI sowie des damit verbundenen Konkurrenzdrucks auch im Hinblick auf Microsoft und dessen Bing, sah sich Google jedoch gezwungen seinen KI-Bot „Bard“ zu veröffentlichen. Und was passiert, wenn man aus Gründen des Konkurrenz- und Zeitdrucks vorschnell etwas „Altes“ und fast Vergessenes beziehungsweise nicht Weiterentwickeltes aus dem Hut zaubert? Richtig: Es ist unfertig, halbgar, voller Fehler und kann richtig Geld kosten…
Die Blamage mit Bard kostet Google Milliarden
Auch Google blamierte sich im Zuge der ersten öffentlichen Demonstration seiner künstlichen Intelligenz Bard und verlor dadurch sogar Milliarden. Als die KI auf die simpelsten Fragen mit offensichtlichen Falschantworten reagierte, hatte das natürlich den genau gegenteiligen Effekt von dem, was man mit KI erreichen will. Der Börsenwert von Google beziehungsweise der seines Mutterkonzerns Alphabet sackte daraufhin um stolze acht Prozent ab – um ganze 100 Milliarden US-Dollar.
Google ruderte mit Bard zurück
Aufgrund von massiver Kritik sowie Proteste – vor allem seiner eigenen Mitarbeiterinnen und Mitarbeiter – sah sich Google kürzlich gezwungen, zurück zu rudern. So gab es vor wenigen Tagen bekannt, seinen Chatbot Bard vorerst nicht in seine Suche zu integrieren. Dieser Schritt klingt zumindest logisch, denn gerade eine Suchmaschine ist enorm auf das Vertrauen der Suchenden angewiesen und kann sich daher eine solch große Fehleranfälligkeit einfach nicht leisten.
Im Besonderen die Mitarbeitenden bei Google bekamen es angesichts der rasanten Ausbreitung dieser Art von künstlicher Intelligenz in Verbindung mit Massenentlassungen beim Konzern – verständlicherweise – schlichtweg mit der Angst zu tun.
Ob Google mit der Entscheidung, Bard (vorerst) nicht in die Suche zu integrieren, allerdings aus PR-Gründern nur die Gemüter beruhigen will, bleibt abzuwarten. Mit seinem Satz, Chatbots wie Bard, ChatGPT und Co seien gut im Schreiben von Texten, aber schlecht im Prüfen von Fakten, trug Googles Produktmanager Jack Krawczyk meiner Ansicht nach eher nicht dazu bei. Denn eines ist auch klar: Bard ist ganz sicher nicht gänzlich vom Tisch.
Jetzt wird es richtig peinlich: Bei Google macht sich Panik breit
Jetzt ganz frisch wurde bekannt, dass Google zumindest intern die Marschroute vorgibt, die Integration seiner KI in alle Produkte mit entsprechender Anzahl an Nutzerinnen und Nutzern in den nächsten Monaten zu forciert. Das wäre eine erneute Kehrtwende binnen weniger Tage und klingt nach absoluter Panik angesichts des Erfolgs von Microsoft mit seiner Bing-Integration. Meiner Meinung nach wird es langsam wirklich peinlich.
Auch Facebook / Meta will (natürlich) mitmischen
Was wäre ein „Kampf der Giganten“, wenn nicht auch Facebook kräftig mitmischen würde? Selbstverständlich kündigte auch Facebook beziehungsweise dessen Mutterkonzern Meta längst eine eigene Sprach-KI an. Diese soll nach eigenen Aussagen natürlich noch viel besser, schneller und intelligenter werden…
Im Gegensatz zu Microsoft mit ChatGPT oder Google mit Bard will Meta seine künstliche Intelligenz vorerst noch nicht in alle seine Produkte wie Facebook oder Instagram einbauen, sondern zunächst wohl nur in seine Nachrichten-App WhatsApp und die KI der Forschung bereitstellen. Angesichts der Tatsache, dass der Meta-eigene Chatbot schon vor über einem halben Jahr nur Blödsinn verzapft, sich selbst ständig widersprochen und zudem Konzernchef Mark Zuckerberg beleidigt hat, ist das vielleicht auch eher in eigenem Interesse. ^^
Chatbots werden auch in den Schulen sofort abgenickt
Kaum schlägt vor allem ChatGPT so viele Wellen, wurden auf künstlicher Intelligenz basierende Sprach- und Textsysteme auch schon in Deutschlands Schulen bereitwillig abgenickt – scheinbar ohne auch nur ansatzweise mal genauer darüber nachzudenken. So werden Chatbots erlaubt, unter der Prämisse, dass die Schülerinnen und Schüler stets angeben, wenn sie solche Systeme beispielsweise bei einem Aufsatz genutzt haben. Verneinen sie dies fälschlicherweise, soll es als Betrug gewertet werden.
Das ist mal wieder typisch und zeigt eine gewisse Naivität vieler Verantwortlicher diesbezüglich. Denn das Paradoxe daran ist: Wenn Texte aus KI-Bots (angeblich bisher) nicht oder kaum von Texten durch Menschenhand zu unterscheiden sind, wie und nach welchen Kriterien sollen Lehrerinnen und Lehrer künftig herausfinden, welche Texte „echt“ sind und welche nicht? Eine weitere Frage wäre, wer künftig eigentlich der oder die Dumme sein wird? Die Schülerinnen oder Schüler mit einem „KI-Aufsatz“ und ein paar Sekunden Zeiteinsatz oder die mit einem „echten“ Aufsatz durch einen Zeiteinsatz von vielleicht mehreren Stunden?
Fazit: Viele Fehler und nicht zu Ende gedacht
Alles in allem lässt sich sicherlich festhalten, dass auch die Tech-Giganten unserer Zeit scheinbar unter der ständigen Angst, etwas verpassen zu können oder bei irgendwas mal nicht die Nummer 1 zu sein, gerne einmal voreilig handeln und nicht immer alles (wenn überhaupt) zu Ende denken.
In diesem Fall ist die berühmte Büchse der Pandora geöffnet worden, scheinbar ohne darüber nachzudenken, was es schon sehr unmittelbar für Konsequenzen haben kann. Dabei scheint diese Art der künstlichen Intelligenz insgesamt noch sehr halbgar und unfertig zu sein. Klar, werden die Bots besser, ausgereifter und stabiler werden. Die Frage ist nur: Auf wessen Kosten wird das geschehen?
Mittlerweile weisen alle Beteiligten, ob OpenAI und Microsoft oder auch Google, längst selbst auf die hohe Fehleranfälligkeit sowie das hohe Maß an Falschinformationen ihrer KI hin. Doch warum auch nicht? Den meisten Nutzerinnen und Nutzern scheint es ohnehin vollkommen egal zu sein…