Cyberrisiken
KI nimmt mir die Suche ab und versteht mich
Stimmt, ChatGPT, Gemini und andere generative KI-Programme helfen gern und ausführlich bei Suchvorgängen. Aber … auf die Ergebnisse sollte man sich nicht blind verlassen! Und versteht die KI auch wirklich, was sie sagt? Zweifel sind angebracht!
Es stellt sich die Frage, wann KIs wie ChatGPT die Suchmaschine von Google bei der Zahl der Abfragen überholt. Google hat dies als reale Gefahr erkannt und mit Gemini vorauseilend eine eigene KI in seine Eingabemaske integriert. Für Nutzer ist die Interaktion mit solcher KI einfacher, weil man ihr „klar machen kann“, was man sucht. Neben dem Ergebnis erhält liefert Gemini auch eine Erklärung dazu, warum die Maschine eine Quelle vorschlägt. Ein paar Handgriffe mehr und schon ist in Minuten die Klassen-, Doktor- oder sonstige Arbeit erstellt.
Die KI hat nicht nur die Suche übernommen, sondern auch das Drumherum. Schnell abgeben, und anschließend freut man sich auf eine gute Bewertung, weil sich auch Korrekturleser wenig Mühe machen und ebenfalls eine KI für ihre Analyse des Textes verwenden. Also, alles gut?
Nein, Vorsicht ist angebracht. Die KI wird ihre Antwort professionell gestalten, aber richtig im Sinne von korrektem Inhalt ist etwas anderes. Denn die KI erstellt lediglich Zusammenhänge zwischen erlernten Daten. Selbst angeblich wörtliche Zitate können frei erfunden sein! Die Aussagen sollten deshalb immer genauer überprüft werden, im Übrigen auch der Wert einer vorgeschlagenen Quelle.
Auch wenn KIs lediglich darauf programmiert sind, eine gutklingende Antwort zu liefern, lohnt es sich dennoch sie zu nutzen. Selbst wenn man ihnen nicht bedingungslos vertrauen kann, sind die Suchergebnisse häufig besser als die anderer „üblicher“ Suchmaschinen. Lediglich das ungeprüfte Zitieren einer KI sollte man tunlichst unterlassen.
Mit diesem Wissen ist auch die nächste Aussage in den Bereich der Mythen einzuordnen:
„KI versteht wirklich, was sie sagt“
Wenn wir mit anderen Menschen sprechen, ist das Verstehen dessen, was wir sagen wollen, für den jeweils anderen so eine Sache. Wortschatz, Ausdruck aber auch nonverbale Kommunikation unterstützen oder behindern dabei. Einen Menschen halten wir für intelligent, wenn er mehrere Sprachen spricht oder uns Dinge so erklärt, dass wir sie verstehen. Daher stammt auch ein Großteil der Hochachtung für die künstliche Intelligenz. Denn nicht nur spricht sie fast alle Sprachen (und viele Dialekte), wir können sie auch um Erklärungen bitten. So befähigt sie uns Dinge zu tun, zu denen wir allein erst einmal nicht fähig gewesen wären.
Aber versteht die Maschine wirklich, was sie da tut beziehungsweise was sie „sagt“? Nein, ein nach menschlichen Maßstäben messbares Verständnis ist ihr fremd. Die KI wurde darauf programmiert das nächste Wort eines Satzes zu finden, und umfangreiche Trainingsdaten enthalten genügend Bausteine, um selbst komplizierte Fragen zu beantworten. Generative KIs wie z.B. ChatGPT bestimmen dabei die Wahrscheinlichkeit der nächstbesten Wörter und wählen davon eines aus – nicht unbedingt das statistisch wahrscheinlichste. Sie erzeugen deshalb auf dieselbe Frage unterschiedliche Antworten.
Der Fokus liegt dabei auf Verständlichkeit der Botschaft. Diese muss nicht zwangsläufig faktisch richtig sein. Man nennt das Verhalten der KI dann „halluzinieren“. Denn sie erfindet Antworten, die es eigentlich nicht gibt. Halluzinieren ist eine Nebenwirkung, die beim Benutzen von KIs stört, denn man kann sich nie sicher sein, dass die erzeugte Antwort auch korrekt ist. Allerdings ist es eine Kernfähigkeit generativer KIs, welche dazu führt, dass wir den Eindruck haben, mit einer anderen Intelligenz zu sprechen.