Klar, die KI kennt die Antworten, heißt sie doch schließlich künstliche Intelligenz. Und der Vorteil: Sie ist dabei immer neutral, denn schließlich besteht sie aus purer Mathematik – der Sprache des Universums. Sie hat also nicht die bei Menschen übliche Vergangenheit und beantwortet Fragen nicht von Vorurteilen behaftet oder aufgrund von Gefühlen, wie das bei der „menschlichen Intelligenz“ häufig der Fall ist. Soweit der Mythos.
Aber das ist leider nur die halbe Wahrheit. Denn die KI wird von Menschen gebaut und trainiert. Ihre Erschaffer bestimmen dabei, welche Daten sie zum Training erhält, und infolge dieser Auswahl werden auch Vorurteile und Meinungen der „Datenlieferanten“ transportiert. Der daraus resultierende, im Fachjargon „Bias“, ist dabei häufig politisch positioniert. Elon Musk erklärte deshalb, er würde mit „Grok“ eine KI erschaffen, die „ausschließlich der Wahrheit verpflichtet sei“ – nun, seiner Wahrheit, bzw. das, was er für wahr hält.
Kann dieser Bias abgestellt werden?
Beziehungsweise werden wir jemals eine wirklich neutrale KI erhalten? Nein, denn das, was wir Menschen Wahrheit nennen, ist für einen Computer nicht erkennbar. Zum einen ist das auch für uns immer eine Frage der Perspektive, zum anderen kann eine Maschine nur sehen, wie häufig sich ähnliche Aussagen zu einem Thema ergeben bzw. finden lassen.
Schlussendlich berechnet eine KI lediglich das wahrscheinlich nächste Wort. Sie nutzt dabei Zusammenhänge aus ihren Daten und berücksichtigt die Vorgaben ihrer Betreiber, die ihr etwa mitgeben, welche Meinungen oder „Wahrheiten“ sie tunlichst ignorieren soll. Dass dies leider auch notwendig ist, zeigen Beispiele aus der Praxis. So wurden in den letzten Jahren mehrfach so genannte „Training Data Poisoning“-Attacken beobachtet. Diese hatten zum Ziel, eine KI so zu beeinflussen, dass sie die falschen Zusammenhänge lernte. Gerade politisch motivierte Täter haben daran ein großes Interesse.
Fazit
Leider bedeutet die Auswahl bzw. das Ausschließen von Quellen auch immer, dass auch die KI nur die Meinungen ihrer Schöpfer übernimmt. Da kein Mensch alle Wahrheiten kennt, bzw. sich manche „Wahrheiten“ im Laufe der Geschichte als Fehler herausstellten, sind besonders politische Aussagen einer KI immer mit einem Fragezeichen zu betrachten.
Wie die negativen Auswirkungen des standardmäßigen Glaubens an die Neutralität einer KI beim Einsatz im Unternehmen aussehen können, haben die Sicherheitsforscher von Trend Micro getestet. Lesen Sie hier über die Risiken möglicher Verzerrungen, inkonsistenter Ergebnisse und Einschränkungen.