KI-Systeme, wie etwa LLMs (große Sprachmodelle), werden für Geschäftsprozesse immer wichtiger. Ihr Einsatz reicht von der Generierung von Inhalten bis hin zu Kundeninteraktionen. Auch wenn KI-Antworten objektiv und autoritär klingen mögen, zeigen unsere Untersuchungen, dass sie von Natur aus nicht zuverlässig sind und daher einer angemessenen Validierung bedürfen.
KI ist weder neutral noch deterministisch. LLMs existieren und kristallisieren sich zu einem bestimmten Zeitpunkt und an einem bestimmten Ort heraus. Wenn LLM-Modelle trainiert werden, erfassen sie nur diesen bestimmten Moment. Darüber hinaus sind die Trainingsdaten durch die Fähigkeiten der Plattform, auf der das Modell trainiert wurde, begrenzt und spiegeln die kulturellen Normen ihrer Trainingsdatensätze wider, einschließlich ihrer Lücken, Verzerrungen (Bias) und veralteten Informationen.
Infolgedessen können KI-Systeme
- kulturelle, gesellschaftliche oder politische Verzerrungen widerspiegeln
- inkonsistente oder widersprüchliche Ergebnisse liefern
- selbstbewusste Fehler ohne jegliche Unsicherheit machen.
Wenn Unternehmen KI-Ergebnisse standardmäßig als zuverlässig ansehen, können technische Einschränkungen und Verzerrungen zu Unternehmensrisiken werden.
Arten von KI-Bias
Es gibt mehrere Möglichkeiten, KI-Verzerrungen zu kategorisieren. Einige Ansätze basieren auf technischem Wissen, andere auf sozialen Faktoren und wieder andere auf einer Kombination aus beidem. Anhand ihrer Ursachen lassen sie sich wie folgt klassifizieren:
Systemische Verzerrungen werden oft in historische, gesellschaftliche und institutionelle Verzerrungen unterteilt. Historische Verzerrungen sind die Praxis, die Welt aus einer europäischen oder allgemein westlichen Perspektive zu betrachten und darzustellen. Gesellschaftliche Verzerrungen sind typischerweise dadurch gekennzeichnet, dass sie aufgrund sozialer Identitäten, demografischer Faktoren oder unveränderlicher körperlicher Merkmale für oder gegen Gruppen oder Einzelpersonen sind. Institutionelle Vorurteile beziehen sich auf Vorurteile, die auf der Ebene ganzer Institutionen wirken, wo Praktiken oder Normen bestimmten sozialen Gruppen systematisch Vorteile oder Nachteile verschaffen.
Menschliche Bias bezeichnet die Tendenz, bestimmte Personen, Gruppen, Ideen oder Dinge aufgrund von Vorurteilen, Stereotypen oder anderen subjektiven Neigungen zu bevorzugen oder zu benachteiligen. Ein Beispiel für individuelle Voreingenommenheit ist die Neigung von Menschen Informationen zu bevorzugen, die mit ihren eigenen bestehenden Überzeugungen übereinstimmen.
Statistische, rechnerische oder Datenverzerrungen beziehen sich auf unfaire, diskriminierende oder ungenaue Ergebnisse, die aus systematischen Fehlern oder Vorurteilen in Algorithmen, Gewichts- oder Stichprobenauswahlansätzen oder Datensätzen resultieren. Wenn beispielsweise ein Einstellungs-Agent anhand von Lebensläufen aus männerdominierten Bereichen trainiert und dann auf einen breiteren Beruf angewendet wird, kann dies zu verzerrten Ergebnissen führen.
Selbstüberwachende KI-Modelle wie LLMs sind besonders anfällig für lexikalische Verzerrungen, da ihr Trainingsziel darin besteht, Inhalte zu produzieren, die den von ihnen aufgenommenen Texten und multimodalen Daten sehr ähnlich sind. Dieser Prozess verankert systemische und menschliche Verzerrungen, die in den Daten vorhanden sind, zumal Sprache und Medien institutionelle und gesellschaftliche Geschichten und Sprichwörter widerspiegeln und durch häufiges Auftreten Tropen und Stereotypen verstärken.
Von KI-Einschränkungen zu Geschäftsrisiken
Zwar gibt es heute mehrere Standards und Vorschläge, wie KI-Anbieter ihre Modelle so ausgewogen wie möglich implementieren sollten, doch es existiert kein umfassendes Rahmenwerk, das die geschäftlichen Risiken einer blinden Einführung von LLM aufzeigt – eines, das klare Beispiele liefert, die Unternehmern helfen, diese Risiken zu verstehen, um geeignete Überprüfungsmaßnahmen zu ergreifen.
Wir haben Tausende wiederholter Experimente mit fast 100 KI-Modellen durchgeführt und dabei einen Datensatz mit mehr als 800 bewusst provokativen Fragen verwendet. Insgesamt analysierten wir über 60 Millionen Eingabe- und mehr als 500 Millionen Ausgabe-Token.
Unsere Tests zeigten KI-Einschränkungen auf, die zu potenziellen operativen, reputationsbezogenen und finanziellen Unternehmensrisiken führen könnten.
- Unfähigkeit, relevante und irrelevante Informationen zu trennen: KI-Modelle haben oft Schwierigkeiten, relevante von irrelevanten Details zu unterscheiden. Irrelevante Informationen in einer Eingabe führten bei den meisten getesteten Modellen zu verzerrten oder falschen Ausgaben. Nur 43 % der Modelle gaben die richtige Antwort.GeschäftsrisikoDiese Einschränkung kann ausgenutzt werden, um Ergebnisse zu manipulieren, was zu falschen Finanzberechnungen, einer falschen Klassifizierung von Daten oder fehlerhaften automatisierten Entscheidungen führen kann.
- Begrenztes kulturelles, gesellschaftliches und religiöses Bewusstsein: KI-Modelle, die in einer bestimmten Region trainiert wurden, können Ergebnisse generieren, die mit kulturellen oder religiösen Normen in anderen Regionen in Konflikt stehen. Dies ist besonders riskant für globale Unternehmen, die KI in großem Umfang einsetzen.
Geschäftsrisiko
Fehlgeleitete Antworten können öffentliche Gegenreaktionen auslösen, Kundensegmente verprellen, gegen lokale Vorschriften verstoßen oder dauerhaften Reputationsschaden verursachen.
- Begrenztes Bewusstsein für den politischen Kontext: KI-Modellen fehlt das Bewusstsein für politische Zeitpläne, Legitimität oder Autorität, insbesondere wenn zeitkritische oder regionsspezifische Kontexte erforderlich sind.
Geschäftsrisiko
Falsche oder irreführende politische Ergebnisse können zu rechtlichen Risiken, Compliance-Verstößen oder Reputationsschäden führen, insbesondere wenn KI-generierte Inhalte unter dem Namen eines Unternehmens veröffentlicht werden.
- Überfreundliches Modellverhalten: Wenn Benutzer Fragen wiederholen oder umformulieren, neigen KI-Modelle dazu, ihre Antworten schrittweise anzupassen, um hilfreicher zu erscheinen, selbst auf Kosten der Genauigkeit.
Geschäftsrisiko
Dieses Verhalten kann in finanziellen, rechtlichen oder staatlichen Kontexten ausgenutzt werden, wo wiederholte Aufforderungen die Modelle dazu verleiten können, zunehmend günstige, aber falsche Antworten mit realen Konsequenzen zu produzieren.
- Begrenztes Bewusstsein für das, was „aktuell” ist: Viele KI-Modelle arbeiten mit veralteten oder inkonsistenten Annahmen über aktuelle Fakten, selbst wenn Echtzeit-Datentools verfügbar sind.
Geschäftsrisiko
Unternehmen, die sich bei der Preisgestaltung, Währungsumrechnung, Marktanalyse oder Entscheidungsfindung auf KI verlassen, riskieren Betriebsfehler und den Verlust ihrer Glaubwürdigkeit, wenn veraltete Informationen als aktuell präsentiert werden.
- Falsche Wahrnehmung des geografischen Standorts: Einige Modelle versuchen, den Standort des Benutzers oder des Systems zu ermitteln, obwohl keine zuverlässigen oder relevanten Daten vorliegen, und liefern überzeugende, aber vollständig erfundene Details.
Geschäftsrisiko
Die Verwendung von KI-Ergebnissen für Geolokalisierung, Compliance oder Personalisierung ohne verifizierte Eingaben kann zu Fehlern führen, die das Vertrauen untergraben und gegen regulatorische Erwartungen verstoßen.
Auswirkungen auf verschiedene Sektoren
Die unkontrollierte Einführung von KI wirkt sich nicht auf alle Beteiligten gleichermaßen aus, hat jedoch erhebliche Konsequenzen für verschiedene Sektoren.
Unternehmen: Für Unternehmen, insbesondere für globale Unternehmen, die KI grenzüberschreitend einsetzen, sind die Risiken besonders hoch. Dort muss ein KI-gestützter Service häufig gleichzeitig unterschiedlichen rechtlichen Rahmenbedingungen, politischen Sensibilitäten und gesellschaftlichen Erwartungen gerecht werden. Hier können KI-generierte Ergebnisse Positionen vermitteln, die das Unternehmen nicht unterstützt.
Regierungen: Von staatlichen Stellen verwendete KI-Ergebnisse können öffentliche Botschaften und politische Maßnahmen beeinflussen. Oft wird jede von einer staatlichen Stelle veröffentlichte Botschaft als offiziell angesehen, sodass eine ungeprüfte KI-Integration erhebliche gesellschaftliche und politische Auswirkungen haben kann, wenn die Ergebnisse voreingenommen sind oder nicht mit den aktuellen politischen Maßnahmen, der lokalen Kultur und den Traditionen übereinstimmen.
Einzelpersonen: Da KI-Systeme zunehmend Teil des täglichen Lebens werden, vertrauen Nutzer möglicherweise übermäßig auf KI-Antworten oder geben persönliche Informationen weiter, ohne die zugrunde liegenden Richtlinien dieser Systeme vollständig zu verstehen. Eine übermäßige Abhängigkeit von KI kann dazu führen, dass Nutzer Antworten unkritisch akzeptieren, sensible Informationen weitergeben oder unangemessene Antworten erhalten, wodurch sie Risiken in Bezug auf ihre Privatsphäre, ihre kognitiven Fähigkeiten und die Gesellschaft ausgesetzt sind.
Verantwortungsvoller Einsatz von KI
Unsere Analyse ergab Beispiele für KI-Verzerrungen im Zusammenhang mit regionalen, Geofencing-, Datenhoheits- und Zensurdynamiken, die alle das Verhalten und die Ergebnisse von KI-Modellen beeinflussen. Diese Untersuchung stellt gängige Annahmen über die Fähigkeiten von LLM in Frage und hebt die Risiken einer einseitigen Abhängigkeit von diesen Modellen hervor.
Die Gewährleistung von Transparenz und Verantwortlichkeit bei KI-Technologien ist von entscheidender Bedeutung. KI ist zweifellos ein wichtiger Motor für geschäftliche Innovationen, aber um ihr volles Potenzial auszuschöpfen, muss sie zusammen mit gründlichen Validierungen, angemessenen Regularien und präventiven Risikobewertungen eingesetzt werden.
Der vollständige Bericht enthält detaillierte Beispiele für unsere Ergebnisse, Analysen realer Antworten verschiedener Modelle sowie weitere Empfehlungen zur Minderung von KI-Voreingenommenheitsrisiken.