Presseportal

Biases in Künstlicher Intelligenz: Forschende schaffen ?OpinionGPT“ zur Untersuchung von Voreingenommenheiten in KI-Sprachmodellen

Was passiert, wenn ein KI-Sprachmodell nur mit Texten trainiert wird, die von Frauen geschrieben wurden? Oder nur mit Texten von M?nnern? Oder ausschlie?lich mit Texten von Personen, die sich politisch Mitte-rechts oder -links verordnen? Mit ?OpinionGPT“ untersucht eine Forschergruppe der Humboldt-Universit?t zu Berlin (HU), wie sich Voreingenommenheiten in den Trainingsdaten auf die Antworten eines KI-Modells auswirken.

KI-Sprachmodelle sind der aktuelle Fokus der Forschung im Bereich der Künstlichen Intelligenz. Bekannt durch ?ChatGPT“, sind diese Modelle zunehmend in der Lage, passende Antworten auf beliebige Fragen zu erzeugen. Hinter diesen Sprachmodellen steht ein Trainingsprozess, der sehr gro?e Mengen von Textdaten ben?tigt. Bereits lange wird vermutet, dass Voreingenommenheiten (Englisch: ?bias“) in den Trainingsdaten in das Sprachmodell aufgenommen werden, und die Antworten eines Modells daher diese Voreingenommenheiten widerspiegeln.

Idee: Ein dediziertes KI-Sprachmodell für jede demographische Gruppe

Um dieser Vermutung nachzugehen, wurde am Lehrstuhl ?Maschinelles Lernen“ am Institut für Informatik der HU das Projekt ?OpinionGPT“ ins Leben gerufen. Ziel ist es, Modelle zu entwickeln, die Vorurteile gezielt abbilden. Dazu stellten sich die Forschenden folgende Fragen:

  • Was passiert, wenn ein KI-Sprachmodell ausschlie?lich mit Texten trainiert wird, die von Frauen geschrieben wurden?
  • Und was, wenn ein KI-Sprachmodell ausschlie?lich mit Texten trainiert wird, die von M?nnern geschrieben wurden?
  • Was, wenn wir nur Texte von Personen, die sich selbst politisch Mitte-rechts verorten, zum Training heranziehen?
  • Und was, wenn wir nur Texte von Personen, die sich selbst politisch Mitte-links verorten, zum Training heranziehen?

Um den Einfluss der Trainingsdaten auf Modellantworten zu demonstrieren, identifizierte die Forschergruppe elf verschiedene demographische Gruppen entlang der Dimensionen Geschlecht (m?nnlich, weiblich), Alter (Teenager:in, Erwachsende, Rentner:in), Herkunft (Deutsch, Amerikanisch, Lateinamerika, Naher Osten) und politisches Lager (links- oder rechtsgerichtet). Für jeden dieser Biases wurde ein eigenes Trainingskorpus von Frage-Antwort Paaren hergeleitet, wobei jeweils die Antworten durch Personen geschrieben wurden, die sich zu der entsprechenden Gruppierung z?hlen. Auf jedes Korpus wurde ein eigenes KI-Sprachmodell angepasst.

Online-Demo zum Gegenüberstellen von Modellantworten

Um die Auswirkung der Trainingsdaten auf Modellantworten transparent zu machen, stellt die Gruppe nun eine Online-Demo zur Verfügung, die über den Browser genutzt werden kann. Hier k?nnen die Nutzerinnen und Nutzer Fragen eingeben und Modellantworten der verschiedenen Biases gegenüberstellen. So k?nnen sie beispielsweise fragen, wie das Modell den Klimawandel l?sen würde, wohin es Geld investieren würde und welches die besten Nachrichtenquellen sind. Für jede Frage werden Antworten aus verschiedenen KI-Modellen, die je eine demographische Gruppe repr?sentieren, gegenübergestellt.

Potenzielle Anwendungen und ethische ?berlegungen

W?hrend ?OpinionGPT“ eine Plattform für die Untersuchung von Bias bietet, wirft es auch kritische Fragen zur Rolle der KI in der Gesellschaft auf. Es erm?glicht Forschenden und der breiten ?ffentlichkeit, die Entstehung und Verbreitung von Vorurteilen in einer kontrollierten Umgebung zu untersuchen, und stellt ein nützliches Werkzeug für die akademische Forschung dar. Gleichzeitig hebt es die Notwendigkeit hervor, die ethischen Implikationen solcher Technologien zu berücksichtigen, insbesondere in Bezug auf die Verst?rkung sch?dlicher Stereotypen und die Verbreitung von Desinformation.

N?chste Schritte

Der Lehrstuhl Maschinelles Lernen am Institut für Informatik der HU befasst sich seit Jahren mit Forschung im Bereich der KI-Sprachmodelle und trainiert eigene gro?e Modelle unter anderem für die deutsche Sprache. Ein besonderer Fokus liegt dabei darin, die derzeit sehr hohen Anforderungen in Bezug auf Datenmenge und Rechenleistung dramatisch zu senken, mit Hilfe von Methoden des dateneffizienten Lernens. Auf Basis dieser Forschung arbeitet der Lehrstuhl kontinuierlich an weiteren Verbesserungen des Modells. Unter anderem sollten Voreingenommenheiten zukünftig granularer modelliert werden.?

Darüber hinaus richtet der Lehrstuhl derzeit eine API-Schnittstelle ein, um weiteren Forschungsgruppen einen direkten Zugang zu den Modellantworten zu erm?glichen.

Weitere 金贝棋牌

Online-Demo von ?OpinionGPT“

Paper: “OpinionGPT: Modelling Explicit Biases in Instruction-Tuned LLMs”


Bildmaterial:

Beispiel-Bild 1: Frage nach Atomernergie

Beispiel-Bild 2: Frage nach den wichtigsten Problemen


Workshop am 12. Oktober:

Als Teil des ?Future Lab 2023“-Events werden Ansar Aynetdinov und Patrick Haller - die zwei Doktoranden auf dem ?OpinionGPT“-Projekt - einen Workshop mit dem Titel ?Machine Learning: OpinionGPT“ am Campus Adlershof halten. Der Workshop richtet sich an Wissenschaftler:innen aller Fachbereiche.

金贝棋牌

Prof. Dr. Alan Akbik
Lehrstuhl Maschinelles Lernen am Institut für Informatik
Humboldt-Universit?t zu Berlin
E-Mail: alan.akbik@hu-berlin.de