Exploring different biases in generative models

  • IIn den vergangenen Jahren sorgten generative Modelle in zahlreichen wissenschaftlichen Disziplinen für große Aufmerksamkeit. Trotz der beachtlichen Erfolge weisen diese Modelle auch Schwächen auf, die unbeachtet zu erheblichen Risiken und Fehlinterpretationen führen können. Diese Dissertation befasst sich sowohl theoretisch als auch praktisch mit verschiedenen Verzerrungen in generativen Modellen. Ein besseres Verständnis dieser Verzerrungen ermöglicht es, spezifische Risiken besser zu quantifizieren, ihre Ursachen zu identifizieren und sie zu mildern oder sogar gezielt zu unserem Vorteil zu nutzen. Insbesondere demonstrieren die präsentierten Artikel dieser kumulativen Dissertation, wie eine Datensatzverzerrung die Fairness dieser Modelle beeinflusst, wie induktive Verzerrung genutzt werden kann, um diverse Eigenschaften der gelernten Modelle zu erzwingen und wie die Generatorverzerrung genutzt werden kann, um generierte Daten ihrem generativen Modell zuzuordnen.

Download full text files

Export metadata

Metadaten
Author:Mike Christoph LaszkiewiczGND
URN:urn:nbn:de:hbz:294-127013
DOI:https://doi.org/10.13154/294-12701
Referee:Asja FischerORCiDGND, Johannes LedererGND
Document Type:Doctoral Thesis
Language:English
Date of Publication (online):2024/10/08
Date of first Publication:2024/10/08
Publishing Institution:Ruhr-Universität Bochum, Universitätsbibliothek
Granting Institution:Ruhr-Universität Bochum, Fakultät für Informatik
Date of final exam:2024/08/28
Creating Corporation:Fakultät für Informatik
GND-Keyword:Maschinelles Lernen; Neuronales Netz; Verzerrung; Lerntheorie; Datensatz
Dewey Decimal Classification:Allgemeines, Informatik, Informationswissenschaft / Informatik
faculties:Fakultät für Informatik
Licence (English):License LogoCreative Commons -CC BY-SA 4.0 - Attribution-ShareAlike 4.0 International