Exploring different biases in generative models
- IIn den vergangenen Jahren sorgten generative Modelle in zahlreichen wissenschaftlichen Disziplinen für große Aufmerksamkeit. Trotz der beachtlichen Erfolge weisen diese Modelle auch Schwächen auf, die unbeachtet zu erheblichen Risiken und Fehlinterpretationen führen können. Diese Dissertation befasst sich sowohl theoretisch als auch praktisch mit verschiedenen Verzerrungen in generativen Modellen. Ein besseres Verständnis dieser Verzerrungen ermöglicht es, spezifische Risiken besser zu quantifizieren, ihre Ursachen zu identifizieren und sie zu mildern oder sogar gezielt zu unserem Vorteil zu nutzen. Insbesondere demonstrieren die präsentierten Artikel dieser kumulativen Dissertation, wie eine Datensatzverzerrung die Fairness dieser Modelle beeinflusst, wie induktive Verzerrung genutzt werden kann, um diverse Eigenschaften der gelernten Modelle zu erzwingen und wie die Generatorverzerrung genutzt werden kann, um generierte Daten ihrem generativen Modell zuzuordnen.
Author: | Mike Christoph LaszkiewiczGND |
---|---|
URN: | urn:nbn:de:hbz:294-127013 |
DOI: | https://doi.org/10.13154/294-12701 |
Referee: | Asja FischerORCiDGND, Johannes LedererGND |
Document Type: | Doctoral Thesis |
Language: | English |
Date of Publication (online): | 2024/10/08 |
Date of first Publication: | 2024/10/08 |
Publishing Institution: | Ruhr-Universität Bochum, Universitätsbibliothek |
Granting Institution: | Ruhr-Universität Bochum, Fakultät für Informatik |
Date of final exam: | 2024/08/28 |
Creating Corporation: | Fakultät für Informatik |
GND-Keyword: | Maschinelles Lernen; Neuronales Netz; Verzerrung; Lerntheorie; Datensatz |
Dewey Decimal Classification: | Allgemeines, Informatik, Informationswissenschaft / Informatik |
faculties: | Fakultät für Informatik |
Licence (English): |