Die vorliegende Bachelorarbeit zeigt, wie Verzerrungen in den Daten zu rassistischen Aussagen von KI-Systemen führen können. Solche Verzerrungen sind häufig durch vergangenen Rassismus in den Trainingsdaten vorhanden und nehmen so Einfluss auf das Modell und dessen Ausgabe. Ein Experiment mit Midjourney und ChatGPT zeigt solche rassistischen Tendenzen im Output klar auf. Technische Massnahmen wie der Fairness-Ansatz sowie ethische Prinzipien wie die Integration des «human in the loop»-Ansatzes können den Einfluss solcher Verzerrungen effektiv reduzieren. Die Arbeit hebt die Bedeutung kontinuierlicher Schulungen zur Sensibilisierung bezüglich möglicher Verzerrungen hervor. Ein Experteninterview mit dem Gründer eines KI-Startups liefert zusätzliche Einblicke in die Praxis und bestätigt die zuvor erarbeiteten Massnahmen. Die Ergebnisse unterstreichen die Wichtigkeit einer verantwortungsvollen Entwicklung und Nutzung von KI, um potenzielle diskriminierende Auswirkungen zu minimieren.
Die Bachelor Thesis kann unter bachelordbm@fhgr.ch angefragt werden.
Eileen Rutz hat Digital Business Management im September 2024 abgeschlossen.
Photo by Solen Feyissa on Unsplash.