Zum Inhalt springen
Logo FHGR Blog

FHGR Blog

Jour­na­lis­mus im Zeit­al­ter Künst­li­cher In­tel­li­genz

Die Demokratisierung der Medien durch Technologie ist nicht neu. Seit dem Aufkommen des Internets haben sich die Zugangsmöglichkeiten und die Verbreitung von Information dramatisch verändert, wodurch die Macht der traditionellen Medieninstitutionen wie Zeitungen etc. in Frage gestellt wurde.

Künstliche Intelligenz (KI) stellt nun eine neue Front in dieser Evolution dar. Sie wirft allerdings noch viel grundlegender die Frage der Medien als vierte Gewalt auf. Denn es geht neu darum, wer diese vierte Gewalt bezüglich KI denn innehat.

Um angehenden Journalistinnen und Journalisten die Möglichkeiten und Gefahren dieser neuen Technologie aufzuzeigen, hat sich das Institut für Multimedia Productions (IMP) dazu entschieden, die KI im Unterricht zu integrieren. Die Möglichkeiten der Künstlichen Intelligenz beschränken sich dabei nicht nur auf die Generierung von Texten, wie dies zum Beispiel Chat-GPT ermöglicht, sondern auch auf das Erstellen von Bildmaterial.

Um den Studierenden den Blick hinter die Kulissen einer Künstlichen Intelligenz zu ermöglichen, hat sich das IMP entschieden, in einer Kooperation mit dem DAViS, einen Rechner für die Bildgenerierung zu beschaffen. Obwohl es bereits kommerzielle Services gibt, die generative Künstliche Intelligenz anbieten, ist es für die journalistische Tätigkeit wichtig, zu verstehen wie ein Inhalt zustande kommt.

Dabei kommt den Daten, mit denen die KI gefüttert wird, eine herausragende Rolle zu. Die Daten bestehen idealerweise aus einer möglichst grossen und vielfältigen Sammlung an Bildern, die durch spezielle Software (Machine Learning Soft- ware) in ein sogenanntes ”KI-Modell” verwandelt werden. Diese Datensammlung dient daher als Ausgangslage, für neu erstellte Bilder. So reflektieren die neu generierten Bilder, in abgewandelter Weise, die Bild-Daten, mit denen die KI trainiert wurde.

Auf technischer Ebene kann man sich ein KI-Modell wie ein Gedächtnis vorstellen, in dem Muster, Erinnerungen und Zusammenhänge gespeichert sind. Aus Sicht eines Anwenders, der ein KI-Bild erstellen möchte, sieht das dann so aus, dass dieser durch die Eingabe von Anweisungen in der KI-Anwendung (im Fachjargon ”Prompt” genannt) ein neues Bild erstellt. Zum Beispiel könnte ein Anwender die Anweisung «The city of Chur by night in the style of Giovanni Segantini» dem Computer übergeben. Ein Beispiel dieses Promptes kann zum folgenden Ergebnis führen:

KI-generiertes Bild durch den Prompt: «The city of Chur by night in the style of Giovanni Segantini»

Natürlich sind nicht nur Daten und spezialisierte Software nötig, sondern auch leistungsfähige Hardware, da das Erstellen von KI-Modellen (Trainingsphase) als auch die Ausführung der Modelle (Inferenzphase) sehr viel Rechenleistung benötigt. Ein Rechner, der auf diese Bedürfnisse ausgelegt ist, wird nun an der FH Graubünden durch das DAViS betrieben.

Will man also, so wie in den Medien geboten, unabhängig sein, so darf man sich nicht auf irgendein KI-Modell verlassen, bei dem nicht bekannt ist, wann, wo und zu welchem Zweck es erstellt wurde. Wir müssen alle lernen, dass KI gut darin ist, einen auf den ersten Blick plausiblen Inhalt zu generieren, jedoch den Wahrheitsgehalt nicht immer ordentlich wiedergeben kann. So kann es passieren, dass die KI etwas behauptet, das wahrscheinlich scheint, effektiv, aber nicht wahr ist. Es wird dabei für die Zukunft eines unabhängigen Journalismus und einer verantwortungsvollen Hochschule von enormer Bedeutung sein, dass man eigene KIs trainieren kann. Denn man muss wissen, wer die Auftraggeber der genutzten KI sind und ob man ihnen vertrauen kann. Die Studierenden müssen aus diesem Grunde verstehen, wie man eine KI trainiert, denn so lernen sie verantwortlich zu denken und zu handeln. (fhgr/tk,th)

Thomas Keller ist Projektleiter am Schweizerisches Institut für Informationswissenschaft (SII) an der FH Graubünden.

Anzahl Kommentare 0
Kommentare