Inhaltsverzeichnis
Die wissenschaftliche Recherche steht im Zeitalter der (generativen) Künstlichen Intelligenz unter starkem Wandlungsdruck. Auch wir vom Bibliotheksteam sind damit konfrontiert und erarbeiten uns konstant neues Wissen. Dank der Consensus-Testlizenz für das Jahr 2026, die allen Hochschulangehörigen zur Verfügbar steht, konnten wir das KI-basierte Recherchetool für euch auf Herz und Nieren prüfen.
Was ist Consensus?
Im Gegensatz zu den allseits bekannten generativen KI-Tools wie ChatGPT, nutzt Consensus ein sogenanntes RAG (Retrieval-Augmented Generation)-Verfahren. Das bedeutet, dass Consensus nur Antworten aus der eigenen Datenbank liefern kann – in diesem Fall sind das über 220 Millionen Artikel, der Grossteil davon peer-reviewed (Apata, Kwok & Lee, 2025, S. 5; Elechko, 2025;).
Obwohl Consensus an verschiedensten Stellen das Sprachmodell von OpenAI eingebaut ist, um unter anderem die Ergebnisse formulieren zu können, wurde es dem Tool so schwer wie möglich gemacht, zu halluzinieren. Wir sind in unserem Test auf keine erfundene Quelle gestossen. Damit wirbt Consensus auch, dass sie eine «search engine first, AI second» sind.
Um das Tool im Jahr 2026 kostenlos nutzen zu können, bedarf es eine Registrierung mit der eigenen FHGR-Mailadresse (@stud.fhgr.ch oder @fhgr.ch) über diesen Link.
Funktionen
Wer einen unkomplizierten Einstieg in das eigene Thema sucht, oder einen Überblick, was in dem Bereich publiziert wurde, erhalten möchte, ist mit Consensus bestens bedient.
Gut zu wissen: PDFs können bedenkenlos in Consensus für eine Analyse oder Befragung hochgeladen werden. Diese werden im Gegensatz zu vielen anderen Tools nicht als Trainingsdaten weiterverwendet. Wichtiger Hinweis zum Urheberrecht: Das Hochladen von Inhalten, die über unsere Hochschul-Lizenzen bezogen wurden, ist in anderen KI-Tools untersagt.
Zu Beginn der Recherche kann aus drei verschiedenen Suchmodi ausgewählt werden: Quick, Pro und Deep. Bei jedem Modus wird eine andere Anzahl gefundene Paper in der Zusammenfassung berücksichtigt, wobei je mehr Paper inkludiert werden, desto länger die Ladezeit dauert.
Um uns ein umfassendes Bild von Consensus zu machen, haben wir Consensus anhand zweier Themen getestet, in denen wir uns fachlich sicher bewegen, um die Qualität und Relevanz der gelieferten Antworten einschätzen zu können.
Als Suchanfrage können direkt Forschungsfragen eingegeben oder Prompts genutzt werden (Beispiele). Anders als von generativen KI-Tools gewohnt, ist es hier nicht notwendig dem Tool eine Rolle zuzuweisen, da Consensus explizit für die wissenschaftliche Recherche entwickelt wurde. Ausserdem können auch klassische Suchanfragen mit Booleschen Operatoren gestellt werden. (Consensus, 2025)
Die Ergebnisse von Consensus sind wie folgt strukturiert: Eine kurze Zusammenfassung inklusive Fazit, Hauptteil, wobei die Länge je nach Suchmodus unterschiedlich ausfällt. Einige Inhalte möchten wir an dieser Stelle speziell erwähnen:
- Research Gap Matrix
Auf Basis der gefundenen Publikationen und deren Auswertung erstellt Consensus eine Matrix, in der einzelne Teilbereiche des gewünschten Themas und die Anzahl der vorhandenen Artikel gegenübergestellt werden. So lassen sich Forschungslücken erkennen. - Zeitstrahl der Resultate
Diese Grafik zeigt, wann die im Text zitierten Publikationen veröffentlicht wurden. So kann allenfalls ein bestimmter Zeitraum einfach identifiziert werden, der für das Thema relevant war. - Top Beitragende
Consensus zeigt in einer Tabelle die Namen der Urheber:innen und Journals an, welche die meisten Beiträge zu dem Thema veröffentlichen. - Tabelle mit Behauptungen und Beweisen
In dieser Tabelle stellt Consensus eigene Behauptungen auf und schätzt die Beweislage dazu gleich mit ein. Die entsprechenden Begründungen und Quellenbelege werden ebenfalls angegeben. - Consensus Meter
Auf ja/nein Fragen liefert Consensus eine farblich codierte Tabelle und ordnet Publikationen ein, ob sie der Frage zustimmen oder ihr widersprechen (siehe Bild).
Consensus verlinkt die gefundenen Publikationen mit der Webseite der Verlage, sofern die PDFs nicht frei verfügbar sind. Wie auch bei der Nutzung des Bibliothekskatalogs swisscovery ist es deshalb wichtig, dass ihr euch im Netzwerk/VPN der FHGR befindet, um die Artikel herunterladen zu können.
Grenzen des Tools
Nach einigen Tests stiessen wir langsam auf technische Grenzen des Tools. So liess uns Consensus bei der Nutzung des Booleschen Operators «NOT» im Stich und zählte in seinen Ergebnissen Publikationen auf, die ausgeschlossenen Begriffe enthielten. Eine fatale Panne, die Recherchen komplett nichtig machen könnte.
Neben Verbesserungen der Benutzungsfreundlichkeit (verwirrenderweise können Volltexte über drei Buttons entdeckt werden, die jeweils auf eine andere Seite verweisen; die Filterung von Ergebnissen ist nur in Zusammenhang mit einer neuen Promptanfrage möglich), würden wir uns auch einen Ausbau der Transparenz und der Nachvollziehbarkeit wünschen. Obwohl Consensus (2025) darstellt, welches Paper für die Anfrage analysiert wurde (inkl. Qualitätsindikator), ist nicht klar, aufgrund welcher Eigenschaften das Paper im Pool der 220 Millionen Titel gefunden und ausgewählt wurde. Es handelt sich bei Consensus also eher nicht um eine Explainable AI.
Höchst verwunderlich war gar, dass dieselben Anfragen, gestellt vom selben Profil – und das mehrmalig – komplett andere Ergebnisse lieferten. Sicher, Consensus ageneriert die Zusammenfassung der Ergebnisse bei jeder Anfrage von neuem. Dass Paper aber ein anderes Ranking erhalten, welche der Consensus Meter anders darstellt oder bei anderen Anfragen weit oben eingeordnete Paper gar nicht auftauchen, löst nicht nur Verwunderung, sondern auch Qualitätszweifel aus.
Zuletzt gingen wir noch die liebste Währung der Wissenschaft an: Der Quelle. Wie Eingangs berichtet, stiessen wir auf keine erfundenen Quellen. Doch stand uns ein Highlight noch bevor, das uns lehrte, alle Consensus Aussagen genau zu überprüfen. Bei einer unserer mehrmalig durchgeführten, gleichbleibenden Testanfrage, tauchte mehrfach eine bestimmte Aussage/Zahl auf: «2%». Consensus belegte diese Aussage mit vier Quellen, die wir durchsuchten. Nur in einer dieser Quellen tauchte die Prozentzahl tatsächlich auf. Allerdings nur im Abstract, nicht im Volltext selbst, und das sogar ohne Quellenbeleg. Auch nach eindringlicher Recherche ist uns die Originalquelle der «2%» bis heute ein Rätsel. Diese fälschliche Wiedergabe durch Consensus würde in der Realität eine Arbeit komplett verfälschen -weshalb der Blick in den Volltext unverzichtbar bleibt.
Fazit & Ausblick
Wie jedes (KI-)Tool hat auch Consensus Grenzen, die einem bewusst sein sollten. Gleichwohl kann Consensus Forschenden, wie Studierenden einen sehr nützlichen Einblick in den Forschungsstand geben, was gerade zu Beginn einer Recherche hilfreich sein kann. Auch zur Ergänzung der eigenen Recherche ist das Tool bestens geeignet.
Während unserer Auseinandersetzung mit Consensus sind auch weitere Fragen aufgetaucht, die noch zu klären wären. So die Handhabung von wissenschaftlich kontroversen Anfragen oder der Umgang von Consensus mit Forschungsbias. Wir verfolgen gespannt, wie Consensus sich weiterentwickeln wird und freuen uns auf euer Feedback, eure Erfahrungen und spannende Diskussionen.
Quellen
Consensus. (o. D.). Consensus & librarians [Bild].
Consensus. (2025, Dezember 4). Consensus LibGuide for Academic Research.
Elechko, A. (2025). Consensus Research Database. Consensus.
Hier gibt es weitere Blogs der FH Graubünden zu lesen.
Lea Reinhold und Wenke Alberts sind Informationsspezialistinnen der FHGR Bibliothek. Zur Fortentwicklung der Informationskompetenz an der FH Graubünden setzen sie sich mit aktuellen Themen und Entwicklungen rund um KI und der wissenschaftlichen Recherche auseinander. Die Ergebnisse davon sind in der Recherchier-Bar zu finden. Weiteres zum Thema Künstliche Intelligenz findet sich auch im KI Wissenshub des Teaching & Learning Centers.