Die Deutsche Forschungsgemeinschaft (DFG) hat eine wegweisende Entscheidung getroffen: Der Hauptausschuss erlaubt den Einsatz von Künstlicher Intelligenz in Begutachtungsprozessen ab März 2026, wenn sie dazu eintsprechende Leitlinien veröffentlichen wird. Bereits jetzt veröffentlichte sie dazu 4 Prinzipien, auf denen die bald folgenden Leitlinien basieren werden:
Die vier Prinzipien, die beim Einsatz von KI in der Begutachtung eingehalten werden müssen:
Vertraulichkeit: Antragsinhalte dürfen nicht dauerhaft bei KI-Anbietern gespeichert werden. Dies schützt die sensiblen Forschungsinhalte und geistigen Eigentumsrechte der Antragstellenden.
Transparenz: Gutachterinnen und Gutachter müssen offenlegen, dass und wofür KI genutzt wurde. Dieser Punkt gilt als zentrale Voraussetzung für den verantwortungsvollen Einsatz.
Qualitätssicherung: KI-Ergebnisse dürfen nicht ungeprüft übernommen werden. Die kritische Überprüfung durch menschliche Expertise bleibt unverzichtbar.
Verantwortung: Die Verantwortung für das Gutachten bleibt vollständig bei den Gutachterinnen und Gutachtern. KI ist Werkzeug, nicht Entscheidungsträger.
Das Transparenz-Dilemma
Transparenz klingt zunächst eindeutig. Doch bei genauerem Hinsehen zeigt sich: Der Begriff ist vielschichtiger als gedacht. Was genau bedeutet Transparenz beim Einsatz von KI in der Begutachtung? Ist damit gemeint, dass offengelegt wird, ob KI zur Zusammenfassung, zur Strukturierung oder zur Vorbewertung genutzt wird? Soll klar sein, welche Teile der Begutachtung menschlich verantwortet bleiben? Oder geht es darum, sichtbar zu machen, welche Annahmen und Kriterien durch KI möglicherweise verstärkt werden?
Die Perspektive der Antragstellenden
Hier liegt eine besondere Herausforderung: Für Antragstellende ist überhaupt nicht nachvollziehbar, wie ihr Text gelesen, verarbeitet oder vorstrukturiert wird. Gerade in hochkompetitiven Verfahren, wo über Karrieren und Forschungsförderung entschieden wird, ist das nicht trivial.
Wenn ein Gutachten KI-gestützt erstellt wurde, können Antragstellende nicht einschätzen:
- Welche Aspekte ihres Antrags möglicherweise durch algorithmische Vorauswahl betont oder übersehen wurden.
- Ob die KI bestimmte Formulierungen oder Argumentationsmuster bevorzugt hat.
- Wie die menschliche Einschätzung und die KI-Unterstützung zusammenwirkten.
Eine Frage der Fairness
Transparenz ist nicht nur eine technische Frage, sondern eine der Fairness. In einem System, das über die Verteilung von Forschungsmitteln und damit über wissenschaftliche Karrieren entscheidet, müssen die Spielregeln für alle nachvollziehbar sein.
Was jetzt nötig ist,
... sind klare Regeln und ein gemeinsames Verständnis davon, was Transparenz im Begutachtungsalltag tatsächlich bedeutet. Dies könnte beispielsweise umfassen:
- Standardisierte Angaben darüber, für welche Schritte im Begutachtungsprozess KI eingesetzt wurde.
- Richtlinien, welche Informationen Antragstellende über den KI-Einsatz erhalten sollten.
- Reflexion darüber, welche impliziten Kriterien durch KI-Systeme möglicherweise verstärkt werden.
- Schulungen für Gutachtende im verantwortungsvollen Umgang mit KI-Tools.
Die Entscheidung der DFG ist ein wichtiger Schritt in Richtung einer zeitgemäßen Wissenschaftspraxis. Doch die eigentliche Arbeit beginnt jetzt: ein gemeinsames Verständnis zu entwickeln, was gute, faire und transparente KI-unterstützte Begutachtung in der Praxis bedeutet.