Die Deutsche Forschungsgemeinschaft (DFG) wird ab März 2026 Gutachter*innen den Einsatz von KI bei der Erstellung von Gutachten erlauben. Eine wichtige Anpassung an die digitale Realität der Wissenschaft. Doch bei aller Fortschrittlichkeit dieser Regelung stellt sich eine grundlegende Frage: Wer sorgt eigentlich dafür, dass die Gutachtenden wissen, wie man KI richtig einsetzt?
Die implizite Kompetenzannahme
Wird hier vorausgesetzt, dass Gutachter*innen über umfassendes KI-Wissen verfügen? Konkret wird - sollte es so kommen - angenommen, dass sie verstehen:
- wie KI-Systeme grundsätzlich arbeiten,
- wo ihre systematischen Verzerrungen liegen,
- wie stark der Output von Eingaben, Trainingsdaten und Parametern abhängt,
- welche Aufgaben sich nicht sinnvoll an KI delegieren lassen.
Das ist eine starke Annahme – und möglicherweise eine zu starke.
Meine Erfahrung mit KI-Kompetenz...
ist mittlerweilse recht groß und ich nehme an, dass sie bei Gutachter*innen ebenso divers ist, wie bei Wissenschaftler*innen:
Die Reflektierten: Manche nutzen KI-Tools bewusst und gezielt. Sie kennen die Stärken und Schwächen der Systeme, hinterfragen Ergebnisse kritisch und setzen die Technologie dort ein, wo sie echten Mehrwert bietet.
Die Experimentierenden: Andere befinden sich noch in der Erprobungsphase. Sie testen verschiedene Einsatzmöglichkeiten, lernen durch Ausprobieren, haben aber noch kein vollständiges Bild von den Implikationen.
Die Zurückhaltenden: Wieder andere nutzen KI kaum oder gar nicht – aus Skepsis, aus Zeitmangel für die Einarbeitung oder schlicht, weil sie ihren bewährten Arbeitsweisen vertrauen.
Das Problem der Unsichtbarkeit
Die aktuellen DFG-Richtlinien machen diesen Kompetenzunterschied nicht sichtbar. Mehr noch: Sie adressieren ihn auch nicht systematisch. Qualitätssicherung wird zur individuellen Aufgabe erklärt, ohne zu klären, welche Kompetenz dafür eigentlich vorausgesetzt wird.
Das führt zu einer paradoxen Situation: Gerade diejenigen, die am wenigsten über KI-Systeme wissen, können am schlechtesten einschätzen, wo die Grenzen einer sinnvollen KI-Nutzung liegen. Sie wissen nicht, was sie nicht wissen.
Die Konsequenzen für die Begutachtungspraxis
Diese Kompetenzlücke hat praktische Auswirkungen auf die Qualität und Fairness von Begutachtungen:
- Gutachten könnten KI-generierte Verzerrungen enthalten, die nicht erkannt werden.
- Die Bewertungsmaßstäbe könnten zwischen Gutachtenden stark variieren, je nachdem, wie sie KI einsetzen.
- Antragstellende haben keine Möglichkeit einzuschätzen, mit welchem Kompetenzniveau ihr Antrag KI-gestützt bewertet wird.
Was jetzt nötig wäre...
um die Richtlinien mit Leben zu füllen: konkrete Maßnahmen zur Kompetenzentwicklung:
Schulungen und Fortbildungen: Die DFG könnte Gutachter*innen strukturierte Weiterbildungen anbieten, die nicht nur die technischen Grundlagen vermitteln, sondern auch kritisches Reflexionswissen über KI-Grenzen.
Leitfäden für die Praxis: Konkrete Handreichungen könnten aufzeigen, bei welchen Begutachtungsschritten KI sinnvoll einsetzbar ist und wo menschliche Expertise unersetzlich bleibt.
Erfahrungsaustausch: Plattformen zum Austausch über Best Practices und Fallstricke könnten helfen, kollektives Wissen aufzubauen.
Transparenz über Kompetenzniveaus: Vielleicht braucht es auch eine ehrliche Diskussion darüber, welches Mindestniveau an KI-Kompetenz für die Nutzung in Begutachtungen vorausgesetzt werden sollte.
Qualitätssicherung braucht Qualifizierung
Die DFG-Entscheidung, KI in Begutachtungsprozessen zuzulassen, ist prinzipiell richtig und zeitgemäß. Doch Qualitätssicherung funktioniert nur, wenn die Gutachter*innen über die nötigen Kompetenzen verfügen.
Die implizite Annahme, dass diese Kompetenzen bereits vorhanden sind, ist brandgefährlich. Was wir brauchen, ist eine explizite Strategie zur Kompetenzentwicklung – damit die Prinzipien der DFG-Richtlinien in der Praxis auch tatsächlich gelebt werden können. Transparenz, Verantwortung und Qualitätssicherung sind keine Selbstläufer. Sie setzen Wissen, Reflexionsfähigkeit und kritisches Urteilsvermögen voraus. Und genau hier liegt die eigentliche Herausforderung für eine KI-gestützte Wissenschaftsbegutachtung der Zukunft.