HIDA Lecture: LLMs Between Idea Generation and Scientific Responsibility
Referent: Charles Rathkopf, Forschungszentrum Jülich
Datum: 22.04.2026, 10:00 Uhr
Titel: Hypotheses from the Black Box: LLMs Between Idea Generation and Scientific Responsibility
Inhaltszusammenfassung:
Künstliche Intelligenz automatisiert zunehmend zentrale Schritte wissenschaftlicher Arbeit – von der Datenanalyse über die Hypothesengenerierung bis zur Versuchsplanung. Da viele der eingesetzten Modelle intransparent sind, beruhen weitreichende Entscheidungen über Zeit, Ressourcen und Fördermittel häufig auf algorithmischen Prozessen, deren Zustandekommen sich nicht direkt nachvollziehen lässt. In einer öffentlich finanzierten Wissenschaft stellt sich damit eine grundlegende Frage der Verantwortung.
Die Lecture argumentiert, dass verantwortlicher KI-Einsatz nicht in erster Linie Transparenz bedeutet. Entscheidend ist vielmehr die nachweisbare Zuverlässigkeit wissenschaftlicher Workflows – also die Frage, ob ein KI-gestützter Forschungsprozess unter angemessener Interpretation verlässlich zu zutreffenden Ergebnissen führt.
Da sich die Qualität komplexer neuronaler Netze kaum durch Einsicht in ihre inneren Mechanismen beurteilen lässt, muss diese Zuverlässigkeit auf Ebene des gesamten Workflows abgesichert werden, etwa durch theoretisch fundierte Trainingsdaten, robuste Validierungsstudien und systematische Fehleranalysen.
Anhand zweier kontrastierender Beispiele – der Proteinstrukturvorhersage und der neurobildbasierten psychiatrischen Prognostik – zeigt die Lecture, dass die Bedingungen für eine solche Absicherung je nach Disziplin stark variieren. Was als verantwortliche Praxis gilt, ist daher keine rein technische, sondern eine kontextsensitive wissenschaftsethische Frage.
Charles Rathkopf
Dr. Charles Rathkopf ist wissenschaftlicher Mitarbeiter in der Forschungsgruppe Neuroethik und Ethik in der KI am Forschungszentrum Jülich und affiliiert mit der Universität Bonn. Er untersucht unter anderem, wie sich kognitive Fähigkeiten künstlicher Systeme angemessen bewerten lassen, welche epistemischen Risiken mit großen Sprachmodellen verbunden sind und unter welchen Bedingungen KI-Systeme täuschungsähnliches Verhalten zeigen können. Ein weiterer Schwerpunkt seiner Arbeit liegt auf der Frage, wie Zuverlässigkeit und Verantwortung beim Einsatz von KI in wissenschaftlichen Kontexten begründet werden können.


