Direkt zum Inhalt
mit:forschen!

Die Plattform für Citizen-Science-Projekte aus Deutschland: Mitforschen, präsentieren, informieren!

Citizen Science wirksam fördern – Erkenntnisse aus der Evaluation der BMFTR-Aktivitäten

Foto: Abolfazl Ranjbar / Unsplash

Das Bundesministerium für Bildung, Technologie und Raumfahrt (BMFTR) hat zwischen 2013 und 2025 verschiedene Aktivitäten im Bereich Citizen Science gefördert. Kürzlich ist der Schlussbericht zur begleitenden Evaluation des Förderbereichs, mit der Technopolis Österreich und das Nationale Institut für Wissenschaftskommunikation (NaWik) beauftragt waren, erschienen. Wir haben mit Co-Autor Tobias Dudenbostel über die Ergebnisse gesprochen.

Welche Aktivitäten des BMFTR waren Gegenstand eurer Evaluation? 

Dudenbostel: Der Hauptfokus der Evaluation lag auf der Förderung von bürgerwissenschaftlichen Forschungsprojekten über die zwei Richtlinien des damaligen BMBFs, die vom DLR-Projektträger abgewickelt wurden. Außerdem haben wir die Gelegenheit genutzt, auch Evidenz zu anderen Aktivitäten des Ministeriums im Bereich zu erheben, besonders relevant ist hier mit:forschen! (ehemals Bürger schaffen Wissen) als deutsche Citizen-Science-Plattform. Bei „der“ Evaluation handelte es sich eigentlich um drei Teilprojekte, die miteinander verwoben durchgeführt wurden. Zum einen war das eine relativ klassische ex-post Evaluation der ersten Richtlinie, dann eine begleitende Evaluation der zweiten Richtlinie und zusätzlich noch die Unterstützung der in der zweiten Richtlinie geförderten Projekte bei ihrer verpflichtenden Selbstevaluation. Unterstützt haben wir durch Beratung und Feedback, die Entwicklung eines Handbuchs und die Stimulierung von Austausch im Kreis der geförderten Projekte. 

Mit welchen Methoden wurden die Daten für die Evaluation erhoben und ausgewertet? Welche Herausforderungen gab es dabei?

Dudenbostel: Für die Evaluation der ersten und zweiten Förderrichtlinie haben wir eher klassische Methoden verwendet. Das waren zum Beispiel Interviews mit den Projektdurchführenden, Analysen zu Schlussberichten, Recherchen zu vergleichbaren Aktivitäten im In- und Ausland sowie Workshops. Weil sich bei der ex-post Evaluation der ersten Förderrichtlinie zeigte, dass die Projektberichte nicht immer systematisch die gleichen Informationen erhoben haben, haben wir für die begleitende Evaluation der zweiten Förderrichtlinie ein kleines Template entwickelt, um die Projektergebnisse systematischer zu erfassen. Beim Monitoring muss man ja immer entscheiden, ob man etwas zählt oder nicht. Die Projekte haben zum Beispiel unterschiedlich definiert, ab wann jemand am Forschungsprojekt teilgenommen hat, was Veranstaltungen waren oder was als Publikation zählt. Das kann insbesondere im Citizen-Science-Bereich schwierig sein, weil viele verschiedene Prozess- und Outputindikatoren wichtig sein können. Da brauchte es eine gewisse Standardisierung von unserer Seite. 

An mehreren Stellen sind wir ambitionierter gewesen, als ursprünglich im Projektplan vorgesehen. Das betrifft zum Beispiel die jährlichen Workshops, bei denen wir uns zusammen mit BMFTR und DLR-PT dafür entschieden haben, neben den am Projekt beteiligten Forschenden und weiteren Mitarbeitenden auch die teilnehmenden Bürger*innen einzuladen – eine bereichernde Erfahrung, wie ich fand! Auf einmal wurden nämlich die unterschiedlichen Perspektiven, aber auch Ansprüche an die Projekte und an die Forschung, direkt für alle Anwesenden im Raum erfahrbar. Und es wurde auch für uns als üblicherweise eher distanzierte Evaluator*innen spürbar, dass Partizipation viel Arbeit bedeutet – beginnend bei Fragen der Reduktion von Teilnahmehürden, über Barrierefreiheit vor Ort bis hin zu logistischen Fragen wie Teilnahmeentschädigungen.

Außerdem freut es mich persönlich, dass es uns zusammen mit den Projekten gelungen ist, auch die teilnehmenden Bürger*innen so gut wie möglich im Rahmen der Evaluation zu befragen. Dafür haben wir den Fragebogen gemeinsam mit den Projekten entwickelt und dann die Citizens eingeladen. Die Daten, die wir dadurch bekommen haben, waren wirklich spannend. Etwa zwei Drittel der Antwortenden waren Frauen. Es zeigte sich außerdem, dass Citizens ohne Hochschulabschluss, die zum ersten Mal teilnahmen und gleichzeitig regelmäßig teilnahmen, ein anderes Antwortverhalten zeigten. Diese haben zum Beispiel häufiger angegeben, dass sich ihr Vertrauen in Wissenschaft und Forschung erhöht hat oder ihr Verständnis von wissenschaftlicher Arbeit verbessert hat. Eine Herausforderung war allerdings, dass nicht alle Citizens befragt werden konnten, besonders Kinder und Jugendliche wurden deutlich weniger erreicht, als sie in den Projekten vertreten waren.

Der Bericht zeigt, dass das BMFTR seine mit der Förderung verbundenen Ziele „überwiegend erreicht“ hat, zum Beispiel bei der Verstärkung des Austausches zwischen Wissenschaft und Gesellschaft und bei der Kompetenz- und Verständnisverbesserung bei Citizens und Wissenschaftler*innen. Wo siehst du die größten Erfolge der Förderaktivitäten? Welche Ziele wurden (noch) nicht erreicht?

Dudenbostel: Aus meiner Sicht war einer der größten Erfolge schon einmal, dass es über viele Jahre verschiedene Förderaktivitäten des BMFTR in diesem Bereich gab, die sinnvoll zusammengesetzt waren und aufeinander aufbauten. Es wurden Forschungsprojekte unterstützt, aber auch das Communitybuilding und Aktivitäten, die auf Capacity-Building und kontinuierliche Vernetzung abzielten. Gerade am Anfang ging es erst einmal darum, der Community überhaupt eine Stimme zu geben im Policy-Diskurs, zum Beispiel über den ebenfalls vom BMFTR-geförderten GEWISS-Prozess. Auf strategischer Ebene hat das BMFTR damit auch Impulse für die Forschungscommunity insgesamt setzen können und andere Förderorganisationen aktiviert, sich mit dem Thema Citizen Science zu beschäftigen und sich hier durch eigene dezidierte Aktivitäten zu positionieren. Da ist also einiges an Aufbauarbeit erfolgt und es wurde vielen Personen ermöglicht, selbst aktiv Citizen Science zu betreiben, sich ein eigenes Profil dahingehend aufzubauen, Kompetenzen anzueignen, et cetera. Gleichzeitig muss man bei allem Lob auch dazusagen: Gemessen an der gesamten Forschungslandschaft in Deutschland sind knapp 30 Projekte natürlich nicht viel. Auch wenn heute bürgerwissenschaftliche Projekte von mehr Organisationen gefördert werden, als zu Beginn der Richtlinien, und es Citizen-Science-Projekten vielleicht auch etwas leichter fällt, sich im Wettbewerb gegen Projekte ohne partizipativen Ansatz zu behaupten, braucht es zur erfolgreichen Weiterentwicklung des Bereichs weitere Unterstützung.

Der Bericht stellt fest, dass das BMFTR dem strategischen Ziel, Citizen Science dauerhaft in Gesellschaft und Wissenschaft zu verankern nähergekommen ist, es aber noch nicht erreicht hat. Der Bericht gibt daher strategische und operative Empfehlungen. Welche der Empfehlungen hältst du für besonders wichtig und warum?

Dudenbostel: Ein wichtiger Hebel liegt bestimmt darin, Citizen Science als Forschungsmethode in anderen Förderaktivitäten des BMFTR bekannter zu machen, das heißt sowohl den Mehrwehrt von Citizen Science für die Forschung als auch gewisse Spezifika des Forschungsmodus. Wichtig erscheint mir darüber hinaus zweierlei: Die Aktivitäten sollten in Einklang mit anderen europäischen Aktivitäten im Bereich stattfinden, das stärkt die Resilienz für den Ansatz. Außerdem geht es darum, Gelerntes weiterzugeben und Personen, die neu im Bereich sind, das Lernen zu ermöglichen. Sinnvoll ist es, sich sowohl bei der Beantragung der Förderung als auch nach der Bewilligung, also zum Projektstart, beraten zu lassen. Erfahrene Citizen-Science-Praktiker*innen findet man zum Beispiel in der Expert*innendatenbank von mit:forschen!. Insgesamt wäre es sehr schade, wenn die bereits geleistete Aufbauarbeit dadurch entwertet würde, dass es keine weiteren Aktivitäten des BMFTR in diesem Bereich gibt.

Welche Gelingensbedingungen für erfolgreiche Citizen-Science-Forschungsprojekte haben sich im Rahmen der Evaluation herauskristallisiert?

Dudenbostel: Citizen Science fällt jenen Projekten einfacher, die bereits Erfahrungen mit Citizen Science haben. Viele Citizen-Science-Projekte sind meinem Eindruck nach sehr ambitioniert, zum Beispiel in Bezug auf den Partizipationsgrad, die Internationalität, den Grad der Offenheit im Sinne von Open Science beziehungsweise Open Data, oder auch in Bezug auf die Zusammenarbeit mit besonders schwer zu erreichenden Zielgruppen. So entstehen vergleichsweise komplexe Projektstrukturen, Arbeitsteilungen, und ein entsprechend höherer Kommunikations- und Koordinationsaufwand. Dabei ist einfach „nur" gute Citizen Science zu betreiben schon ein höherer Aufwand – das bringt bereits die Zusammenarbeit mit den Citizens mit sich. Man darf natürlich ambitioniert sein, aber besser in den Bereichen, die besonders gut zum Projekt passen, und nicht unbedingt in allen Aspekten.

Im Bericht werden begrenzte Ressourcen – sowohl in Bezug auf Förderdauer als auch Förderhöhe – als zentrale Herausforderungen der geförderten Citizen-Science-Forschungsprojekte genannt. Wie könnten diese in künftigen Förderprogrammen besser adressiert werden?

Dudenbostel: Grundsätzlich wurden die Ressourcenaspekte in der zweiten Richtlinie bereits besser adressiert als in der ersten Richtlinie, besonders in Bezug auf die möglichen Projektlaufzeiten. Für eine zukünftige Richtlinie würde sich eine Erhöhung der Förderhöhe aus verschiedenen Gründen anbieten, beginnend beim Inflationsausgleich, aber auch in Anbetracht der Tatsache, dass für die bislang geförderten Projekte von verschiedenen Personen und Organisationen viel Arbeit in Eigenleistung erbracht wurde, die für das Gelingen wichtig war.

Vor wenigen Monaten haben Technopolis und NaWik den Leitfaden Selbstevaluation und Citizen Science“ veröffentlicht, der im Rahmen der Begleitung von 15 vom BMFTR geförderten Citizen-Science-Projekten bei ihrer Projektselbstevaluation entstanden ist. Warum ist Selbstevaluation im Bereich Citizen Science besonders sinnvoll?

Dudenbostel: Aus meiner Sicht bietet sich Selbstevaluation im Citizen-Science-Kontext besonders aus zwei Gründen an: Erstens, weil Selbstevaluation bedeutet, dass man sich systematisch mit den eigenen Projektprozessen beschäftigt, mit dem Ziel, diese zu verbessern. Idealerweise handelt es sich dabei um einen Feedback-Kanal zu den Teilnehmenden, um auch der Frage des Umgangs mit den beteiligten Citizens gebührend Aufmerksamkeit zukommen lassen. Zweitens, weil die Projekte vielerlei Schnittstellen managen und den Interessen verschiedener Stakeholder gerecht werden müssen, häufig über die Gruppe der Citizens hinaus. Projekte haben zum Beispiel Beiräte etabliert oder wollen die Interessen von Praxispartnern aus dem gesellschaftlichen Bereich mitberücksichtigen. Auch in der Interaktion mit diesen kann der Prozess der Selbstevaluation hilfreich sein. 

Welche konkreten Zielgruppen sollen von dem Leitfaden profitieren und wie kann er praktisch genutzt werden?

Dudenbostel: Der Leitfaden richtet sich an Einsteigerinnen und Einsteiger in das Thema Evaluation von Citizen-Science-Projekten. Viele Grundlagen der Projektevaluation werden im Leitfaden knapp aufbereitet und mit Beispielen und praxisnahen Informationen vertieft. Für jede Projektphase gibt es Impulse und Anhaltspunkte. Konkrete Projektbeispiele zeigen Erfahrungen zu Themen wie Umgang mit Apps, Indikatoren, oder Selbstevaluationstools wie Matrizen.

Der Leitfaden betont die Einbindung von Citizen Scientists in die Evaluation. Welche möglichen Vorteile, aber auch Herausforderungen bringt eine solche Co-Evaluation mit sich? Wie kann Co-Evaluation gelingen, ohne die Teilnehmenden zu überfordern?

Dudenbostel: Co-Evaluation ist tatsächlich ein spannendes Thema, mit dem sich auch mehrere der geförderten Projekte auseinandergesetzt haben. Auch hier gilt es, die Citizen Scientists zunächst für das Vorhaben zu gewinnen und dann sinnvoll miteinzubeziehen. Hilfreich ist es sicher, wenn man den Beitrag zur Verbesserung des Projektes und seiner Prozesse in den Vordergrund stellt. Die Projekte berichteten aber auch von Herausforderungen in der Praxis, zum Beispiel weil der Begriff „Evaluation" erst einmal abschreckt und die Befürchtung auslöst, kontrolliert zu werden oder kontrollieren zu müssen. Im Leitfaden gibt es auf Seite 21 ein informatives Projektbeispiel zu dem Thema – dort kann man viel darüber lernen!

Der Evaluationsbericht zeigt, dass viele der Citizen-Science-Projekte aus den Förderrichtlinien die Selbstevaluation als nützlich empfanden, aber oft unsystematisch umsetzten. Wie kann der Leitfaden helfen, diese Lücke zu schließen – und welche konkreten Schritte würdest du Projekten raten, um die Selbstevaluation von Anfang an besser zu verankern?

Dudenbostel: Die Projektselbstevaluationen wurden schon systematisch umgesetzt, allerdings in den jeweiligen Projektlogiken. Jedes Projekt hat also – sinnvollerweise! – die Aufgabe so angelegt, dass es selbst am besten davon profitiert. Aber es zeigte sich auch, dass die Prioritäten erst einmal bei anderen Projektarbeiten lagen. Hilfreich ist es sicherlich, gleich zu Beginn zu überlegen, für wen man die Projektselbstevaluation macht und welche Funktion im Vordergrund steht. Das ist aus unserer Sicht ein hilfreicher Reflexionsschritt, von dem dann abhängt, welche Fragestellungen man sich mitgibt und wie und wann man zu diesen Fragen auch Evidenz erhebt.

Fabienne Wehrle

Fabienne ist Projektmanagerin und Online-Redakteurin. Sie betreut die Plattform, kümmert sich um die Social-Media-Kanäle und ist für die Kommunikation rund um mit:forschen! Gemeinsam Wissen schaffen zuständig.