Deepfake-Detektive

Zur Projektseite
Kontakt
CISPA Cysec Lab
E-Mail sendenInstitution

CISPA Cysec Lab

CISPA - Helmholtz-Zentrum für Informationssicherheit
Häufige Fragen
Worum geht es in diesem Projekt?
Ziel unseres Projektes ist es, Bürger*innen aktiv in die Forschung zu Deepfakes und ihrer Erkennung einzubeziehen. Deepfakes sind KI-generierte Bilder oder Videos, die täuschend echt wirken. Unsere Teilnehmer*innen zwischen 10 und 80 Jahren sollen in der Lage sein, Deepfake-Bilder zu erkennen und selbst Deepfakes zu erstellen, um so ein besseres Verständnis für diese Technologie zu entwickeln und zur Bekämpfung von Fehlinformationen beizutragen. Der Grad der Fälschung der selbst generierten Bilder wird anschließend von einem KI-Modell klassifiziert. Die gewonnenen Daten sollen wissenschaftlich aufbereitet werden, um Strategien gegen Falschinformationen zu entwickeln. Unser Projekt liefert wertvolle Einblicke darin, wie gut Menschen im Vergleich zu KI-Algorithmen gefälschte Bilder identifizieren können – und worin sich ihre Entscheidungsstrategien unterscheiden. Ein weiterer Fokus unserer Forschung liegt darauf, zu verstehen, welche Arten von Prompts besonders glaubwürdige und damit schwer zu entlarvende Deepfakes erzeugen. Diese Erkenntnisse helfen uns, sowohl die Fähigkeiten von Mensch als auch Maschine im Umgang mit KI-generierten Fälschungen nachhaltig zu verbessern.
Wie können Bürger*innen mitforschen?
Mitforschen ist ganz einfach: Der erste Schritt ist die Registrierung über die oben verlinkte Plattform. Danach erhalten alle angemeldeten Bürgerforscher*innen Zugang zu unserer Challenge-Plattform. Dort startet das Projekt mit einer spannenden Aufgabe: echte von gefälschten Bildern unterscheiden. Im Anschluss folgt ein interaktives Tutorial, das zeigt, worauf man achten muss, um Deepfakes erfolgreich zu entlarven. Mit diesem Wissen geht es in die zweite Runde der Bildbewertung – diesmal mit geschärftem Blick für Fälschungen. Phase 2: Kreativ werden! In der zweiten Projektphase schlüpfen die Teilnehmer*innen in die Rolle der Erzeuger:innen: Sie erstellen eigene Deepfake-Bilder und setzen dabei ihre neu erworbenen Fähigkeiten gezielt ein. Unser KI-Modell prüft diese Fälschungen und versucht, möglichst viele davon zu enttarnen. Danach erhalten die Bürgerforscher*innen erneut ein Tutorial, um ihre Strategien weiter zu verfeinern. Anschließend testen wir, ob die von ihnen erstellten Fakes nun schwieriger zu erkennen sind. So lernen Mensch und Maschine gemeinsam: unsere KI wird immer besser im Aufdecken von Deepfakes, und unsere Teilnehmer*innen werden zu echten Deepfake-Detektiv*innen.
Was passiert mit den Ergebnissen?
Die von unseren Bürgerforscher*innen generierten Daten und Ergebnisse – von Bildbewertungen bis hin zu selbst erstellten Deepfakes – werden von unserem Forschungsteam detailliert ausgewertet. Die anonymisierten Ergebnisse machen wir über unser Forschungszentrum zugänglich und stellen das Projekt im Rahmen unserer Science-Outreach-Aktivitäten, Veranstaltungen und Öffentlichkeitsarbeit vor. Darüber hinaus dienen die gesammelten Daten dazu, unser KI-Modell gezielt auf die Erkennung von Deepfakes zu trainieren.
Wozu trägt die Forschung bei?
Deepfakes stellen eine wachsende Herausforderung für unsere Gesellschaft dar – sie können gezielt zur Desinformation, Manipulation und Täuschung eingesetzt werden. Mit unserem Projekt schaffen wir ein tieferes Verständnis darüber, wie sich gefälschte Inhalte erkennen lassen und wie sowohl Menschen als auch KI-Systeme darin geschult werden können, Manipulationen aufzudecken. Indem wir Bürgerforscher*innen aktiv einbeziehen, fördern wir nicht nur Medienkompetenz und ein kritisches Bewusstsein im Umgang mit digitalen Inhalten, sondern verbessern gleichzeitig die Erkennungsfähigkeiten von KI-Modellen. So leisten wir einen wichtigen Beitrag zu mehr Transparenz, digitaler Aufklärung und Sicherheit im Netz – und stärken die Resilienz unserer Gesellschaft gegenüber Falschinformationen.