Schon gewusst? - Deepfakes -
Manche Begriffe sind in aller Munde – obwohl nur wenige sie präzise definieren können. Oder wissen Sie, was ein „DeepFake“ ist?
DeepFakes (engl. Kofferwort aus den Begriffen „Deep Learning“ und „Fake“) sind ein relativ neuartiges Phänomen. Es handelt sich dabei um manipulierte Videos, Bild-, oder Audioaufnahmen, die Gesichter und Stimmen realer Personen täuschend echt nachahmen. Sie werden mit Hilfe von künstlicher Intelligenz erzeugt – weitestgehend autonom, durch maschinelles Lernen. Eigentlich sind DeepFakes zum Spaß oder zur Unterhaltung gedacht. Sie können aber auch gefährlich werden – nämlich dann, wenn Sie Desinformationen enthalten oder Personen diskreditieren.
Mit Hilfe von entsprechender Software kann mittlerweile jeder Laie Personen in einem anderen Kontext darstellen – und das sogar in Echtzeit. Plötzlich sagen Menschen Dinge, die sie nie gesagt haben oder tun Dinge, die sie niemals getan haben.
Warum sind DeepFakes gefährlich?
DeepFakes funktionieren psychologisch hochgradig effektiv. Denn unser Gehirn besitzt für den Umgang mit Aussagen ohne direkt überprüfbaren Wahrheitsgehalt eine „Bestätigungstendenz“ (Confirmation Bias). Es deutet dabei eine zweifelhafte Situation so um, dass sie unseren bestehenden Ansichten entspricht.
Das macht DeepFakes gefährlich. Vor allem dann, wenn Akteure mit ihnen die öffentliche Meinung manipulieren und politische Prozesse gezielt beeinflussen. Dazu kommt, dass Videos sich über Social Media schnell und effizient verbreiten und allgemein eine vermeintliche hohe Glaubwürdigkeit genießen.
Wie können Sie DeepFakes erkennen?
Dank immer größerer Rechenleistung und leistungsfähiger künstlicher Intelligenz verbessert sich die Qualität von Deepfakes kontinuierlich. Deshalb wird es immer schwieriger, zwischen authentischem und künstlich erzeugtem oder verändertem Material zu unterscheiden. Diese Tipps helfen, DeepFakes zu identifizieren:
- Nutzen Sie einen großen Monitor mit guter Bildqualität und hoher Auflösung. So können Sie Unstimmigkeiten im Bild- oder Videomaterial besser erkennen.
- Achten Sie auf unnatürliche Mimik, zum Beispiel beim Blinzeln, Stirnrunzeln oder Lachen. Die Darstellung menschlicher Reaktionen gelingt KIs bisher nicht immer überzeugend.
- Wollen Sie Gewissheit, müssen Sie die Quelle prüfen. Versuchen Sie, das Gesehene oder Gehörte anhand zusätzlicher Informationen einzuordnen.
Sind DeepFakes nur schlecht?
Es gibt tatsächlich auch ein paar positive Anwendungsbeispiele für DeepFakes. So hat das „Project Revoice“ eine Technologie entwickelt, mit der an der Nervenkrankheit ALS erkrankte Menschen ihre Stimme zurückerhalten. Und auch im Entertainmentbereich gibt es Einsatzmöglichkeiten: Filmcharaktere können dank DeepFakes erstmals an die Sprache der Synchronsprecherinnen und -sprecher angepasst werden – und nicht umgekehrt.
- Webcode: 23321376