Nach Fake News nun Fake Porn
Wir wissen ja schon lange, dass wir nicht alles glauben sollten, was wir lesen, aber nun sollten wir auch nicht alles für echt halten, was wir auf Bildern oder in Filme sehen. Im Internet "spielen" immer mehr Menschen mit der Software Faceswap-Tool, die es ermöglicht durch eine Machine-Learning-Software die Gesichter in Videos gegen die anderer Personen auszutauschen.
Mit dem Programm war es sogar möglich die digitale Leia Organa aus dem Star-Wars-Film Rogue One nachzubauen ohne das Millionenbudget von Hollywood. Man hat damit aber auch den argentinischen Präsidenten durch Hitler ersetzt und das Gesicht von Schauspielerin Daisy Ridley einer Pornodarstellerin "übergeholfen".
Die Qualität der Imitation ist beim Anschauen nicht mehr erkennbar, wenn die KI-Software funktioniert hat - es gibt auch Ausrutscher, die dann in der Regel zu einem Bitsalat oder mindestens zu Zombies führen. Nur eine Analyse auf Bitebene kann solche "Fakes" noch sichtbar machen.
Genau wie DNA-Spuren und Fingerabdrücke nicht immer einen eindeutigen Beweis begründen müssen, sollte man bei Bildern und Videoaufnahmen erst recht skeptisch sein.
Mehr dazu bei https://www.heise.de/newsticker/meldung/Deepfakes-Neuronale-Netzwerke-erschaffen-Fake-Porn-und-Hitler-Parodien-3951035.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/2SD
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/6344-20180128-nicht-alles-was-man-sieht-ist-echt.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/6344-20180128-nicht-alles-was-man-sieht-ist-echt.htm
Tags: #Persönlichkeitsrecht #Privatsphäre #FakeNews #FakePorn #Arbeitnehmerdatenschutz #Verbraucherdatenschutz #Datenschutz #Fingerabdruck #ElektronischerPersonalausweis #ElektronischerPass #Unschuldsvermutung #Biometrie
Erstellt: 2018-01-28 09:04:56 Aufrufe: 1422
Kommentar abgeben