Fawkes von http://sandlab.cs.uchicago.edu/fawkes/ kann durch minimale Änderungen an Fotos, die für das menschliche Auge zwar zu erkennen sind, aber die Person trotzdem problemlos identifizierbar lassen, Suchalgorithmen so täuschen, dass eine Gesichtserkennung nicht mehr möglich sein soll. Diese Technik namens image cloaking steht noch am Anfang, erstes Binaries sind bereits verfügbar.
Wer oft Bilder von Personen in Instagram, Facebook, anderen Diensten oder auch Homepages einstellt, sollte sich das Projekt auf jeden Fall genauer anschauen, nachdem Firmen wie clearview.ai mittlerweile ca. 3 Milliarden Bilder von Social-Media-Plattformen heruntergeladen und analysiert hat, natürlich ohne Erlaub der abgebildeten Personen!
Auf der Projektseite sind Fotos zu sehen, bei denen für das menschliche Auge kein Unterschied vom Original zu erkennen ist, die aber für die Gesichterkennung per KI nicht mehr brauchbar sind.
Das Programmarchiv wird heruntergeladen, ausgepackt und per Kommandozeile aus dem Ordner protection-v.x.x mit dem Befehl protection
gestartet. Standardmäßig werden alle Bilder im Unterordner imgs konvertiert (Ziel ist eine Datei mit dem Anhang *_low_cloaked
im gleichen Ordner) , ansonsten muss man den Ordner mit den gesammelten Bildern über den Parameter -d angeben. Auf meinem etwas älteren Windows 10 PC mit SSD Platte haben 14 Bilder von 200 KB bis 9 MB (auf denen 44 statt der reellen 36 Gesichter erkannt wurden) ca. 3 Minuten pro Gesicht (!) gedauert, wobei die konvertierten Bilder deutlich größer wurden. Die Personen waren immer noch gut erkennbar, aber kleine Artefakte waren zu sehen.