Stellen Sie sich einen kuriosen Film über einen Meisterkriminellen vor, der sich mit dem besten Detektiv der Welt einen Geisteskrieg liefert.
Inhalt
- Das Deepfake-Problem
- Die Detektoren täuschen
- Ein Deepfake-Katz-und-Maus-Spiel
Der Kriminelle versucht, einen massiven Vertrauenstrick zu vollbringen, indem er geschickte Fingerfertigkeit und eine unheimliche Fähigkeit einsetzt, sich als praktisch jeder auf dem Planeten zu verkleiden. Er ist so gut in dem, was er tut, dass er Menschen glauben machen kann, sie hätten Dinge gesehen, die in Wirklichkeit nie passiert sind.
Empfohlene Videos
Doch dann treffen wir den Detektiv. Sie ist eine brillante, vor nichts zurückschreckende Person, die die „Targets“ jedes Diebes erkennen kann. Sie weiß genau, worauf sie achten muss, und selbst das kleinste Verhalten – hier eine hochgezogene Augenbraue, dort ein gesenkter Vokal – reicht aus, um sie darauf aufmerksam zu machen, wenn etwas nicht stimmt. Sie ist die Einzige, die es jemals geschafft hat, unseren Widersacher zu fangen, und nun ist sie ihm erneut auf der Spur.
Verwandt
- Tech For Change CES 2023 Awards von Digital Trends
- Meta möchte Wikipedia mit einem KI-Upgrade aufwerten
- Woher wissen wir, wann eine KI tatsächlich empfindungsfähig wird?
Allerdings gibt es ein Problem: Unser Dieb weiß das sie weiß, wonach er suchen muss. Infolgedessen hat er sein Spiel geändert, ohne dass der Protagonist es merkte.
Das Deepfake-Problem
Dies ist im Wesentlichen die bisherige Geschichte von Deepfakes und der Deepfake-Erkennung. Deepfakes, eine Form synthetischer Medien, bei denen das Abbild von Menschen digital verändert werden kann Gesicht/Aus Remake unter der Regie von A.I. Forscher geben seit ihrem Auftauchen im Jahr 2017 Anlass zur Sorge. Während viele Deepfakes unbeschwert sind (Austausch). Arnie für Sly Stallone in Der Terminator), stellen sie auch eine potenzielle Bedrohung dar. Deepfakes wurden verwendet, um gefälschte pornografische Videos zu erstellen, die echt erscheinen, und sie wurden für politische Falschmeldungen sowie für Finanzbetrug eingesetzt.
Damit solche Falschmeldungen nicht zu einem noch größeren Problem werden, muss jemand eingreifen und eindeutig sagen können, wann ein Deepfake verwendet wird und wann nicht.
„Deepfake-Detektoren suchen nach den Details eines Deepfakes, die nicht ganz stimmen, indem sie Bilder nicht nur nach unheimlichen Tälern, sondern auch nach dem kleinsten unheimlichen Schlagloch durchsuchen.“
Es dauerte nicht lange, bis die ersten Deepfake-Detektoren auftauchten. Bis April 2018 habe ich abgedeckt einer der früheren Versuche, dies zu tun, das von Forschern der Technischen Universität München gebaut wurde. Genau wie die Deepfake-Technologie selbst nutzte sie K.I. – nur dieses Mal nutzten seine Schöpfer es nicht, um Fälschungen zu erstellen, sondern um sie zu erkennen.
Deepfake-Detektoren arbeiten, indem sie nach den Details einer Deepfake suchen, die es nicht sind ganz Richtig, indem ich Bilder nicht nur nach unheimlichen Tälern, sondern auch nach dem kleinsten unheimlichen Schlagloch durchkämme. Sie schneiden Gesichtsdaten aus Bildern aus und leiten sie dann durch ein neuronales Netzwerk, um ihre Legitimität herauszufinden. Zu den Giveaway-Details können Dinge wie ein schlecht reproduziertes Augenzwinkern gehören.
Doch jetzt haben Forscher der University of California in San Diego eine Möglichkeit gefunden, Deepfake-Detektoren zu besiegen, indem sie sogenannte kontroverse Beispiele in Videobilder einfügen. Gegnerische Beispiele sind ein faszinierender – und doch erschreckender – Fehler in der KI. Matrix. Sie sind in der Lage, selbst die intelligentesten Erkennungssysteme auszutricksen, beispielsweise Ich denke, eine Schildkröte sei eine Waffe, oder ein Espresso ist ein Baseball. Sie tun dies, indem sie einem Bild auf subtile Weise Rauschen hinzufügen, sodass das neuronale Netzwerk eine falsche Klassifizierung vornimmt.
Als würde man ein Gewehr mit einem gepanzerten Reptil verwechseln. Oder ein gefälschtes Video für ein echtes.
Die Detektoren täuschen
„Es gab in letzter Zeit einen Aufschwung bei Methoden zur Erstellung realistischer Deepfake-Videos.“ Paarth Neekhara, ein Student der Computertechnik an der UC San Diego, sagte gegenüber Digital Trends. „Da diese manipulierten Videos für böswillige Zwecke verwendet werden können, wurden erhebliche Anstrengungen unternommen, um Detektoren zu entwickeln, die Deepfake-Videos zuverlässig erkennen können. Zum Beispiel, Facebook hat kürzlich die Deepfake Detection Challenge ins Leben gerufen, um die Forschung zur Entwicklung von Deepfake-Detektoren zu beschleunigen. [Aber] während diese Erkennungsmethoden bei einem Datensatz gefälschter und echter Videos eine Genauigkeit von mehr als 90 % erreichen können, zeigt unsere Arbeit, dass sie von einem Angreifer leicht umgangen werden können. Ein Angreifer kann in jedes Einzelbild eines Videos ein sorgfältig erzeugtes Rauschen einfügen, das für das menschliche Auge kaum wahrnehmbar ist, sodass es von einem Opferdetektor falsch klassifiziert wird.“
Angreifer können diese Videos auch dann erstellen, wenn sie keine spezifischen Kenntnisse über die Architektur und die Parameter des Detektors haben. Diese Angriffe funktionieren auch nach der Komprimierung von Videos weiterhin, so wie es der Fall wäre, wenn sie online auf einer Plattform wie YouTube geteilt würden.
Im Test war die Methode zu mehr als 99 % in der Lage, Erkennungssysteme zu täuschen, wenn Zugriff auf das Detektormodell gewährt wurde. Doch selbst auf der niedrigsten Erfolgsstufe – bei komprimierten Videos, in denen keine Informationen über die Detektormodelle bekannt waren – besiegte es sie immer noch in 78,33 % der Fälle. Das sind keine guten Neuigkeiten.
Die Forscher lehnen die Veröffentlichung ihres Codes mit der Begründung ab, dass er missbraucht werden könnte, bemerkte Neekhara. „Die mit unserem Code generierten kontroversen Videos können möglicherweise andere unsichtbare Deepfake-Detektoren umgehen, die von einigen sozialen Medien [Plattformen] in der Produktion verwendet werden“, erklärte er. „Wir arbeiten mit Teams zusammen, die an der Entwicklung dieser Deepfake-Erkennungssysteme arbeiten, und nutzen unsere Forschung, um robustere Erkennungssysteme zu entwickeln.“
Ein Deepfake-Katz-und-Maus-Spiel
Das ist natürlich nicht das Ende der Geschichte. Um auf unsere Filmanalogie zurückzukommen: Dies wäre immer noch nur etwa 20 Minuten nach Beginn des Films. Wir sind noch nicht an dem Ort angekommen, an dem der Detektiv merkt, dass der Dieb glaubt, er hätte sie zum Narren gehalten. Oder bis zu dem Punkt, an dem der Dieb erkennt, dass der Detektiv weiß, dass er weiß, dass sie es weiß. Oder.. du bekommst das Bild.
Ein solches Katz-und-Maus-Spiel zur Deepfake-Erkennung, das wahrscheinlich auf unbestimmte Zeit andauern wird, ist jedem bekannt, der im Bereich Cybersicherheit gearbeitet hat. Böswillige Hacker finden Schwachstellen, die dann von Entwicklern blockiert werden, bevor Hacker Schwachstellen in ihrer behobenen Version finden, die dann von den Entwicklern noch einmal optimiert wird. Fahren Sie bis ins Unendliche fort.
„Ja, die Deepfake-Generierungs- und Erkennungssysteme folgen genau der Viren- und Antivirendynamik.“ Shehzeen Hussain, ein Ph.D. in Computertechnik an der UC San Diego. Student, sagte Digital Trends. „Derzeit werden Deepfake-Detektoren anhand eines Datensatzes echter und gefälschter Videos trainiert, die mit vorhandenen Deepfake-Synthesetechniken erstellt wurden. Es gibt keine Garantie dafür, dass solche Detektoren gegen zukünftige Deepfake-Generationssysteme narrensicher sind … Um an der Spitze zu bleiben Im Wettrüsten müssen die Erkennungsmethoden regelmäßig aktualisiert und auf kommende Deepfake-Synthesetechniken trainiert werden. [Sie] müssen auch durch die Einbindung von Videos mit Gegnern während des Trainings robust gegenüber gegnerischen Beispielen gemacht werden.“
A Papier, das diese Arbeit beschreibtmit dem Titel „Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples“ wurde kürzlich auf der virtuellen Konferenz WACV 2021 vorgestellt.
Empfehlungen der Redaktion
- KI hat „Breaking Bad“ in einen Anime verwandelt – und es ist erschreckend
- Warum KI niemals die Welt beherrschen wird
- Optische Täuschungen könnten uns beim Aufbau der nächsten Generation der KI helfen
- Der letzte Schliff: Wie Wissenschaftler Robotern menschenähnliche Tastsinne verleihen
- Analoge KI? Es klingt verrückt, aber es könnte die Zukunft sein
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.