Online-Pornographie

Mit Künstlicher Intelligenz gegen „Fake Porn“

 - 11:32

Schlaue Computerprogramme können immer besser Gesichter erkennen und zuordnen. Die verfügbare Datenmenge steigt ständig und ist ohnehin schon gewaltig, und für Anwender wird der Zugang zu entsprechender Software zusehends leichter, kurzum: Immer mehr Menschen können immer einfacher Künstliche Intelligenz verwenden. Sie tun das – teilweise missbrauchen sie die Technologie auch.

Seit einigen Monaten manipulieren offenkundig Tausende Nutzer Porno-Videos derart, dass sie die Köpfe zum Beispiel berühmter Schauspielerinnen tauschen mit denen der Originaldarstellerinnen. Die Streifen sehen teils täuschen echt aus. Betroffen waren etwa Gal Gadot, Maisie Williams, Taylor Swift, Scarlett Johansson und Daisy Ridley. Popularisiert hatte diese Methode ein Nutzer auf dem Internetportal „Reddit“, der sich selbst den Namen „deepfakes“ gibt – genauso bezeichnen Nutzer mittlerweile die manipulierten Pornos. Vorübergehend gehörten einem entsprechenden Forum auf der Plattform mehrere Zehntausend Mitglieder an.

„Tolerieren keine nicht-konsensuellen Inhalte“

Infolge gewachsener Kritik und einer zunehmenden Anzahl dieser „Fake Porns“ haben Internetportale reagiert und gehen dagegen vor. Reddit beispielsweise schloss mehrere Foren, auch das Original. Die Pornoseite Pornhub, die eigenen Angaben zufolge im Schnitt 81 Millionen Menschen pro Tag aufsuchen, hat angekündigt, entsprechende Videos zu entfernen. „Wir tolerieren keinen nicht-konsensuellen Inhalt auf der Seite und wir löschen alle entsprechenden Inhalte, sobald wir auf sie aufmerksam werden“, sagte ein Sprecher dem Tech-Dienst „Motherboard“ kürzlich. Unter nicht-konsensuelle Inhalten fallen demnach etwa Rache-Pornos früherer Partner, jene „deepfakes“, um die es nun vornehmlich geht oder „alles, was veröffentlicht wird ohne die Erlaubnis oder das Einverständnis der betreffenden Person“.

Nicht in jedem Fall scheint das gelungen, zumindest nicht zeitnah, berichtet das Online-Magazin „Mashable“. Ein Grund dafür ist wohl das große Volumen, dass schnell die Grenzen manueller Löschaktionen aufzeigt. Die Internet-Plattform „Gfycat“ setzt hingegen nun offenbar auch schlaue Computerprogramme, die zeitnah und schnell entsprechende Inhalte erkennen können und entfernen sollen. Das berichtet der Internetdienst „Wired“.

Rechtlich schwierig

Demzufolge haben die Techniker des Unternehmens einem KI-Programm beigebracht, manipulierte Pornos zu identifizieren. Sie hätten dabei an bereits bestehende Techniken auf der Plattform angeknüpft, mit deren Hilfe die dort hochgeladenen Videos klassifiziert werden. „Gfycat“ bietet selbst keine pornografischen Inhalte an – die Seite mit ihren täglich mehr als 200 Millionen Nutzern ist allerdings gefragt, um darüber Videos in einem beliebten Format (GIF) zu teilen, zum Beispiel wiederum über Seiten wie „Reddit“. „Unsere Nutzungsbedingungen erlauben uns, Inhalte zu entfernen, die wir für ablehnenswert halten. Wir entfernen solche Inhalte aktiv“, sagte ein Sprecher bereits vor wenigen Wochen dem Internetdienst „The Verge“.

Die „deepfake“-Videos sind nicht nur in die Schlagzeilen geraten durch ihre zunehmende Verbreitung, sondern auch durch Äußerungen eines oder mehrerer Programmierer hinter dem Namen „DeepfakeApp“, der einen frei zugänglichen Algorithmus erdachte, mithilfe dessen Nutzer ohne große Computerkenntnisse solche Videos kreieren können.

„Ich möchte diese unglaubliche Gesichteraustausch-Technolgie („face swapping“) auch Nutzern zugänglich machen, die nicht notwendigerweise einen technischen Hintergrund haben“, zitierte die Seite „The Register“ ihn. Damit konfrontiert, dass theoretisch beispielsweise auch Kindergesichter in Pornofilme hineingetauscht werden könnten und wie er es überhaupt mit dem Missbrauch dieser Technik halte, sagte er demnach: „Schlussendlich (...) ist es unmöglich, jemanden davon abzuhalten, was er mit diesem Instrument machen möchte, und das bedeutet unglücklicherweise auch, dass einige es missbrauchen werden.“

Rechtlich ist die Sachlage ebenfalls schwierig. „Da gibt es allerhand Probleme mit dem ersten Zusatzartikel unserer Verfassung“, sagte Danielle Citron, Jura-Professorin an der Universität Maryland, gegenüber „Wired“ und nannte als Grund: „Weil es nicht ihr wirklicher Körper ist.“

Tatsächlich ist die hinter den manipulierten Pornos stehende Problematik noch viel breiter. Denn natürlich können Nutzer im Grunde nahezu alle Ideen verwirklichen - vorausgesetzt, sie verfügen über ausreichend Video- und Bildmaterial. Sie können sich selbst oder andere in Sequenzen ihrer Lieblingsfilme integrieren an die Stelle der Filmhelden. Oder sie können beispielsweise auch Videos wichtiger Politiker fälschen. Derzeit macht ein manipuliertes Video der Kanzlerin Angela Merkel die Runde, in das die Programmierer das Gesicht des amerikanischen Präsidenten Donald Trump eintauschen.

Video starten

„Face Swap“Merkel mit Trumps Gesicht

Forscher an der University of Washington sorgen im vergangenen Sommer für Aufsehen mit einem manipulierten Film des früheren amerikanischen Präsidenten Obama, in dem sie ihm einen anderen Text in den Mund legten, Mimik und Stimmt aber stimmten.

Video starten

Synthesizing ObamaMethoden des Lippensynchronisierens

Quelle: ala.
  Zur Startseite
Ähnliche ThemenKünstliche IntelligenzRedditTaylor SwiftScarlett JohanssonBarack Obama