Nachfolgend finden Sie die Meinungen zweier Experten der RMIT University zu den schädlichen Auswirkungen von Deepfakes und Lösungsvorschlägen für dieses Problem:
Dr. Jonathan Crellin (links) und Dr. Nguyen Van Thang Long (rechts). (Quelle: RMIT University) |
Cyberkriminelle nutzen neue Technologien auf unvorhergesehene Weise
Dr. Jonathan Crellin, Leiter der Informationssicherheit, Fakultät für Naturwissenschaften, Ingenieurwesen und Technologie, RMIT University :
Deepfake ist ein maschinengeneriertes Bild, das Bilder oder Videos aus mehreren Quellen kombinieren kann, wodurch ein sehr realistisches Bild, Video oder sogar Audio erstellt wird.
Deepfakes basieren auf einer KI-Technik namens maschinelles Lernen, die Elemente wie das Gesicht einer Person ersetzen und in ein anderes Bild oder Video integrieren kann.
Ein Beispiel für den Einsatz von Deepfake ist die Kombination von pornografischen Inhalten mit Fotos von Taylor Swift zur Erstellung gefälschter Bilder.
Dafür benötigte der Drahtzieher einige Bilder, damit die Software die Mimik des Sängers lernen und diese dann mit pornografischen Inhalten kombinieren konnte, um obszöne Fotos zu erstellen, die das Image des Sängers schädigen.
Tatsächlich wird gemunkelt, dass diese Fotos von einer Telegram-Gruppe veröffentlicht und mit dem Microsoft Designer-Tool mit integrierter KI-Unterstützung erstellt wurden.
Jeder kann zum Opfer werden, denn die Kriminellen benötigen lediglich ein Bild, Video oder eine Audioaufnahme der Person, die sich als solche ausgibt.
Fake News in vielen Formen können dazu verwendet werden, Falschmeldungen zu verbreiten, und man kann davon ausgehen, dass es im bevorstehenden US-Präsidentschaftswahlkampf viele solcher Fake News geben wird.
Derzeit versuchen Gesetzgeber auf der ganzen Welt, Gesetze gegen diese Art von Bildern zu erlassen.
In den USA werden derzeit einige Ansätze in der Gesetzgebung umgesetzt, beispielsweise die Möglichkeit zivilrechtlicher Klagen oder Gesetze gegen die „Verbreitung sexuell eindeutiger Bilder einer Person, die von künstlicher Intelligenz ohne deren Zustimmung erstellt wurden“.
China hat außerdem neue Vorschriften eingeführt, die eine strafrechtliche Verfolgung derjenigen ermöglichen, die mithilfe von KI erstellte Bilder verbreiten.
Großbritannien hat das Teilen von Deepfake-Inhalten im Rahmen seines Online-Sicherheitsgesetzes für illegal erklärt.
Wie kann man dies erkennen oder verhindern?
Die erste Möglichkeit besteht darin, die Anzahl der Bilder, Videos oder Audioaufnahmen im Internet zu reduzieren. Stellen Sie sicher, dass Sie sie nur mit Leuten teilen, die Sie kennen, und sie nicht überall im Internet veröffentlichen. Sobald Inhalte ins Internet gestellt wurden, ist es fast unmöglich, sie wieder zu entfernen.
Die zweite Möglichkeit besteht darin, sich mit Ihrer Familie auf ein geheimes Wort zur Authentifizierung des Anrufs zu einigen. Dadurch verringert sich das Risiko, in die Falle eines gefälschten Anrufs zu tappen.
Bilder, insbesondere Videos, können seltsame (inszeniert wirkende) Fehler aufweisen. Wenn Sie diese Fehler entdecken, ist die Wahrscheinlichkeit hoch, dass das Bild oder der Ton gefälscht wurde.
Eine weitere Technik, die verwendet werden kann, ist die Suche nach „umgekehrtem Bild“ bei Google oder anderen Suchmaschinen, um die Quelle des Originalbilds zu ermitteln.
Die letzte Lektion lautet: Glauben Sie nicht blind, was Sie sehen, die Kamera (oder KI) kann lügen!
Deepfakes stellen eine große Bedrohung für Prominente und Politiker dar
Dr. Nguyen Van Thang Long, Dozent, Fakultät für Kommunikation und Design, RMIT University :
Angesichts der zunehmenden Verbreitung von Fake News durch Deepfakes müssen die Medienteams von Prominenten und Politikern über Ressourcen verfügen, um Fake News zu überwachen und umgehend darauf zu reagieren bzw. Falschmeldungen kontinuierlich zu korrigieren.
Werden Deepfakes systematisch mit organisierten Formen der „schmutzigen PR“ kombiniert, wird diese Aufgabe noch schwieriger, da sich dann widersprüchliche Informationen verbreiten und Fake News und negative Nachrichten immer häufiger verbreitet werden als positive Nachrichten.
Wenn Einzelpersonen Nachrichten in sozialen Netzwerken sehen, haben sie normalerweise die Angewohnheit, Informationen über offizielle Medienkanäle zu bestätigen.
Angesichts der Flut an Deepfake-Inhalten in den sozialen Medien wird es zunehmend schwieriger und zeitaufwändiger, die Genauigkeit der Mainstream-Nachrichten zu überprüfen. Dies erfordert umfassende Recherchen und Überprüfungstechniken.
Je länger wir mit der Überprüfung von Nachrichten und Quellen warten, desto wahrscheinlicher ist es, dass sich aufgrund der hohen Geschwindigkeit, mit der in den sozialen Medien Informationen geteilt und kommentiert werden, falsche, erfundene oder irreführende Informationen verbreiten.
Dies verschärft das zugrunde liegende Problem und kann zu sozialen Unruhen führen, insbesondere wenn es um Inhalte mit politischen Äußerungen, Religion, Geschlecht, Geschäftsstrategien oder makroökonomischen Fragen geht.
Im Zusammenhang mit der Verbreitung von Deepfakes besteht die wirksamste Strategie zum Risikomanagement nach wie vor darin, konsistente Kommunikationskanäle zwischen Unternehmen, Prominenten, Politikern und wichtigen Interessengruppen wie Fans, Presse, Communities und Mitarbeitern über beliebte Social-Media-Plattformen, Websites oder persönliche Treffen aufrechtzuerhalten.
Der verstärkte Einsatz von KI bringt sowohl Vorteile als auch unerwartete neue Probleme mit sich. Illustrationsfoto. (Quelle: Freepik) |
Durch die Aufrechterhaltung dieser Kommunikationskanäle werden Informationen zu Deepfakes schneller empfangen, was eine rechtzeitige und wirksame Korrektur von Gerüchten ermöglicht und Fehlinformationen von vornherein aufdeckt.
Allerdings müssen sich Unternehmen, Prominente und Politiker Krisenmanagementszenarien speziell für Deepfakes überlegen. Beispielsweise wer die Ankündigung gemacht hat, über welche Medienkanäle, Kriterien für die Überprüfung von Informationen durch Beweise und seriöse Quellen, die Festlegung eines Zeitplans für die Aufklärung von Gerüchten und die Ausarbeitung einer Strategie zur Wiederherstellung des Rufs.
Mit einem gut vorbereiteten, methodischen Plan lässt sich eine Deepfake-Krise leichter bewältigen und mögliche unglückliche Folgen minimieren.
[Anzeige_2]
Quelle
Kommentar (0)