Aktuelle KI-Anwendungen können falsche Gesichter erstellen
Laut AP, die sich gestern auf einen Bericht dieser Organisation berief, haben viele Menschen KI genutzt, um die Gesichter echter Menschen in Nacktbilder oder -videos einzufügen, und sogar selbst falsche Gesichter entworfen, um pornografische „Werke“ zu erstellen.
Wenn dem nicht entgegengewirkt wird, könnten Milliarden gefälschter Bilder es Ermittlern erschweren, Kinder zu retten, die wirklich in Gefahr sind. Böswillige Akteure könnten diese Bilder auch nutzen, um sie an Dritte zu verkaufen oder Opfer zu erpressen.
Laut Euronews sind die meisten von KI generierten Bilder von sexuellem Kindesmissbrauch nach geltendem Recht in den USA und Großbritannien illegal. Es ist jedoch unklar, ob die Strafverfolgungsbehörden über die Mittel verfügen, dies zu verhindern.
[Anzeige_2]
Quellenlink
Kommentar (0)