Deepfake-Gefahr im US-Wahlkampf
Gefälschter Biden-Anruf löst neue Sorge um KI-Fakes aus
In den automatisierten Anrufen rief eine Stimme, die der von Biden zum Verwechseln ähnlich klang, Demokraten in New Hampshire auf, nicht an den Vorwahlen in dem US-Bundesstaat teilzunehmen. Solche sogenannten Robocalls sind ein gängiges Wahlkampf-Instrument in den USA. Die Absender-Informationen bei den Anrufen wurden ebenfalls gefälscht, so dass sie von einem politischen Komitee von Bidens Demokratischer Partei zu kommen schienen, wie die Generalstaatsanwaltschaft von New Hampshire am Montag mitteilte.
Software auf Basis Künstlicher IntelligenzKünstlicher Intelligenz kann mithilfe von Tonaufnahmen darauf trainiert werden, beliebige Sätze mit Stimmen bestimmter Personen auszusprechen. Robocalls seien ein attraktives Ziel für solche Manipulationen, da sie schwer zu überwachen seien, sagte der amerikanische Politikexperte Ian Bremmer am Montag im US-Sender CNBC. Auch online sei es relative einfach, mit Hilfe einer "Armee aus Bots" falsche Informationen an viele Leute zu verteilen, warnte er. Alles zu Künstliche Intelligenz auf CIO.de
Befürchtungen gibt es auch rund um die Möglichkeit, mithilfe von Software gezielt Bilder - und inzwischen auch kurze Videos - mit beliebigen Inhalten zu erzeugen. Bisher sieht man den künstlich generierten Aufnahmen oft Fehler an, doch die Technologie wird schnell immer besser. (dpa/jm/rs)