Die Ankündigung zielt auf den Trend zu "Deepfake"-Videos ab, die mit Bearbeitungsprogrammen manipuliert wurden und den Betrachter überzeugend täuschen können. Zuletzt hatten vor allem "Deepfake"-Fälle für Schlagzeilen gesorgt, die Politiker betrafen.
Twitter erklärte, man werde in bestimmten Fällen Videos kennzeichnen, die "signifikant und betrügerisch verändert oder gefälscht" wurden. Außerdem versuche man, Videos zu entfernen, die die öffentliche Sicherheit beeinträchtigen oder "ernsthaften Schaden" verursachten.
User müssen zwischen "echt" und "erfunden" unterscheiden können
Das Thema hatte im Vorfeld der US-Präsidentschaftswahlen im November an Aufmerksamkeit gewonnen, nachdem ein Video der Top-Demokratin Nancy Pelosi über Twitter und andere Netzwerke verbreitet wurde, in dem die Sprecherin des Repräsentantenhauses bei einer Rede zu lallen scheint. Dieser Effekt wurde durch eine nachträgliche Manipulation der Abspielgeschwindigkeit durch eine Videobearbeitungssoftware erzielt.
Die Anwender sollten in der Lage sein, zuverlässige Informationen auf Twitter zu finden, erklärte das Unternehmen. "Das bedeutet, dass Sie verstehen müssen, ob der Inhalt, den Sie sehen, echt oder erfunden ist, und dass Sie die Möglichkeit haben müssen, mehr Kontext über das, was Sie auf Twitter sehen, zu finden". (dpa/rs)