Wie Künstliche Intelligenz unsere Wahrnehmung des Irankrieges manipuliert | Nr. 9003

Shownotes

Gefälschte Videos und Fotos, die von iranisch unterstützten Medien veröffentlicht werden, verbreiten sich über Plattformen wie X viral im Internet. Diese Form der Manipulation wird auch in anderen Konflikten und Kriegen weltweit eingesetzt.

Transkript anzeigen

00:00:00: Willkommen zum EpochThumbsPodcast mit dem Thema KI-generierte Propaganda.

00:00:04: Wie künstliche Intelligenz unsere Wahrnehmung des Iran Krieges manipuliert.

00:00:10: Ein Artikel von Troy Myers vom vierzehnten März, zwanzig sechsundzwanzig am Mikrofon Alexander Sieber.

00:00:16: gefälschte Videos und Fotos die von iranisch unterstützten Medien veröffentlicht werden verbreiten sich über Plattformen wie X viral im Internet.

00:00:24: diese Form der Manipulation wird auch in anderen Konflikten und Kriegen weltweit eingesetzt.

00:00:30: Mit der Verschärfung des Krieges, der USA und Israels gegen den Iran tauchen im Internet vermehrt mithilfe von KI erstellte Inhalte auf die irreführende oder gar erfundene Narrative befeuern.

00:00:42: Vorgetäuschte Bilder iranische Angriffe.

00:00:44: Iran-Nahee-Accounts behaupten fälschlicherweise das islamische Regime habe erfolgreiche Angriefe Stützpunkte und Truppen durchgeführt.

00:00:53: Mit Hilfe von KI-generierten Bildern und Videos soll die Öffentlichkeit von der Richtigkeit dieser Behauptungen überzeugt werden.

00:01:00: Dies ist das jüngste Beispiel für den zunehmenden Einsatz von KI in Kriegszeiten zur Verbreitung von falsche Informationen und zu Beeinflussung der öffentlichen Meinung.

00:01:09: Experten zufolge ist diese KI generierte Propaganda ein einfacher Weg, für Regierungen den Rückhalt in der Bevölkerung zu sichern um die eigene Macht auszubauen.

00:01:18: Gleichzeitig dienen sie dazu, die Opposition zu demonisieren.

00:01:21: In anderen Konflikten und Kriegen sei dieses Mittel bereits mit großem Erfolg eingesetzt

00:01:25: worden.".

00:01:26: In einem Fall von KI-Generiten-Inhalten behauptete der die iranische Zeitung Tehran Times, der Iran habe amerikanische Radaranlagen auf einem US-Marine-Stützpunkt in Qatar zerstört.

00:01:37: Das Medium veröffentlicht dem XXIII.

00:01:39: Februar auf Ex-Satellitenbilder im Vergleich mit den Bildunterschriften Eilmeldungen – und vorher versus nachher.

00:01:46: Das Nachherbild zeigte Schäden an mehreren Gebäuden und schien auf echten Satellitenbildern des Marine-Stützpunkts in Manama, in Bachrein vom Februar zwanzig fünfundzwanzig zu basieren.

00:01:56: Epoch Times bestätigte das ursprüngliche Bild – ein Satellitenfoto mit Hilfe von Google Earth.

00:02:02: Dabei fielen mehrere Logikfehler und Diskrepanzen zwischen den vorheren und der nachherbildenden auf.

00:02:07: So stimmten die Gebäude an mehreren Stellen nicht beeilen.

00:02:10: Auch waren auf beiden Bildern mehrere Fahrzeuge an exakt denselben Stellen geparkt, obwohl die Aufnahmen angeblich ein Jahr auseinanderlagen.

00:02:21: Ein von Google entwickeltes Programm namens SynthID kann erkennen, ob die KI-Tools des Unternehmens eine Video-, Foto oder Audiodatei erstellt oder verändert haben.

00:02:31: Im Fall des iranischen Angriffs auf den US Marine-Stützpunkt stellt es Synth ID fest, dass die Nachherbilder mit KI Tools von Google generiert oder bearbeitet worden waren.

00:02:42: Die Teheran-Times veröffentlichte am sechsten März weitere Fotos und behauptete, es habe Zerstörung und Brände auf einem US-Stützpunkt in den Vereinigten Arabischen Emiraten gegeben.

00:02:52: SynthID konnte die Fotos nicht als von Google KI-Tools erstellt oder bearbeitet identifizieren – GROC der in ex integrierte KI Chatbot erklärte jedoch «die Bilderwiesen deutlich anzeichen dafür auf, dass sie KI generiert oder zumindest stark bearbeitet worden sein.».

00:03:07: Grogg fand keine passenden Beiträge oder Artikel, die mit realen Ereignissen in Verbindung standen.

00:03:12: Das ist für dramatische Fotos die Schäden an einem amerikanischen Stützpunkt zeigen

00:03:16: ungewöhnlich.".

00:03:18: Der KI-Chatboard von X nannte mehrere Gründe, die für die Annahme sprechen, dass die Fotos KI generiert oder bearbeitet wurden – auf einem Foto sehr ein starker Regen zu sehen!

00:03:27: Das entspreche aber nicht dem tatsächlichen Zusammenspiel vom Niederschlag, Rauch und Feuer bei einem realenEreignis", so Groggg.

00:03:34: Zitat Übermäßig filmische Bildkomposition, unnatürlich gleichmäßige Flammenmuster und Rauchtichte ohne reale physikalische Unstimmigkeiten wurden ebenfalls festgestellt.

00:03:44: Auch fehlten Bildfehler wie Körnung, Streulicht oder schärfentiefen Varianz die für authentische Fotos typisch sind.

00:03:52: Visuelle Ungereimtheiten Es ist nicht immer klar woher die Falschmeldungen stammen.

00:03:57: Sie könnten von regierungsnahen Gruppen oder scheinbar zufälligen Nutzern kommen die dennoch falsche Narrative verbreiten.

00:04:04: Ein weiterer KI-generierter Beitrag, der von einem offenbar nicht mit dem regimeverbundenen Konto stammte, zeigte eine gewaltige Explosion auf einen internationalen Flughafen im irakischen Erbil in der Nähe eines US-Militärstützpunkts den der Iran angegriffen hatte.

00:04:18: Das Bild, das ein riesiges Feuer und eine vulkanartige schwarze Rauchsäule zeigte, schien von einem realen Foto inspiriert zu sein, dass eine deutlich geringere Rauchwolke über dem Flughafen zeigten.

00:04:29: SynthID entdeckte visuelle Ungereimtheiten in dem Bild und gab an, dass Google KI-Tools zur Generierung oder Bearbeitung des Fotos verwendet wurden.

00:04:38: Auch im Krieg zwischen Russland und der Ukraine sowie im zwölftägigen Krieg Israels gegen den Iran im vergangenen Sommer spielten KI-generierte Falschmeldungen eine Rolle, stellten ThinkTanks fest.

00:04:49: Zitat die Menge an KI generierten Inhalten verunreinigt die Informationslandschaft in Krisensituationen dieser Art in einem erschreckenden Ausmaß", sagte Melanie Smith vom Think Tank Institute for Strategic Dialogue gegenüber der Nachrichtenagentur Associated Press.

00:05:04: und weiter Der Zugang zu verifizierten und glaubwürdigen Informationen wird in Zeiten wie diesen immer schwieriger.

00:05:12: Desinformationen für Iraner ein akutes Problem.

00:05:15: In einem Bericht aus dem Jahr zwanzig-drehundzwanzig hob der Think Tank Center for Strategic and International Studies den Einfluss von KI auf den Israel Hamas Krieg hervor, die Verfasser erklärten, dass von Hamas nahen Akteuren genutzte Botkonten dazu dienten, die Narrative der Terrorgruppe zu verstärken.

00:05:32: Zitat.

00:05:32: Die Unterstützung Iran und die mutmaßliche Beteiligung Chinas und Russlands an der Verbreitung dieser Narrative deuten auf einen breiteren Trend hin, soziale Medien als Instrument der stellvertreter Kriegsführung einzusetzen und die Militärstrategie hin zu Kommunikationskampagnen zu verändern heißt es in dem Bericht.

00:05:51: Es ist unklar wie viele dieser KI generierten Desinformationen die iranische Bevölkerung erreichen da die Regierung eine Internetsperre verhängt hat.

00:05:59: Die Gruppe Witness, die mit Hilfe von Videos Menschenrechtsverletzungen dokumentiert, wies vergangenes Jahr daraufhin das KI-generierte Inhalte für die Iraner ein akutes Problem darstellten.

00:06:10: Zitat, Menschen sind oft nicht in der Lage die ihnen von staatlichen Akteuren oder Konfliktparteien übermittelten Informationen zu überprüfen.

00:06:17: Schrieben die Witness-Mitarbeiter Marsa Alamardani und Sam Gregory in einem Artikel für den Think Tank Carnegie Endowment for International Peace.

00:06:26: Dieses Problem verschärft sich wenn iranische Staatsmedien falsche Narrative verbreiten wie es im aktuellen Konflikterfall ist.

00:06:33: Quellen greifen mitunter dann auf solche Regierungspropagande zurück mithilfe neuer Technologien Falschmeldungen eindämmen.

00:06:41: Während die KI in den vergangenen Jahren rasante Fortschritte gemacht hat und KI-Werkzeuge zugänglicher geworden sind, und dank sozialer Medien im beispiellosen Tempo immer weiterverbreitet werden, entwickeln sich auch Technologin zur Eindämpung von Falschmaldungen rasant weiter.

00:06:56: X bietet die Funktion Community Notes.

00:06:59: Damit können verifizierte Nutzer direkt auf Behauptungen in Beiträge eingehen oder wichtige Kontextinformationen bzw.

00:07:06: fehlende Angaben ergänzen.

00:07:08: Jeder Ex-Nutzer kann die Community Notes als hilfreich bewerten und die Gründe dafür angeben.

00:07:12: Diese Notizen erscheinen häufig unter Beiträgen zum aktuellen Konflikt im Iran.

00:07:17: Die iranischen Revolutionsgarten, IRGC, hatten erklärt den amerikanischen Flugzeugträger USS Abraham Lincoln mit ballistischen Raketen angegriffen zu haben.

00:07:27: Online-Accounts die scheinbar nicht mit offiziellen iranischem Quellen in Verbindung stehen untermauerten die Behauptungen der IRGCC anschließend mit gefälschten Videomaterialen.

00:07:36: Zitat Iranische Raketen haben den Flugzeugträger USS Abram Lincoln im persischen Golf versenkt hieß es in einem solchen Account, den einen Beitrag auf X der über acht Millionen Aufruf erzielte.

00:07:48: Eine Community Note unter dem Beitrag stellte klar dass das Videomaterial tatsächlich aus einem Videospiel stammte.

00:07:55: Nikita Beer, Produktchef von X gab am dritten März bekannt das die Plattform ihre Richtlinien überarbeitet hat.

00:08:01: Wer nun KI-generierte Videos von bewaffneten Konflikten veröffentlicht ohne dies offen zu legen wird für neunzig Tage vom Creator Revenue Sharing Programm mit dem Nutzeeinnahmen generieren können der Plattform ausgeschlossen.

00:08:14: beer kündigte auf X an dass jeder weitere Verstoß zu einer dauerhaften Sperre führe.

00:08:19: Sarah Rogers, Staatssekretärin für Öffentlichkeitsarbeit im US-Ausministerium begrüßte den Schritt.

00:08:25: Man benötigt keinen Wahrheitsministerium um die Wahrheit im Internet zu fördern, schrieb sie auf X Im Nebel des Krieges ohne ein klares Signal für die Realität.

00:08:35: Google und Meta reagierten bis zum Zeitpunkt der Veröffentlichung nicht auf Anfragen der Epoch Times, zu weiteren Initiativen gegen KI gestützte Desinformation aus dem Iran.

00:08:44: Experten raten zur Bachsamkeit – und zu einem kritischen Umgang mit Informationen vor allem weil die KI-Technologie eine Unterscheidung zwischen echten und gefälschten Fotos und Videos kaum möglich macht!

00:08:55: Sie empfehlen Quellen wie Medien, unabhängige Journalisten, Regierungsstellen, Wissenschaftler, Forscher oder auch gemeinnützige Organisationen zu finden die Informationen, Bilder und Videos verifizieren können.

00:09:08: Ein Wasserzeichen sei ein eindeutiges Anzeichen für Manipulation an Videos oder Fotos.

00:09:13: Manchmal fügt ein KI-Generator der die Bilder erstellt hat es direkt dazu.

00:09:18: Diese Wasserzeichen könnten jedoch unkenntlich gemacht oder ausgeblendet werden.

00:09:22: So kann der Betrachter nicht erkennen, ob es sich um eine Fälschung handelt oder nicht.

00:09:26: Hier könne ein Programm wie Synth-ID hilfreich sein.

00:09:29: Diese Technologien haben jedoch ihre Grenzen.

00:09:31: Wie Ali Mardani und Gregory vergangenes Jahr feststellten liefern sie mit unter widersprüchliche

00:09:36: Ergebnisse.".

00:09:38: Ausgefählte Erkennungsmethoden können zu widersprüchlichen Ergebnissen führen.

00:09:43: Journalisten, Menschenrechtler und Zivilisten in Konfliktgebieten müssen sich daher im Nebel des Krieges zurechtfinden ohne ein klares Signal für die Realität zu haben – schrieben Sie!

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.