Wie KI den amerikanischen Wahlkampf verändert (FAZ 22.10.24)

Von Sofia Dreisbach

 

Im ersten amerikanischen KI-Wahlkampf ist die befürchtete Flut von Desinformationen durch Deepfakes bislang ausgeblieben. Doch Künstliche Intelligenz birgt viele Gefahren. Und der Kongress hat noch keine Antworten darauf gefunden.

Vor einigen Wochen verbreitete Techmilliardär Elon Musk auf seiner Plattform X ein Bild von Kamala Harris, auf dem sie eine rote Uniform mit goldenen Schulterklappen trägt. Auf ihrer Kappe prangen Hammer und Sichel. Musk kommentierte dazu, die demokratische Präsidentschaftskandidatin wolle vom ersten Tag an als „kommunistische Diktatorin“ regieren, und fragte: „Könnt ihr glauben, dass sie dieses Outfit trägt?!“ Das Bild ist nicht echt, sondern mithilfe Künstlicher Intelligenz (KI) entstanden. Musk stellte das jedoch nicht klar. Stattdessen erweckte der Trump-Unterstützer den Eindruck, Harris trage kommunistische Sym­bole.

Bilder wie dieses sind ein Phänomen des ersten amerikanischen Wahlkampfs, in dem Künstliche Intelligenz einer breiten Masse zugänglich ist. In dem computergenerierte Inhalte mit Falschinformationen kursieren, ohne dass die amerikanische Politik bislang eine Antwort darauf gefunden hat, wie man sich dagegen wappnet. Anfang des Jahres warnten Fachleute vor einer Flut an Desinformation, die den Amerikanern bis zum 5. November drohe. Drei Wochen vor der Wahl scheint es, als sei es nicht zum Äußersten gekommen. Doch von grundsätzlicher Entwarnung kann keine Rede sein.

Techunternehmen begnügen sich mit Symbolpolitik

„Die Zahl von Deepfakes ist erheblich gestiegen“, sagt Olaf Groth, Fachmann für Künstliche Intelligenz an der Universität Berkeley. Insgesamt seien in diesem Jahr bislang dreimal mehr computergenerierte, aber täuschend echte Bilder, Videos und Audiodateien registriert worden, die eine Gefahr für die Wahl darstellten. Umso wichtiger sei es, entsprechende Inhalte künftig zu kennzeichnen, sagt Groth, mit Wasserzeichen oder technisch auszulesenden Hinweisen etwa.

Große Techunternehmen wie Meta, X und Google unterzeichneten im Frühjahr eine Vereinbarung zum Kampf gegen Wahlbeeinflussung durch KI. Diese hat jedoch eher symbolischen Charakter und beschäftigt sich nicht mit dem Entfernen von Deepfakes, sondern mit dem Erkennen und Kennzeichnen solcher Beiträge. Wie Axios am Donnerstag berichtete, wird Google nach der Wahl am 5. November jegliche Wahlwerbung blockieren, um Falschmeldungen zu unterbinden.

Wie ein Deepfake aussehen kann, lernten die Amerikaner im Januar eindrücklich. Damals schickte ein Mann kurz vor der Vorwahl in New Hampshire eine Tonaufnahme an Tausende Wähler, in der vermeintlich Präsident Joe Biden sagte, sie sollten nicht wählen gehen, sondern ihre Stimme für November aufheben. Für den Ausgang der Vorwahl war das unerheblich, weil Biden wegen innerparteilichen Streitereien ohnehin nicht auf dem Stimmzettel stand. Doch Fachmann Groth sieht eine grundsätzliche Ge­fahr. Der durchschnittliche Wähler habe keine Zeit oder nicht den Willen, die Echtheit einer solchen Botschaft zu überprüfen. Das gelte für inneramerikanische wie ausländische Einflussnahme und wiege bei einem knappen Rennen umso schwerer.

Keine Regulierung auf Bundesebene

Dem Initiator des sogenannten Robocalls in New Hampshire, einem demokratischen Politikberater, droht eine mehrjährige Freiheitsstrafe wegen des Versuchs, Wähler von der Stimmabgabe ab­zu­halten und wegen der Imitation eines Kandidaten. Die Kommunikationsbehörde FCC verhängte außerdem eine Geldstrafe von sechs Millionen Dollar gegen ihn, weil er unter der Verwendung von KI illegale Anrufe dafür genutzt habe, um Fehlinformationen zu verbreiten.

Auf Bundesebene gibt es trotz parteiübergreifender Initiativen im Kongress bislang jedoch keine umfassenden Gesetze, die den Einsatz von Deepfakes und KI-Inhalten im Wahlkampf regulieren. Nach einer Klausurtagung mit Experten im vergangenen November warnte der demokratische Mehrheitsführer im Senat, Chuck Schumer, zwar vor den „schwerwiegenden Risiken“ für die Demokratie und die Integrität der Wahlen. Die Zeit dränge, es gelte, schnell zu handeln. Doch seither scheiterten mehrere Gesetzentwürfe am Widerstand der Republikaner im Senat. Sie warnen davor, derlei Regelungen könnten technische Neuerungen und Meinungsfreiheit behindern. Vor einigen Wochen äußerte Schumer nur noch vage, man werde sich „über die Wahl 2024 hinaus“ mit dem Thema beschäftigen.

Im Repräsentantenhaus steht ein angekündigter Bericht mit Handlungsempfehlungen zu dem Thema noch aus. Ein von Abgeordneten beider Parteien im September eingebrachter Gesetzentwurf befugte die Bundeswahlbehörde FEC dazu, den Einsatz von KI bei Wahlen ebenso zu regulieren wie andere Falschdarstellungen. Bislang beruft sich die vornehmlich für Wahlkampffinanzierung zuständige Behörde darauf, es sei nicht an ihr, diese Methoden im Wahlkampf zu verbieten. Vielmehr warte man auf Weisung aus dem Kongress. Bis dahin kümmere die FEC sich um alle „betrügerischen Falschdarstellungen“, unabhängig vom Medium.

Kommunistin Harris und Trump im Gefängnis

Drei Wochen vor der Wahl gibt es also keine einheitliche Antwort der Vereinigten Staaten auf KI-Eingriffe in den Wahlkampf. Gesetze, die gegen Desinformation durch Künstliche Intelligenz vorgehen, existieren nur in einzelnen Bundes­staaten. Die Verbraucherschutz­organisa­tion Public Citizen führt auf ihrer Web­site 18 von fünfzig amerikanischen Staa­ten auf, die die Verwendung von KI im Wahlkampf regulieren. Dabei geht es vor allem um Falschinformationen und Wahlmanipulation.

In Kalifornien etwa muss die Verwendung von KI in Wahlwerbung kenntlich gemacht werden. Außerdem ist die Verbreitung von Wahlkommunikation mit „inhaltlich irreführenden Inhalten“ 120 Tage vor und sechzig Tage nach einer Wahl verboten; gemeint sind Deepfakes. In Alabama ist es seit diesem Mai strafbar, im Wahlkampf wissentlich Deepfakes zu verbreiten, wenn diese nicht als solche gekennzeichnet sind und Einfluss auf die Wahl nehmen sollen. Bei einmaligem Verstoß kann dies mit bis zu einem Jahr Haft bestraft werden; danach gilt die Tat als Verbrechen mit bis zu fünf Jahren Freiheitsstrafe.

Die Kontrolle Künstlicher Intelligenz im Wahlkampf ist auch deswegen wichtig, weil die Skepsis der Amerikaner ge­genüber dem politischen System ohnehin hoch ist. Zu von den Republikanern befeuerten Gerüchten, es werde „wieder“ Wahlbetrug geben, kommen mitunter ausgeklügelte KI-Beiträge mit expliziten Falschinformationen. Neben Harris als Kommunistin kursieren in diesem Wahlkampf auch Bilder von Trump im Gefängnis. Der republikanische Präsidentschaftskandidat selbst verbreitete ein Fake­bild Taylor Swifts, mit dem der Popstar angeblich seine Unterstützung für ihn bekannt gab. Und die Republikaner veröffentlichten ein Video, in dem ein apokalyptisches Amerika unter Harris ge­zeigt wurde. Keiner dieser Inhalte ist wahr.

„Lügner haben einen doppelten Vorteil“

Doch selbst wenn solche Beiträge schnell als Arbeitsergebnis einer KI enttarnt werden können, macht sie das nicht unbedingt weniger gefährlich, warnen Beobachter. Trump etwa verwendete KI-Bilder für die von ihm verbreitete Lüge, Migranten äßen in einer Stadt in Ohio die Haustiere der Bewohner. Sie zeigten ihn, wie er mit zwei Kätzchen im Arm vor schwarzen Männern mit nacktem Oberkörper davonläuft. Sie zeigten ihn mit Dutzenden Katzen und Enten in einem Privatjet. Die Darstellungen bedienen rassistische Narrative mit vermeintlich humorvoller Darstellung. In der Realität führte Trumps dadurch verstärkte Falschbehauptung zu Morddrohungen und Schul­schließungen in Springfield, Ohio. Die Demokratin Harris verwendet KI laut ihrem Wahlkampfteam nur zur Daten­analyse und bei IT-Fragen.

Ein weiteres Phänomen der immer häufiger verwendeten Künstlichen Intelligenz ist die „Liar’s Dividend“, nach der Lügner oder Betrüger es sich zunutze machen können, dass es immer schwieriger wird, zwischen echten und falschen Inhalten zu unterscheiden. „Lügner haben einen doppelten Vorteil“, sagt Olaf Groth. Nicht nur könnten sie mit KI Falschinformationen verbreiten, sondern auch echte Inhalte unter Berufung darauf leugnen. „So nimmt die öffentliche Verwirrung noch weiter zu.“ Auch deswegen stünde man angesichts der Herausforderungen durch Künstliche Intelligenz erst ganz am Anfang.

 
FAZ vom DIENSTAG, 22. OKTOBER 2024 · NR. 246 · SEITE 3
 

Schreib‘ uns, wir freuen uns über Deine Nachricht!