banner
Heim / Blog / Forscher baut Anti
Blog

Forscher baut Anti

Sep 01, 2023Sep 01, 2023

Will Knight, wired.com – 30. August 2023, 13:51 Uhr UTC

Im Mai veröffentlichte Sputnik International, ein staatliches russisches Medienunternehmen, eine Reihe von Tweets, in denen es die US-Außenpolitik scharf kritisierte und die Biden-Regierung angriff. Jedes führte zu einer knappen, aber gut formulierten Gegenargumentation von einem Konto namens CounterCloud, manchmal mit einem Link zu einem relevanten Nachrichten- oder Meinungsartikel. Es löste ähnliche Reaktionen auf Tweets der russischen Botschaft und chinesischer Nachrichtenagenturen aus, die die USA kritisierten.

Russische Kritik an den USA ist alles andere als ungewöhnlich, aber das Material, das CounterCloud zurückweist, ist: Die Tweets, die Artikel und sogar die Journalisten und Nachrichtenseiten wurden vollständig von Algorithmen der künstlichen Intelligenz erstellt, so die Person hinter dem Projekt, die sich nennt nennt Nea Paw und sagt, es solle die Gefahr massenhaft produzierter KI-Desinformation hervorheben. Paw hat die CounterCloud-Tweets und -Artikel nicht öffentlich gepostet, sondern sie WIRED zur Verfügung gestellt und außerdem ein Video produziert, in dem das Projekt beschrieben wird.

Paw behauptet, ein Cybersicherheitsexperte zu sein, der Anonymität bevorzugt, weil manche Leute das Projekt für unverantwortlich halten könnten. Die CounterCloud-Kampagne, die sich gegen russische Nachrichten richtet, wurde mit der Textgenerierungstechnologie von OpenAI, wie sie hinter ChatGPT steckt, und anderen leicht zugänglichen KI-Tools zum Generieren von Fotos und Illustrationen erstellt, sagt Paw, und kostete insgesamt etwa 400 US-Dollar.

„Ich glaube nicht, dass es dafür ein Allheilmittel gibt, genauso wie es kein Allheilmittel für Phishing-Angriffe, Spam oder Social Engineering gibt“, sagt Paw in einer E-Mail. Es sind Abhilfemaßnahmen möglich, etwa indem Benutzer dazu erzogen werden, auf manipulative KI-generierte Inhalte zu achten, generative KI-Systeme dazu zu bringen, Missbrauch zu blockieren, oder Browser mit KI-Erkennungstools auszustatten. „Aber ich denke, keines dieser Dinge ist wirklich elegant oder billig oder besonders effektiv“, sagt Paw.

In den letzten Jahren haben Desinformationsforscher davor gewarnt, dass KI-Sprachmodelle verwendet werden könnten, um hochgradig personalisierte Propagandakampagnen zu erstellen und Social-Media-Konten zu betreiben, die auf raffinierte Weise mit Benutzern interagieren.

Laut Renee DiResta, technischer Forschungsmanager beim Stanford Internet Observatory, das Informationskampagnen verfolgt, seien die im Rahmen des CounterCloud-Projekts erstellten Artikel und Journalistenprofile ziemlich überzeugend.

„Neben Regierungsakteuren werden auch Social-Media-Management-Agenturen und Söldner, die Einflussnahmedienste anbieten, diese Tools zweifellos nutzen und in ihre Arbeitsabläufe integrieren“, sagt DiResta. Es sei eine Herausforderung, gefälschte Inhalte weithin zu verbreiten und zu teilen, aber dies könne erreicht werden, indem einflussreiche Benutzer dafür bezahlt würden, sie zu teilen, fügt sie hinzu.

Es sind bereits Hinweise auf KI-gestützte Online-Desinformationskampagnen aufgetaucht. Akademische Forscher haben kürzlich ein grobes, kryptowährungstreibendes Botnetz entdeckt, das offenbar von ChatGPT betrieben wird. Das Team sagte, die Entdeckung lege nahe, dass die KI hinter dem Chatbot wahrscheinlich bereits für anspruchsvollere Informationskampagnen verwendet werde.

Auch legitime politische Kampagnen haben sich im Vorfeld der US-Präsidentschaftswahlen 2024 dem Einsatz von KI zugewandt. Im April produzierte das Republikanische Nationalkomitee ein Video, in dem er Joe Biden angriff und gefälschte, KI-generierte Bilder enthielt. Und im Juni fügte ein mit Ron Desantis in Verbindung stehender Social-Media-Account KI-generierte Bilder in ein Video ein, das Donald Trump diskreditieren sollte. Die Bundeswahlkommission hat angekündigt, die Verwendung von Deepfakes in politischen Anzeigen einzuschränken.

Micah Musser, ein Forscher, der das Desinformationspotenzial von KI-Sprachmodellen untersucht hat, geht davon aus, dass politische Mainstream-Kampagnen versuchen werden, Sprachmodelle zu nutzen, um Werbeinhalte, Spenden-E-Mails oder Angriffsanzeigen zu generieren. „Es ist gerade eine völlig unsichere Zeit, in der nicht wirklich klar ist, was die Normen sind“, sagt er.

Viele KI-generierte Texte bleiben ziemlich allgemein gehalten und leicht zu erkennen, sagt Musser. Aber wenn Menschen KI-generierte Inhalte verfeinern und Desinformation verbreiten, könnte dies sehr effektiv sein und es wäre fast unmöglich, auf den Einsatz automatisierter Filter zu verzichten, sagt er.

Der CEO von OpenAI, Sam Altman, sagte letzten Monat in einem Tweet, er sei besorgt, dass die künstliche Intelligenz seines Unternehmens dazu genutzt werden könnte, maßgeschneiderte, automatisierte Desinformation in großem Umfang zu erzeugen.

Als OpenAI seine Textgenerierungstechnologie erstmals über eine API verfügbar machte, verbot es jegliche politische Nutzung. Im März dieses Jahres aktualisierte das Unternehmen jedoch seine Richtlinie, um die Nutzung zur Massenproduktion von Nachrichten für bestimmte Bevölkerungsgruppen zu verbieten. Ein aktueller Artikel der Washington Post legt nahe, dass GPT selbst die Generierung solchen Materials nicht blockiert.

Kim Malfacini, Leiterin der Produktpolitik bei OpenAI, sagt, das Unternehmen untersuche, wie seine Textgenerierungstechnologie für politische Zwecke genutzt werde. Die Menschen seien es noch nicht gewohnt, davon auszugehen, dass Inhalte, die sie sehen, möglicherweise KI-generiert seien, sagt sie. „Es ist wahrscheinlich, dass der Einsatz von KI-Tools in einer Vielzahl von Branchen nur noch zunehmen wird und die Gesellschaft sich darauf einstellen wird“, sagt Malfacini. „Aber im Moment denke ich, dass die Leute immer noch mit der Aktualisierung beschäftigt sind.“

Da mittlerweile eine Vielzahl ähnlicher KI-Tools weit verbreitet sind, darunter auch Open-Source-Modelle, auf denen mit wenigen Einschränkungen aufgebaut werden kann, sollten sich Wähler eher früher als später mit dem Einsatz von KI in der Politik vertraut machen.

Diese Geschichte erschien ursprünglich auf wired.com.