Partner von:
Anzeige

Krieg der Maschinen: Ausgerechnet Bots können dabei helfen, Fake News von Bots zu erkennen

Künstliche Intelligenz im Einsatz gegen Künstliche Intelligenz
Künstliche Intelligenz im Einsatz gegen Künstliche Intelligenz ©Foto: fotolia/ ryzhi

Wenn Künstliche Intelligenz täuschend echte Fake News am Fließband produziert, ist das nicht nur für Medienmacher ein Grund zu Sorge. Menschen fiel es bei von Bots produzierten Artikeln bislang schwer, auf Anhieb Ausgedachtes von Fundiertem zu unterschieden. Doch Forscher haben ein Tool entwickelt, das die KI mit ihren eigenen Waffen schlagen könnte.

Anzeige

Autor: Lena Rymkiewitsch

Jüngst gab das kalifornische Startup OpenAI bekannt, ein Sprachmodell entwickelt zu haben (MEEDIA berichtete), das auf Basis von Millionen Links täuschend echte, aber komplett erfundene Artikel produziert. Das Besondere: Das Modell GPT-2 kann in natürlicher Sprache plausibel klingende Texte so formulieren, dass es von menschlichen Texten kaum zu unterscheiden sind. Aus Angst, dass das Sprachmodell zur Massenproduktion von Fehlinformationen missbraucht werden könnte, hielt sich OpenAI mit der Veröffentlichung bislang zurück.

In einem neuen Experiment untersuchten Forscher des renommierten MIT-IBM Watson AI Lab und von Harvard nun, ob die gleichen Sprachmodelle, die solch überzeugende Texte schreiben, sich auch zur Erkennung von Fake News eignen.

Tool scannt Text Wort für Wort

Um die Idee dahinter zu verstehen, muss man wissen, wie Bots Texte generieren. Die Sprachmodelle erzeugen Sätze, indem sie das nächste Wort in einer Textsequenz vorhersagen. Wenn man also die meisten Wörter in einer bestimmten Passage leicht vorhersagen kann, wurde der Text höchstwahrscheinlich von einem Bot geschrieben. Forscher entwickelten ein interaktives Tool, welches auf der öffentlich zugänglichen, “heruntergestuften” Version von OpenAI basiert.

So sieht im Anschluss der gescannte Text aus

Dieses unterteilt einzelne Wörter einer Textpassage in verschiedene Farben. Grün, Gelb und Rot zeigen eine Abnahme der Vorhersagbarkeit an. Ist ein Wort in violett eingefärbt, konnte es höchstwahrscheinlich nicht vorhergesagt werden. Je höher der Anteil roter und violetter Wörter, desto größer ist die Chance, dass die Textpassage von einem Menschen geschrieben wurde. Je höher der Anteil grüner und gelber Wörter, desto wahrscheinlicher wurde der Text von einem Bot generiert.

Anzeige

Was sagt das über den Bot von OpenAI aus?

Bei der Untersuchung von GPT-2 Texten fanden Forscher nun heraus, dass diese Passagen fast vollständig in Grün und Gelb erschienen. Wissenschaftliche Texte, die von Menschen geschrieben waren, waren deutlich stärker violett eingefärbt. Die Maschine erkannte also die Maschine hinter dem Artikel. Ein Pluspunkt für das Sprachmodell, besorgniserregend für alle anderen.

Doch ganz ausgereift scheint das Tool zum Aufspüren von Bot-Texten noch nicht zu sein: Die KI-Bloggerin Janelle Shane fütterte das Tool mit eine Mix unterschiedlicher Textpassagen mehrerer Bots – darunter auch ein Modell, mit dem sich Amazon-Rezensionen faken lassen. Das Ergebnis: Der Artikel wurde von dem Forscher-Tool verstärkt Rot, Gelb und Violett markiert – was eigentlich auf eine menschliche Autorenschaft schließen ließe.

Angst vor kriminellem Einsatz

Der Vorstoß von OpenAI stößt auf wenig Begeisterung in der Forschergemeinde: “Sie haben viel Budget, und sie produzieren jede eine Menge aufwändig klingende Spielereien”, zitiert die BBC Benjamin Recht, Professor für Informatik an der UC Berkeley. Andere Wissenschaftler befürchten, dass eine solche Technologie ein schlechtes Licht auf akademische Forschung im KI-Segment wirft.

Brandie Nonnecke, Direktorin des Berkeleys Citris Policy Lab, das sich mit gesellschaftlichen Auswirkungen von Technologien beschäftigt, hält solche Fehlinformationen für unvermeidlich. “Es steht außer Frage, ob Kriminelle die KI nutzen werden, um überzeugende gefälschte Nachrichtenartikel und Deepfakes zu erstellen, sie werden es”, sagte sie der BBC. Ihrer Meinung nach sollte sich die Debatte stärker auf Plattformen wie Facebook konzentrieren, auf denen sie verbreitet werden könnte. Vor allem Google dürfte es schwer fallen, die plausibel klingenden Texte, die sich aus Informationen aus Millionen anderer Webseiten zusammensetzen, als Fakes zu entlarven.

Keine Neuigkeiten aus der Medien-Branche mehr verpassen: Abonnieren Sie kostenlos die MEEDIA-Newsletter und bleiben Sie über alle aktuellen Entwicklungen auf dem Laufenden.

Anzeige

Mehr zum Thema

Anzeige
Anzeige
Werben auf MEEDIA
Meedia

Meedia