Partner von:
Anzeige

Den Fake-News-Bot, von dem Forscher gewarnt haben, kann jetzt jeder ausprobieren

meedia-ki-optik.jpg
©Foto: Fotolia/ Montage: MEEDIA

Vor einiger Zeit ließ eine Ankündigung Forscher und Journalisten gleichermaßen aufhorchen: Forscher hatten einen Bot entwickelt, der täuschend echte Fake-News schreiben kann – und warnten gleichzeitig davor. Nun kann jeder den Fake-News-Bot ausprobieren.

Anzeige

Entwickelt hatten den Content-Golem die Forscher des kalifornischen Startups OpenAI. Eben jener Non-Profit-Organisation, die der Tesla-CEO Elon Musk und Facebook-Investor Peter Thiel mit Millionen Dollar unterstützen. Das Team hat nach eigenen Angaben einen bedeutsamen Entwicklungssprung beim Machine Learning hingelegt. Ihr System ist in der Lage, in natürlicher Sprache mit nur geringem menschlichen Input, plausibel klingende Texte zu formulieren.

In einem Research Paper mit dem Titel “Better Language Models and Their Implications” hatten die Entwickler ihre Fortschritte bei der Spracherkennung und -gestaltung veröffentlicht. Was ungewöhnlich ist: Sie äußerten auch große Bedenken. Allen voran, dass solche Tools dafür missbraucht werden könnten, um massenhaft glaubhafte Fake-News zu produzieren. Aus diesem Grund wollte man die Technologie der Öffentlichkeit nicht zugänglich machen.

Auf einen Plausch mit der KI

Allerdings ist das nun doch passiert – wenn auch in abgeschwächter Form. Auf TalktoTransformer.com kann nun jeder die Künstliche Intelligenz mit Input füttern und dabei beobachten, wie sie sich Geschichten ausdenkt, Dialoge fortführt oder To-Do-Listen schreibt.

Hinter der Webseite steht Adam King, ein kanadischer Entwickler. Die Idee: Nutzer sollen die Berührungsängste mit der KI abbauen und für das Potenzial der Technologie begeistert werden. Alles, was es braucht, sind ein paar Worte oder Zeilen Text, den Rest erledigt der Bot.

TheVerge resümiert: “Auf der einen Seite ist das Modell unglaublich flexibel. Es ist in der Lage, eine Vielzahl von Eingaben zu erkennen, von Nachrichtenartikeln und Geschichten bis hin zu Songtexten, Gedichten, Rezepten, Code und HTML. Es kann sogar bekannte Charaktere aus Franchises, wie Harry Potter und Herr der Ringe, identifizieren.”

Charaktere verschwinden, Gespräche führen ins Leere

Gleichzeitig merke man schnell, dass das System auf einer grundlegenden Ebene weder die Sprache noch die Welt im Allgemeinen verstehe. Der erzeugte Text weise eine oberflächliche Struktur auf, aber keine grundlegende – wie man es etwa von einem journalistischen Text erwarten würde.

Anzeige

Wenn man die KI zum Beispiel Geschichten schreiben lassen würde, würden Charaktere zufällig erscheinen und wieder verschwinden, Dialoge würden mitunter ziellos von Thema zu Thema driften.

Zum besseren Verständnis: Gefüttert wird der Bot mit Informationen aus über acht Millionen Webseiten, auf die er zugreift. Anstatt aber wahllos Informationen zu recherchieren, beruft sich die KI in erster Linie auf Seiten, die bei Reddit gepostet wurden. Und wiederum nur auf Links, die einen “Karma”-Score von über 3 haben – was bedeutet, dass mindestens drei Menschen den Inhalt aus irgendeinem Grund für wertvoll befunden haben

Krimineller Nutzen steht für Forscher außer Frage

Dabei war die Angst in der Forschergemeinde nach der Ankündigung vor einigen Wochen zunächst groß: “Sie haben viel Budget, und sie produzieren jede eine Menge aufwändig klingende Spielereien”, zitierte die BBC die Kritik von Benjamin Recht, Professor für Informatik an der UC Berkeley, an den Forschungsergebnissen von OpenAI.

Andere Wissenschaftler befürchten, dass eine solche Technologie ein schlechtes Licht auf die akademische Forschung im KI-Segment wirft. Brandie Nonnecke, Direktorin des Berkeleys Citris Policy Lab, das sich mit gesellschaftlichen Auswirkungen von Technologien beschäftigt, hält solche die Verbreitung von Fehlinformationen durch eine derartige Technologie für unvermeidlich. “Es steht außer Frage, dass Kriminelle die KI nutzen werden, um überzeugende gefälschte Nachrichtenartikel und Deepfakes zu erstellen, sie werden es”, sagte sie der BBC.

Ihrer Meinung nach sollte sich die Debatte stärker auf Plattformen wie Facebook konzentrieren, auf denen sie verbreitet werden könnte. Vor allem Google dürfte es schwerfallen, die plausibel klingenden Texte, die sich aus Informationen aus Millionen anderer Webseiten zusammensetzen, als Fakes zu entlarven.

Nun scheint, auch wenn es sich freilich um eine abgeschwächte, vereinfachte Version einer mächtigen KI handelt, die große Panik etwas unbegründet. Dennoch: Beeindruckend ist die Technologie allemal – zumal sie künftig das Potenzial hat, ebenfalls durch KI erzeugte Fake News verlässlich zu erkennen.

Keine Neuigkeiten aus der Medien-Branche mehr verpassen: Abonnieren Sie kostenlos die MEEDIA-Newsletter und bleiben Sie über alle aktuellen Entwicklungen auf dem Laufenden.

Anzeige

Mehr zum Thema

Anzeige
Anzeige
Werben auf MEEDIA
Meedia

Meedia