Anzeige

Fehler im System

Wie uns ein schreckliches Ereignis aus unserer digitalen Traumwelt riss

John Maeda ist Chief Experience Officer beim Beratungshaus Publicis Sapient – Foto: Publicis Sapient

Algorithmen wollen unsere Aufmerksamkeit, wollen uns einlullen. Doch manchmal passiert etwas, das uns aus den Interaktionsschleifen reißt – zum Glück, meint John Maeda, Chief Experience Officer bei Publicis Sapient. Ein Gastbeitrag

Anzeige

Es fühlt sich auf den ersten Blick sinnlos an, über die neuesten Tech-Gadgets zu diskutieren, während die Welt wegen der jüngsten tragischen Gewaltakte gegen die schwarze Bevölkerung in den USA in Flammen steht. Aber diese aufgeheizte Situation ist auch eine Chance – gerade für uns Technologen mit unserem Know-how darüber, wie Maschinen sprechen. Unsere kleine, digital privilegierte Community hat eine Verantwortung: Wir müssen unser Wissen einsetzen, um die Welt zum Positiven zu verändern. Der Tod von George Floyd sollte uns zum Nachdenken anregen, was wir mit unserem technologischen Privileg dafür leisten können. Gute Ideen und Initiativen gibt es zuhauf. Ich für meinen Teil werde mich gegen Rassismus stark machen, werde nicht in Apathie verfallen, sondern wach bleiben, um aktiv etwas gegen Diskriminierung auszurichten.

Aber seien wir ehrlich, wach zu bleiben ist gar nicht so einfach. Das Einzige, was wirklich immer wach und rund um die Uhr laufen kann, ist eine auf Rechenleistung basierende Maschine. Das Gehirn einer Maschine vermag unendlich Informationen aufzunehmen, ohne Toilettenpause oder Nickerchen, und ganz ohne Ermüdungserscheinungen. Und diese Kenntnisse werden eingesetzt, um unser Nutzerverhalten zu beeinflussen. In einer Studie aus dem Jahr 2013 enthüllte etwa Facebook, dass das Unternehmen Tests mit Nutzern durchführte, um herauszufinden, wie deren emotionaler Zustand durch das Zeigen verschiedener positiver oder negativer Inhalte verändert wird. Das Beachtenswerte dabei: Diese Tests liefen rein maschinen-basiert. Niemand musste den Probanden ein Papier mit Informationen zeigen. Es waren fleißige Roboter, die rund um die Uhr und voll automatisiert Inhalte im Blickfeld der Nutzer platzierten, egal welchen Bildschirm sie auch benutzten – Laptop, Tablet oder Smartphone. Vor den Informationen, die uns ein Computer zeigen möchte, gibt es kein Entkommen, es sei denn, man schaltet ihn oder jeglichen Bildschirm aus.

„Auf der Jagd nach Reichweite entsteht ein fast schon obszöner Grad an Viralität“

Maschinen sind Lernwunder – besonders für schlechte Nachrichten Maschinen lernen schnell. Menschen lernen langsam. Menschen lernen schnell Schlechtes. Maschinen lernen noch schneller Schlechtes vom Menschen – und verbreiten das dann auch rasant. Aber Maschinen können auch gute Informationen schnell distribuieren. Das ist jedoch hinsichtlich der Interaktionsrate nicht im Interesse der Maschinen. Denn schlechte Nachrichten funktionieren im Social Media-Umfeld einfach besser. Roboter sind so programmiert, dass sie laute, kontroverse Inhalte mit hohen Interaktionsraten verbreiten, was weitere Reaktionen hervorruft – ein Teufelskreis. Auf der Jagd nach Reichweite entsteht so ein fast schon obszöner Grad an Viralität. Es ist, als stünde man am Eingang einer Schlucht. Während man einen Jodler ausstößt, wachsen Hall und Echo ins Unermessliche, bis man gar nichts mehr versteht.

Mit der Pandemie hat sich diese Problematik noch einmal verschärft. Wir haben uns in unsere Schutzräume zurückgezogen und sind maximal auf unsere Bildschirme fixiert. Die zufälligen Interaktionen unserer physischen Welt sind vorerst verschwunden. Das ist problematisch, denn schlechte Nachrichten verbreiten sich heute nicht mehr nur mit der rasanten Geschwindigkeit des Internets – sie bekommen zurzeit auch unsere volle Aufmerksamkeit.

Videos brutaler Handlungen lassen sich unvermittelt global teilen. So wurden wir alle über die millionenfach automatisiert weiterverbreitete Nachricht Zeugen des tragischen Todes von George Floyd. Der hohe Grad an Transparenz hat im Fall der rassistisch motivierten Tat unerwartet ein moralisches Umdenken verursacht. Vielen Menschen war die Grausamkeit des alltäglichen Rassismus nicht bewusst. Die Tat hat uns einerseits an die Bildschirme gefesselt, andererseits aber auch abrupt zurück in die reale Welt gerissen. Denn die Realität ist der einzige Ort, an dem wir mit maximalem Nachdruck politische und gesellschaftliche Veränderungen einfordern können – selbst in gefährlichen Krisenzeiten.

Das Wunder des Systemfehlers

Das, was gerade passiert, ist wie ein unerwarteter, temporärer Programmierfehler. Denn eigentlich geht es ja bei der Verbreitung schlechter Nachrichten darum, unsere gesamte Aufmerksamkeit in endlosen Interaktionsschleifen vor dem Bildschirm zu binden und uns die Möglichkeiten zu nehmen, per Zufall auf Informationen zu stoßen, die unser Verständnis erweitern. Stattdessen wurden wir nun gezwungen, wach zu werden – wenigstens eine Zeit lang.

Es ist mir bewusst, dass viele Menschen schon bald wieder in einen apathischen Schlaf fallen werden, denn Roboter arbeiten rund um die Uhr daran, uns „einzulullen“. Ich frage mich aber, ob diejenigen, die Roboter konstruieren, die unseren Verstand kontrollieren und uns einschläfern wollen, stattdessen nicht Roboter entwickeln könnten, die uns wach halten? Ist denn das einzige Signal, das uns wirklich wachrütteln kann, der tragische Tod eines farbigen Mitmenschen? Die Antwort auf diese Frage ist von großer Bedeutung für unsere Zukunft. Nutzen wir die Chance und diskutieren!


John Maeda ist Chief Experience Officer beim Beratungshaus Publicis Sapient. Zudem ist er Herausgeber des kürzlich erschienen CX-Reports 2020.

Anzeige