Alle sprechen von Echtzeit-Journalismus. Dank des Internets ist es endlich möglich, live und unmittelbar von überall auf der Welt zu berichten. Jeder Smartphone-User hat potentiell die Möglichkeit, sich an ein Millionenpublikum zu richten. Doch in Zukunft entscheidet nicht die Geschwindigkeit, sondern der Zugang zu diesen Daten.
Längst nicht alle nutzen neue Medien gleich aktiv. Deshalb ist die eingangs genannte These selbstverständlich auch nur eine hypothetische Annahmen. Doch all jene Nutzer, die sich mit Posts, Tweets und Uploads als «Prosumer» betätigen, produzieren eine riesige Datenmenge. So werden zum Beispiel jede Sekunde über 1600 Tweets und 2.8 Millionen Mails verschickt.
Dass sich in dieser Fülle von Daten auch Fundstücke für journalistische Geschichten befinden, liegt auf der Hand. Obwohl diese Entwicklung noch in den Kinderschuhen steckt, haben sich in den vergangenen Jahren bereits Journalisten auf diese Echtzeitberichterstattung fokussiert. Einhergehend entwickelten sich Checklisten mit Tipps, wie diese Hülle an Daten und Informationen verifziert werden kann. Eine nicht zu unterschätzende Aufgabe von Journalisten, die mit digitalen Inhalten arbeiten.
Doch was folgt auf die Echtzeitberichterstattung?
Was wenn wir täglich noch mehr Daten produzieren und schliesslich den Überblick total verlieren? Längst können diese Informationsstücke nicht mehr manuell analysiert werden. Startups haben diese Marktnische entdeckt und Algorithmen entwickelt, die plötzlich aufflammende Informationen im Netz lokalisieren und auswerten. Ein solcher Dienst ist zum Beispiel Newswhip, ein Portal, das sich in erster Linie auf die Verbreitungsgeschwindigkeit von digitalen Geschichten konzentriert.
Solche Aggregatoren sind längst keine Neuigkeit mehr. Gerade im Zusammenhang mit Twitter und Facebook spriessen neue Analyse-Tools fast täglich wie Pilze aus dem Boden. Im deutschen Sprachraum standen diese Aggregatoren jüngst vor allem aufgrund des Leistungsschutzrechtes in der Diskussion. Dieses Recht will die gewerbliche Nutzung von Medieninhalten im Netz für Suchmaschinen und Aggregatoren kostenpflichtig machen. Über die Konsequenzen dieses Gesetzes streitet man sich in Deutschland noch immer.
Was allerdings nicht daran hindert, bereits über neue Formen der digitalen Berichterstattung nachzudenken. Und dazu kehren wir auf die anfangs genannte Datenflut zurück. Denn in Zukunft wird nicht mehr die Geschwindigkeit einer Information entscheiden, sondern der Zugang zu möglichst vielen auswertbaren Daten. Weshalb? Weil wir Menschen per se berechenbar sind. Wir lieben geregelte Abläufe, Durchschnitte und Messbares. Bereits 2010 kamen US-Wissenschaftler zum Schluss, dass 93% unseres Verhaltens voraussehbar sei.
Meine Daten helfen mir, in die Zukunft zu sehen
Dies macht es für Algorithmen und Software einfacher, unser Verhalten vorherzusehen. Es kommt nicht von ungefähr, dass im vergangenen US-Wahlkampf ein Statistiker den beiden Kontrahenten beinahe die Show stahl. Wer in Zukunft über das nötige statistische und analytische Wissen verfügt, kann ganze Gesellschaftsvorgänge mit ziemlicher erstaunlicher Genauigkeit voraussagen. In der Fachsprache heisst diese Form der Zukunftsdeutung «Predictive Analytics».
Martin Weigert schrieb letztens treffend dazu, dass es ihn nicht erstaunen würde, falls jemand mit seinen Daten in aggregierter Form nicht treffende Prognosen über sein künftiges Verhalten anstellen könnte. Und nun kommts noch besser: Dies ist nicht alles erst in einigen Jahren möglich, sondern bereits heute. Wie sich aus unseren (meist frei im Internet verfügbaren) Daten konkrete Handlungsvoraussagen für unsere Zukunft auswerten lassen, präsentierte unlängst «The Guardian»:
Was bedeutet dies für unseren Alltag?
Selbstverständlich können wir nun in wilder Hysterie versuchen, möglichst alle unserer Daten aus dem Netz zu löschen. Doch Fehlanzeige: Dies ist nicht möglich. Einzelne Puzzlestücke werden auch ohne unser Zutun für immer im Netz bleiben. Was also sonst? Wir können höchstens versuchen, mit den neuen Gegebenheiten umzugehen und uns diese Möglichkeiten bewusst sein. Selbstverständlich können wir kurzfristig den Algorithmus mit absichtlichen Verhaltensänderungen entgegen unseren typischen Routinen überlisten. Ob dies aber auf lange Frist nicht einfach zu anstrengend ist, wage ich zu bezweifeln.
Vielmehr sollten wir uns an den positiven Effekten dieser Berechenbarkeit erfreuen. So haben zum Beispiel Programmierer des Link-Shorteners Bitly die Afghanistan-Berichte von Wikileaks ausgewertet. So konnten digitale Modelle erstellt werden, die nicht nur Ort und Zeit für mögliche Anschläge in Afghanistan voraussagten, sondern auch über deren Intensität Auskunft gaben.
Ebenfalls an einer «Predictive Analytics»-Lösung arbeitet derzeit Europas grösster Softwarehersteller mit Sitz in Deutschland, SAP. Ende letzten Jahres kündete SAP an, in neue Tools für Vorzeitanalysen zu investieren. Selbstverständlich werden diese aktuell «nur» für mögliche Nachfragevorhersagen oder Verkaufsmöglichkeiten eingesetzt. Selbstverständlich können bei solchen Software-Angeboten im Handumdrehen auch andere Funktionen angeboten werden.
Nicht neu ist zudem die Tendenz, aus Tweets Voraussagen in ganz bestimmten Gesellschaftsbereichen abzuleiten. Im letzten Jahr gab es dazu zum Beispiel Tests, Aktienkurse oder Grippewellen vorauszusagen. Wie bei vielen anderen technischen Neuerungen gilt auch hier: die kritische Haltung nicht ablegen, doch verteufeln sollte man die Entwicklung trotzdem nicht. Dazu ist sie auch schon viel zu weit fortgeschritten, um überhaupt noch aufgehalten zu werden.
Herzlichen Dank für jeden Tweet, jedes Plus und jedes Like – Martin & Konrad