Ein selbstlernendes algorithmisches System verstärkt sich mit jeder Information selbst. Das kann sehr nützlich sein, solange die Kontrolle über das System erhalten bleibt. Mindestens genauso wichtig ist, dass der Algorithmus nicht von fehlerhaften oder diskriminierenden Grundannahmen ausgeht, weil er sonst – für die Betroffenen intransparent – „sozial sortiert“[1].
Letzteres kommt übrigens häufiger vor, wie Stichproben oder Zufallsbefunde zeigen. Vor allem, in den USA und anderen (außer-)europäischen Ländern, wo viel mehr Algorithmen zum Einsatz kommen als in Deutschland. Hier wie dort fehlt es an Langzeitstudien. Nicht zuletzt, weil einige Institutionen, Erzeuger und Verwender von Algorithmen gar keine Transparenz erzeugen wollen oder aus technischen Gründen und mangelhafter Verantwortlichkeit gar nicht mehr geben können („Blackbox Algorithmus“). Algorithmen sollten transparent, erklärbar, überprüfbar und korrigierbar, sein, um Teilhabegerechtigkeit zu ermöglichen.[2] Zahlreiche Projekte von Stiftungen, Initiativen, engagierten Algorithmik-Ethikern oder Digitalisierungskritikern nehmen an genau diesem Punkt ihre wichtige Arbeit auf. Denn selbstverständlich betrifft der Einsatz von Verfahren, die auf Algorithmen basieren, sogenannte ADM-Prozesse („Algorithmic Decision Making“) längst die gesamte Gesellschaft.
Codes haben Konsequenzen
Ob wir Kredite erhalten, hochbezahlte Stellenangebote sehen können, teure KFZ Versicherungstarife bezahlen müssen, schnell einen Arzttermin bekommen, Landesgrenzen ohne Kontrollen passieren können, minutenlang in der Warteschleife von Callcentern verharren, Kurgenehmigungen erhalten, Inhalte in Suchmaschinen lesen können oder eben nicht – das und vieles mehr bestimmen Algorithmen auf weite Teile vor oder entscheiden ganz. Auf die Probleme innerhalb der gesellschaftlichen Diskursbildung – Stichwort Echokammern – brauche ich hier nicht einzugehen. Fakt ist aber auch: Algorithmen gehören zu unserer offenen, wissens- und netzwerkbasierten Gesellschaft dazu. Sie bergen nicht nur große Risiken, sondern auch große Chancen. Ohne Algorithmen gäbe es keine Computer, kein Smartphone und kein Internet. Sie schaffen Angebote und Services, auf die nur wenige unter uns verzichten möchten. Automatische Übersetzungen, Rechtschreibeprogramme, Navigationsgeräte, Wettervorhersage, Diagnostiken und vieles andere mehr.
Mustererkennung und Prognosenbildung
Algorithmen können gewaltige Datenmengen nach Mustern analysieren und damit zutreffende Prognosen abgeben. Je besser ein algorithmisches System die Vorlieben einer Person kennt, desto exakter kann dieses Vorhersagen über sie treffen. Dennoch überrascht, wie wenige Variablen ausreichen, um menschliche Entscheidungen vorherzusagen. In einer Studie von Facebook, an der über 85.000 Freiwillige teilnahmen, wurde untersucht, wie viele Like-Angaben (Klicks) erforderlich sind, um richtige, maschinell erzeugte Aussagen über die Disposition und das Verhalten einer Person zu treffen. Bei 70 Likes lag der Algorithmus besser als die Prognosen der eigenen Freunde. Bei 150 Likes schlug der Algorithmus Familienangehörige und bei über 300 Likes schließlich auch Ehepartner.[3]
Maschinen lernen Bilderlesen
Seit maschinelles Lernen Posts, Stimmen und Bilder sinnhaft auswerten kann, entsteht ein riesiges Potential an verwertbaren Daten. Die Auswertung von Fotos in sozialen Medien wird das nächste große Ding der wachsenden Datenverwertungsindustrie. Denn in Bildern, Hashtags, Emojis und Likes schlummert ein noch nicht gehobener Schatz. Immerhin rund 300.000.000 Fotos werden allein auf Instagram täglich hochgeladen, von WhatsApp oder Facebook nicht zu reden. Dank der maschinell gestützten visuellen Lesbarkeit sind der Dekodierung visueller Information praktisch keine Grenzen mehr gesetzt. Unter dieser Perspektive erhält das unter dem Hastag „Foodporn“ beliebte Fotografieren und Posten von Mahlzeiten andere Vorzeichen. Hier ein Foto von deftiger Schweinshaxe, dort ein Burger mit Bierchen, Smiley, zahlreiche Likes. Was ist schon dabei, wenn die ganze Welt weiß, dass mir Erdbeereis mit viel Sahne schmeckt, mag man einwenden? Erst einmal wenig, aber wenn dieses Faktum verbunden mit biometrischen Gesundheitsdaten über Versicherungstarife bei Krankenkassen entscheidet, erhält es eben doch Bedeutung. Was im Einzelfall nur eine Vorliebe oder eine geschmackliche Präferenz sein mag, gewinnt hochgerechnet Brisanz, weil es tiefe Einblicke in Verhalten und dessen Beeinflussung gewährt.
Hassliebe Tracking
Wir haben uns daran gewöhnt, dass unser Einkaufsverhalten im stationären Handel (z.B. durch Kundenkarten), besonders aber im Internet Gegenstand intensivster Auswertung ist. Der Einsatz algorithmischer Verfahren scheint unter bestimmten Prämissen mehr und mehr akzeptiert. Etwa, wenn wir uns davon erhoffen, individuell zugeschnittene Angebote zu erhalten. Viele Menschen ahnen zwar, dass das Tracking auch seine Schattenseiten birgt, sie sind sich jedoch kaum bewusst, wie viel die von ihnen hinterlassenen Spuren aussagen.
„Etwa 90 Prozent der EU-BürgerInnen haben Sorge um ihre Sicherheit im Netz und sprechen sich für […] einfacheren Schutz gegen Nachverfolgung (Tracking) […] aus. Auf der anderen Seite aber bekundet nur noch ein Drittel der Deutschen (zwei Jahre zuvor waren es noch über 40 Prozent) Unbehagen, dass ihre persönlichen Daten im Netz (teils unbemerkt) gesammelt werden. Und obwohl die meisten Menschen mittlerweile wissen, dass sie eigentlich sorgsam mit den eigenen Daten umgehen sollten, klafft eine große Lücke zwischen Wissen und Handeln.“ [4]
Selbstverständlich nutzt auch Content Marketing alle gängigen Verfahren des Trackings und der Personalisierung.Code und Content stehen im Content Marketing in einer wechselseitigen Zweckbeziehung. Überzeugt davon, den Usern wichtige und relevante, statt rein werbliche Inhalte bereitzustellen, haben Unternehmen, Agenturen und anderen Organisationen diese Prozesse unterschiedlich weit perfektioniert. Hauptquellen für die Sammlung von Daten zur personalisierten Ansprache sind: Standort, Demographie, Seitensurfverhalten (abgerufener Content), Kampagnenauswertung, Suchhistorie, Personawissen, Customer Journey, Endgerät, Unternehmen, Browser. Diese Kategorien wurden 2017 in einer Umfrage unter Marketeers in den USA als die zehn wichtigsten Kategorien angegeben. Prinzipiell dürfen sie auch für Marketeers in Deutschland gelten.
Macht der Metadaten
Dabei sind die Metadaten in der Regel interessanter als der dahinter befindliche reale User in personam: „Metadaten sind oft aussagekräftiger als die Inhalte, die sie beschreiben, denn sie fallen standardisiert an und lassen sich deshalb viel effizienter auswerten.“[5] Sei es, dass sie zu idealtypischen Kunden in sogenannten Personas Verwendung finden, sei es, dass die reale Kundenhistorie immer nuancierter wird. Die Zeichen stehen auf Detektion. Wann? Wo? Wie? und Womit? erreiche ich meine Zielgruppen am besten? Denn jeder dieser Parameter beherbergt große Unterschiede hinsichtlich der Wirksamkeit von Content. Ob ich einen kultigen Indie-Bier-Post im Bett lese oder unterwegs in der Nähe des Wohnorts, gleich neben der hippen Kneipe, zahlt sich im Content Marketing sprichwörtlich aus. Analoges gilt für B2B.
Die Customer Journey, also die Einkaufsreise mit all ihren denkbaren realen und digitalen Stationen (Customer Touchpoints) passt sich bestmöglich auf die unterschiedlichen Segmente an. Neuer Besucher, wiederkehrender Besucher oder angemeldeter Kunde – stets geht es darum, das mutmaßliche Vorhaben (Intent Recognition) bestmöglich zu erkennen, um prognostisch darauf zu reagieren. Je zutreffender die Vorannahmen, desto besser die User Experience.
Es dürfte nicht überraschen, dass mit der Segmentierung eine massive Filterung der bereitgestellten Informationen einhergeht. Auch die dynamisierte Preisgestaltung wird durch sie unterstützt. Einer Umfrage in den USA zufolge dienen als Hauptinstrumente der Personalisierung bislang noch E-Mails (71 Prozent), Homepages (45 Prozent) und Landing-Pages (37 Prozent). Demgegenüber fallen Navigation (18 Prozent) oder Preisgestaltung (14 Prozent) erkennbar ab, doch mit technischer Optimierung dürfte sich das rasch ändern.[6] Lediglich 12 Prozent sind mit ihren aktuellen Personalisierungsstrategien „sehr zufrieden“ (zwei Prozent) bzw. “zufrieden“ (zehn Prozent).[7] Der erkennbare Raum für Verbesserungen wird genutzt werden.
Algorithmus und Marke
Das Beispiel des onlinebasierten Personal Shopping Services Outfittery lohnt nähere Betrachtung. 2012 gegründet, funktioniert das Geschäftsmodell so:
„Kunden beantworten auf www.outfittery.de zunächst einige Fragen zu Kleidungsstil, Größen und Preispräferenzen. Ein persönlicher Stylist stellt daraufhin eine Auswahl an Kleidungsstücken zusammen, die dem Kunden bequem zur Anprobe nach Hause geschickt werden. Um die idealen Outfits auszuwählen, werden die Stylisten von Algorithmen unterstützt. Was dem Kunden gefällt, behält er, den Rest schickt er kostenfrei zurück. Das Ziel […]: Einkaufen für Männer so entspannt wie möglich zu machen und durch eine Kombination aus persönlichem Service und intelligenter Technologie für jeden die perfekte Auswahl zu bieten.“[8]
Je stärker sich Kunden darauf verlassen, dass ein Algorithmus eine Entscheidung trefflicher gestaltet als sie selbst, desto mehr Entlastung erfahren sie. Anstatt den Samstag mit Klamottensuche zu verbringen, können sie bequem auf ein Überraschungspaket warten. OUTFITTERY ist kein Einzelfall. Sogenannter kuratierter Abo-Commerce wächst, zumindest in der USA.
„Regelmäßige Bezieher von Rasierklingen, Tierfutter oder Windeln aus dem Internet nähren ein neues Wachstumssegment: den Abo-Commerce. Seit 2011 hat sich der Markt jedes Jahr mehr als verdoppelt; 15 Prozent aller Onlineshopper in den USA beziehen bereits Produkte via Abo.“[9]
Die Ergebnisse der Abo-Commerce-Studie (durchgeführt unter 5.000 Abonnenten in den USA) zeigten zwar, dass die Kündigungsrate mit über 40 Prozent sehr hoch, sprich die Loyalitätswerte sehr gering sind. Indes, Kunden, die mit einem Produkt oder Service zufrieden sind, werden durch algorithmisch optimierte Dienste durchaus gehalten und an die für gut befundene Marke gebunden. Warum weitersuchen, wenn ich mit dem bisherigen Angebot zufrieden bin? Wieso Zeit investieren, die anders besser genutzt werden kann? Je öfter Empfehlung und Auswahl an einen Algorithmus delegiert werden, desto stärker wächst die Wahrscheinlichkeit, dass die Auswahl mit den Vorlieben zusammentrifft. Erklärtes Ziel ist es denn auch, möglichst direkt Kundendaten zu sammeln. Konsequent umgesetzt findet sich dieser Gedanke in den verschiedenen Modellen der Direct-to-Consumer (DTC) oder Direct Brands.
Wer glaubt, dass das doch alles nicht so schlimm sei und letztlich ja jeder selbst entscheide, ob er seine Daten preisgebe oder nicht, argumentiert entweder gezielt unterkomplex oder mag sich tatsächlich über mögliche Nebenwirkungen keine Gedanken machen.
Einen ausführlichen Blogpost zum Thema Direct Brands finden Sie hier
[1] David Lyon zitiert nach Stalder: https://netzpolitik.org/2017/algorithmen-die-wir-brauchen/
[2] https://www.bertelsmann-stiftung.de/en/publications/publication/did/digitale-oeffentlichkeit, https://algorules.org/de/startseite
[3] Zitiert nach Yuval Noah Harari, Homo Deus. Eine Geschichte von Morgen, München 2017, 357
[4] Zivilgesellschaft, 48
[5] Stalder
[6] https://www.evergage.com/wp-content/uploads/2016/06/2016-Trends-in-Personalization-Survey-Report-Evergage-final.pdf, Evergage, 2018, 15
[7] Evergage, 2018, 9
[8] Outfittery, Pressemitteilung
[9]https://www.mckinsey.com/de/~/media/McKinsey/Locations/Europe%20and%20Middle%20East/Deutschland/Branchen/Konsumguter%20Handel/Akzente/Ausgaben%202018/Akzente_2-18_gesamt.ashx,