Daten & KI sind en vouge. Gleichzeitig sind mit der DSGVO strenge Regeln zum Datenschutz in Kraft und der technische Trend ganz klar in Richtung Data Warehouse in der Cloud; die Customer Data Platformen sind ohnehin alle bereits dort. Wir sprechen heute mit Marco Szeidenleder zu diesem Themenbereich. Er ist Managing Partner bei Pandata sowie Initiator des Digital Analytics Meetups in Berlin, das in regelmäßigen Abständen mehr als 3.000 Interessierte zusammenbringt. Unter anderem geht es dabei um die folgenden Fragen: 

Viel Spaß beim Lesen!

Christian: Kurz zum Einstieg: Was macht eigentlich Pandata?

Marco: Wir sind ein Team von 25 Datenexperten und verstehen uns als „Task Force“ für Herausforderungen im Datenbereich. Wir helfen Unternehmen, Daten optimal zu nutzen, und entwickeln und implementieren gemeinsam mit unseren Kunden maßgeschneiderte Lösungen. Dabei decken wir die komplette Achse der Datenwertschöpfungskette ab, von Erfassung und Aggregierung über die Verarbeitung bis hin zur Analyse und Nutzung. Neben der technischen Umsetzung hat unsere Arbeit einen großen strategischen Anteil. Dennoch verzichten wir auf polierte PowerPoint-Folien und überzeugen lieber mit Programmcode und Prototypen.

Christian: Damit kommen wir genau zum Thema: DSGVO, Cookie Blocker & Co. stellen neue Herausforderungen an das Datenmanagement: Welche Auswirkungen sind aus Deiner Sicht wichtig?

Marco: Bisher konnten große Teile der Datenerfassung und -verarbeitung direkt in den Browsern der Webseitennutzer geschehen. Nun wird ein größerer Teil davon stattdessen durch die dahinter liegende Infrastruktur abgefangen werden müssen. So wird die Datennutzung für Anwender tendenziell eher intransparenter. Gesetzliche Vorgaben sollen das verhindern und ich bin gespannt darauf zu sehen, wie diese vollzogen werden. Ich glaube, dass vor diesem Hintergrund die ethische Datennutzung in Zukunft sehr viel wichtiger wird. Sogenannte „Dark Patterns“, um Benutzer zum Opt-In zu bewegen oder gesetzliche Grauzonen auszunutzen, werden meiner Meinung nach mittelfristig nicht nachhaltig sein. Auf der anderen Seite werden Unternehmen deutlich mehr Aufwand betreiben müssen, um auch in Zukunft aus Datensicht handlungsfähig zu bleiben.

Christian: Was bedeutet das genau für werbetreibende Unternehmen, aber auch die Anbieter?

Marco: Neben gesetzlichen Einschränkungen verhindern Maßnahmenpakete wie Apples Intelligent Tracking Prevention (ITP) oder Mozillas Enhanced Tracking Prevention (ETP) insbesondere sogenanntes Cross-Site-Tracking. Dabei wird die Möglichkeit genutzt, auf der eigenen Webseite einen Cookie in der Domain eines Werbeanbieters zu setzen (sog. Third-Party-Cookies). ITP und ETP blockieren Third-Party-Cookies praktisch grundsätzlich. Werbeanzeigen, die den Nutzer „verfolgen“, sind damit deutlich schwieriger und Anbieter, die sich auf den Aufbau von solchen „Cookie-Netzwerken“ spezialisiert haben, werden auf jeden Fall ihr Geschäftsmodell anpassen müssen. Die Anbieter der großen Plattformen dagegen sind so tief in die Systeme ihrer Nutzer integriert, dass sie weiterhin über ausreichend Daten verfügen, um gezieltes Targeting anbieten zu können.

Christian: Was können dann alle anderen Unternehmen tun, um nicht ins Hintertreffen zu geraten?

Marco: Das hängt ein wenig vom Geschäftsmodell ab. Im Bereich Marketing-Analytics geht der Trend aber klar in Richtung Serverside-Tracking. Dabei werden die Daten nicht vom Browser des Nutzers (Client) aus gesendet, sondern direkt vom Server an die Analytics-Tools geschickt. In dieser Welt sind Cookies sehr viel weniger relevant und die Datenqualität ist um ein Vielfaches besser. Serverside-Tracking ist unbeeinflusst von Ad-Blockern und einigen anderen Faktoren, die üblicherweise die Datenqualität vermindern. Auf der anderen Seite ist der Implementierungs- und Wartungsaufwand höher und On-Page-Interaktionen sind schwieriger zu erfassen.

Christian: Wie sieht aus Deiner Sicht vor diesem Hintergrund eine moderne DWH/BI-Landschaft aus, um nach wie vor effektiv mit Daten arbeiten zu können, und wie sollte man das Thema angehen? 

Marco: Wir sehen gerade einen großen Trend in Richtung Cloud-DWH. Vor allem große Unternehmen haben eine relativ starre Systemlandschaft, die schon seit vielen Jahren besteht. Diese hat für viele Anwendungen weiterhin ihre Daseinsberechtigung, ist den gestiegenen Anforderungen an Flexibilität und Skalierbarkeit moderner Datenanwendungen allerdings häufig nicht gewachsen. Viele Unternehmen investieren daher parallel in Cloud-Systeme wie Google Big Query. Diese Art der Infrastruktur verursacht nur geringe Kosten, ist extrem leistungsfähig und erlaubt eine einfache Integration mit anderen Lösungen. Allerdings tun sich viele damit nach wie vor schwer.

Christian: Woran liegt das? 

Marco: Das Thema Datenstrategie ist komplex und in der Regel hängen damit schwerwiegende, strategische Entscheidungen zusammen, insbesondere wenn bereits eine umfangreiche Systemlandschaft besteht. Es ist meist einfacher, ein neues System aufzubauen als ein bestehendes abzuschalten. Das führt häufig zu Entscheidungen, bei denen versucht wird, eine neue Herausforderung durch den Zukauf eines Tools zu lösen. Das soll kein Plädoyer für „Make“ in der in diesem Zusammenhang häufig gestellten „Make or Buy“-Frage sein. Es ist vielmehr eine Aufforderung, das Problem vorher genau zu definieren und vor der Wahl der eigentlichen Lösung die zugrunde liegenden Prozesse und Gegebenheiten zu hinterfragen. Grundsätzlich raten wir, die Data Strategy iterativ anzugehen und lieber kleine, regelmäßige Fortschritte zu machen und die Strategie gegebenenfalls nach jedem Schritt neu auszurichten. 

Christian: Daten sammeln als Vorgabe ist das Eine. Welche Capabilities brauchen die Führungskräfte bzw. ausführenden Mitarbeiter, um aus den Daten Informationen zu gewinnen?

Marco: Neben den technischen Fähigkeiten, um mit den Daten umgehen zu können, sind  Domänenwissen und die Fähigkeit, dieses zur Interpretation zu nutzen, am wichtigsten. Einer der größten Irrglauben ist, dass Data Science oder „Künstliche Intelligenz“ von selbst Ergebnisse liefern. Ich glaube, dass auch in Zukunft entweder Experten diese Systeme nutzen, um mittels ihres Fachwissens schneller und präziser Entscheidungen zu treffen, oder in Programmcode gegossenes Expertenwissen wichtiger Bestandteil dieser Systeme sein wird.

Christian: Wie siehst du den Gap zwischen dem aktuellen Wissensstand „normaler“ Unternehmen und dem Anspruch, jetzt bereits KI machen zu wollen?

Marco: Ich glaube, dass statistische Verfahren durchaus auch bei geringem digitalen Reifegrad im Unternehmen Teil der Datenstrategie sein können. Wichtig ist, dass der Fokus in der Umsetzung zunächst auf der Entwicklung einer soliden Datenarchitektur liegt, die dann als Fundament solcher Anwendungen dient. Neben Reporting, Data Exploration, Datenfeeds in Drittsysteme etc. handelt es sich damit um einen weiteren Datenkonsumenten in der Datenwertschöpfungskette. Maschinelles Lernen, Neuronale Netze etc. können Bestandteil zur Lösung eines bestimmten Problems sein, sollten allerdings bedarfsgerecht eingesetzt werden.

Christian: Zum Abschluss: Anhand welcher Kriterien kann ein CEO beurteilen, wie gut er im Bereich Daten und Datenstrategie aufgestellt ist? 

Marco: Ich würde Gespräche mit den Datennutzern führen. Wenn der Head of Marketing sich beschwert, dass auf jede Reporting-Anfrage monatelange Stille aus dem Datenteam folgt, niemand den Zahlen wirklich vertraut und jede Abteilung eine andere Definition des Customer Lifetime Value verwendet, dann gibt es auf jeden Fall ein Problem. Im Unternehmen sollte es möglich sein, die gängigsten Metriken mit wenig Aufwand abzufragen, und es sollten eindeutige Definitionen für die wichtigsten KPIs herrschen. Die Datenstrategie selbst sollte sich an klar definierten, betrieblichen Zielen orientieren und keine Technologie-Roadmap sein. Auch als Datenlaie kann man allein mit Critical Thinking recht weit kommen. 

Vielen Dank für das Interview!

Write A Comment