So richten Sie End-to-End-Marketinganalysen im Self-Service-Modus ein (Self-Service Analytics)

Unsere Abteilung Agima.ai beschäftigt sich mit Projekten im Bereich maschinelles Lernen und Datenanalyse. In Analyseprojekten mögen wir es, wenn Berichtsdaten Benutzern im Self-Service-Analytics-Modus (d. h. Self-Service-Analytics) zur Verfügung stehen. In diesem Fall kann sich jeder Spezialist den notwendigen Bericht im BI-Tool selbstständig zusammenstellen, ohne SQL oder anderen Code zu verwenden.

Dieser Ansatz erhöht die Verfügbarkeit von Daten sowie die Geschwindigkeit und Qualität der Erkenntnisse, die Geschäftsanwender aus den Daten ziehen können.

In diesem Artikel erklären wir Ihnen, wie Sie an die Aufgabe herangehen, End-to-End-Marketinganalysen von Grund auf so zu erstellen, dass:

  • die Daten waren gut dokumentiert;

  • Es war einfach, beliebige Filter und Abschnitte zu den empfangenen Berichten hinzuzufügen: einschließlich nach neuen Benutzerattributen, nach AV-Testsegmenten, nach Sprachen usw.

  • Bei Bedarf konnte das System problemlos von internen Analysten zur Unterstützung übernommen werden.

Die Geschichte wird am Beispiel eines der realisierten Kundenprojekte basieren.

Eine Aufgabe

Kurz gesagt, erstellen Sie einen bereichsübergreifenden Bericht vom Klick eines Benutzers auf eine Anzeige bis hin zu einem Kauf und bewerten Sie die Effektivität von Marketingkampagnen.

Wenn genauer:

  • Es gibt mehrere Werbeschränke, aus denen Sie die Kosten für Werbekampagnen erheben müssen: Facebook, Yandex.Direct, Google Adwords, Vkontakte. Hinzu kommen Marketingkosten, die nicht über Werbekonten laufen, sondern in einem manuellen Verzeichnis geführt werden.

  • Benutzer, die durch Werbekampagnen angezogen werden, kaufen auf der Website ein.

  • Auf der Website ist Google Analytics installiert, das Benutzer-IDs, ihre UTM-Tags und Käufe erfasst.

Die Aufgabe scheint Standard zu sein, aber im Kundenprojekt gibt es mehrere Nuancen in der Geschäftslogik, aufgrund derer die Standardlösungen nicht gepasst haben:

  • Aufgrund der Besonderheiten der Marketingstrategie ist es notwendig, eine benutzerdefinierte Zuordnungslogik zu implementieren und jeden Kanal nach zwei Modellen zu bewerten: benutzerdefinierter und standardmäßiger letzter Klick;

  • Es gibt eine Reihe von Funktionen der Geschäftslogik, die bei der Verknüpfung von Marketingkanälen mit Käufen berücksichtigt werden müssen: zum Beispiel Benutzersprachen;

  • Die Seite führt AV-Tests durch, daher möchte ich in Zukunft Conversions über Werbekanäle sehen, auch im Kontext des Testsegments, in das der Benutzer gefallen ist.

Wie wir den Prozess organisiert haben

Stufe 1: Download der Rohdaten

Zuerst müssen wir einen Datensatz für die Analyse erhalten.

Wir verwenden BigQuery als Datenspeicher. Wir haben neun Datenquellen.

Wir verwenden einen Open-Source-Stack, um Daten zu laden Sänger + Meltan. Für die Datentransformation verwenden wir DBT.

Stufe 2: Datenmodellierung

Um ein Domänenmodell zu entwerfen, verwenden wir Minimale Simulation. Dies ist ein Ansatz zur Datenmodellierung, mit dem Sie die Struktur der Daten sowohl verstehen als auch dokumentieren können.

Als Ergebnis der Analyse heben wir in den Daten hervor:

  • ⚓️Anker (das sind die Hauptnomen des Fachgebiets, z. B. ⚓️Benutzer, ⚓️Besuch, ⚓️Werbekampagne usw.).

  • Attribute (das sind die Merkmale der Anker, z. B. Benutzername, Besuchsdatum, Name der Werbekampagne).

  • 🔗Links (Links zwischen zwei Ankern, zum Beispiel „🔗⚓️Der Benutzer hat eine ⚓️Bestellung getätigt“).

Die gefundenen Anker, Attribute und Links werden sofort in einer Excel-Datei dokumentiert, dh die Beschreibung der finalen Daten erscheint vor der Implementierung.

Liste der gefundenen DomänenankerListe der gefundenen DomänenankerListe der gefundenen Domain-LinksListe der gefundenen Domain-LinksListe der gefundenen Domänenattribute im Kontext jedes AnkersListe der gefundenen Domänenattribute im Kontext jedes Ankers

Jetzt bauen wir das Domänenmodell zusammen. Für End-to-End Analytics ist es durchaus verständlich und sieht so aus:

Modellierung benutzerdefinierter Zuordnung

Das Hauptkonzept (Anker) im System ist ⚓️Benutzerbesuch.

⚓️Besuch hat zwei Attribute, die benutzerdefinierte Marketingzuordnungsinformationen enthalten:

Sobald ein ⚓️Besuch zu einer ⚓️Transaktion führt, teilen wir den Erlös aus der Transaktion auf alle vorherigen Besuche auf, vom ersten bis zum letzten.

Der berechnete Wert wird im Besuchswertattribut (visit_value) gespeichert.

Um die Effektivität des Marketings zu bewerten, interessieren uns neben dem Wert des Besuchs (visit_value) auch die Kosten des Besuchs (visit_cost).

Die Kosten pro Besuch sind die Kosten pro Klick für die Werbekampagne, die den Benutzer gebracht hat. Es kommt vor, dass die Kosten für einen Besuch die Summe der Kosten mehrerer Kampagnen sind. Zum Beispiel aus den Kosten eines Klicks in einem Werbekonto und den Kosten eines Aktionscodes, der dem Nutzer als Ergebnis einer Werbekampagne präsentiert wird.

Stufe 3: Daten-API-Implementierung

Auf der physischen Implementierungsebene sind alle Anker, Attribute und Links unabhängig voneinander. Wir sammeln sie in Form von separaten Tabellen in der Datenbank.

Dieser Ansatz vereinfacht das Testen von Daten erheblich: Wir sehen das vollständige Transformationsdiagramm jedes Attributs. Wenn wir einen Fehler in den Daten feststellen, können wir die Transformationen bis zu den Rohdaten überprüfen.

Transformationsdiagramm in DBT für den Link „AdWords-Anzeige führte zu einem Besuch“.  Welche Attribute in die Berechnungen einfließen und was genau anhand dieses Links berechnet wird, können Sie anschließend sehen.Transformationsdiagramm in DBT für den Link „AdWords-Anzeige führte zu einem Besuch“. Welche Attribute in die Berechnungen einfließen und was genau anhand dieses Links berechnet wird, können Sie anschließend sehen.Wenn Sie die Dokumentation in Notion führen, kann die Tabelle mit der Liste der Attribute in die Form einer Kanban-Tafel umgewandelt werden.  Somit wird die physische Implementierung jedes Ankers, Attributs und Links zu einer separaten Aufgabe, die einen Ausführenden und einen Status hat.  Sehr praktisch für das Projektmanagement.Wenn Sie die Dokumentation in Notion führen, kann die Tabelle mit der Liste der Attribute in die Form einer Kanban-Tafel umgewandelt werden. Somit wird die physische Implementierung jedes Ankers, Attributs und Links zu einer separaten Aufgabe, die einen Ausführenden und einen Status hat. Sehr praktisch für das Projektmanagement.

Wir nennen Anker, Attribute und Links, die als unabhängige Tabellen implementiert sind, Daten-API. Im Wesentlichen ist dies eine Schnittstelle zu Kundendaten, mit denen BI-Berichte, ML-Modelle und andere Datenanwendungen arbeiten können.

Wenn die Daten erfasst sind, können Sie mit der Erfassung des Endbenutzer-Showcase und der Berichterstellung beginnen.

Wie das Datenmodell funktioniert, alles zusammengebaut:

Phase 4: Aufbau eines Schaufensters für Self-Service-Analytics

Wir verwenden das kostenlose und Open-Source-Tool Metabase für die Berichterstellung.

Um ein Schaufenster für Self-Service-Analysen in Metabase vorzubereiten, sammeln wir alle in der Daten-API verfügbaren Daten in mehreren verwandten breiten Tabellen:

  • wir sammeln eine Zeitleiste mit allen Systemereignissen aus allen Links, die wir in der Datenmodellierungsphase gefunden haben;

  • eine breite Tabelle für jeden Anker, in der wir alle Attribute des Ankers sammeln.

Alle Tabellen in der Metabase-SchnittstelleAlle Tabellen in der Metabase-Schnittstelle

Beziehungen zwischen diesen Tabellen setzen wir direkt in Metabase.

Stufe 5: Metriken definieren

Die Daten und der Showcase wurden gesammelt, es bleibt, darauf basierend Geschäftskennzahlen zu berechnen.

Im Metabase-Datenmodell können Sie ein Wörterbuch mit Metriken definieren, das Geschäftsbenutzern beim Erstellen von Berichten zur Verfügung steht.

Das Hinzufügen neuer Metriken erfordert keine Programmierung und steht allen Metabase-Benutzern zur Verfügung.

Stufe 6: Abschlussbericht

Alle Daten sind gesammelt, die Metriken ermittelt und wir beginnen mit der Erstellung des Abschlussberichts.

Wir tun dies, ohne SQL zu schreiben, indem wir einfach auf die Daten in Metabase klicken.

Stufe 7: Projektdokumentation

Am Ende des Projekts bringen wir die Dokumentation in Ordnung. Dies ist einfach, da wir alle Daten ganz am Anfang des Projekts beschrieben haben – in der Phase der Datenmodellierung. Wir prüfen auf Tippfehler und Unstimmigkeiten, die bei der Umsetzung aufgetreten sind.

Bei diesem Projekt haben wir zusätzlich die gesamte Dokumentation nach Notion (für Schönheit) übertragen.

Während der Umsetzung des Projekts haben wir viel über die Datenstruktur des Kunden gelernt. Alle unsere Erkenntnisse wurden in kurzen Notizen beschrieben, die während des Entwicklungsprozesses gemacht wurden, sie wurden dem Kunden zusammen mit den Arbeitsergebnissen und Dokumentationen übergeben.

Wenn der Kunde also seine eigenen Analysten mit der Arbeit verbindet, werden sie die Datenstruktur und Logik der Lösung leicht verstehen.

Schlussfolgerungen und Konsequenzen

Während des Projekts haben wir für den Kunden ein End-to-End-Marketing-Analytics-Reporting implementiert. Die Daten stehen Fachanwendern im Self-Service-Analytics-Modus (Self-Service-Analytics) zur Verfügung.

Durch die Verwendung von Konzepten Minimale Simulation erhielt eine Reihe wichtiger Konsequenzen:

  • die Daten vollständig dokumentiert sind, die Relevanz der Dokumentation „by construction“ aufrechterhalten wird, für Geschäftsanwender die Daten im Self-Service-Analytics-Modus verfügbar sind;

  • Dank der unabhängigen Implementierung jedes Attributs ist es einfach, zusätzliche Daten und Abschnitte zu Berichten hinzuzufügen (z. B. ist die Implementierung eines alternativen Attributionsmodells das Hinzufügen genau eines Attributs);

  • Analysten, die dem Projekt in Zukunft beitreten, können die Logik der Datentransformation einfach verfolgen und Änderungen am Projekt vornehmen.

Similar Posts

Leave a Reply

Your email address will not be published.