Sie sind seit mehreren Jahren in der Branche tätig und erleben seit Kurzem eine Renaissance. Da digital verfolgte Signale aufgrund zunehmender Datenschutzbeschränkungen veraltet sind, greifen Vermarkter für strategische, zuverlässige und datenschutzsichere Mess- und Attributionsrahmen wieder auf MMMs zurück.

Im Gegensatz zu Monitoring-Instruments auf Benutzerebene verwendet MMM aggregierte Zeitreihen und Querschnittsdaten, um abzuschätzen, wie Marketingkanäle Geschäfts-KPIs beeinflussen. Fortschritte in der Bayes’schen Modellierung mit verbesserter Rechenleistung haben MMM wieder in den Mittelpunkt der Marketinganalyse gerückt.

Seit Jahren nutzen und verlassen sich Werbetreibende und Medienagenturen auf Bayesian MMM, um die Beiträge von Marketingkanälen und die Zuweisung von Marketingbudgets zu verstehen.

Die Rolle von GenAI im modernen MMM

Immer mehr Unternehmen nutzen GenAI-Funktionen als Ergänzung zu MMM auf verschiedene Weise.

1. Datenvorbereitung und Characteristic Engineering
2. Pipeline-Automatisierung: Generieren von Code für die MMM-Pipeline
3. Erklärung der Erkenntnisse – Übersetzen Sie Modellerkenntnisse in einfache Geschäftssprache
4. Szenarioplanung und Budgetoptimierung

Obwohl diese Funktionen leistungsstark sind, basieren sie auf proprietären MMM-Engines.

Der Zweck dieses Artikels besteht nicht darin, die Funktionsweise des Bayes’schen MMM aufzuzeigen, sondern ein Potenzial aufzuzeigen Open-Supply- und kostenloses Systemdesign, das Vermarkter erkunden können, ohne den von Anbietern in der Branche bereitgestellten Black-Field-MMM-Stack abonnieren zu müssen.

Der Ansatz kombiniert:

1. Google Meridian als Open-Supply-Bayes’sche MMM-Engine
2. Open-Supply-Massive-Language-Modell (LLMs) – Mistral 7B als Erkenntnis- und Interaktionsebene zusätzlich zur Bayes’schen Inferenzausgabe von Meridian.

Hier ist ein Architekturdiagramm, das das vorgeschlagene Open-Supply-Systemdesign für Vermarkter darstellt.

Dieses Architekturdiagramm wurde mit Gen-AI-gestützten Designtools für schnelles Prototyping erstellt

Dieser Open-Supply-Workflow bietet mehrere Vorteile:

  1. Demokratisierung des Bayes’schen MMM: Beseitigt das Black-Field-Downside proprietärer MMM-Instruments.
  2. Kosteneffizienz: Reduziert die finanzielle Hürde für kleine und mittlere Unternehmen beim Zugriff auf erweiterte Analysen.
  3. Diese Trennung bewahrt die von MMM-Engines geforderte statistische Genauigkeit und macht sie einfach zugänglicher.
  4. Mit einer GenAI-Insights-Ebene müssen die Zielgruppen die Bayes’sche Mathematik nicht verstehen, sondern können einfach mithilfe von GenAI-Eingabeaufforderungen interagieren, um mehr über Modelleinblicke zum Kanalbeitrag, ROI und möglichen Budgetzuweisungsstrategien zu erfahren.
  5. Anpassbarkeit an neuere Open-Supply-Instruments: Eine GenAI-Schicht kann durch neuere LLMs ersetzt werden, sobald diese offen verfügbar sind, um bessere Erkenntnisse zu gewinnen.

Praktisches Beispiel für die Implementierung des Google Meridian MMM-Modells mit einer LLM-Ebene

Für diesen Showcase habe ich das Open-Supply-Modell verwendet Mistral 7Blokal aus der Area bezogen Umarmendes Gesicht Plattform gehostet von der Lama Motor.

Dieses Framework soll domänenunabhängig sein, d. h. je nach Umfang und Umfang der gewünschten Erkenntnisse können alle alternativen Open-Supply-MMM-Modelle wie Robyn, PyMC usw. von Meta und LLM-Versionen für GPT- und Llama-Modelle verwendet werden.

Wichtiger Hinweis:

  1. Es wurde ein synthetischer Marketingdatensatz mit einem KPI wie „Conversions“ und Marketingkanälen wie TV, Suche, Paid Social, E-Mail und OOH (Out-of-Dwelling-Medien) erstellt.
  2. Google Meridian liefert umfangreiche Ergebnisse wie ROI, Kanalkoeffizienten und Beiträge zur Steuerung von KPIs, Antwortkurven usw. Obwohl diese Ergebnisse statistisch fundiert sind, erfordern sie häufig spezielles Fachwissen für ihre Interpretation. Hier wird ein LLM wertvoll und kann als verwendet werden Einsichtsübersetzer.
  3. Mithilfe der Python-Codebeispiele von Google Meridian wurde das Meridian MMM-Modell auf den erstellten synthetischen Marketingdaten ausgeführt. Weitere Informationen zum Ausführen von Meridian-Code finden Sie unter diese Seite.
  4. Ein Open-Supply-LLM-Modell, Mistral 7B, wurde aufgrund seiner Kompatibilität mit der kostenlosen Stufe der Google Colab-GPU-Ressourcen und auch als geeignetes Modell für die Generierung anweisungsbasierter Erkenntnisse ohne Abhängigkeit von API-Zugriffsanforderungen verwendet.

Beispiel: Der folgende Python-Codeausschnitt wurde auf der Google Colab-Plattform ausgeführt:

# Set up meridian: from PyPI @ newest launch 
!pip set up --upgrade google-meridian(colab,and-cuda,schema) 

# Set up dependencies 
import IPython from meridian 
import constants from meridian.evaluation 
import analyzer from meridian.evaluation 
import optimizer from meridian.evaluation 
import summarizer from meridian.evaluation 
import visualizer from meridian.evaluation.overview 
import reviewer from meridian.knowledge 
import data_frame_input_data_builder 
from meridian.mannequin import mannequin
from meridian.mannequin import prior_distribution 
from meridian.mannequin import spec 
from schema.serde import meridian_serde 
import numpy as np 
import pandas as pd

Ein synthetischer Marketingdatensatz (in diesem Code nicht gezeigt) wurde erstellt, und als Teil der Meridian-Workflow-Anforderung wird eine Eingabedaten-Builder-Instanz wie unten gezeigt erstellt:

builder = data_frame_input_data_builder.DataFrameInputDataBuilder( 
   kpi_type='non_revenue', 
   default_kpi_column='conversions', 
   default_revenue_per_kpi_column='revenue_per_conversion', 
   ) 

builder = ( 
   builder.with_kpi(df) 
  .with_revenue_per_kpi(df) 
  .with_population(df) 
  .with_controls( 
  df, control_cols=("sentiment_score_control", "competitor_sales_control") ) 
  ) 

channels = ("television","paid_search","paid_social","e-mail","ooh") 

builder = builder.with_media( 
  df, 
  media_cols=(f"{channel}_impression" for channel in channels), 
  media_spend_cols=(f"{channel}_spend" for channel in channels), 
  media_channels=channels, 
  ) 

knowledge = builder.construct() #Construct the enter knowledge

Konfigurieren Sie das Meridian MMM-Modell und führen Sie es aus:

# Initializing the Meridian class by passing loaded knowledge and customised mannequin specification. One benefit of utilizing Meridian MMM is the flexibility to set modeling priors for every channel which provides modelers means to set channel distribution as per historic data of media habits.

roi_mu = 0.2  # Mu for ROI prior for every media channel.
roi_sigma = 0.9  # Sigma for ROI prior for every media channel.

prior = prior_distribution.PriorDistribution(
    roi_m=tfp.distributions.LogNormal(roi_mu, roi_sigma, identify=constants.ROI_M)
)

model_spec = spec.ModelSpec(prior=prior, enable_aks=True)

mmm = mannequin.Meridian(input_data=knowledge, model_spec=model_spec)


mmm.sample_prior(500)
mmm.sample_posterior(
    n_chains=10, n_adapt=2000, n_burnin=500, n_keep=1000, seed=0
)

Dieses Code-Snippet führt das Meridianmodell mit definierten Prioritäten für jeden Kanal im generierten Eingabedatensatz aus. Der nächste Schritt besteht darin, die Modellleistung zu bewerten. Zwar gibt es Modellausgabeparameter wie R-Quadrat, MAPE, P-Werte usw., die bewertet werden können, für den Zweck dieses Artikels füge ich jedoch nur ein visuelles Bewertungsbeispiel hinzu:

model_fit = visualizer.ModelFit(mmm)
model_fit.plot_model_fit()

Nachdem das Meridian MMM-Modell nun ausgeführt wurde, verfügen wir über Modellausgabeparameter für jeden Medienkanal, wie z. B. ROI, Antwortkurven, Modellkoeffizienten, Ausgabenniveaus usw. Wir können alle diese Informationen in ein einziges Eingabe-JSON-Objekt zusammenfassen, das direkt als Eingabe für das LLM verwendet werden kann, um Erkenntnisse zu generieren:

import json

# Mix the whole lot into one dictionary
genai_input = {
    "roi": roi.to_dict(orient='information'),
    "coefficients": coeffs.to_dict(orient='information'),
    "priors": priors.to_dict(orient='information'),
    "response_curves": response_curves.to_dict(orient='information')
}

# Convert to JSON string for the LLM
genai_input_json = json.dumps(genai_input, indent=2)

Laden Sie Mistral 7B LLM lokal von der Hugging Face-Plattform herunter und installieren Sie die erforderliche Llama-Engine, um das LLM auszuführen:

# Obtain the Mistral 7B llm from Hugging Face
!wget -O /content material/fashions/mistral-7b-instruct-v0.2.Q4_K_M.gguf 
https://huggingface.co/TheBloke/Mistral-7B-Instruct-v0.2-GGUF/resolve/important/mistral-7b-instruct-v0.2.Q4_K_M.gguf

# Set up Llama for python engine
!pip set up llama-cpp-python --upgrade

Ausführen des Mistral LLM unter Verwendung des Eingabe-JSON mit Meridian MMM-Ausgabe und einschließlich der entsprechenden Anweisungsaufforderung:

from llama_cpp import Llama

# Initialize the mannequin
llm = Llama(
    model_path="/content material/fashions/mistral-7b-instruct-v0.2.Q4_K_M.gguf",
    n_ctx=2048,        
    n_gpu_layers=35,    
    seed=42,
    verbose=False,
    temperature=0.2
)

# Convert JSON to a immediate for suggestions
immediate = f"""
You're a advertising combine modeling knowledgeable.

1. Summarize the effeciency of every advertising channel primarily based on MMM output
2. Clarify the important thing drivers of ROI for every channel in easy enterprise phrases.
3. Channels with diminishing returns
4. If we wish to maximize complete ROI with the present funds, how ought to we reallocate spend throughout channels

JSON:
{genai_input_json}
"""

# Generate suggestions
response = llm(immediate, max_tokens=300)

# Print solely the textual content output
print(response("selections")(0)("textual content"))

Beispielausgabe:

1. Basierend auf den Ergebnissen des Advertising and marketing Combine Modeling (MMM) haben TV-, OOH- und Suchanzeigen einen positiven ROI (3,0, 2,5 bzw. 1,5), während Social Media und E-Mail einen niedrigeren ROI (0,9 bzw. 0,7) aufweisen.

2. Die wichtigsten ROI-Treiber für jeden Kanal sind in einfachen Geschäftsbegriffen:

– Fernsehen: Jeder Greenback, der für Fernsehwerbung ausgegeben wird, generiert einen Umsatz von 3 Greenback.

– Soziale Medien: Jeder Greenback, der für Social-Media-Anzeigen ausgegeben wird, generiert einen Umsatz von 0,9 US-Greenback.

– Suchanzeigen: Jeder Greenback, der für Suchanzeigen ausgegeben wird, generiert einen Umsatz von 2,5 US-Greenback.

– E-Mail: Jeder Greenback, der für E-Mail-Advertising and marketing ausgegeben wird, generiert einen Umsatz von 0,7 $.

– OOH: Jeder Greenback, der für Out of Dwelling (OOH)-Anzeigen ausgegeben wird, generiert 1 Greenback ,5 im Umsatz.

3. Kanäle mit sinkenden Erträgen sind soziale Medien und E-Mail, da ihre Antwortkurven zeigen, dass das Umsatzwachstum nicht proportional zu den steigenden Marketingausgaben ist.

4. Um den Gesamt-ROI mit dem aktuellen Price range zu maximieren, sollten wir erwägen, die Ausgaben von Social Media und E-Mail auf TV und OOH umzuverteilen, da diese einen höheren ROI haben.

Praktische Überlegungen

  • Modellqualität und Erkenntnisse hängen immer noch von der Qualität der Eingabedaten ab.
  • Eine zeitnahe Gestaltung ist entscheidend, um irreführende Erkenntnisse zu vermeiden.
  • Die Automatisierung der Eingabedatenverarbeitung sowie der Berichterstellung und Visualisierung der Modellausgabe wird dazu beitragen, dass dieser Stack im großen Maßstab funktioniert.

Letzte Gedanken

Diese exemplarische Vorgehensweise zeigt, wie ein potenzielles, auf Open-Supply basierendes Bayesianisches MMM, ergänzt durch einen GenAI-Workflow, komplexe Bayesianische Ergebnisse in umsetzbare Erkenntnisse für Vermarkter und Führungskräfte umsetzen kann.

Dieser Ansatz versucht nicht, die den Advertising and marketing-Combine-Modellen zugrunde liegenden Mathematik zu vereinfachen, sondern sie beizubehalten und versucht, sie für breitere Zielgruppen mit begrenzten Modellkenntnissen und begrenzten Budgetressourcen für ihre Organisation zugänglicher zu machen.

Da datenschutzsichere Marketinganalysen zur Norm werden, bieten Open-Supply-MMM-Systeme mit GenAI-Erweiterung einen nachhaltigen Weg: clear, anpassungsfähig und darauf ausgelegt, sich sowohl mit dem Geschäft als auch mit der zugrunde liegenden Technologie weiterzuentwickeln.

Ressourcen und Referenzen:

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert