Jenseits der Grenzen klassischer Preisforschung – Der Siegeszug des Dynamic Pricing

Die Zeiten, als Waren oder Dienstleistungen mit einem dauerhaft gültigen Preisschild versehen wurden, nähern sich dem Ende. Preise sind heute kurzlebiger denn je und der Trend geht hin zu einer immer höheren Variabilität. Das Zauberwort ist dabei "Dynamic Pricing". Doch wie genau funktioniert Dynamic Pricing und wie lässt sich dieses Prinzip nutzen, um die klassische umfragebasierte Preisforschung zu ergänzen?

Der Weg zum optimalen Preis
 

Der optimale Preis eines Produktes ist nicht leicht zu definieren. In vielen Fällen orientiert er sich an der Maximierung von Umsatz oder Ertrag, er kann aber auch zur Steuerung verwendet werden, beispielsweise des Lagerbestandes bei der Auslistung von Artikeln. Darüber hinaus haben viele andere Aspekte Einfluss auf die Preisstrategie, wie etwa Markenpositionierung oder Sortimentsgestaltung. Grundsätzlich ist die Preisfindung jedoch immer eine Reaktion auf die Bedingungen am Markt, die sich kontinuierlich ändern.

Generell gilt: Je schneller der Preis einer Ware oder Dienstleistung an ein verändertes Marktumfeld angepasst wird, desto besser kann er seinen Zweck erfüllen. Jenseits einer bestimmten Frequenz ist diese Anpassung mit klassischen Methoden allerdings nicht mehr zu bewerkstelligen, insbesondere bei einer großen Zahl von Produkten. In diesen Fällen geht nichts ohne eine Automatisierung mit Hilfe von Algorithmen. So ist es nicht verwunderlich, dass Dynamic Pricing zuerst bei den großen Online-Händlern Einzug hielt und sich dort inzwischen sogar als De-facto-Standard etabliert hat. Aber auch im Offline-Sektor zeichnet sich dieser Trend bereits ab, gefördert durch die zunehmende Verbreitung elektronischer Preisschilder.
 

Vorteile von KI-gesteuerten Absatzprognosen
 

Die Grundlage von Dynamic Pricing bildet dabei immer eine Prognose der Preiselastizität, d. h. wie viele Einheiten eines Produktes zu einem bestimmten Preis abgesetzt werden können. Der Absatz wird in der Realität aber nicht nur vom Preis, sondern von einer unüberschaubaren Vielzahl von Faktoren bestimmt, was die Vorhersage zu einer hochkomplexen Aufgabe macht.

Für die Prognose haben sich selbstlernende (KI-)Algorithmen aufgrund ihrer Schnelligkeit und Flexibilität durchgesetzt. Die notwendige Information wird hierbei in Form umfangreicher historischer Daten bereitgestellt und umfasst neben den historischen Preisen und den zugehörigen Absatzzahlen idealerweise auch alle weiteren relevanten Einflussfaktoren mit hoher zeitlicher Granularität. Mit dieser Datenbasis kann ein KI-Algorithmus die individuelle Wirkung aller Faktoren auf den Absatz einzeln bestimmen und weitgehend separieren. Was übrig bleibt ist die Preiselastizität als Basis für die weitere Preisoptimierung. Unter Berücksichtigung der Kostenpositionen kann aus ihr beispielsweise unmittelbar der Nettoertrag eines Produktes als Funktion des Preises abgeleitet werden.
 

Die richtige Datengrundlage für bessere Preisentscheidungen
 

Damit die Modelle zuverlässig funktionieren können, kommt es jedoch entscheidend auf den Informationsgehalt der Daten an, auf deren Grundlage sie ihre Entscheidungen treffen. Je besser sich ein Modell ein Abbild der Realität machen und aus vergangenen Mustern lernen kann, desto besser ist es grundsätzlich in der Lage, eine valide Prognose zu liefern. 

In der Praxis fließen meist Stammdaten und Artikeleigenschaften, historische und aktuelle Preis- und Transaktionsdaten, Sortimentsinformationen und Produkthierarchien, Warenkorb- und Bondaten, Promotionen und Werbeaktionen, Lieferzeiten und Warenverfügbarkeiten sowie Rahmenbedingungen für den Vertrieb (Standort, Platzierung im Markt) mit ein. Das sind Daten, die heutzutage typischerweise jedes Unternehmen erhebt.

Die Verknüpfung mit weiteren Datenquellen wie z. B. Wettbewerberpreise oder Online-Rezensionen erweist sich meist als starker Hebel für eine bessere Qualität der Preisentscheidungen. Datenfehler können zu verfälschten Mustern und damit auch zu falschen Prognosen führen, weshalb eine strenge Qualitätssicherung unbedingt notwendig ist.
 

Den Mehrwert von Dynamic Pricing sichtbar machen
 

Die Qualität der Preisentscheidungen einer Dynamic Pricing-Anwendung muss immer sorgfältig überprüft werden, da ein Monitoring im operativen Betrieb bei weitem nicht alle potenziellen Schwächen erkennen kann. Das gilt vor allem im Hinblick auf die meist nur langfristig darstellbaren Optimierungsziele wie z. B. die Ertragsoptimierung eines großen Sortimentes.

Ein verbreiteter und statistisch fundierter Ansatz ist die Unterteilung in eine Test- und eine Referenzgruppe mittels eines Schnittes im Sortiment oder im Filialnetz, ein sogenannter AB-Test. Die Referenzgruppe wird klassisch bepreist, die Preise der Testgruppe werden mit Hilfe von Dynamic Pricing ermittelt. Der Vergleich beider Gruppen gibt dann nach einem festgelegten Testzeitraum quantitativ Aufschluss über das Erreichen der angestrebten Ziele. Die Zugehörigkeit zu den Gruppen muss unter Randbedingungen zufällig festgelegt werden und darf im Einzelfall nicht von anderen Kriterien - wie etwa wirtschaftlichen Gesichtspunkten - abhängig gemacht werden. Dann kann bei hinreichender Gruppengröße die Kaufentscheidung der Kunden für ein Produkt aus jeder der beiden Gruppen im Mittel nur noch vom Preis abhängen. Auf diese Weise wird der eigentliche Preiseffekt für die Kaufentscheidung sichtbar.

Je größer die Anzahl der Messungen im Test, desto belastbarer und präziser das Ergebnis. Demgegenüber stehen jedoch die Kosten für solche AB-Tests und von Einzelfall zu Einzelfall ist der Mehrwert aus statistischer Belastbarkeit und Investition abzuwägen.
 

Ein Dreamteam: klassische und datengetriebene Preisforschung
 

Auch ohne die Bepreisung von Produkten erkennen Dynamic Pricing-Algorithmen jene Muster in komplexen historischen Daten, die zu bestimmten Preisentscheidungen führen, und legen damit deren Treiber offen, ein Vorgang, den wir als datengetriebene Preisforschung bezeichnen. Das Verständnis, weshalb bestimmte Produkte unter gegebenen Preisen und Bedingungen wie häufig gekauft werden und welche Faktoren dabei ausschlaggebend sind, ist eines der wesentlichen Ziele der klassischen umfragebasierten Preisforschung. Dabei stehen klassische und datengetriebene Preisforschung nicht in Konkurrenz. Vielmehr ergänzen sie sich, um sich dem Verständnis von Ursache und Wirkung aus zwei verschiedenen Perspektiven zu nähern.

Die klassische Preisforschung lässt einen direkten Blick in die Köpfe der Umfrageteilnehmer zu. Der datengetriebene Ansatz eröffnet hingegen die entgegengesetzte Perspektive: Nicht die einzelne Kaufentscheidung steht im Mittelpunkt, sondern die Summe aller Kaufentscheidungen und damit letztendlich deren Treiber im großen Gesamtbild. In der Praxis kann dieser Ansatz konkret so aussehen: Die klassische Preisforschung stellt anhand einer Stichprobe eine Hypothese auf, die datengetriebene Preisforschung liefert aufgrund des deutlich größeren Samples und der Quantifizierbarkeit der Entscheidungen und Rahmenbedingungen den Beweis für die Hypothese - oder widerlegt sie.
 

Was dem qualitativen Betrachter entgeht
 

Gegebenenfalls kommt aber auch etwas völlig anderes heraus. Die datengetriebene Preisforschung überrascht immer wieder mit neuen und unerwarteten Einblicken in Kaufentscheidungen und Prozesse, die sich überlagern und gegenseitig beeinflussen. Ein einfaches Beispiel hierfür ist die Wirkung von Rabatten auf Kunden: Oft ist für die Kaufentscheidung nicht die Höhe des Preisnachlasses selbst entscheidend, sondern in welcher Weise auf den Rabatt aufmerksam gemacht wird. In einer Befragung sind solche Effekte nicht immer leicht abzubilden und erfordern gegebenenfalls ein hohes Maß an Fantasie und ehrlicher Selbsteinschätzung der Befragten. Zudem kann es schwierig sein, die Vielzahl solcher und ähnlicher Prozesse in einer einzelnen Umfrage vollständig abzubilden - insbesondere, wenn die zugrunde liegenden Wirkmechanismen neu und nur wenig erforscht sind.

Die datengetriebene Preisforschung erlaubt es bei entsprechender Datengrundlage nicht nur, solche Effekte zu detektieren. Ursache und Wirkung, Zusammenhänge und Muster können abgebildet, belegt und quantifiziert werden. Damit eröffnet sich ein weites Feld für viele neue Fragen und Antworten - und zwar weit über die Preisforschung hinaus. Die Werkzeuge liegen auf dem Tisch, praktisch stecken die Konzepte, um die nötigen Daten für die Preisforschung durchgängig verfügbar zu machen, allerdings noch in den Kinderschuhen. Die Datenlage verbessert sich jedoch zunehmend, zumal die Anforderungen an den Datenumfang für analytische Zwecke deutlich geringer sind als für die Berechnung hochsensibler Produktpreise. So erleben wir bei Ipsos gerade, dass Lösungen desto schneller entstehen, je sichtbarer die Mehrwerte werden.

Dieser Artikel wurde am 14. Dezember 2020 auf marktforschung.de veröffentlicht.
 

Über die Autoren
 

joDr. Jan Olzem ist Physiker und beschäftigt sich schwerpunktmäßig mit der Verknüpfung und Analyse großer Datenmengen, maschinellem Lernen, künstlicher Intelligenz sowie der Visualisierung komplexer Daten und Zusammenhänge. Bei Ipsos leitet er den Bereich Data Science.

 

mkMarc Knietzsch studierte Atmosphärenpyhsik aka Meteorologie. Nach dem Studium arbeitete er als Data Scientist und beschäftigte sich in diversen Projekten mit den Themen Predictive Analytics, AI und Dynamic Pricing. Heute ist er Teil des Data Science Teams bei Ipsos.

 

 

 

New Services