Zum Hauptinhalt springen
Nicht aus der Schweiz? Besuchen Sie lehmanns.de

Maximizing profit in uplift modeling through regret-optimal policy learning strategies (eBook)

eBook Download: PDF
2023 | 1. Auflage
GRIN Verlag
9783346917430 (ISBN)

Lese- und Medienproben

Maximizing profit in uplift modeling through regret-optimal policy learning strategies - Jon Henrik Rosenkranz
Systemvoraussetzungen
18,99 inkl. MwSt
(CHF 18,55)
Der eBook-Verkauf erfolgt durch die Lehmanns Media GmbH (Berlin) zum Preis in Euro inkl. MwSt.
  • Download sofort lieferbar
  • Zahlungsarten anzeigen
Bachelor Thesis from the year 2023 in the subject Computer Science - Commercial Information Technology, grade: 1.0, Humboldt-University of Berlin (Wirtschaftsinformatik), language: English, abstract: The aim of this study is to provide this framework as well as benchmark business performance of both Uplift Modeling and Reinforcement Learning. Furthermore, the framework will account for the essential requirements of profit maximization in real-world business scenarios that have rarely been covered in uplift literature. Specifically, it incorporates covariates that capture the expected revenue and costs associated with a given action, which are necessary to account for the heterogeneity in spending patterns and action costs.

Profit maximization is traditionally known as one of the key objectives of a firm and requires little explanation. In a marketing context, it translates to targeting only the relevant individuals, namely those that will react favorably to receiving a form of treatment. Identifying precisely those individuals has been subject of two distinct Machine Learning approaches that are associated with optimal decision-making: Uplift Modeling and Reinforcement Learning. Despite their shared focus, both techniques are fundamentally distinct from each other. Uplift Modeling utilizes labeled data to predict the uplift of an action, whereas Reinforcement Learning is an iterative, label-free technique that aims to determine the optimal decision, incorporating the uplift. However – to date – research has scarcely examined the comparative effectiveness of these two approaches, nor has it explored the feasibility of an integrated framework that leverages both disciplines.

Erscheint lt. Verlag 3.8.2023
Verlagsort München
Sprache englisch
Themenwelt Mathematik / Informatik Informatik
Schlagworte causal learning • Causal ML • Multi-armed bandit models • Reinforcement Learning • Uplift Modeling
ISBN-13 9783346917430 / 9783346917430
Informationen gemäß Produktsicherheitsverordnung (GPSR)
Haben Sie eine Frage zum Produkt?
PDFPDF (Ohne DRM)

Digital Rights Management: ohne DRM
Dieses eBook enthält kein DRM oder Kopier­schutz. Eine Weiter­gabe an Dritte ist jedoch rechtlich nicht zulässig, weil Sie beim Kauf nur die Rechte an der persön­lichen Nutzung erwerben.

Dateiformat: PDF (Portable Document Format)
Mit einem festen Seiten­layout eignet sich die PDF besonders für Fach­bücher mit Spalten, Tabellen und Abbild­ungen. Eine PDF kann auf fast allen Geräten ange­zeigt werden, ist aber für kleine Displays (Smart­phone, eReader) nur einge­schränkt geeignet.

Systemvoraussetzungen:
PC/Mac: Mit einem PC oder Mac können Sie dieses eBook lesen. Sie benötigen dafür einen PDF-Viewer - z.B. den Adobe Reader oder Adobe Digital Editions.
eReader: Dieses eBook kann mit (fast) allen eBook-Readern gelesen werden. Mit dem amazon-Kindle ist es aber nicht kompatibel.
Smartphone/Tablet: Egal ob Apple oder Android, dieses eBook können Sie lesen. Sie benötigen dafür einen PDF-Viewer - z.B. die kostenlose Adobe Digital Editions-App.

Buying eBooks from abroad
For tax law reasons we can sell eBooks just within Germany and Switzerland. Regrettably we cannot fulfill eBook-orders from other countries.

Mehr entdecken
aus dem Bereich

von Herbert Voß

eBook Download (2025)
Lehmanns Media (Verlag)
CHF 19,50
Management der Informationssicherheit und Vorbereitung auf die …

von Michael Brenner; Nils gentschen Felde; Wolfgang Hommel …

eBook Download (2024)
Carl Hanser Fachbuchverlag
CHF 68,35