image

Gabriele Braun, Torsten Schwarz
Herausgeber

LEITFADEN
Data Driven
Marketing

image

Print: ISBN 978-3-943666-07-6
Epub: ISBN 978-3-943666-19-9
PDF: ISBN 978-3-943666-20-5

1. Auflage 2015
Copyright © 2015 marketing-BÖRSE GmbH
Melanchthonstr. 5
D-68753 Waghäusel
www.marketing-boerse.de
info@marketing-boerse.de

Umschlaggestaltung und Layout: Maren Wendt, Hamburg
Satz: Peter Föll, Karlsruhe

Alle in diesem Buch enthaltenen Informationen wurden nach bestem Wissen der Autoren und des Verlags zusammengestellt. Gleichwohl sind Fehler nicht vollständig auszuschließen. Daher sind die im vorliegenden Buch enthaltenen Informationen mit keiner Verpflichtung oder Garantie irgendeiner Art verbunden. Autoren und Verlag übernehmen infolgedessen keine juristische Verantwortung und werden auch keine daraus folgende oder sonstige Haftung übernehmen, die auf irgendeine Art aus der Benutzung dieser Informationen entsteht, auch nicht für die Verletzung von Patentrechten und anderer Rechte Dritter, die daraus resultieren können. Ebenso übernehmen Autoren und Verlag keine Gewähr dafür, dass die beschriebenen Verfahren usw. frei von Schutzrechten Dritter sind.

Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften.

Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmung und die Einspeicherung und Verarbeitung in elektronischen Systemen.

Vorwort

Wer dem richtigen Kunden im richtigen Moment das richtige Angebot machen will, braucht dazu Informationen. Um diese Informationen zu gewinnen und auszuwerten, stehen heute eine Reihe neuer Methoden zur Verfügung. Dieses Buch soll die wichtigsten vorstellen.

Während der Versandhandel seit jeher alle Möglichkeiten des Data-Driven Marketings nutzt, ist dieser Bereich für viele Investitionsgüterhersteller noch Neuland. Dabei finden Geschäftsanbahnungen heute immer seltener auf Messen und immer häufiger online statt. In vielen B2B-Unternehmen kommen die meisten Leads für den Vertrieb inzwischen aus dem Internet.

Wer sich an Verbraucher richtet, muss keine teuren Werbekampagnen mit riesigem Streuverlust mehr bezahlen. Eine Reihe von Techniken erlauben es, die richtigen Zielgruppen in genau dem Moment zu erreichen, in dem auch Interesse besteht. Auch beim Direktmarketing haben undifferenzierte Mailings ausgedient. Inhalte werden heute auf die Interessen der Empfänger ausgerichtet. Predictive Targeting kann voraussagen, welches Angebot bei einem Empfänger auf die höchste Kaufbereitschaft trifft.

Was ist neu? Zunächst einmal die technische Entwicklung, die es erlaubt, immer mehr Daten immer schneller zu verarbeiten. Früher wurden beim Data Mining mühsam Daten aus der Vergangenheit manuell analysiert, um das Konsumverhalten zu erforschen. Heute wird vollautomatisch in Echtzeit berechnet, welches Produkt dem Besucher eines Webshops innerhalb der nächsten Millisekunde präsentiert werden soll.

Und wo früher vielleicht gerade einmal bekannt war, welche Kunden wann welches Produkt gekauft haben, gibt es heute ein Vielfaches an Daten. Der Grund: immer mehr Touchpoints sind digital. Und digitale Kontaktpunkte werden automatisch als Daten protokolliert. Täglich zeigen Kunden über Smartphone und PC, was sie interessiert. Mit dem Internet der Dinge kommen Smartwatch, Navi und iBeacons als Messfühler für Kundenwünsche hinzu. Unternehmen können aus diesen Informationen maßgeschneiderte Angebote machen.

Internet der Dinge und Industrie 4.0 tun ein weiteres: Nicht nur Kunden auch Fabriken sowie Produktions- und Logistikprozesse sind vernetzt. Wem es gelingt, all diese Daten richtig zu interpretieren, kann neue Marktpotenziale erkennen und Vertriebskampagnen besser aussteuern.

In diesem Buch wird beschrieben, was derzeit schon umsetzbar ist und wie Unternehmen dabei vorgehen. Wie funktionieren Treueprogramme? Wie können Kaufabbrecher umgestimmt werden? Wie werden inaktive Kunden reaktiviert? Wie kann Predictive Intelligence die Kosten pro Neukunde drücken? Wie kann die Wirkung teurer TV-Spots gemessen werden? Was bringen statistische Zwillinge? Was lehrt uns die Gaming-Branche? Was ist ein Next Best Offer? Anhand konkreter Beispiele holen Sie sich Anregungen für Ihre eigene Strategie und können mitreden.

Viel Erfolg bei der Umsetzung!

Gabriele Braun & Torsten Schwarz

Inhalt

Data-Driven Marketing wird zum Standard
Gabriele Braun, Torsten Schwarz

1. Die Grundlage: Daten, Daten, Daten

Big-Data-Marketing: Chancen und Herausforderungen
Heinrich Holland

Marketing Analytics – Daten analysieren, Kunden gewinnen
Stefan Müller

Data-Driven Marketing braucht: Gute Daten
Carsten Kraus

Basis eines CRM: Die Kundeninformation
Ralf T. Kreutzer

2. Daten anreichern und veredeln

Datenmodellierung mit Data Vault – ein Komplettbild auf den Kunden
Michael Müller

Mit Webanalyse zu einer gezielteren Besucheransprache
Olaf Brandt

Location Intelligence – Unternehmenssteuerung mit Raumbezug
Andreas Lehr

Location-based Marketing und Geofencing
Michael Arthen

3. Optimieren und vorhersagen

Marketing Optimierung ermöglicht Gewinnsteigerung und Forecasting
Jörg Reinnarth, Heiko Solmsdorff

Predictive Targeting
Andrea Ahlemeyer-Stubbe

Realtime Advertising – das Prinzip
Nico Loges

Programmatic Advertising im Mediamix
Wolfgang Bscheid

Triple D – Data-Driven Display Performance Advertising
Wolfgang Schilling

Datengetriebene Vermarktung mittels Content Marketing
Fabian Siegler

Data-Driven Engagement-Marketing
Jürgen Seitz

4. Anwendungen in den Branchen

Smart Data Marketing bei Payback
Oliver Bohl, Stefanie Shanahan-Kleikamp

Preisbeobachtung und -optimierung im Fashion/E-Commerce
Alexander Reschke

E-Commerce – wenn Technologie auf Neurologie trifft
John Fleming

Big Data: Leadbewertung einer Onlinedruckerei
Meinert Jacobsen

Mit dem Servicecenter die Customer Journey aufwerten
Friedbert Schuh

Data-Driven Marketing für kleine Unternehmen
Felix Holzapfel, Sarah Petifourt

5. Rechtliche Grundlagen

Data-Driven Marketing – Rechtliche Herausforderungen in der Umsetzung
Jens Eckhardt

6. Praxisbeispiele

Mehr Umsatz mit Bestandskunden

Loyalty-Programm bindet Lifestyle-Kunden   Reinhard Janning

Kundendialog im Advent bei fotokasten   Alexander Handcock

Datengestützt die richtigen Schuhe empfehlen   Markus Nagel

E-Mails wecken inaktive bonprix-Kunden   Volker Wiewer

Noch mehr Neukunden gewinnen

DFDS senkt mit Big Data Kosten für neue Kunden   Paco Panconcelli

Durch intelligentes Scoring mehr Autos verkaufen   Marco Kersch

Modehändler verdoppelt Wirkung von TV-Werbung   Andreas Schwabe

Hilton rettet gestrandete Fluggäste in Echtzeit   Ron Warncke

Targeting – die richtigen Zielgruppen ansprechen

Daten machen Banner für Autokunden interessant   Carsten Diepenbrock

Elektronikhändler verkauft mit E-Mail-Retargeting   Elisabeth Paech

Vente Privée personalisiert auf jedem Kanal   Timo Kohlberg

Mit Content Marketing klickstarke Inhalte liefern

Individueller Content steigert Absatz im Webshop   Katrin Meier

Wie Weltbild Produktdaten den Kanälen zuordnet   Petra Kiermeier

Comvel hebt verborgenen Kundendatenschatz   Stefan Oertel

Realtime-Marketing und Realtime-Evaluation   Oliver Tabino

Lifecycle Marketing hält den Kontakt zu Kunden

DER Touristik hält den Kontakt über alle Kanäle   Matthias Postel

Travian aktiviert Spieler mit Willkommensstrecke   Laurentius Malter

Wie InnoGames dank Daten effektiv wirbt   Ulf Richter

Nürburgring: 30 Prozent weniger Bestellabbrüche   S. Berchtenbreiter

B2B steigt ins datengetriebene Marketing ein

Panasonic senkt Aufwand und steigert Kampagnen   Melanie Gipp

Onlinedruckerei bewertet Leads mit Big Data   Meinert Jacobsen

Daten verdreifachen Abschlüsse im Maschinenbau   Rainer Packbier

E-Mail-Marketing ist und bleibt das Arbeitspferd

Marketing Automation bei 1000jobboersen.de   Martin Philipp

Optimiertes E-Mail-Marketing bei Brille24   Denis Ehlicke

Erotikhändler prüft Newsletter-Zustellbarkeit selbst   Marcel Hartwig

Personalisierte E-Mails im Onlinehandel   Philip Nowak

Die Datenfalle für Onlineshops   Andreas Landgraf

Anhang

Autoren

Stichworte

Data-Driven Marketing wird zum Standard

Gabriele Braun, Torsten Schwarz

Massenwerbung ist am Ende. Kunden erwarten heute eine persönliche Ansprache. Dazu wird mehr als nur die korrekte Anrede gebraucht. Die Daten dazu sind vorhanden. Wir müssen nur lernen, richtig damit umzugehen. Begonnen hat alles 1992 mit Database Marketing. Damals schrieb Bernard Goldberg in seinem Lead Generation Handbook über Database Marketing: „This is the newest marketing concept and current buzz word that everyone is using to describe their marketing effort“. Damals ging es lediglich darum, Daten aus Karteikästen in Computer einzugeben. Das Ergebnis war, dass um die Jahrtausendwende jede Abteilung ihre eigene Datenbank hatte. Dann kam mit dem Buzzword CRM der Ruf nach Zusammenführung aller Kundendaten und das Ausrotten der letzten Excel-Tabellen und Karteikästen.

Inzwischen gibt es eine Unmenge neuer digitaler Touchpoints und damit eine Lawine neuer Daten. Big Data lautet die Lösung, aber so einfach ist es leider nicht. Welche Daten können überhaupt sinnvoll miteinander verknüpft werden? Wie wird die Aktualität gesichert? Wie werden Echtzeitdaten integriert? Auf etwa ein Fünftel schätzen Unternehmen den Anteil der fehlerhaften Daten. Tendenz steigend. Das System wird immer komplexer. Höchste Zeit also, systematisch an das Thema heranzugehen und eine klare Strategie zu entwickeln. Gartner prognostiziert, dass ab 2017 das Marketing mehr Geld in die IT investiert, als die IT-Abteilung selbst.

Die richtige Botschaft an die richtigen Kunden

Das Ziel des datengetriebenen Marketings ist es, die Aufmerksamkeit des Kunden zu erlangen. Dazu reichen heute keine kernigen Sprüche mehr. Stattdessen wird relevanter Content benötigt. Datengetriebenes Marketing hat primär zwei Aufgaben: Erst herausfinden, welche Zielgruppen ein ähnliches Interesse haben und dann die dazu passenden Inhalte finden. Dieser Prozess kann voll- oder halbautomatisch erfolgen. Was ist das Angebot, das ein Kunde in diesem Moment mit der höchsten Wahrscheinlichkeit als nächstes kaufen würde. Je mehr Daten bekannt sind, desto valider ist die Vorhersage dieses „next best offer“.

http://www.marketing-boerse.de/Experten/details/Gabriele-Braun

http://www.marketing-boerse.de/Experten/details/Torsten-Schwarz

Reaktivieren abwanderungswilliger Kunden

Wer die Daten hat, kann vorhersagen, welche inaktiven Kunden verloren und welche eventuell wieder zu reaktivieren sind. Es ist wie im echten Leben: Wer sich nicht um seine Freunde kümmert, hat bald keine mehr. Es gibt heute genug Kontaktpunkte, die analysiert werden können und die Aufschluss über die Qualität einer Kundenbeziehung liefern. Wenn über diese Kontaktpunkte über längere Zeit keine Aktivität gemessen wird, sollten die Alarmglocken schrillen. In solchen Fällen kann mit einer E-Mail-Kampagne an inaktive Empfänger eine Kundenbeziehung reaktiviert werden.

Datenanalyse über E-Mail und Website

Die beiden Klassiker des datengetriebenen Marketings sind die Website und das E-Mail-Marketing. Die Website misst mit einem Webanalyse-Tool alle Besucher und registriert, für welche Bereiche sich wie viele Besucher interessieren. Datengetriebenes Marketing kann bedeuten, dass Besucher in Echtzeit analysiert werden und dann nur diejenigen Produkte angezeigt bekommen, die sie mit der höchsten Wahrscheinlichkeit anklicken beziehungsweise kaufen würden.

Bei E-Mail ist es das gleiche, nur dass hier die Software einen Personenbezug herstellen kann. Wohlgemerkt: Die Software und nicht der Anbieter, denn das Zusammenführen von Nutzungs- und Nutzerdaten ist nach deutschem Datenschutzverständnis nicht zulässig. Professionelle E-Mail-Marketing-Software kann jedoch anonymisiert diese Daten analysieren und dann automatisiert E-Mails an die richtigen Segmente versenden.

Massen-Newsletter und individuelle CRM-Mailings

Die traurige Realität deutscher Unternehmen sieht leider oft noch so aus, dass es im datengetriebenen Marketing mindestens zwei große Inseln gibt: Die Direktmarketingabteilung hat einen großen Newsletter-Verteiler, an den mit einem professionellen E-Mail-Tool Massenmails verschickt werden. Die CRM-Abteilung hat eine wunderbare Datenbank, die wunderbare Selektionen und hochpersonalisierte Mailings erlaubt – leider aber nur als Print. Die Anbindung des CRM an das E-Mail-System ist zu komplex, sodass mit Inseln gearbeitet wird. Und selbst, wenn aus dem CRM heraus E-Mailings versendet werden, so sind diese oft nicht mit dem Newsletter abgestimmt.

Touchpoints über Smartphone und Internet der Dinge

Während die meisten Unternehmen sich noch auf der eben beschriebenen Ebene des täglichen Kampfes um die Vereinheitlichung der Basisdaten herumschlagen, bewegt sich die Welt rasant weiter. Zwei Drittel der Deutschen haben ein Smartphone. Der Umsatzanteil mit Smartphones gegenüber Nicht-Internet-Handys beträgt 98 Prozent. Nicht lange und dann hat jeder einen solchen Kleincomputer in der Tasche. Der registriert penibel, was wann und wo getan wird. Das Smartphone produziert Nutzungsdaten, dass einem schwindelig wird. Und es erlaubt jederzeit an jedem Ort, Informationen abzurufen, um damit kundzutun, was einen gerade interessiert. Die Möglichkeiten kontextbezogener Werbung sind gigantisch, wenn sie richtig umgesetzt werden.

Noch weiter geht es, wenn auch noch Raumthermostate, Autos und Smartwatches als Datenlieferanten hinzukommen. Es geht längst nicht mehr darum, welche Daten da sind, sondern wie diese sinnvoll ausgewertet und interpretiert werden können.

Big Data – nur ein Buzzword?

Die Auswertung dieser gigantischen Datenmengen, die dummerweise oft ziemlich unstrukturiert vorliegen, wird als Big Data bezeichnet. Als ob das nicht schon Chaos genug wäre, bekommt man nicht einmal die Zeit, alles in Ruhe auszuwerten und dann seine Aktionen zu planen. Das war früher und hieß Data Mining. Nein, heute muss alles sofort in Echtzeit geschehen. Ein Beispiel dafür ist RTB, Realtime Bidding: Sie besuchen eine Website und sehen dort ein Werbebanner. Nein, denn dazwischen passiert einiges: Sofort nachdem Sie die Website aufgerufen haben, werden Sie gescannt: wer kommt da zu Besuch? Dann wird diese Information an diverse Werbenetzwerke weitergegeben: Wer kennt diesen Nutzer oder hat ein Banner für ihn? Und am Ende wird eine Auktion unter allen Werbetreibenden veranstaltet, wie viel ihnen dieses Banner wert ist. Und all das geschieht binnen Millisekunden.

Conversion Rates optimieren erfordert Daten

Am deutlichsten wird die gewachsene Bedeutung der Datenerhebung und -analyse auf der eigenen Website. Akribisch werden Klickpfade und Absprungseiten analysiert. Emotional Usability hilft, die Besucher zu halten und sie schließlich zum bequemen Abschluss zu bringen. Dabei wird nichts mehr dem Zufall überlassen. Predictive Analytics weiß, was Besucher als Nächstes machen. Multivariate Tests optimieren jedes noch so kleine Detail an der Website. Gibt es Probleme, werden diese rechtzeitig erkannt und behoben.

Echtzeit-Pricing steigert den Erlös

Was an der Tankstelle schon längst Realität ist, hält nun auch im Internet Einzug:Die Preise werden mehrfach täglich gewechselt. Auch hier spielt eine gigantische Datenmaschine im Hintergrund die entscheidende Rolle: Alle Informationen über vergangene Verkäufe, Wettbewerbspreise und Käufervorlieben laufen zusammen und führen zur Anzeige des Preises, zu dem das Produkt am wahrscheinlichsten gekauft wird. Amazon ist hier Vorreiter, aber andere ziehen nach.

Das Smartphone als Navi für das tägliche Leben

Wo ist das nächste gute Restaurant oder der nächste Modeladen? Diese Antwort geben Smartphones schon heute und führen einen auch gleich dorthin. Möglich machen dies Bewertungsdatenbanken, wie Yelp und Foursquare. Google sammelt schon lange eigene lokale Daten, Apple jetzt auch. Bald kann das Smartphone wirklich nützliche Tipps zur Umgebung liefern. Richtig interessant jedoch wird es, wenn auch der Laden selbst vernetzt ist. Mit iBeacons kann genau gemessen werden, wer reinkommt und wo sich die Besucher am liebsten aufhalten. Ähnlich wie Webanalytics, nur eben im echten Leben. Das eröffnet neue Möglichkeiten von datengetriebenem Marketing.

Customer Journey: Den Kontakt halten

Der permanent mobile Kunde stellt Unternehmen vor Herausforderungen. Ist es die gleiche Person, die gerade am Smartphone etwas sucht, dann am Tablet Bilder dazu anschaut und schließlich am PC bestellt? Die Attribution der Werbekontakte ist ein nicht ganz einfach zu lösendes Problem. Wichtig ist es aber, um die Wirkung der verschiedenen Werbemittel zu ermitteln. War der TV-Spot, die Google-Suche oder die Retargeting-Anzeige am Wichtigsten für die Kaufentscheidung? Damit vor lauter digitalen Messfühlern alles noch bequem gemanagt werden kann, gibt es jetzt Container-Tags. Da werden alle Zählpixel und Cookies in einem System gebündelt.

Systeme vernetzen – Kampf den Datensilos

Die Vernetzung der Systeme, die mit Kundendaten zu tun haben, ist eine große Aufgabe, an die sich viele noch nicht herangewagt haben. Heute hat jedes Unternehmen sein CRM-System. Dieses weiß aber leider nicht, was sich im E-Mail-Versandsystem abspielt. Das Unternehmen weiß zwar, dass nur jede vierte E-Mail geöffnet wird, aber was sich hinter diesen Zahlen verbirgt, bleibt ein Rätsel. Wer sind die Nichtleser? Kann man sie reaktivieren? Und dann gibt es noch das Webanalytics-System. Das weiß genau, wie sich die Menschen auf der Website bewegen, was sie interessiert und wie sie konvertieren. Aber die Wenigsten nutzen bisher die Chance von Retargeting: Wer die Urlaubsplanung unterbricht, wird auf Facebook an die schöne Ferienwohnung an der Algarve erinnert.

Auch mit dem Anschluss des Social Media Monitorings tun sich viele noch schwer. Egal, ob sich jemand beschwert oder begeistert von dem neuen Produkt schwärmt – bei der Marketingabteilung sind alle Kunden gleich. Individualisierung beschränkt sich auf den Namen und vielleicht noch auf eine grobe Segmentierung. Und dass ein Unternehmen es schafft, die Daten aus dem Callcenter oder dem, dank Kundenkarte dokumentierten, Filialbesuch sinnvoll zu integrieren, bleibt wohl eher ein Wunschtraum.

Und was ist der Hauptgrund für das Dilemma? Jede Abteilung des Unternehmens ist Weltmeister in der Analyse des eigenen Datensilos. CRM, E-Mail-Marketing und Webanalytics sind jeweils Spitze. Leider aber immer nur in ihrem eigenen System.

Data-Driven Marketing weckt Wünsche

Unternehmen erwarten zu recht große Vorteile durch datengetriebenes Marketing. Ganz oben unter den Erwartungen stehen bessere Informationen zum Konsumverhalten der Kunden. Auch die Aussteuerung von Werbekampagnen wird erheblich profitieren. Eine bessere Einschätzung von Marktpotenzialen steht an dritter Stelle der Antworten, die ausgewählte Marketingexperten der Experton-Group im Rahmen einer Befragung gegeben haben.

image

Abb. 1: Erwartungen an Big Data und Data-Driven Marketing (Quelle: Experton Group 2012)

Literatur

Torsten Schwarz: Big Data im Marketing – Chancen und Möglichkeiten für eine effektive Kundenansprache. 324 Seiten, Haufe 2015.

Torsten Schwarz: Leitfaden Marketing Automation – Digital neue Kunden gewinnen. 288 Seiten, marketing-BÖRSE 2014.

LEITFADEN DATA DRIVEN MARKETING

DIE GRUNDLAGEN: DATEN, DATEN, DATEN

1

Big-Data-Marketing: Chancen und Herausforderungen

Marketing Analytics – Daten analysieren, Kunden gewinnen

Data-Driven Marketing braucht: Gute Daten

Basis eines CRM: Die Kundeninformation

LEITFADEN DATA DRIVEN MARKETING

Daten anreichern und veredeln

2

Datenmodellierung mit Data Vault – ein Komplettbild auf den Kunden

Mit Webanalyse zu einer gezielteren Besucheransprache

Location Intelligence – Unternehmenssteuerung mit Raumbezug

Location-based Marketing und Geofencing

LEITFADEN DATA DRIVEN MARKETING

Optimieren und vorhersagen

3

Marketing Optimierung ermöglicht Gewinnsteigerung und Forecasting

Predictive Targeting

Realtime Advertising – das Prinzip

Programmatic Advertising im Mediamix

Triple D – Data-Driven Display Performance Advertising

Datengetriebene Vermarktung mittels Content Marketing

Data-Driven Engagement-Marketing

LEITFADEN DATA DRIVEN MARKETING

ANWENDUNGEN IN DEN BRANCHEN

4

Smart Data Marketing bei Payback

Preisbeobachtung und -optimierung im Fashion/E-Commerce

E-Commerce – wenn Technologie auf Neurologie trifft

Big Data: Leadbewertung einer Onlinedruckerei

Mit dem Servicecenter die Customer Journey aufwerten

Data-Driven Marketing für kleine Unternehmen

LEITFADEN DATA DRIVEN MARKETING

RECHTLICHE GRUNDLAGEN

5

Data-Driven Marketing – Rechtliche Herausforderungen in der Umsetzung

LEITFADEN DATA DRIVEN MARKETING

PRAXISBEISPIELE

6

Mehr Umsatz mit Bestandskunden

Noch mehr Neukunden gewinnen

Targeting – die richtigen Zielgruppen ansprechen

Mit Content Marketing klickstarke Inhalte liefern

Lifecycle Marketing hält den Kontakt zu Kunden

B2B steigt ins datengetriebene Marketing ein

E-Mail-Marketing ist und bleibt das Arbeitspferd

Big-Data-Marketing: Chancen und Herausforderungen

Heinrich Holland

„Big Data“ ist in Deutschland seit Mitte des Jahres 2012 eines der Hype-Themen und wird facettenreich diskutiert. Zum einen werden die verschiedenen Anwendungsbereiche erörtert – vom Einsatz im Gesundheitswesen, über den Einsatz im Sicherheitsbereich und in der öffentlichen Verwaltung bis hin zum Einsatz im Marketing. Zum anderen findet eine Auseinandersetzung mit der technischen und rechtlichen Seite von Big Data statt [1].

Auf Unternehmensseite ist das Interesse an dem Thema zwar groß, doch wissen die meisten Unternehmen nicht, wie und wofür sie Big Data konkret einsetzen könnten. Als eine der Hürden am Markt gilt der Mangel an Anwendungsbeispielen [2].

Vom Begriff abgeleitet, bedeutet „Big Data“ zunächst nur „große Datenmengen“. Diese Bedeutung kennzeichnet jedoch nur seinen Kern. Der Digital-Verband Bitkom stellt folgende Definition auf: „Big Data bezeichnet den Einsatz großer Datenmengen aus vielfältigen Quellen mit einer hohen Verarbeitungsgeschwindigkeit zur Erzeugung wirtschaftlichen Nutzens.“ Weiter heißt es: „Big Data liegt immer dann vor, wenn eine vorhandene Unternehmensinfrastruktur nicht mehr in der Lage ist, diese Datenmengen und Datenarten in der nötigen Zeit zu verarbeiten.“ [3]

Diese Definition zeigt die Vielschichtigkeit von Big Data. Mit den Merkmalen „große Datenmenge“, „Vielfältigkeit“ und „hohe Geschwindigkeit“ charakterisiert sie eine bestimmte Konstellation von Daten. Im weiteren Sinne kann man unter Big Data den Einsatz dieser Daten zur Stiftung wirtschaftlichen Nutzens verstehen. Big Data wird so zu einem Teil der strategischen und operativen Unternehmensführung und Unternehmenskultur. Dies klingt auch im zweiten Teil der Definition mit der Erwähnung der Herausforderungen an die Unternehmensinfrastruktur an. Diese lässt sich in eine institutionelle, personelle und materielle Infrastruktur unterteilen [4].

http://www.marketing-boerse.de/Experten/details/Heinrich-Holland

Die materielle Infrastruktur umfasst die in Big Data enthaltene informationstechnologische Komponente. Je nach Umfeld lassen sich auch einige Big-Data-Definitionen finden, die vor allem auf die IT abstellen [5, 6]. Dieser Aspekt wird aufgrund des Schwerpunkts auf das Marketing im Folgenden lediglich am Rande behandelt.

Mit Big Data ist erstmals eine umfassende Marktanalyse und Marktbeobachtung möglich. Der Beobachtungsradar kann dank Big Data extrem groß und nahezu lückenlos sein. Mit Big Data ist auch genau das Gegenteil des weiten Radars, nämlich eine Fokussierung auf das einzelne Individuum, möglich. Big Data lässt fundierte Vorhersagen direkt aus den Daten und Algorithmen zu, ohne dass deren Ergebnisse einer Interpretation durch Experten bedürfen [7].

Die „5 Vs“ von Big Data

Das Beratungsunternehmen Gartner hat Big Data im Jahr 2011 zum ersten Mal in seinen Hype Cycle „Emerging Technologies“ aufgenommen [8]. Nach dem aktuellen Hype Cycle befindet sich Big Data am Ende der ersten von fünf Phasen, der „Technology-Trigger“-Phase, und nähert sich der zweiten Phase an, dem „Peak of Inflated Expectations“. Nach Einschätzung von Gartner wird Big Data in zwei bis fünf Jahren das Plateau der Produktivität erreicht haben [9].

Volume: Wie groß ist „Big“?

Der große Datenumfang ist das, was Big Data zunächst den Namen gab. Doch was bedeutet groß? Unzweifelhaft steigt das Datenaufkommen zusehends. Allein von 2000 bis 2002 wurden mehr Daten generiert als in den 40.000 Jahren zuvor [10]. Nach einer Studie wird das Datenvolumen von 2005 bis 2020 um Faktor 300 von 130 Exabyte auf 40 Zettabyte wachsen und sich damit etwa alle zwei Jahre verdoppeln [11].

Wird heute zum Teil schon die Verwendung von Daten im Giga- und Terabyte-Bereich als Big Data bezeichnet, plant IBM zusammen mit Astron im Dome-Projekt das Sammeln von 14 Exabyte Daten pro Tag. Diese müssen verarbeitet und täglich in einer Größe von einem Petabyte gespeichert werden [13]. Nicht nur, wenn man sich vor Augen führt, dass ein Exabyte Daten digitalisierter Musik einer Abspieldauer von zwei Millionen Jahren entsprechen, sondern auch verglichen mit den heutigen zuvor genannten Dimensionen kann man dem Dome-Projekt zweifelsohne „Big Data“ bescheinigen. Es übertrifft selbst den vermeintlichen Datenriesen Facebook, der täglich 500 Terabyte Daten verarbeitet, um das 28.000-Fache und lässt somit daran zweifeln, ob die heutigen Datenmengen wirklich „Big“ sind [14].

image

Abb. 1: Das Wachstum des weltweiten Datenaufkommens 2005-2020 [12].

Betrachtet man zudem die Mooresche Gesetzmäßigkeit [15], nach der sich die Kapazität der Datenverarbeitung alle 12 bis 24 Monate verdoppelt, so kommt man zu dem Schluss, dass die Festlegung einer absoluten Grenze für die Größe von Big Data nicht möglich und nicht sinnvoll ist. Würde man eine derartige Festlegung treffen, würde sich Big Data qua Definition schnell überleben. Selbst das Dome-Projekt würde irgendwann den Charakter von Big Data verlieren.

In Betracht käme die Definition der Größe in Relativität zu den aktuellen Verarbeitungs- und Speichermöglichkeiten. Fraglich ist jedoch, ob dies sinnvoll ist. Allein aufgrund des zeitlichen Fortschritts könnten so Big-Data-Projekte zu Nicht-Big-Data-Projekten werden.

Schließlich ließe sich Größe auch im Sinne der Anzahl der verwendeten Datensätze interpretieren. In diesem Fall ist es nicht aufgrund der zeitlichen Veränderung, wohl aber aufgrund der unterschiedlichen Konstellationen der Einzelfälle nicht sinnvoll, eine absolute Anzahl an Datensätzen als Grenze zu fixieren. Vielmehr ist darauf abzustellen, ab wann ein Mehr an Daten zu einer signifikanten Veränderung des Ergebnisses und der daraus abgeleiteten Erkenntnisse und des Nutzens führt.

Big Data ist im Ergebnis nicht „Big“, wenn gewisse Datengrößen überschritten werden, sondern erst, wenn die Menge der eingesetzten Daten zu einem Ergebnis führt, das mit weniger Daten nicht hätte erreicht werden können.

Variety: Wie unterschiedlich sind Big-Data-Daten?

Die immer größer werdende Datenmenge entsteht nicht zuletzt aufgrund der ständigen Zunahme der Datenquellen. Smartphones, Social Media, Internet-Transaktionen, aber auch Kameras und Sensoren und das Internet der Maschinen produzieren immer mehr Daten. Mit der Vielfalt der Quellen geht die Bandbreite der Datenarten und -strukturen einher. Anhand der Struktur lassen sich Daten grob in drei Arten unterteilen: strukturierte, semistrukturierte und unstrukturierte Daten.

1. Unter strukturierten Daten versteht man Daten, die eine gleichartige Struktur aufweisen. Deren Anordnung und Verknüpfung erfolgt in einer bestimmten Art und Weise. Strukturierten Daten liegt ein zuvor festgelegtes Datenbankmodell zugrunde, das die einzelnen Datenelemente und die Relationen untereinander definiert. Die Struktur ermöglicht eine effiziente Verwaltung und einen einfachen Zugriff auf die Daten. Ein Beispiel für derartige Datenstrukturen sind SQL-Datenbanken.

2. Im Gegensatz zu strukturierten Daten weisen semistrukturierte Daten kein allgemeingültiges einheitliches Schema auf. Sie implizieren die Strukturinformation, auch wenn diese nicht immer offensichtlich ist. Im Gegensatz zu strukturierten Daten sind mit semistrukturierten Daten tiefe, unregelmäßige und volatile Strukturen ohne wiederkehrende Komponenten darstellbar, was einen flexibleren Einsatz ermöglicht. Gleichzeitig verursacht das Mehr an Flexibilität auch ein Mehr an Aufwand beim Auslesen und Verarbeiten der Daten [17]. Semistrukturierte Daten, die auch als strukturtragende oder sich selbsterklärende Daten bezeichnet werden, sind zum Beispiel die im Internet weit verbreiteten HTML-, XML- oder JSON-Dateien, aber auch E-Mails, die zumindest im Header eine gewisse Struktur aufweisen.

3. Unstrukturierte Daten kommen, wie der Name vermuten lässt, ohne jegliche formale Struktur daher. Die fehlende Struktur erschwert die automatische Verarbeitung. Die Modellierung dieser Daten, um automatisch zu verarbeitende Strukturen zu gewinnen, ist oft mit einem Informationsverlust verbunden.

Neben der manuellen Strukturierung der Daten werden unterschiedliche Verfahren zu deren Aufbereitung eingesetzt. Dies sind zum Beispiel Textanalysen und Textmining, maschinenlernende Systeme, basierend auf latent semantischer Analyse [18], statistischer Bayes-Klassifikation oder neuronalen Netzen [19] sowie linguistischen Verfahren [20, 21, 22]. Auf Basis dieser Verfahren werden dann beispielsweise mittels Sentimentanalysen die Stimmungslagen in sozialen Netzwerken analysiert.

Betrachtet man strukturierte und semistrukturierte Daten auf der Ebene eines einzelnen Datums, kann dieses selbst unstrukturiert sein. So ist zum Beispiel die Nachricht einer E-Mail als Text unstrukturiert, wohingegen die E-Mail als solche semistrukturiert ist. Gleiches gilt für einen Text in einer strukturierten Datenbank.

Neben Texten zählen auch Bilder, Videos oder Töne zu unstrukturierten Daten. Schätzungen zufolge sind rund 85 Prozent aller Daten unstrukturiert und beherbergen eine Fülle an nützlichen Informationen [10, 23].

Velocity: Wie schnell ist schnell?

Daten zu erheben, zu speichern und zu verarbeiten ist nicht neu. Was sich bei Big Data ändert, ist die zeitliche Dimension. Die Geschwindigkeit nimmt in der Datenentstehung, der Speicherung sowie in der Datenverarbeitung zu.

Das zuvor beschriebene Datenwachstum geht damit einher, dass in der gleichen Zeit immer mehr Daten entstehen. Diese müssen verarbeitet und zum Teil auch gespeichert werden.

Nicht nur auf der Seite der Datenentstehung, sondern auch bei der Datenverwendung ändern sich im Sinne von Big Data die Anforderungen an die Geschwindigkeit. Kennzeichen von Big Data ist es, dass die Daten schnell verarbeitet werden. Gilt bei Business-Intelligence-Analysen die tägliche Datenverarbeitung als schnell, so meint Big Data damit eine Realtime- oder Near-Realtime-Verarbeitung. Auch hier ist es nicht möglich und sinnvoll, einen starren Grenzwert zu fixieren. Je nach Anwendungsfall können Verarbeitungsgeschwindigkeiten im Millisekundenbereich bis hin zu Sekunden, Minuten oder gar Stunden Realtime beziehungsweise Near-Realtime entsprechen.

Die Steuerung der Auslieferung bestimmter Banner auf einer Homepage, basierend auf einer Big-Data-Analyse, erfordert eine Antwort innerhalb weniger Millisekunden. Wird aufgrund einer Big-Data-Analyse ein neues Produkt evaluiert, können hingegen Minuten bis Stunden ausreichend sein. Diese schnelle Art der Datenverarbeitung wird unter den Fachtermini „Komplexes Event-Processing“ und „Streaming-Data“ zusammengefasst [24].

Technologisch wird dieser Anforderung derzeit mit den sogenannten In-Memory-Datenbanken und der von Google entwickelten MapReduce-Technologie entsprochen, die ein parallelisiertes Verarbeiten einzelner Abfragen ermöglichen [25].

Veracity: Welche Qualität haben Big-Data-Daten?

Menge und Vielfalt der Big-Data-Daten bringen Unterschiede in der Qualität der Daten mit sich. Das Anstreben einer möglichst hohen Datenqualität ist auch bei Big Data empfehlenswert. Allerdings hat man nicht immer Einfluss auf die Qualität der Daten und muss deren Volatilität in Kauf nehmen.

So lässt sich beispielsweise eine gewisse Ungenauigkeit in der Standortbestimmung per GPS in den Häuserschluchten von New York nicht vermeiden. Denkt man weiter an die von Menschen erfassten Texte, so kann man sich vorstellen, wie die jeweilige Aufrichtigkeit und Stimmung Einfluss auf die Qualität dieser haben kann [26]. Neben der Qualität der Daten selbst kann auch die Verarbeitung und Auswertung der großen Datenmengen zur Qualitätsminderung beitragen.

Value: Welchen Wert haben Big-Data-Daten?

Wie eingangs beschrieben, werden die großen Datenmengen unterschiedlicher Struktur und Qualität erst dann zu Big Data im weiteren Sinne, wenn daraus schnell Erkenntnisse und Nutzen generiert werden können. Diese Erkenntnisse sind der Mehrwert von Big Data.

Wenn man die zuvor erörterten charakteristischen Merkmale von Big Data zugrunde legt, würde der Nutzen durch den Einsatz einer großen Zahl von Datensätzen unterschiedlicher Quellen und Qualität entstehen. Fraglich ist, ob immer alle Merkmale erfüllt sein müssen, um eine Unternehmung als Big Data einzustufen. Auch wenn die volle Kraft zumeist in der Kombination von Datenquellen liegt, könnte man sich vorstellen, dass das Fehlen dieser Variety durch eine sehr große Menge von Datensätzen einer Quelle ausgeglichen werden kann.

Big Data beschreibt mehr die Art der Datennutzung und eine dementsprechende Philosophie, als dass es um die rein formale Einordnung einer Unternehmung anhand der zuvor genannten Kriterien als Big Data geht. Big Data ist mehr als die Summe von Kriterien und vor allem mehr als die Summe seiner Daten. Im Kontext dieses Beitrags wird Big Data so verstanden, dass sich durch das Zusammenspiel der Kriterien ein Nutzen ergibt, der ohne diese nicht hätte erreicht werden können.

image

Abb. 2: Die 5 Vs von Big Data [27].

Weg zum Big-Data-Unternehmen: Herausforderungen

Big-Data-Marketing bedeutet für Unternehmen eine große Chance. Gleichzeitig stellt es sie aber vor zahlreiche Herausforderungen bezüglich der Technik, der Strukturen und dem Umgang mit den Daten. Diese müssen gelöst werden, um von Big Data profitieren zu können.

Datenhaltung und Technik

Die Basis für Big Data bilden viele Datensätze unterschiedlicher Struktur und eine Technik, die deren Speicherung und schnelle Verarbeitung ermöglicht. Heute findet man in Unternehmen oftmals verteilte Datensilos vor. Die unterschiedlichen Anwendungen wie ERP (Enterprise Ressource Planning), CMS (Content Management System), CRM (Customer Relationship Management), ECMS (Enterprise Content Management System), FiBu (Finanzbuchhaltung) und Webshop bilden ihr eigenes Ecosystem und speichern ihre Daten in separaten Datenbanken. Einige Unternehmen überführen Teile dieser Daten in ein Data Warehouse.

Ein Data Warehouse ist auf strukturierte und gut dokumentierte Daten mit einer durch das Datenmodell sichergestellten Integrität ausgelegt. Weiter ist ein Data Warehouse entsprechend den vom Fachbereich definierten Anforderungen aufgebaut. Die Herangehensweise ist demnach so, dass zunächst die Fragen, die durch die Analyse beantwortet werden sollen, definiert werden. Anhand der notwendigen Analyse wird dann das Data Warehouse aufgebaut oder erweitert. Die Berichtgenerierung im Data Warehouse erfolgt periodisch [28].

Um von der explorativen Big-Data-Analyse profitieren zu können, müssen die Unternehmen eine technische Big-Data-Plattform kreieren und zur Verfügung stellen. Besteht bereits ein Data Warehouse, könnte dies nach Ansicht von IBM um gewisse Big-Data-Komponenten erweitert werden [29]. Diese müssen unstrukturierte Daten in all ihren Formen speichern. Darüber hinaus müsste diese Big-Data-Plattform auch die sogenannten Data in Motion, die auch Streaming Data genannt werden, verarbeiten können. Streaming Data sind Daten, die, zumindest in einem gewissen Zeitintervall, permanent anfallen und in Echtzeit in die Big-Data-Plattform integriert werden müssen. Nur so werden Echtzeitanalysen ermöglicht.

Neben diesen Anforderungen an die Integration muss die Big-Data-Plattform auch die unstrukturierten Daten durch Verfahren wie Sentimentanalysen verarbeiten. Die Verarbeitung sämtlicher Daten muss in der Big-Data-Plattform so performant sein, dass die Abfragen in Realtime beziehungsweise Near-Realtime verarbeitet werden können. Techniken, die hierfür zum Einsatz kommen, sind MapReduce Cluster und In-Memory-Datenbanken [30].

Derartige Plattformen sind derzeit noch relativ neu und mit entsprechenden Kosten verbunden. Jedoch ist aufgrund der technischen Entwicklungen damit zu rechnen, dass diese Techniken schon bald sehr viel günstiger erhältlich sein werden. Eine Studie zeigt, dass derzeit 53 Prozent der befragten Unternehmen Probleme mit der Datenintegration haben. Die aufgezeigten Entwicklungen könnten dabei helfen, diese Probleme zu beseitigen und für eine Big-Data-Basis zu sorgen [31].

Prediction versus Reporting

Stellt ein Unternehmen allein die technische Plattform zur Verfügung, ist zwar ein wichtiger Grundstein gelegt, Big Data wird jedoch nicht zur vollen Entfaltung kommen. Wie bereits aufgezeigt ist einer der wesentlichen Unterschiede zwischen der Big-Data-Welt und Small-Data-Welt, dass Big Data mehr als nur retrospektive Analysen ermöglicht. Big Data versucht, die Zukunft vorherzusagen. Um diese Vorhersagen zu erstellen, müssen sich Unternehmen darauf einlassen, sich an Daten und Algorithmen zu orientieren. Dafür bedarf es der richtigen Daten, Fragen und Mut. Unternehmen müssen verstehen, dass man grundsätzlich alles vorhersagen kann, die Frage ist nur mit welcher Genauigkeit [32]. Um die Genauigkeit zu verbessern, bedarf es mehr Datensätze eines Typs oder mehr unterschiedliche Datensätze, die für die Vorhersage eine nützliche Information enthalten.

Wollen Unternehmen von der Möglichkeit, mittels Big-Data-Vorhersagen treffen zu können, profitieren, müssen sie die dafür nötigen Daten als Rohmaterial in ihrer Big-Data-Plattform verfügbar machen.

Da die Daten allein nicht preisgeben, welche möglichen Vorhersagen in ihnen stecken, müssen die Unternehmen dazu in der Lage sein, die richtigen Fragen zu stellen. So konnte in einem Fall eine Bäckerei, die sich die Frage gestellt hat, was die Wetterprognosen über den Absatz der Backwaren verraten könnten, die Retourenquoten aus den Filialen drastisch verringern und so die Profitabilität steigern [33].

In einem anderen Fall hat sich die dm-drogerie markt GmbH & Co. KG gefragt, welche Informationen nötig sein würden, um den Mitarbeiterbedarf in einer Filiale pro Tag zu errechnen. Die Antwort lag darin, Daten zu den Tagesumsätzen, Paletten-Anliefer-Prognosen der Verteilzentren, filialindividuelle Parameter wie Öffnungszeit und Größe, aber auch Daten zu Ferien, Markttagen, Baustellen und Wettervorhersagen miteinander zu verknüpfen. Im Ergebnis erhielt das Unternehmen wesentlich genauere Planungen, als sie mit den einfachen Hochrechnungen der Filialverantwortlichen möglich waren [34].

Bei der heute vorherrschenden Datenanalyse wird im Nachhinein versucht, Zusammenhänge zu erklären und Veränderungen festzustellen. Auf Grundlage dieser Analyse werden gegebenenfalls von Menschen Vorhersagen getroffen, um das Unternehmen zu steuern. Die Analyse selbst ist dabei risikofrei. Sie liefert die Erkenntnisse, die die Daten beherbergen. Wenn eine Prognose nicht zutrifft, dann liegt der Fehler nicht in der Analyse, sondern in den daraus gezogenen Schlüssen. Bei Big Data hingegen liefert der Algorithmus direkt die Vorhersage. Aus Sicht der Unternehmen bedarf es daher den Mut, den Zahlen mehr zu vertrauen als den zahlengestützten menschlichen Vorhersagen. Will ein Unternehmen Big Data erfolgreich einsetzen und zu einem echten Big-Data-Unternehmen werden, muss das Management diesen Mut zu einem Teil der gelebten Unternehmensphilosophie werden lassen.

Personal und Strukturen

Die Daten, die Technik und der Mut, sich auf Big-Data-Vorhersagen einzulassen, allein reichen nicht aus, um Big Data in einem Unternehmen zu etablieren. Vielmehr müssen auch die personellen und strukturellen Voraussetzungen geschaffen werden.

Big Data kann in nahezu allen Bereichen des Marketings und des Unternehmens sinnvoll eingesetzt werden. In der logischen Schlussfolgerung müssen alle diese Bereiche Zugriff zu den Big-Data-Informationen erhalten. Hierfür müssen Unternehmen die Voraussetzungen schaffen. Ist es so, dass heute die einzelnen Abteilungen „auf ihren Datensilos sitzen“, muss für erfolgreiches Big-Data-Marketing für mehr Datendemokratie im Unternehmen gesorgt werden. Dafür muss im ersten Schritt ermittelt werden, an welcher Stelle welcher Informationsgehalt benötigt wird. Dabei ist nicht primär die Frage zu klären, auf welche Daten die einzelnen Abteilungen zugreifen können, sondern welche Informationen an diesen Stellen benötigt werden [35].

In den Big-Data-Analyseprozess sind in der Regel mehrere Parteien involviert. Prinzipiell kann man hier drei Parteien unterscheiden: die Fachabteilung, die IT-Abteilung und die Analyseabteilung.

1. Die Fachabteilungen sind diejenigen, die die Informationen aus den Daten für ihre Arbeit benötigen.

2. Die IT-Abteilung ist diejenige, die sich um das Big-Data-System, bestehend aus Hard- und Software, kümmert. Da IT-Abteilungen klassischer Weise noch mehr Systeme betreuen, die historisch oder real gesehen mehr Bedeutung haben, muss dies mit zunehmender Bedeutung von Big Data für das Unternehmen in dem Personal- und Budgetplan der IT-Abteilung berücksichtigt werden.

3. Die Analyseabteilung besitzt besondere Analysekenntnisse und kennt sich in den Datenstrukturen aus. Sollte diese Aufgabe im Unternehmen nebenbei von der IT-Abteilung erledigt werden, ist mit der im Big-Data-Zeitalter gestiegenen Bedeutung der Analyse zu prüfen, ob dies auch künftig sinnvoll ist.

Bei der Ausgestaltung der Analyseabteilung sind wiederum drei Konstellationen denkbar.

1. In der ersten Variante könnte es eine zentral organisierte, personalintensive Analyseabteilung geben. Diese versorgt die Fachabteilungen und das Management mit Daten und deren Auswertungen.

2. Eine Alternative dazu wäre eine zentrale Analyseabteilung zu etablieren, die komplexe Analysen und Vorhersagen erstellt und regelmäßig anfallende automatischen Reports, zum Beispiel für das Management, vorbereitet und wartet. Die Fachabteilungen und das Management führen die einfacheren Analysen mit entsprechend einfacher bedienbarer Software selbstständig durch.

3. Eine dritte denkbare Variante wäre, dass es keine zentrale Analyseabteilung gibt, dafür in den jeweiligen Fachabteilungen Experten untergebracht sind, die sich um die Daten, Analysen und Vorhersagen für die Fachabteilung kümmern [36].

Welches dieser drei Modelle am besten geeignet ist, hängt vom Einzelfall ab. Würde man sich beispielsweise für die zweite Variante entscheiden, müsste das Unternehmen auch dafür Sorge tragen, dass die Mitarbeiter der Fachabteilungen entsprechend gut geschult sind, um die Analysen selber durchführen zu können. Eine offene Unternehmenskultur, die den Austausch über die Big-Data-Erfahrungen zwischen den Fachabteilungen, vor allem aber zwischen der Analyseabteilung und den Fachabteilungen begünstigt, sollte forciert werden, um Big Data effizient zu nutzen.

Die Analyseabteilungen müssen mit entsprechenden Spezialisten besetzt werden. Diese Data-Scientists müssten über vielseitige Fähigkeiten verfügen. „[…] [T]he powerful combination of skills […] of data hacker, analyst, communicator, and trusted adviser – all of which must be applied to a specific technology or product“, beschreibt Emily Waltz die entsprechenden Fähigkeiten [37]. Diese Talente dürften auf dem Arbeitsmarkt schwer zu finden sein, zumal es kaum Ausbildungen für dieses neue Berufsbild gibt. Daher ist es für Unternehmen umso wichtiger, sich rechtzeitig um entsprechendes Personal zu kümmern, dieses fortzubilden und sich so Big-Data-Kompetenzen aufzubauen.

Zusätzlich zu den Data-Scientists könnte es unter Umständen sinnvoll sein, auch Data-Designer zu akquirieren oder auszubilden. Die Aufgabe dieser besteht darin, die Ergebnisse, die die Daten liefern, gut verpackt und anschaulich darzustellen, damit sie zum Beispiel in einem Report an das Management schnell verstanden werden [38].

Korrelation versus Kausalität

Menschen sind daran gewöhnt, nach der Ursache für eine Gegebenheit zu fragen. Dies liegt daran, dass wir so erzogen wurden und uns die Geschichte und die Naturwissenschaften gelehrt haben, dass es für die Entwicklung vorteilhaft ist, Dinge zu verstehen und die Kausalitäten zu kennen. Zunächst wird eine These aufgestellt, die dann im Anschluss untersucht wird. Im Ergebnis wird diese These entweder bejaht oder verneint.