Smart Data: Durch intelligente Daten zu intelligenten Entscheidungen

avatar

Thomas Thüring - 15 Min. Lesezeit

header-picture

„Daten sind die DNA der modernen Business-Welt“, oder: „Das Datengold sorgt für ungeahnte Wertschöpfung im digitalen Zeitalter“ – solche Aussagen sind Beleg dafür, wie groß der Glaube an die Wirkkraft von Daten ist. Besteht diese aktuelle Datenhuldigung zu Recht? Wie müssen Daten beschaffen sein, um für signifikanten Mehrwert zu sorgen? Wie wird aus einem unstrukturierten Datenwust eine veredelte und smarte Daten-Ressource für Business-Ansprüche der Spitzenklasse? Und vor allem: Was ist mit Datenintelligenz und Datenqualität? Diesen Fragen gehen wir nach. (rho, ago, tth)

Themen im Überblick
    1. Was ist und wie entsteht Datenintelligenz?

    2. Ohne Data Analytics keine Datenintelligenz

    3. Was sind die Bausteine von Datenintelligenz?

    4. Was sind die Aufgaben von Big Data Analytics?

    5. Was sind die wichtigsten Analyse- & KI-Techniken?

    6. Warum ist Datenintelligenz dermaßen wichtig?

 

Was ist und wie entsteht Datenintelligenz?

Datenintelligenz entsteht aus einer dreigliedrigen Verkettung: Verschiedene Daten-Quellen werden verknüpft, sie liefern Datenmengen für unterschiedliche Fragestellungen und Projektierungen. Aus diesen Volumina gehen strukturierte Daten hervor, die zu einem integrierten Wissens-Pool verschmelzen. Damit einhergehend kommen innovative und datenveredelnde Technologien aus den Bereichen Data Mining, Text Mining, Bildverarbeitung, Data Analytics, Künstliche Intelligenz, Machine Learning und Business Intelligence zur Anwendung. Das Ergebnis dieses Entwicklungsablaufs ist Datenintelligenz. Deren Hauptziele: den Menschen als Entscheider unterstützen, Prozesse optimieren, Kundenbeziehungen und Kundenzufriedenheit intensivieren, geschäftliche Partnerschaften bedienen.

mbm-Datenintelligenz-Beitrag-Abbildung-1

Entstehungsprozess von Datenintelligenz: intelligente Daten als Entscheidungshilfe für den Menschen (Quelle: MBmedien Group GmbH)

↵ zurück zur Übersicht

Ohne Data Analytics keine Datenintelligenz

Zuerst einmal zum Ausgangspunkt der hohen Erwartungen: Daten sind zum Top-Bindeglied zwischen Unternehmen sowie Kunden, Partnern und Lieferanten avanciert. Im Zuge der Digitalisierung tragen sie dazu bei, die Bedürfnisse von nahen Geschäftsteilnehmern besser zu verstehen und proaktiv zu unterstützen. Das Ganze mit dem Ziel, die Daten schließlich am Ort des Geschehens – dem Digital Touchpoint – wieder gewinnbringend einzusetzen. Damit ist schlicht gesagt die Substanz des digitalen Mehrwerts bereits genannt.  

Dabei ist die digitale Transformation gleichzeitig Grundlage und Treiber: Im Kern steht sie für die gezielte Nutzung neuer digitaler Technologien zum Aufbau oder zur Anreicherung von attraktiven Geschäftsmodellen. Und gleichsam zur Befeuerung dieser Ambition sammeln immer mehr Firmen Daten aus externen Quellen ein, die erstmals unternehmerische Relevanz erhalten – etwa aus den Sensoren von Produkten und Maschinen, aus mobilen Geräten und Apps oder aus Social Media-Kanälen. Folglich lautet das Prinzip der Digitalisierung: dynamische Daten aus neuen, in der globalen IT-Umgebung befindlichen Spendern zusammenziehen und dann planvoll auswerten.

Das bedeutet: Damit Datenintelligenz ins Business einziehen kann, müssen intelligente Data Analytics-Verfahren her, und zwar in Kombination mit bewährten Konzepten der Datenintegration. Solche übergreifenden Analysemethoden sind der Schlüssel, um die „neuen“ Datenquellen, welche die Digitalisierung erstmals erschließt, in Abstimmung mit den „alten“ Datenbeständen effizient zu nutzen.

„Alt“ meint in diesem Zusammenhang das gespeicherte Datenvolumen, welches bereits in der statischen IT-Umgebung des Unternehmens residiert: Dazu zählen Datenbanken, Enterprise Resource Planning (ERP)- und Customer Relationship Management (CRM)-Systeme sowie weitere in der IT-Infrastruktur kursierende Daten – etwa Stammdaten und Kundendaten.

Die Integration, Konsolidierung, Interpretation und Nutzung der solchermaßen zustande kommenden Datenmengen dienen vor allem dem Erreichen dieser geschäftlichen Ziele:

  • Verbesserung der Wettbewerbsfähigkeit
  • Schaffung neuer, intelligenter und lebensvereinfachender Gestaltungs- & Innovationsmöglichkeiten
  • Kürzere Time-to-Value durch bessere Entscheidungsfindung
  • Schnellere Reaktion auf Kundenwünsche und geschäftliche Veränderungen
  • Steigerung des Umsatzes

↵ zurück zur Übersicht

Was sind die Bausteine von Datenintelligenz?

Damit die ehrgeizigen Vorgaben auch tatsächlich erreicht werden können, ist im Sinne von effizient nutzbarer Datenintelligenz ein optimal synchronisiertes Geflecht verschiedener datenrelevanter Funktionsträger und Ressourcen vonnöten. Dazu zählen insbesondere:

Datenkollektion
Sammeln von Daten aus allen benötigten und notwendigen Quellen – vom Internet of Things (IoT) bis hin zu Social Media; von Excel und Adobe, über Facebook und Linkedin, bis hin zu Google Ads & Co.

Datenspeicherung
Aufbau und Betrieb geeigneter Storage-Ressourcen – gerne auch in Form von Cloud Storage – für die Speicherung praktisch aller Arten von Daten.

Datenmanagement
Verwalten und Aufbereiten von Daten für die Verwendung in zahlreichen Anwendungsfällen. Hauptsächliche Aufgabe: die richtigen Daten mit dem richtigen Kunden verknüpfen. Aus dieser Perspektive kann man auch von Kundendaten-Management oder Customer Data Management sprechen.

Stammdaten-Management
Stammdaten sind Unternehmensinformationen, die von diversen Abteilungen innerhalb der Unternehmensorganisation genutzt werden und in vielen Geschäftsprozessen zur Anwendung kommen. Dazu zählen Finanz-, Kunden- und Lieferanten-Stammdaten, außerdem Personal-, Organisations- und Material-Stammdaten.

Das Stammdaten-Management (engl.: Master Data Management, MDM) umfasst alle Prozesse, Verfahren und Tools, die an der Sammlung, Festlegung, Verwaltung und Verteilung dieser Daten beteiligt sind. Es definiert durchgehend und zentral die wichtigsten Daten einer Organisation, erhebt eine eindeutige Version jedes Datensatzes als allein verbindliche Folie aus verschiedenen Prozessen und stellt diese Variante dann auch weiteren Prozessen zur Verfügung.

Datenanalyse
Einsatz von Tools und Methoden, die Rohdaten und unstrukturierte Big Data in pointierte Geschäftsinformationen (Smart Data) umwandeln; einschließlich Exploration, Discovery, Datenaufbereitung und Analytik, die oft in Echtzeit erfolgen.

Data Streaming
Analyse von Daten, die verschoben werden, indem Logik auf die Daten angewandt wird, Datenmuster erkannt werden und nach verschiedenen Aspekten gefiltert wird, wenn die Daten in das Unternehmen gelangen.

Datenintegration
Definition der Schritte zur Kombination verschiedener Datentypen. Mit Datenintegrations-Tools kann man die Etappen für diese Aufgabe entwickeln und automatisieren. Wichtig: die Integration von Web Analytics- und Social Media-Daten in die Data Warehouse-Welt.

Data Federation
Eine spezielle Art der virtuellen Datenintegration, über die man Einblick in kombinierte Daten von verschiedenen Quellen erhält, ohne dass die Daten verschoben oder an einem neuen Speicherort hinterlegt werden müssen.

Datenvisualisierung
Ermöglicht es Entscheidungsträgern, Analysen visuell darzustellen, so dass sie schwierige Konzepte verstehen oder neue Muster identifizieren können. So wird es möglich, Echtzeitinformationen bei der Entscheidungsfindung zu nutzen.

Datenschutz & Datensicherheit
Sicherstellen, dass unternehmensrelevante Daten überall dort, wo sie gespeichert sind, sowohl vor internen als auch vor externen Bedrohungen geschützt sind. Besondere Anforderung seit Mai 2018: konsequente Einhaltung der EU-weit geltenden Datenschutz-Grundverordnung (DSGVO).

Data Governance
Ein kontinuierliches Set an Regeln und Entscheidungen für das Management der Daten im Unternehmen. So lässt sich sicherstellen, dass die Datenstrategie konform mit der Geschäftsstrategie ist.

↵ zurück zur Übersicht

Was sind die Aufgaben von Big Data Analytics?

Beste Voraussetzung für die zukunftsorientierte Ausschöpfung des Datenpotenzials ist die Kombination starker Analytics-Methoden mit Technologien rund um die Künstliche Intelligenz (KI). Das ermöglicht es, in großen Datenmengen relativ leicht Muster zu erkennen und Daten derart zu segmentieren, dass daraus Smart Data, also wertvolle Informationen, werden – und damit gewinnbringendes Datenkapital.

Highlevel (Big) Data Analytics ist profan gesagt nur Mittel zu einem einzigen Zweck: nämlich für die systematische Aufbereitung und intelligente Nutzung immer größer werdender Datenmengen zu sorgen. Zur Erfüllung dieser anspruchsvollen Aufgabe umfassen derartige Software-Lösungen besondere Funktionen und Techniken:

  • parallele Verarbeitung vieler Datensätze
  • schneller Import von Daten
  • rasche Suche und Abfrage von Daten
  • gleichzeitige Bearbeitung mehrerer Abfragen
  • Analyse unterschiedlicher Informationstypen

Jetzt noch das Ganze parat machen für ambitionierte Anwendungen vornehmlich aus den Bereichen:

  • Künstliche Intelligenz (KI)
  • Cognitive Computing
  • Machine Learning

und fertig ist die Tool Box, die den Unternehmen für die Vollausschöpfung des digitalen Mehrwerts genau das liefert, was sie brauchen: immer mehr smarte Daten – hochflexibel und in Echtzeit verfügbar – für immer mehr Use Cases in immer engeren Zeitintervallen. Das ist natürlich leicht gesagt und einigermaßen schwer getan. Und vor allem muss geklärt werden, welche der sich anbietenden Automatisierungs- und Veredelungstechnologien für welchen Bedarfsfall mit den entsprechenden Daten „gefüttert“ werden wollen und sollen. 

↵ zurück zur Übersicht
 

Was sind die wichtigsten Analyse- & KI-Techniken?

Predictive Analytics – die „vorausschauende Analyse“ – dient dazu, die Wahrscheinlichkeit zukünftiger Ergebnisse auf der Grundlage historischer Daten zu prognostizieren; und zwar mithilfe von Daten, statistischen Algorithmen und maschinellem Lernen. Ziel ist es, anhand einer Analyse vergangener Ereignisse bestmöglich vorherzusagen, was in Zukunft geschehen wird.

Predictive Analytics ist ein Teilbereich von Business Intelligence (BI) und Business Analytics. Business Intelligence beschäftigt sich hauptsächlich mit den Ereignissen in der Vergangenheit und deren Auswirkungen auf die Gegenwart. BI beantwortet Fragen zum Geschehen (Was ist wann passiert?), zur Menge, Häufigkeit oder den Ursachen eines Ereignisses.

Business Analytics (BA) erweitert BI um den Blick in die Zukunft und setzt vor allem auf statistische Analysen von Unternehmensdaten. BA gibt Antworten auf die Fragen nach den Gründen, Auswirkungen, Wechselwirkungen oder Folgen von Ereignissen. Zudem ist es möglich, Szenarien durchzuspielen und Handlungsalternativen aufzuzeigen: Was geschieht, wenn wir an dieser oder jener Stellschraube drehen?

Um den Planungsprozess im Unternehmen zu verbessern, nutzt Business Analytics diverse Analyse-Tools. Eines davon ist prädiktive Analyse: Statt nur die bestehende Situation zu analysieren, versucht diese Methodik mit Hilfe von Datenmodellen Vorhersagen über mögliche Ereignisse in der Zukunft zu treffen. Dabei besteht eine enge Verbindung mit Data Mining.

Data Mining meint im übertragenen Sinne das „Schürfen von Daten“. Es versucht, mit Hilfe anspruchsvoller statistischer und mathematischer Verfahren beziehungsweise Algorithmen verborgene Muster, Trends und Zusammenhänge in großen Datenmengen zu erkennen.

Data Mining nutzt auch neuronale Netze, die der Arbeitsweise des menschlichen Gehirns ähneln und über viele Datendurchläufe bestehende Strukturen oder Muster lernen. Daher ist Data Mining eng verwandt mit maschinellem Lernen, es hat also große Nähe zu Anwendungen und Methoden, in denen Computerprogramme selbstständig neues Wissen erwerben.

Künstliche Intelligenz als „Best Friend“ von Analytics

Künstliche Intelligenz (KI) befasst sich mit der Automatisierung von „intelligentem“ Verhalten und dem maschinellen Lernen – und optimiert die Data Analytics-Anstrengungen auf dem Weg zur effizient nutzbaren Datenintelligenz. KI wird nicht programmiert, sondern beruht auf Training aus der Erfahrung heraus. Mittlerweile gibt es Algorithmen, die dem menschlichen Gehirn nachempfunden sind, dabei aber 25.000 Mal schneller sind. Damit ist es theoretisch möglich, eine KI in nur wenigen Sekunden auf den gewünschten Wissensstand zu bringen.

Künstliche Intelligenz kann selbstständig Muster erkennen, sich selbst verbessern und die Arbeit eigenständig besser organisieren. KI wird zum Beispiel in Form dieser Cognitive Computing-Technologien eingesetzt:

Machine Learning oder maschinelles Lernen: Das ist die Fähigkeit von Computersystemen, ihre Leistung eigenständig durch gezielte Sichtung und Analyse von Daten zu verbessern, ohne dabei explizit programmierten Anweisungen folgen zu müssen. Das Konzept verfolgt Muster, um Assoziationen und Erkenntnisse aus Daten zu identifizieren und aus Erfahrung zu lernen. Machine Learning ist eine Kernmethode der Künstlichen Intelligenz: Das Internet of Things sorgt für die kritische Masse an Daten, die das maschinelle Lernen für effizientes Arbeiten benötigt.

Deep Learning ist ein angrenzender Forschungsbereich des maschinellen Lernens. Hier kommen künstliche neuronale Netzwerke mit vielen Schichten zum Einsatz – daher die Bezeichnung „tief“. Die biologischen Vorgänge des menschlichen Denkens und Lernens – Aktivierung von Neuronen, chemische Veränderung von Synapsen und weiteres – werden in Software oder Hardware „übersetzt“. Beim Deep Learning – dem verstärkenden & vielschichtigen Lernen – geht es darum, die Grenzen der Maschinenfähigkeiten zu erweitern, um Objekte und Gesichter zu erkennen und Sprache zu verstehen und zu generieren.

Und noch ein „Ding“ im Zusammenhang von KI, das unbedingt erwähnt werden muss: der Chatbot – ein Online-Dialogsystem, mit dem per Texteingabe oder Sprache kommuniziert werden kann. Chatbots werden insbesondere im Service-Bereich und zur Customer Experience eingesetzt, um Anfragen automatisiert und ohne direkten menschlichen Eingriff zu beantworten oder zu bearbeiten.

Chatbots arbeiten in Echtzeit und nehmen Anfragen auf Textbasis oder mithilfe der Spracherkennung entgegen; die Beantwortungen erfolgen selbstständig per Text- oder Sprachausgabe. Außerdem sind sie in der Lage, zusätzlich Aktionen einleiten.

Auf Smartphones haben sich Chatbots zu intelligenten persönlichen Assistenten entwickelt. Zur Beantwortung von Fragen nutzen sie programmierte Routinen, Datenbanken, Internet-Recherchen und eben KI. Über Avatare wird häufig versucht, den Chatbots eine eigene Identität zu geben.

Auf Basis von KI attraktive Geschäftsmodelle erschließen

Egal ob Bankwesen, Maschinenbau, Unterhaltungsbranche oder IT-Industrie – zahlreiche Unternehmen erproben derzeit in diversen Bereichen den Einsatz von KI. Etwa der weltweit vernetzte Online-Händler Amazon, für dessen Geschäftsmodell große Mengen teurer Rechenleistung nötig sind. Deshalb setzt der Konzern intelligente Systeme ein, die das Volumen der Bestellungen so exakt feststellen, dass sie in jedem Moment die ausreichende Rechenleistung zuteilen – nicht weniger, aber auch nicht mehr.

Beim Telekommunikationskonzern Vodafone erkennen beispielsweise Chatbots die Anrufer an ihrer Stimme wieder. Der Software-Roboter weiß, mit wem er zuvor schon einmal telefoniert hat, und kann den anrufenden Kunden sofort einordnen und individuell bedienen.

Übrigens: Der Einsatz von automatisierten Verfahren in der Fertigung, der Verwaltung oder dem Finanzwesen ist nicht neu – hier handelt es sich aber meist nicht um KI, sondern in der Regel um Robotic Process Automation (RPA). Dabei werden Abläufe lediglich von einer Software gesteuert. Diese können hochkomplex sein, doch sie laufen stets gleich ab. Was hier fehlt – aber auch nicht benötigt wird – ist das intelligente Moment.

Was den Einsatz von KI anbetrifft, sind die Ziele der Unternehmen meist ähnlich: Künstliche Intelligenz soll nicht nur Abläufe im Unternehmen effizient steuern oder verwalten. Ihre Aufgabe soll es auch sein, Entscheidungen eines Tages schneller, präziser und zuverlässiger zu treffen als der Mensch. So formuliert es die Analysten- und Consulting-Firmengruppe Deloitte. Doch bis dahin sei es noch ein weiter Weg. Denn intelligente Maschinen müssen sich auf den Menschen einstellen können, um ihre Vorzüge ausspielen zu können:

  • Maschinen müssen die individuellen Bedürfnisse ihrer Nutzer in der jeweiligen Situation kennen.
  • Es muss klar sein, wann der Mensch die Kontrolle von der Maschine übernehmen muss.
  • Maschinen müssen Feedback-Schleifen vermeiden. Dieses Phänomen tritt auf, wenn Maschinen nur das vorfinden, was sie aufgrund der zuvor verarbeiteten Daten erwarten – und nicht das, was wirklich passiert.

↵ zurück zur Übersicht

Warum ist Datenintelligenz dermaßen wichtig?

Soweit so gut. Festzuhalten bleibt:

  • Datenintelligenz wird immer mehr zum entscheidenden Faktor für den Unternehmenserfolg. Die digitale Transformation drängt die Unternehmen in eine Metamorphose hin zu datengetriebenen Organisationen. Daten und deren Nutzung sind zur Optimierung von Prozessen, zur Verbesserung von Produkten und Dienstleistungen und für die Unterstützung neuer Geschäftsmodelle unerlässlich. Daten haben aber nur dann einen Wert, wenn sie zur richtigen Zeit, in der richtigen Qualität und performant auswertbar für die Entscheidungsfindung zur Verfügung stehen.

  • Datenintelligenz und datengetriebene Entscheidungen erfordern Business Intelligence und gleichermaßen intelligente Analyseverfahren. Eine datenbasierte Entscheidungskultur betrifft das gesamte Unternehmen. Die Kompetenz, Daten zur Entscheidungsfindung und Steuerung zu nutzen sowie darin Muster und Auffälligkeiten zu erkennen, muss deshalb in allen Unternehmensbereichen implementiert sein.

  • Im Zeitalter der Digitalisierung ist ein integriertes Performance Management mehr denn je ein wesentliches Element zur Steigerung der Wettbewerbs- und Leistungsfähigkeit von Unternehmen.

  • „Die digitale Transformation beschleunigt massiv den klassischen Management-Kreislauf aus Planung, Steuerung und Kontrolle und erhöht dessen Frequenz. Kurzfristige, automatisierte sowie bei Bedarf rollierende Planungen und Forecasts unter Berücksichtigung treiberbasierter Ursache-Wirkung-Beziehungen müssen das Ziel sein“, erklärt Dr. Christian Fuchs, Head of Analytics & Data Management Practice am Business Application Research Center (BARC). Und er sagt weiter:

  • Eine datenbasierte, proaktiv prognostizierende Steuerung muss eine rein reaktiv-analytische Vergangenheitsbetrachtung ersetzen. Advanced Analytics sowie KI- und Machine Learning-Ansätze müssen automatisierte Analysen von Plan-Ist-Abweichungen ermöglichen, Treiberabhängigkeiten validieren sowie Muster in Daten erkennen für eine kontinuierliche Anpassung und Optimierung. Zentraler Aspekt ist die optimale Nutzung und Analyse der wachsenden, verfügbaren Datenmengen für die Unternehmenssteuerung.“

Themen: Kundendaten, datenbasiertes Marketing, Data Service-Anbieter, Potentialanalysen, Datenanalyse, datengetriebenes Marketing, Datenqualität optimieren, Marktanalysen, Zielgruppenanalysen, Database Services, Stammdaten, Kundendialog, Datenschutz, Künstliche Intelligenz, Datenintelligenz, Kundendaten-Management, Stammdaten-Management, Digitalisierung, Stammdaten-Pflege, Digitale Transformation, Data Mining, Smart Data, Datenintegration, Predictive Analytics, Business Analytics, Machine Learning, Data Analytics, Datenmanagement, Datenspeicherung, Business Intelligence, Deep Learning

Entdecken Sie jetzt unsere Kundendaten-Services

Aktuelle Beiträge

Webinare: SpeedDating für Unternehmen & Interessenten

read more

Inbound Marketing-Strategie Unternehmensblog

read more

Intelligenz & Qualität in Kundendaten-Management, Content & Automation

read more