Unternehmen sammeln tagtäglich zahlreiche Informationen über ihre Produkte oder Kunden. Doch wie können aus dieser Datenflut nützliche und wertvolle Hinweise für die (weitere) Geschäftstätigkeit abgeleitet werden? Dazu ist es sinnvoll die Daten intelligent miteinander zu verbinden und Muster zu erkennen. In diesem Zusammenhang tauchen eine Reihe von Begriffen auf wie Data Mining, Multivariate Statistik, Machine Learning, Künstliche Intelligenz, die nicht immer leicht abzugrenzen sind.
Wir erklären in diesem Beitrag einfach und verständlich die relevanten Begriffe und Methoden rund um das „Schürfen“ von Daten, dem „Gold des 21. Jahrhunderts“.
Data Mining
Data Mining ist der Gesamtprozess der Identifikation und Präsentation von bisher unbekannten Mustern in (großen) Datenbeständen, und zwar autonom mittels allgemein verwendbarer, effizienter Verfahren und ohne vom Anwender a priori Hypothesen zu fordern (nach Petersohn: Data Mining: Verfahren, Prozesse, Anwendungsarchitektur, 2005).
Die Zielsetzung besteht darin, Zusammenhänge in den Daten aufzuspüren, die für den Entscheidungsträger interessant und nützlich sind, d. h. sie helfen bessere Entscheidungen zu treffen, die bislang auf Grundlage suboptimaler Methoden gelöst wurden. Zur Operationalisierung der Interessantheit und Nützlichkeit von Aussagen reicht die Verwendung der statistischen Signifikanz sicher nicht aus.
Daher kommen beim Data Mining integrierte Methoden und Verfahren der Künstlichen Intelligenz, der Mustererkennung, des Maschinellen Lernens sowie Modelle des jeweiligen Anwendungsbereiches zum Einsatz. Zudem werden Verfahren der (multivariaten) Statistik verwendet. Hierbei werden zusammenhängende Beobachtungen mehrerer Merkmale zugrunde gelegt und Strukturen entdeckende, wie Strukturen prüfende Verfahren eingesetzt.[1]
Im Gegensatz zu klassischen Ansätzen der Statistik erstreckt sich das Data Mining eben nicht nur auf die Prüfung manuell aufgestellter Hypothesen, sondern beinhaltet vor allem die automatische Generierung neuer Hypothesen.[2]
Die grundlegenden Aufgabenstellungen des Data Mining sind:
- Clusteranalyse: Hier geht es um die Identifikation von Gruppierungen/Clustern innerhalb der Daten, z. B. Kundensegmentierung.
- Assoziationsanalyse: Analyse der Häufigkeit des gleichzeitigen Auftretens von Objekten oder Ereignissen, z. B. Warenkorbanalyse.
- Abweichungsanalyse: Identifizierung von ungewöhnlichen Datensätzen, etwa Entdeckung betrügerischer Transaktionen oder Aufdeckung von Eingabefehlern.
- Hauptkomponentenanalyse: Reduktion des Datensatzes auf eine kompakte, vereinfachte Beschreibung, z. B. Fragebogenauswertung (Die Fragen „Wie zufrieden waren Sie mit dem Produkt?“, „Würden Sie das Produkt wieder kaufen?“ und „Würden Sie das Produkt einem Kunden weiterempfehlen?“ beziehen sich auf ein Item und könnten zusammengefasst werden).
- Sequenzanalyse: Identifizierung von Mustern in zeitlich aufeinander folgenden Ereignissen, z. B. das Klickverhalten auf Websites.
- Klassifikation: Zuordnung bisher unbekannter Objekte zu bestehenden Klassen oder Gruppen, wie Identifizierung von Spam oder Einteilung in Bonitätsklassen.
- Regressionsanalyse: Identifizierung von Beziehungen zwischen abhängigen und unabhängigen Variablen, etwa der Zusammenhang von Produktabsatz und Marketingmaßnahme.
Für das Data Mining müssen folgende Voraussetzungen gegeben sein:
- Die vorhandenen Daten dürfen tatsächlich ausgewertet werden.
- Muster der Vergangenheit sind auch in Zukunft noch gültig.
- Die Qualität der vorliegenden Daten ist ausreichend hoch.
- Die Daten enthalten das, was man prognostizieren will.
Data Mining Projekte können in mehrere Phasen gegliedert werden. Der CRISP-DM-Prozess (engl. Cross Industry Standard Process for Data Mining), der im Rahmen eines EU-Projekts von 1996 bis 1999 entwickelt wurde, beinhaltet einen umfassenden, industrieübergreifenden Standard-Data-Mining-Prozess mit den sechs Phasen:
- Business Understanding: Geschäftsziele festlegen, Situation bewerten, Data-Mining-Ziele festlegen, Projektplan erstellen
- Data Understanding: Initiale Datensammlung, Datenbeschreibung, Explorative Datenanalyse, Überprüfung der Datenqualität
- Data Preparation: Datenauswahl, Datenbereinigung, Datenkonstruktion, Datenintegration, Datentransformation und -formatierung
- Modeling: Auswahl der Modellierungstechnik, Entwurf des Testdesigns, Modellbildung, Modellbewertung
- Evaluation: Bewertung der Ergebnisse, Prozessrevision, Festlegung des weiteren Vorgehens
- Deployment: Verwendungskonzeption, Planung des Monitorings und der Wartung, Erstellung des Abschlussberichts, Projektrückblick
Data Mining ist Teil eines übergeordneten Prozesses, der als Knowledge Discovery in Databases (KDD) bezeichnet wird.
Künstliche Intelligenz
Das Forschungsgebiet „Künstliche Intelligenz“ (KI) versucht, menschliche Wahrnehmung und menschliches Handeln durch Maschinen nachzubilden. Alle im Zusammenhang mit der Erbringung von Intelligenzleistungen, die bislang dem Menschen vorbehalten waren, verwendeten Technologien wie etwa Machine Learning, Deep Learning oder neuronale Netze finden sich unter dem Oberbegriff der KI wieder. Während die starke KI einen bislang unerreichten Zustand beschreibt, in dem eine Maschine zu allem fähig wäre, befasst sich die sog. „schwache“ KI damit, einzelne Fähigkeiten des Menschen auf Maschinen zu übertragen, etwa das Erkennen von Texten, Bildinhalten, das Spielen, die Spracherkennung und so weiter. Hier werden seit Jahren rasante Fortschritte gemacht. „Machine Learning”, „Deep Learning”, „Natural Language Processing” (NLP) und „neuronale Netze” sind dementsprechend lediglich Teilgebiete der KI, teilweise Teilgebiete innerhalb dieser Teilgebiete.[3]
Machine Learning
Maschinelles Lernen (engl. Machine Learning) beschreibt mathematische Techniken, die einem System (einer Maschine) ermöglichen, selbständig Wissen aus Erfahrungen zu generieren. ML-Algorithmen dienen dazu, Muster in vorhandenen Datenbeständen zu erkennen, Vorhersagen zu treffen oder Daten zu klassifizieren. Mit mathematischen Modellen können neue Erkenntnisse auf Grundlage dieser Muster gewonnen werden. Die Anwendungen reichen von Musik- und Filmempfehlungen im privaten bis hin zur Verbesserung von Marketing-Kampagnen, Kundenservices oder auch Logistikrouten im geschäftlichen Bereich.
Obwohl das „maschinelle Lernen“ mit linearer Regression, Entscheidungsbaum-Algorithmen oder Clusteranalyse im Vergleich zum Data Mining überwiegend identische Werkzeuge verwendet, liegt ein wesentlicher Unterschied darin, dass es weniger auf das Erkennen neuer Muster in Daten gerichtet ist als vielmehr auf die Entwicklung geeigneter Modelle zur Entdeckung bekannter Muster in neuen Daten.[4]
Künstliche Intelligenz und Machine Learning (ML) sind zwar keine neuen Technologien, spielen jedoch erst jetzt im praktischen Einsatz eine Rolle, da die Voraussetzungen für lernende Systeme und entsprechende Algorithmen – ausreichende Rechenkapazitäten und der Zugriff auf sehr große Datenmengen – erst heutzutage gegeben sind. Laut einer Umfrage sind deutsche Unternehmen hier schon recht weit fortgeschritten. Bereits ein Fünftel setze ML-Technologien aktiv ein, 64 Prozent beschäftigten sich intensiv mit dem Thema und vier von fünf Befragten sagten sogar, ML werde irgendwann eine der Kerntechnologien des vollständig digitalisierten Unternehmens sein.[5]
Derzeit kursieren mit Machine Learning, Deep Learning, Cognitive Computing eine Reihe von KI-Begriffen, deren Abgrenzung nicht ganz einfach ist. Dafür können die Dimensionen Einsatzzweck und Grad an Autonomie herangezogen werden. So sind ML-Systeme derzeit größtenteils auf Einsatzzwecke hin entwickelt und trainiert. Sie erkennen etwa im Rahmen einer Qualitätskontrolle fehlerhafte Produkte im Fertigungsprozess. Die Aufgabe ist klar umrissen, es gibt keine Spielräume.
Deep Learning
Deep-Learning-Systeme hingegen sind in der Lage eigenständig zu lernen. Im Zusammenspiel mit großen Mengen an Trainingsdaten lernen neuronale Netzwerke selbständig zu lernen und Entscheidungen zu treffen und können so bestimmte Aufgaben erledigen – beispielsweise das Identifizieren von Krebszellen in medizinischen Bildern.
Cognitive Computing
Als dritte Spielart der KI gilt das Cognitive Computing. Diese Systeme zeichnen sich dadurch aus, dass sie in einer Assistenzfunktion oder gar als Ersatz des Menschen Aufgaben übernehmen und Entscheidungen treffen und dabei mit Ambiguität und Unsicherheit umgehen können. Als Beispiele können das Schadensfall-Management in einer Versicherung, eine Service-Hotline oder die Diagnostik im Krankenhaus genannt werden. Auch wenn hier bereits ein hohes Maß an Autonomie erreicht werden kann, ist der Weg zu echter Künstlicher Intelligenz mit autonomen kognitiven Fähigkeiten noch weit. Derweil sind Unternehmen gut beraten, sich mit den machbaren Use Cases zu beschäftigen, von denen es bereits eine Menge gibt.[6]
Quellen:
[1] http://wirtschaftslexikon.gabler.de/Archiv/2346/multivariate-statistik-v9.html
[2] http://wirtschaftslexikon.gabler.de/Archiv/57691/data-mining-v9.html
[3] http://t3n.de/news/ai-machine-learning-nlp-deep-learning-776907
[5] Vgl. https://www.computerwoche.de/a/machine-learning-darum-geht-s,3330413
[6] Siehe https://www.computerwoche.de/a/machine-learning-darum-geht-s,3330413