Das große Ganze sehen und Prognosen für zukünftige Entwicklungen anstellen. Dank dem „Internet der Dinge“ (engl. Internet of Things, „IoT“) und Big Data Analytics ist das keine Zukunftsmusik mehr. Getrieben wird dieser Einsatz der Datenanalyse durch die Digitalisierung von Prozessen sowie den Aufbau innovativer, datengetriebener Geschäfts- und Servicemodelle. Das kann zum Beispiel die Vorhersage von Wartungsbedarfen bei Produktionsanlagen oder die verlässlichere Saisonplanung sein. Die dabei für die Applikationen verarbeiteten großen Datenmengen liegen nicht mehr nur reiner Software zugrunde, sondern werden auch über Geräte bzw. Dinge gewonnen. Big Data wird um das Internet of Things ergänzt. 

Was genau bedeutet Big Data Analytics?

Bei Big Data Analytics handelt es sich um die (Echtzeit-)Analyse großer Datenmengen verschiedener Datentypen, um Muster, Korrelationen und andere Mehrwertinformationen aufzudecken. Das geschieht in folgenden Schritten:

Datengenerierung

Datensammlung über Applikationen oder, beim Internet of Things, über Sensoren. 

Data Engineering

Plattformintegration, Homogenisierung und Verwerten der Daten. 

Data Science

Auswertung der Daten für Geschäftszwecke, indem Informationen in Handlungen und Mehrwerte überführt werden.

Beim Data Science geschieht also der entscheidende Schritt, um einen Mehrwert für das Geschäft zu generieren. Die Aufteilung erfolgt in verschiedene Reifegrade.

  • Reine Analyse: Es erfolgt die Visualisierung von Daten, sodass sich Korrelationen offenbaren.
  • Descriptive Analytics: Daten werden aggregiert und gemined (englisch data mining, deutsch „Datengewinnung“), um mit Blick auf die Vergangenheit Rückschlüsse zu ziehen und die Frage zu beantworten: „Was ist passiert?“.
  • Predictive Analytics: Anhand statistischer Modelle werden Prognosen für die Zukunft angestellt, welche die statistischen Modelle und Prognosen verwenden, um die Zukunft zu verstehen und das "Was könnte passieren?" zu beantworten.
  • Prescriptive Analytics, die mithilfe von Optimierungs- und Simulationsalgorithmen über mögliche Ergebnisse beraten und das "Was sollen wir tun?" beantworten - oder sogar automatisch aussteuern.

Klassische Anwendungsfälle für Big Data & IoT

Big Data und Internet of Things kommen in vielen Geschäftsbereichen und –modellen zur Anwendung. So kann beispielsweise das Gebäudeeffizienzmanagement unter Anbindung von Gebäudeautomatisierungstechniken schlanker abgebildet werden. Weitere Anwendungsbereiche sind unter anderem:

Predictive Maintenance

Durch mit Mikrofonen ausgestattete Produktionsanlagen können Vorgänge mithilfe von Analysen der Sound-Features erfolgen. Somit können Anomalien erkannt und Vorhersagen über Wartungsbedarfe und Ausfälle getroffen werden – und das unabhängig vom Anlagenhersteller. 

Smartifizierung

Big Data Analytics ermöglicht eine umfassende Smartifizierung verschiedenster Bereiche. Aus Unternehmenssicht können so beispielsweise Planungsprozesse effizienter gestaltet werden, um eine verlässlichere Saisonplanung zu ermöglichen. Das Internet of Things ermöglicht das Konzept „Smart City“, unter anderem mit vernetzten Parkplätzen, die die Suche nach einem freien Stellplatz – so profitieren auch Privatpersonen von den Trends der Digitalisierung. 

Fuhrparktelematik

Durch im Fahrzeug integrierte Telematik werden diverse Daten digital zur Verfügung gestellt, um durch früh erkannte Anomalien, beispielsweise in Routen oder der Fahrzeugwartung, einen effizienteren, transparenteren und sichereren Prozess zu ermöglichen

Prognosen

Die Energiepreisentwicklung an den Regelmärkten auf Basis historischer Daten vorhersagen oder das Order Management für Retailer unter Berücksichtigung verschiedenster Einflussfaktoren (Urlaubszeiten, Social Media Trends, …) mit Filial-genauen Planzahlen anreichern.

Kombinieren Sie Ihre Skills für eine erfolgreiche Nutzung von Big Data & IoT

Welche Skills sind notwendig?

Integrations-Know-how

Für die bestehende Classic IT sowie für diverse Datenquellen wie Sensoren oder Maschinen. Hier muss ggf. „Edge Computing“ (dezentrale Datenverarbeitung am Rand eines Netzwerkes) zum Einsatz kommen, um Daten aus Gründen der Sicherheit oder Geschwindigkeit vor zu prozessieren.

Data Engineering Know-how

Für die Integration von Daten in Standardumgebungen (z.B. „Data Lakes“).

Data Science Know-how

Für mathematische Modelle und Simulationsmethoden.

Cloud-native Software Design

Für die Applikationsentwicklung.

Das könnte Sie auch interessieren...