Daten & datenbasierte Technologien
für die digitale Revolution

Daten: das Öl des 21. Jahrhunderts. So werden Daten gemeinhin bezeichnet. Das gleichnamige Buch von Malte Spitz beschäftigt sich genau mit dieser Frage und damit, wieso Öl und Daten eine ähnliche Bedeutung für das jeweilige Jahrtausend haben und die dies genutzt werden kann.

Grundsätzlich kann man sagen: Daten und datenbasierte Technologien entwickeln sich stetig weiter und führen zu vollkommen neuen Möglichkeiten. Die heutige Zeit wird dadurch immer komplexer und man muss immer genauer evaluieren und Zusammenhänge erkennen können, um auch in Zukunft erfolgreich zu sein.

Jedes Unternehmen muss seine Daten und datenbasierten Technologien individuell einsetzen, entsprechend der Evaluation, der Kenntnisse und der Vision des eigenen Unternehmens. Dies sind wichtige Grundlagen, um Entscheidungen für die Zukunft treffen zu können. Gleichzeitig sind die Grenzen zwischen den einzelnen Technologien und Möglichkeiten häufig fließend bzw. aufeinander aufbauend. All dies (genauso wie die Menschen selbst) muss für eine Umsetzung im Blick gehalten werden.

Daten-datenbasierte-Technologien-Zusammenhänge

Graphische Zusammenfassung
Daten & datenbasierte Technologien

Daten bedeuten Information - denn Daten können, wenn sie digital zur Verfügung stehen, ausgewertet werden und reale Maßnahmen und realen Nutzen zur Folge haben. Daten können strukturiert vorliegen (z.B. als Zahlen in einer Messreihe pro Zeit) oder unstrukturiert (z.B. Bilder von Ergebnissen zu bestimmten Zeitpunkten) oder Mischungen aus beiden sein. Mit heutiger Technologie, z.B. basierend auf künstlicher Intelligenz, ist es möglich, alle Arten von Daten auszuwerten - sofern diese richtig vorbereitet wurden. 

Daten können genutzt werden, um

  • IST-Zustände aufzuzeigen
  • direkte Vergleiche zu ermöglichen (entweder mit aktuellen oder historischen Daten)
  • Entwicklung von SOLL-Zuständen
  • Zukunfts-Prognosen auf Basis von IST-Daten
  • ...

Es steigt zunehmend die Menge an Daten, deren Vielfalt sowie die Art der Daten. Vor allem die Menge un- und semi-strukturierter Daten (wie z.B. aus Videos, Texten usw.) wird immer größer, sowohl im privaten wie auch im industriellen Umfeld. Die Aufbereitung dieser Daten ist deutlich komplexer als die Aufbereitung strukturierter Daten (Messreihen, Werte pro Zeit usw.).

Direkt zusammenhängend mit

Praktiker-Tipps

Digitalisierung - was ist das? Bedeutet Digitalisierung beispielsweise ein papierloses Büro zu habenoder die Nutzung von künstlicher Intelligenz zur Weiterentwicklung?

Digitalisierung beschreibt grundsätzlich alles, was damit zusammenhängt, analoge Daten ins Digitale zu übertragen. Denn auswertbare Daten entstehen nur dann, wenn diese Daten auch digital erfasst werden. Umgangssprachlich bedeutet Digitalisierung auch, dass Daten genutzt und neue, datenbasierte Technologien (z.B. künstliche Intelligenz) implementiert werden. Dadurch ist das Verständnis des Begriffes (und damit auch einhergehende Diskussionen) eher schwierig, da jeder eine andere Sichtweise hat.

Für die Industrie bedeutet Digitalisierung, dass die notwendige Infrastruktur geschaffen wird, damit beispielsweise durch digitale oder digital aufgerüstete Maschinen gezielte Aussagen zum Unternehmen, zur Produktion oder zur Instandhaltung gemacht werden können. Dabei kann man entweder Hardware installieren, wie z.B. ID-Systeme, Sensorik, Roboter und andere Arten von Automatisierung, oder man kann Software einsetzen, um Daten zu generieren.

Direkt zusammenhängend mit

Praktiker-Tipps

Big Data - ein viel verwendetes Wort - bedeutet dem Wort nach "große Datenmenge". Und das stimmt!

Immer häufiger werden Daten generiert. Im Anschluss müssen diese natürlich auch gesammelt werden - und es entsteht „Big Data“. Sammeln von und mit Big Data bedeutet, dass die Daten in unterschiedlichen Formaten und Strukturen an unterschiedlichen Stellen anfallen. Big Data bedeutet noch nicht, dass Aussagen zu den Daten getroffen werden, denn eine effiziente Nutzung von Big Data ist nur mit zugehöriger Auswertung der Daten möglich.

Direkt zusammenhängend mit

Praktiker-Tipps

Big Data Analytics ist eine Methode zur Verarbeitung, Analyse und Auswertung großer Mengen an Daten mittels geeigneter Software. Dabei ist die Aufbereitung von Daten teilweise sehr aufwändig, abhängig von der Unterschiedlichkeit der zu verarbeitenden Daten. Verwendung findet Big Data Analytics in der Optimierung von Unternehmensprozessen. Es erweitert die Möglichkeiten der reinen Business Intelligence Anwendungen, die diese Datenmengen häufig nicht verarbeiten können.

Direkt zusammenhängend mit

Praktiker-Tipps

Achten Sie auf die Qualität ihrer Daten. Diese entscheiden maßgeblich über die Qualität der Ergebnisse und die daraus folgenden Entscheidung!

Business Intelligence wird in den meisten Unternehmen standardmäßig durchgeführt, um Geschäftsabläufe analysieren und auf Basis von Daten (bessere) Entscheidungen treffen zu können. Dabei werden historische Daten verwendet, um zu verstehen, was gut funktioniert hat und wo noch Verbesserungspotential ist. Heutzutage können dabei auch große Datenmengen gut verarbeitet werden.

Direkt zusammenhängend mit

Praktiker-Tipps

Generell gilt: Business Intelligence muss regelmäßig und fortlaufend durchgeführt werden!

Grundlegendes Verständnis der Daten und ihrer Zusammenhänge ist trotz aller Funktionalität auch für den Nutzer unerlässlich!

Business Analytics beschreibt die methodische Analyse eines Unternehmens auf Basis von Daten. Im Gegensatz zu Business Intelligence werden bei Business Analytics die Daten genutzt, um Trends und Ereignis-Wahrscheinlichkeiten vorherzusagen, d.h. es wird eine prädikative Analyse durchgeführt.

Die richtigen und qualitativ hochwertigen Daten sind Voraussetzung für die Nutzung von Business Analytics, denn nur mit dieser Basis können fundierte Entscheidungen getroffen und weiterführende Planungen gemacht werden.

Direkt zusammenhängend mit

Praktiker-Tipps

Datenqualität, Qualifikation der Mitarbeiter und die Erlaubnis der Datennutzung durch das Unternehmen - in allen Bereichen müssen frühzeitig die richtigen Maßnahmen gesetzt werden, damit Business Analytics oder andere Analyse-Verfahren möglich und auch erfolgreich sind!

Das Internet of Things (IoT, dt. Internet der Dinge) ist technische Grundlage für die intelligente Vernetzung und den Weg zu Industrie 4.0. Alle Daten, die generiert und gesammelt werden, müssen intelligent vernetzt werden, um Mehrwert aus den Datenmengen zu generieren. Dafür müssen einzelne Maschinen, Hardware, Software, ... miteinander vernetzt werden. Denn verbleiben die Daten bei den Daten-produzierenden Anlagen oder Prozessen, können keine Analysen durchgeführt und keinen Zusammenhänge erkannt werden. Dabei ist es unerheblich, ob man in den privaten oder den industriellen Bereich schaut – in beiden Bereichen erlangt IoT immer größere Wichtigkeit (Stichworte „smart home“ und „smart factory“).

Direkt zusammenhängend mit

Praktiker-Tipps

Das Industrial Internet of Things (IIoT, dt. industrielles Internet der Dinge) beschreibt die intelligente Vernetzung spezifisch im Unternehmensumfeld. In diesem Bereich ist die Vernetzung komplexer, weil beispielsweise die Menge an Daten und die Frequenz der Aufzeichnung höher sind als im Konsumenten-Bereich und weil die Zusammenhänge generell komplexer sind. Diese Art der Vernetzung von Dingen ist jedoch unerlässlich, um digitale Auswertungen durch Vernetzung der Daten erreichen zu können oder auch neue Geschäftsmodelle (z.B. as-a-Service-Modelle) zu ermöglichen.

Direkt zusammenhängend mit

Praktiker-Tipps

Künstliche Intelligenz kann schlussfolgern, korrigieren und lernen und basiert auf programmierten Algorithmen und deren komplexen Berechnungen. Wichtig sind die Möglichkeiten, die KI bietet:

  • Prognosen für die Zukunft erstellen
  • komplette digitale Abbilder physischer Maschinen/Prozesse o.ä. zu erstellen
  • Daten unabhängig von Menge und Struktur verarbeiten zu können

Je höher die Komplexität der Zusammenhänge bzw. der eingehenden Daten, umso eher kommt KI zur Anwendung. Künstliche Intelligenz ist dabei ein Überbegriff über verschiedene Arten der Datenauswertung. Innerhalb von KI gibt es noch die Teilbereiche Machine Learning, Deep Learning und Neuronale Netzwerke. Alle unterschiedlichen Arten von KI haben definierte Stärken, wodurch sie in unterschiedlichen Bereichen eingesetzt werden.

 

Direkt zusammenhängend mit

Praktiker-Tipps

KI ist nur so gut wie die Daten (die zur Analyse zur Verfügung stehen).

Achten Sie bei Programmierungen besonders darauf, "vorurteilsfreie Algorithmen" zu nutzen und zu erstellen!

Machine Learning ist ein Teilbereich der künstlichen Intelligenz, in dem die zugrundeliegenden Algorithmen aktiv Lernen. Die Algorithmen starten nicht mit einer Hypothese, die bestätigt oder widerlegt werden soll, sondern es werden Daten genutzt, um Zusammenhänge direkt zu erkennen. Dadurch können mittels Machine Learning spezielle Problemstellungen gelöst werden, da basierend auf den vorhandenen Daten, neue Zusammenhänge eigenständig erkannt werden.

Direkt zusammenhängend mit

Praktiker-Tipps

KI ist nur so gut wie die Daten (die zur Analyse zur Verfügung stehen).

Achten Sie bei Programmierungen besonders darauf, "vorurteilsfreie Algorithmen" zu nutzen und zu erstellen!

Deep Learning ist ein Teilbereich des Machine Learnings und damit eine Methode zur Verarbeitung von großen Datenmengen, die sowohl strukturiert als auch unstrukturiert vorliegen können. Beim Deep Learning werden komplexe neuronale Netzwerke (deep neural networks, DNN) genutzt, die aus verschiedenen Schichten aufgebaut sind. Je mehr Schichten die Netzwerke haben, umso komplexer können die zu lösenden Probleme sein. Durch ihren Aufbau können Deep-Learning-Modelle selbstständig und im Prinzip ohne Eingreifen des Menschen lernen, d.h. schon Erlerntes wird verknüpft mit neuen Informationen und die Schlussfolgerungen entsprechend angepasst. Erfolgreiches Deep Learning setzt voraus, dass hohe Datenqualität vorliegt.

In der Anwendung findet sich Deep Learning beispielsweise bei der Handy-Spracherkennung.

Direkt zusammenhängend mit

Praktiker-Tipps

Deep Learning Modelle können bei der Suche nach unbekannten Mustern und Zusammenhängen in großen Datenmengen helfen!

Neuronale Netze sind Grundlage für die Lösung komplexer Probleme mittels künstlicher Intelligenz (im speziellen Deep Learning). Neuronale Netze spielen eine große Rolle bei der Lösung komplexer Alltagsphänomene und Entwicklungen, wie z.B. dem autonomen Fahren, Bilderkennung, Sprachassistenten usw.

Direkt zusammenhängend mit

Praktiker-Tipps

Neuronale Netze benötigen große und verlässliche Datenmengen. Ist dies gegeben, können gewisse Aufgaben durch gezieltes Training schon gut gelöst werden!

Data Mining ist ein Werkzeug, das für die Erkennung von Mustern, Zusammenhängen oder Trends in meist großen, aber immer bestehenden Datenmengen aus der Vergangenheit verwendet wird. Ziel ist es, Daten mittels Data Mining automatisch zu sammeln und genauso automatisch zu analysieren. Unter dem Begriff finden sich unterschiedliche Methoden, sowohl statistisch als auch basierend auf künstlicher Intelligenz.

Das grundsätzliche Vorgehen zum Data Mining wurde 2000 durch den CRISP-DM-Prozess weitgehend standardisiert

Verwendung findet Data Mining häufig im Marketing, Handel oder auch bei Banken und Versicherungen.

Direkt zusammenhängend mit

Praktiker-Tipps

praktische Tipps

941

Der Begriff Cloud bzw. Cloud Computing bezeichnet im allgemeinen Sprachgebrauch ein digitales Speichermedium für jegliche Art von Daten. Von jedem vernetzungsfähigen Gerät können die produzierten Daten direkt in die Cloud übertragen werden. Die Cloud ist dabei kein rein digitales Gebilde, sondern es ist grundsätzlich eine lokale Server/Rechner-Farm, die ihren Speicherplatz und nach Bedarf auch Leistung und Software zum digitalen Zugriff zur Verfügung stellt.

Grundsätzlich kann jedes Unternehmen Cloud als Speicherplatz nutzen oder Leistung von dort beigestellt bekommen. Es gibt jedoch gewisse Rahmenbedingungen, die vor Verwendung der Cloud geklärt werden müssen:

  • Rechtliche Bedingungen
  • Anforderungen an Datensicherheit
  • Nachfolgende Verarbeitung der Daten
  • Service-Verfügbarkeit
  • Redundanz im Backup
  • Art der Cloud

Sind alle diese Punkte betrachtet, ergeben sich Ideen, wo und wie Cloud Computing im eigenen Unternehmen genutzt werden kann.

Direkt zusammenhängend mit

Praktiker-Tipps

Cloud verstehen – der erste Schritt zur neuen Lösung für Sie!

Und denken Sie immer an ihr Backup, sei es über den Cloud-Provider oder eigenständig!

Edge Computing beschreibt die Verarbeitung und teilweise Auswertung von Daten am Rand (= Edge) des Netzwerks. Edge Computing bedeutet, dass lokal entstandene Daten lokal schon verarbeitet und teilweise ausgewertet werden - und erst danach die ausgewerteten Daten beispielsweise in die Cloud übertragen werden.

Durch das lokale Verarbeiten von Daten finden die Entstehung der Daten und die Datenauswertung in relativer Nähe zueinander statt und ermöglichen so eine tatsächliche Echtzeit-Reaktion. Diese wäre durch digitale Speichervorgänge (in Server bzw. Cloud) häufig nicht möglich, da die Daten erste nach Speicherung verarbeitet werden können (zu langsam für Echtzeit-Reaktionen).

Direkt zusammenhängend mit

Praktiker-Tipps

Achten Sie auf die richtige Kombination von Edge Computing und Cloud Computing. Je besser sie dies voneinander abgrenzen können (wo was benötigt wird), umso effektiver und effizienter wird die Datenauswertung und die damit verbundene Entscheidungsfindung.

Datennutzung ist im gesamten Unternehmen wichtig, in der Produktion (Stichwort Industrie 4.0), aber auch in allen anderen Bereichen des Unternehmens. Daten zu sammeln und auszuwerten ist nur der erste Schritt. Die Daten müssen natürlich auch genutzt werden, um Weiterentwicklung im Unternehmen voranzutreiben.

Oft reichen schon wenige Daten, um beispielsweise in der Produktion Daten nutzen zu können. Je mehr Daten verfügbar sind, umso umfassender kann natürlich die Analyse von Daten durchgeführt werden. Daten können beispielsweise genutzt werden für

Werden diese Techniken an den richtigen Stellen sinnvoll eingesetzt, können deutlich Kosten gespart, Effizienz erhöht, ungeplante Stillstände verringert und Test-Kapazitäten erhöht werden!

Auch in anderen Bereichen können Daten genutzt werden, um z.B.

  • Den Erfolg von Marketing- u/o Verkaufs-Maßnahmen darstellen zu können
  • Stellenausschreibungen oder Recruiting-Prozesse zu optimieren
  • Kostentreiber zu erkennen (auch in der Produktion)
  • Aufwand zum Generieren neuer Kunden vs. Aufwand zur Pflege von Bestandkunden zu evaluieren
  • Neue, relevante Kennzahlen zu implementieren (auch in der Produktion)
  • Qualitätssteigerungen im Produkt u/o im Prozess zu erreichen

Wird diese Datennutzung mit weiteren Daten zu Produktion, Produkt, Prozess oder Organisation verknüpft, können deutliche Benefits aus Daten gewonnen werden. Denn erst die Nutzung und gezielte Verknüpfung machen Daten wertvoll – dadurch wird tatsächlicher (Mehr-)Wert generiert!

Direkt zusammenhängend mit

Praktiker-Tipps

Deep Learning Modelle können bei der Suche nach unbekannten Mustern und Zusammenhängen in großen Datenmengen helfen!

Industrie 4.0 ist das ultimative Ziel der Datennutzung, da direkt basierend auf Daten auch reagiert wird – autonom, ohne Eingriff des Menschen. Dieses Ziel ist jedoch nicht in allen Bereichen tatsächlich sinnvoll oder realisierbar - und ist generell nur möglich mit einer umfassenden und gut durchdachten Nutzung von Daten.

Grundsätzlich ist Industrie 4.0 eine individuelle Kombination von unterschiedlichen datenbasierten Technologien (IoT, Cloud, ...), die erst ermöglichen, dass Maschinen auf datenbasierte Ereignisse autonom reagieren.

Direkt zusammenhängend mit

Praktiker-Tipps

Condition Monitoring hängt sehr eng mit dem Thema Predictive Maintenance zusammen. Grundsätzlich gilt, dass Condition Monitoring meistens die Vorstufe zur erfolgreichen Implementierung von Predictive Maintenance ist. In beiden Fällen werden Daten benötigt, um einerseits Alarme zu setzen und bei möglicherweise auftretenden Problemen eine frühzeitige Warnmeldung zu erhalten (=Condition Monitoring). Daher hängt Condition Monitoring meist direkt mit der Implementierung von geeigneter Hardware (Sensorik, Aktorik, ...) und Software zusammen.

Predictive Maintenance geht noch eine Stufe weiter: Hier werden die historischen Daten genutzt, um noch vor Entstehung einer Abweichung eine Meldung zu erhalten, dass etwas auftreten wird. Diese vorausschauende Analyse beruht auf künstlicher Intelligenz und wird immer häufiger implementiert.

Direkt zusammenhängend mit

Praktiker-Tipps

Es müssen die richtigen Daten aufgezeichnet werden - NICHT alle!

Predictive Maintenance ist die Weiterführung der Zustandsüberwachung in ein tatsächliches Vorausschauen. Es wird ein Algorithmus auf Basis historischer Daten erstellt, der mit zusätzlichen, neuen Daten immer weiter trainiert wird. Mit jeder Standard-Produktion und mit jedem Fehler lernt der Algorithmus und verfeinert sich. Es kann vorhergesagt werden,

  • Wann mit dem erneuten Eintreten eines definierten Fehlers zu rechnen ist
  • Welche Fehlerursache vorliegt, sofern den komplexen Algorithmen auch die Fehlerursache in Form von Daten mitgeteilt wurde

Der Übergang von Condition Monitoring zu Predictive Maintenance ist oft fließend und kann bei Bedarf meist schnell durchgeführt werden.

Direkt zusammenhängend mit

Praktiker-Tipps

Der digitale Zwilling (engl. digital twin) ist eine möglichst exakte digitale Abbildung einer physischen Maschine oder eines physischen Prozesses. Dabei können sowohl Produkte als auch (Teile der) Produktion abgebildet werden.

Bei Produkten, d.h. langfristigen Investments wie Produktionsmaschinen, wird heutzutage häufig schon die Möglichkeit mitgeliefert, dass ein digitales Abbild der Maschine zur Verfügung stehen kann (gegen Aufpreis, häufig als Service). Dies generiert für den Kunden einen deutlichen Mehrwert, da ohne Eingriff in die Maschine Versuche oder Services digital (ein)geplant werden können.

In der Produktion gibt es die Möglichkeit, dass einzelne Maschinen digital abgebildet werden. Sind mehrere Maschinen mit der Möglichkeit ausgestattet, können diese vernetzt abgebildet werden. Die geht soweit, dass auch (Gesamt-)Prozesse und Abläufe als digitaler Zwilling abgebildet werden können.

Direkt zusammenhängend mit

Praktiker-Tipps

Achten Sie darauf, wem rechtlich die Daten gehören, vor allem wenn Sie den digitalen Zwilling als Service nutzen!

Smart Production ist von der Wortbedeutung das Erreichen der intelligenten Produktion. Dabei werden individuell passende Technologien eingesetzt, um Prozesse und Abläufe zu automatisieren und (fast) vollständig datenbasiert die Produktion und deren Leistung nachhaltig zu verbessern. Smart Production ist daher ein entscheidender Teil von Industrie 4.0.

Direkt zusammenhängend mit

Praktiker-Tipps

So schön sich der Begriff auch anhört, so viel Aufwand ist es, dieses nachhaltig zu erreichen! Denken Sie groß bezogen auf das Ziel, starten Sie mit der Umsetzung aber greifbar und im Kleinen. 

Smart Factory beschreibt die autonome Steuerung und Regelung von industriellen Fabriken. Technologische Grundlage sind beispielsweise Big Data & IoT, die richtige Hardware sowie auch Software am richtigen Ort und diverse Methoden zur Datenanalyse. Erst durch diese Grundlagen ist das Entstehen einer Smart Factory (d.h. einer Industrie 4.0-Umgebung) möglich. Die Smart Factory besteht aus der Smart Production genauso wie aus intelligenter Lagerwirtschaft, Logistik usw.

Neben den technologischen Grundlagen muss die Verbindung mit den Menschen (Mensch-Maschine-Interaktion) genauso wie deren grundlegende Fähigkeit erweitert werden, um in diesem Umfeld angstfrei bestehen zu können.

Vorteile einer Smart Production sind:

  • optimierte, schlanke, flexible, nachhaltige, ... Prozesse
  • gesteigerte Produktivität
  • problemlose Fertigung von Losgröße 1
  • optimierte (und schlanke) Lagerung, Lieferung und Logistik
  • automatisierte Einkäufe & Bestellungen
  • ...

Direkt zusammenhängend mit

Praktiker-Tipps

Eine Daten-Strategie ist grundlegend wichtig für jedes Unternehmen, das langfristig datenbasiert entscheiden möchte. In einer Daten-Strategie wird festgehalten, wie man Wissen aus bestehenden Daten generiert und welche zusätzlichen Daten notwendig sind, um noch mehr Wert zu schaffen. Eine Daten-Strategie kann daher nachhaltig dazu beitragen, dass Geschäftsprozesse optimiert bzw. neue Geschäftsmodelle entwickelt werden. Sie ist normalerweise Teil einer Digital-Strategie.

In einer Daten-Strategie wird ausschließlich der Umgang mit Daten zur Generierung von Wissen behandelt. Wie mit Daten grundsätzlich umgegangen werden soll, sollte im Daten-Management beschrieben sein. Welche strategische Ausrichtung die Summe an Digitalisierungsvorhaben im Unternehmen haben, wird in der Digitalisierungs-Strategie beschrieben.

Direkt zusammenhängend mit

Praktiker-Tipps

Es müssen die richtigen Daten aufgezeichnet werden - NICHT alle!

Eine Digital-Strategie sollte jedes Unternehmen haben, das sich langfristig Richtung Zukunft aufstellen und Geschäftsmodelle digital & skalierbar umsetzen möchte. Nur mit einer individuell passenden Digital-Strategie kann man systematisch die richtigen Schritte setzen, um langfristig im digitalen Business erfolgreich zu sein, d.h. wettbewerbsfähig und wachsend.

Wichtig bei der Erstellung der Digital-Strategie sind:

  • die Sicht des Kunden einnehmen. Nur durch Erreichen eines tatsächlichen Kundenmehrwerts (z.B. Verminderung aktuell existierender Pain Points) und eventuell auch Einbindung des Kunden in die Entwicklung von Produkten kann der Kunde langfristig gebunden werden
  • den Kunden mit Werbung gezielt ansprechen - auch Werbung wird individueller und zielgruppenorientierter!
  • Datenbasierte Auswertungen anhand bestehender Daten machen - zur Kenntnis von internen Prozessen genauso wie des Erreichens von Kunden. Hier können datenbasierte Optimierungspotentiale gefunden werden!

Nur wenn bestehende Prozesse und die einzelnen Kunden tatsächlich bekannt sind, der Wille zur Optimierung vorhanden ist (und vom Chef vorgelebt wird), können nachhaltige Entwicklungen in Richtung neuer Produkte und Geschäftsmodelle passieren.

Die Digital-Strategie befindet sich immer im Spannungsfeld mit IT-Strategie, Daten-Strategie und Unternehmens-Strategie. Als Unternehmen sollte man versuchen, die einzelnen Bereiche möglichst zu vereinen, denn nur in Kombination mit der passenden IT-Strategie (was ist IT-technisch alles vorhanden und in welche Richtung soll es sich entwickeln), Daten-Strategie (wie gehe ich mit Daten um und generiere Wissen) und Unternehmens-Strategie (wohin soll sich das Unternehmen langfristig entwickeln), kann die Digital-Strategie (wie kann ich langfristig im Digitalen erfolgreich sein und welche Geschäftsmodelle bzw. Anpassungen brauche ich) erfolgreich sein!

Direkt zusammenhängend mit

Praktiker-Tipps

Achten Sie darauf, dass die unterschiedlichen Strategien sich inkludierende Ziele haben (und keine sich ausschließenden - beispielsweise geringere Einkäufe bei größerer Produktionsverfügbarkeit).

Komplexe und zukunftweisende Ideen umzusetzen erfordert eine unternehmensweite und visionäre Blickrichtung. Die Umsetzung der Ideen darf NICHT als Projekt gesehen werden, denn mit der Umsetzung erster, definierter Maßnahmen legt man eine Grundlage zur kontinuierlichen Erweiterung und Verbesserung des Unternehmens. Es muss daher langfristig und andauernd gedacht werden.

Die Umsetzung von komplexen Transformations-Projekten im technischen Bereich startet immer mit der Evaluation des IST-Zustands und der Idee des zukünftigen SOLL-Zustands. Es werden die notwendigen praktischen Schritte festgelegt, um diesen Zustand best- & schnellstmöglich zu erreichen. Rein den technischen Bereich zu betrachten ist jedoch zu gering gefasst – es müssen auch Mitarbeiter und Strukturen mit einbezogen werden, damit die technische Transformation den gewünschten und langfristigen Effekt hat! DANN findet eine nachhaltige und damit langfristig erfolgreiche Revolution statt!

Direkt zusammenhängend mit

Praktiker-Tipps

Häufig ist es sinnvoll, sich vor allem am Anfang von externen Begleitern unterstützen zu lassen. Diese haben den objektiven Blick auf Prozesse und Strukturen und können den langfristig individuell passenden Weg einschlagen.

Mit diesen 12 Wegen können Sie ihr Wissen durch externe Quellen erweitern

Beim Umgang mit Daten sollte zwangsläufig der Begriff Datenmanagement in den Sinn kommen. Datenmanagement beschäftigt sich mit dem kompletten „Leben der Daten“ (entstehen, speichern, prüfen, archivieren, löschen, …). Dabei geht es um

  • Richtlinien zum Umgang mit Daten
  • Zugriffsrechte zur Verwendung/Speicherung/... 
  • Sicherheit & Qualität der Daten

Daten-Management soll gewährleisten, dass Ziele, Prozesse, Abläufe usw. des Unternehmens optimal unterstützt werden - indem die Daten optimal zur Auswertung vorbereitet sind. Dies geht häufig mit der Notwendigkeit von Standardisierung im Unternehmen einher.

Direkt zusammenhängend mit

Praktiker-Tipps

Machen Sie sich frühzeitig und übergeordnet Gedanken zu diesen Punkten!

Datenmanagement: Ihr Erfolg mit diesen 6 Säulen!

Datensicherheit und Datenschutz werden immer wichtiger in der heutigen Zeit der Vernetzung. Durch die Vernetzung sind Themen wie mögliche Daten-Zugriffe, Daten-Verluste, Daten-Transfer, Daten-Speicherung usw. allgegenwärtig, befugt oder unbefugt. Daher müssen Sie zu jedem Zeitpunkt gewährleisten können, dass Ihre Daten sicher sind. Dies funktioniert aber nur, wenn Sie sich mit dem Thema Datensicherheit und Datenschutz ausführlich auseinandergesetzt haben, wenn Sie Mitarbeiter geschult und Bewusstsein geschaffen haben.

Nutzen Sie die neuen Technologien, aber denken Sie bei jedem vernetzten Gerät und mit jeder Anbindung eines neuen Gerätes in Ihrem Unternehmen daran, dass es potentiell zur Sicherheitslücke werden kann. Beispielsweise auch kleinste Sensoren können Angriffsfläche für das gesamte Unternehmen bieten, denn die Sensoren hängen im Firmen-Netzwerk und ermöglichen dadurch Zugriff auf das gesamte Netz und alle Daten (und nicht nur auf die Daten des Sensors). 

Beschäftigen Sie sich daher frühzeitig und umfassend mit dem Thema Datensicherheit und leiten Sie konkrete Maßnahmen ab!

Direkt zusammenhängend mit

Praktiker-Tipps

Betrachten Sie Daten-Sicherheit NICHT als notwendiges Übel. Es ist im ersten Moment vielleicht aufwändig, wird Sie aber langfristig vor viel Schaden bewahren, wenn es richtig umgesetzt wurde!

Die Daten-Visualisierung ist die grafische Darstellung von vorher erfassten, qualitätsgeprüften und analysierten Daten. Visualisierungen ermöglichen für den Menschen eine schnellere Erfassung von Zusammenhängen, einzuhaltenden Kennzahlen oder ähnlichem.

Die adäquate, d.h. zielgruppengerechte und darstellungsoptimierte Visualisierung ist Voraussetzung dafür, dass

  • Abweichungen, Trends oder Muster schnell identifiziert werden können
  • auch nicht direkt involvierte Personen Zusammenhänge verstehen
  • direkt Rückschlüsse und Entscheidungen getroffen werden können

Zur Visualisierung von Daten gibt es ganz unterschiedliche Tools. Häufig hat das für Datenanalysen verwendete Software-Programm schon eine Daten-Visualisierungs-Funktion.

Direkt zusammenhängend mit

Mensch, Organisation, Software, Big Data, Analytics/Intelligence-Methoden

Praktiker-Tipps

Ästhetik spielt eine Rolle - wichtig ist aber die Klarheit und Eindeutigkeit solcher Visualisierungen!

Entscheidend für die Richtigkeit der Visualisierungen ist die Qualität der Daten!

Daten-Storytelling bettet die erhaltenen Daten in einen leicht verständlichen Kontext ein und ermöglichst Lesern/Zuhörern, dass sie Daten besser verstehen und die Geschichte aufmerksam mitverfolgen können.

Direkt zusammenhängend mit

Mensch, Organisation, Software, Daten-Visualisierung

Praktiker-Tipps

Erst die Aufmerksamkeit verdienen und halten, denn leichte, prägnante Beispiele sind zum Start besser als viele technische Details!

Data Literacy bedeutet Datenkompetenz. Diese Kompetenz und das Verständnis der Notwendigkeit ist unerlässlich. Dabei beschreibt Data Literacy eine Kombination unterschiedlicher Kompetenzen, die sich grundsätzlich mit der Erfassung, Bearbeitung, Präsentation sowie zur Interpretation und Bewertung (d.h. Umwandlung von Daten in Wissen und Entscheidungen) von Daten beschäftigen.

Data Literacy und die damit einhergehende, individuelle Qualifikation von Mitarbeitern zum Umgang mit Daten sind entscheidend für den Erfolg bei Digitalisierung und digitaler Transformation. Dabei kann das Wissen über Data Literacy auch bedeuten, dass die wissenden Ressourcen extern zugekauft werden können.

Direkt zusammenhängend mit

Mensch, Organisation, Hardware, Software, Datenmanagement, Datenvisualisierung, Datenstrategie

Praktiker-Tipps

Eigene Mitarbeiter benötigen eine grundlegende Datenkompetenz. Die spezialisierte Datenkompetenz ist vom Arbeitsbereich und der Anwendung abhängig und kann nicht pauschalisiert werden!

Die Blockchain Technologie hat Bekanntheit erreicht durch die Kryptowährung Bitcoin. Diese digitale Währung ist der Vorreiter des Einsatzes der Technologie, die noch viel mehr kann!

Blockchain ist die Grundlage für fälschungssichere Prozesse. Zusammengesetzt aus den beiden Begriffen Block und Chain beschreibt dies schon gut die Technologie: es werden einzelne Blöcke (=Datensätze) als Kette (=Chain) miteinander verbunden. Neue Blöcke entstehen immer dann, wenn die Datensätze bearbeitet werden. Um die Fälschungssicherheit zu gewährleisten,

  • ist jeder Block eindeutig identifiziert (Dokumentation von Zeit und Datenveränderung) und
  • jeder neue Block beinhaltet einen Teil vom alten Block und ist somit direkt inhaltlich mit diesem verbunden.

Wird ein Fälschungsversuch an einem der Blöcke unternommen (Datenveränderung), wird die Fälschung nicht in die anderen Blöcke übernommen. Dadurch, dass es nicht übernommen wird, resultiert dies in den nachfolgenden Blöcken in Diskrepanzen, was erst zur Identifikation einer Fälschung führt und dann zur genauen Lokalisation der Fälschung.

Blockchain kann daher als digitale Währung genutzt werden, kann aber auch für andere, digitale Abbildungen genutzt werden, z.B. von Maschinen oder für neue Geschäftsmodelle (z.B. pay-per-use).

Direkt zusammenhängend mit

Mensch, Organisation, Hardware, Software, Geschäftsmodelle

Praktiker-Tipps

Wissen über Blockchain kann Perspektiven für neue Geschäftsmodelle eröffnen!

Virtuelle Realität (Virtual Reality, VR) und erweiterte Realität (Augmented Reality, AR) sind zwei Technologien, die häufig in einem Atemzug genannt werden.

Die virtuelle Realität (VR) bietet ein völlig virtuelles Erlebnis. Die reale Umgebung wird vollständig durch ein digitales Bild ersetzt und man vergisst letztlich, wo man sich befindet. Solche virtuellen Realitäten werden im Gaming-Bereich schon oft eingesetzt, meist unter Verwendung von VR-Brillen. Virtuelle Realität wird aber auch ohne Brille genutzt, um z.B. Immobilien virtuell zu begehen.

Die erweiterte Realität (AR) verknüpft die Realität mit einem virtuellen Erlebnis. Die reale Umgebung wird dabei nicht völlig ersetzt, sondern nur virtuell erweitert. Dies wird z.B. im Produktions-Bereich gerne verwendet, wenn detaillierte Qualitäts-Überprüfungen gemacht werden müssen. Virtuell wird entweder einfach nur das virtuelle Bild über das reale Bild gelegt, um Differenzen zu erkennen oder es kann kombiniert mit KI sogar das Erkennen von potentiellen Fehlern zu erleichtern. Auch bei Operationen wird AR unterstützend eingesetzt.

Der Begriff Mixed Reality ist als ein so genanntes Kontinuum zu begreifen. Mixed Reality beschreibt jeglichen Zustand zwischen völlig real (physische Realität) und völlig virtuell (Virtual Reality), egal in welcher (prozentualen) Ausprägung. Daher ist Augmented Reality ein Teil der Mixed Reality.

Direkt zusammenhängend mit

Praktiker-Tipps

Veränderung von Realitäten durch Beimischung von virtuellen Anteilen wird in Zukunft immer mehr Einfluss haben - und auch Geschäftsmodelle, Unternehmensstrukturen usw. beeinflussen.

3D Druck, in der Fachwelt bezeichnet als Additive Fertigung, ist eine mittlerweile nicht mehr ganz so neue Technologie, mit der Materialien (Kunststoffe, Metalle, Keramiken) in Form von Drähten oder Pulver direkt verarbeitet ("gedruckt") werden zu einem gewünschten Bauteil. Der Vorteil liegt dabei in der Möglichkeit, Konturen und Formen zu gestalten, die mit herkömmlichen Fertigungsmethoden nicht herstellbar sind. In der Produktion kann dadurch der Ressourcen- & Arbeits-Aufwand verringert und gleichzeitig meist auch die Lagerhaltungskosten reduziert werden. Auch in der Anwendung ergeben sich Vorteile, da gedruckte Teile auch für enge Platzverhältnisse oder in komplexen Formen hergestellt werden können. Nachteile des 3D Druck sind, dass technisch doch nicht immer alles möglich ist.

Der 3D Druck ist definitiv eine datenbasierte Technologie, die ohne die technologischen Entwicklungen der letzten Jahre nicht so einfach möglich wäre (z.B. mit Blick auf Prozessparameter-Evaluationen, Eigenschaft-Parameter-Korrelationen, CAD-Zeichnungen und technische Umsetzung dessen, ...)

Direkt zusammenhängend mit

Praktiker-Tipps

Akzeptanz und auch Denkweise der Mitarbeiter muss gezielt geschult werden!

Open Source bedeutet, dass der Code eine Software zur selbstständigen Änderung verfügbar ist. Reine Open Source Software kann vollständig bearbeitet, verändert und programmiert werden. Es gibt auch Firmen, die Open Source Software anbieten. In diesen Fällen sind nur spezielle Teile der Software geschützt, in allen anderen Bereichen des Codes können Bearbeitungen durchgeführt werden. 

Die Entscheidung für bzw. gegen Open Source muss vor Erwerb einer Software getroffen werden, denn es müssen die notwendigen Programmierkenntnisse vorhanden sein, um den Vorteil der freien Bearbeitung nutzen zu können und eine gewissen "Selbsthilfe" möglich sein, denn gibt keinen Support für reine Open Source Programme .

Open Source hat viele Vorteile und ist immer mehr im Kommen. Starten Sie frühzeitig mit entsprechenden Überlegungen!

Direkt zusammenhängend mit

Praktiker-Tipps

No Code oder Low Code Anwendungen zur Software-Programmierung werden immer häufiger verwendet, da ohne bzw. nur mit geringen Programmier-Erfahrungen Software-Programme, Apps oder ähnliches gebaut werden können. Es werden vorprogrammierte Bausteine genutzt, die relativ einfach aneinandergekettet werden können, um neue Funktionen zu erreichen. Vorteil einer solchen Lösung ist, dass es relativ einfach durchgeführt werden kann und entsprechend der Anforderungen personalisiert ist. Nachteil ist, dass eventuell nicht alles, was dargestellt werden soll auch dargestellt werden kann, weil die notwendigen Bausteine fehlen oder nicht die benötigte Funktionalität haben.

Direkt zusammenhängend mit

Praktiker-Tipps

Auch No Code und Low Code Anwendungen müssen durch Menschen betreut werden. Diese Menschen müssen die notwendigen Kenntnisse und auch Motivation mitbringen, sich darin einarbeiten zu wollen - daher: frühzeitig nach diese Menschen im Unternehmen Ausschau halten!


Weitere interessante Inhalte:

Helfen Sie mit Ihrem Input!

Werden Sie Teil der Community!