Industrie 4.0 ohne künstliche Intelligenz? Das scheint undenkbar, denn gerade Machine Learing wird als eine Methode propagiert, um die Datenmengen zu bewältigen. Ein anderer Ansatz ist die Operational Intelligence (OI), die für transparente Prozesse sorgen soll.

Die Wertschöpfungskette optimieren, IT-Stabilität erhöhen, Sicherheitsbedrohungen erkennen – maschinengenerierte Daten spielen in der Industrie 4.0 eine wichtige Rolle. Je nach System entstehen bei der Verarbeitung von Maschinendaten schnell extrem grosse Datenmengen. In diese Masse an Big Data fällt im industriellen Umfeld zunehmend auch die Unterstützung der horizontalen Wertschöpfungskette, in die Maschinen und Systeme von Lieferanten, Händlern, Dienstleistern oder Kunden eingebunden werden. Zudem soll dieser Informationsberg betriebswirtschaftliche Prozesse positiv beeinflussen. Ein Ansatz hierzu ist die Operational Intelligence (OI). OI soll es zum einen ermöglichen, Big Data zu verstehen, zum anderen die Echtzeitanalyse der einzelnen Systeme erlauben. Diese Analysen können wiederum als Basis dienen, um Entscheidungen für unterschiedliche Unternehmensprozesse zu fällen.

Anwendungsszenarien

Dies könnten etwa klassische Abläufe im Kerngeschäft eines Fertigers sein: Wertschöpfungsketten werden intelligent und umfassen zunehmend sämtliche Phasen des Lebenszyklus eines Produkts – von der Idee über die Entwicklung, bis hin zur Produktion, Nutzung, Wartung und dem Recycling. Liegen beispielsweise alle Informationen für einen Fertigungsprozess transparent vor, so kann ein Hersteller frühzeitig auf Qualitätsprobleme bei bestimmten Produktionschargen reagieren. Auf Grundlage der konsolidierten und ausgewerteten Informationen kann die Geschäftsführung dann auf unvorhergesehene Abweichungen reagieren. Ein anderes Einsatzgebiet ist etwa die Untersuchung der Interaktionen mit Kunden, um auf zunehmende Kundenbeschwerden zu reagieren oder einen Rückgang der E-Commerce-Geschäfte erklären zu können.

OI in der IT

In Verbindung mit Maschinendaten bietet sich der OI-Einsatz auch in der IT selbst an. Informationen aus verschiedenen IT-Systemen wie Web-Servern oder Infrastruktur-Komponenten sowie Netzwerkdaten oder Cloud-Service-Informationen können mit OI für die Fehlersuche und Performance-Steigerung verwendet werden. Nach der Auswertung dieser Daten lässt sich eine Ursachenforschung betreiben, um künftig auf Vorfälle, Ausfälle und andere Probleme reagieren zu können. Mit dieser Echtzeit-Berichterstattung aus den „Maschinenräumen“ einer Organisation sind IT-Manager in der Lage, eine serviceorientierte Sicht auf ihre IT-Umgebung zu entwickeln. So lassen sich On-the-Fly-Berichte und Datenvisualisierungen nutzen, die einen Überblick über die Geschehnisse aus unterschiedlichen Perspektiven ermöglichen.

Eine weitere Anwendung für OI ist der Security-Bereich. Die Analyse erlaubt es, forensische Untersuchungen in unterschiedlichen Ebenen der Infrastruktur durchzuführen, um etwa nach einem Cyber-Angriff nach bestimmten Mustern zu suchen. Mit diesen Informationen können IT-Verantwortliche ein ungewöhnliches Verhalten im Unternehmensnetz frühzeitig erkennen. Gleichzeitig können sie potenziellen Bedrohungen vorbeugen, indem sie eine kontinuierliche Überwachung und -bewertung von Vorfällen inklusive Warnsystem implementieren.

So funktionieren OI-Plattformen

Die OI-Plattformen selbst sammeln und indizieren zunächst Informationen aus unterschiedlichen Quellen, bevor eine Analyse vorgenommen werden kann. Beim Sammeln sollten sowohl physische als auch virtuelle Umgebungen sowie Cloud-Umgebungen einbezogen werden. In Industrie-4.0-Szenarien kommen dann häufig noch Inhalte aus Sensoren und Microcontrollern von Produktionssystemen hinzu sowie Informationen aus strukturierten Datenbanken. Für die Einspeisung der Daten dienen in der Regel so genannte Forwarder, die sich direkt in den Datenquellen befinden. Darüber hinaus lassen sich DevOps-, IoT- und andere Daten über Applikationsschnittstellen (APIs) integrieren.

Für die Darstellung der konsolidierten Informationen stellen die OI-Plattformen in der Regel Dashboards bereit. Die Dashboards informieren visuell über bestimmte Vorgänge und Zusammenhänge in IT- und Geschäftsprozessen und zeigen Engpässe, Probleme und sogar neue Geschäftschancen auf. Möglich wird dies durch eine Ereigniskorrelation. Sie erlaubt es, Beziehungen zwischen scheinbar unzusammenhängenden Ereignissen in Daten aus verschiedenen Quellen zu finden.

Source: Computerwoche, Matthias Meier

Geschrieben von Learning Evolution.com

The basis of my professional, polyvalent career is mainly characterized by the following qualifications: - 20 years of experience in Sales & Marketing - 20 years of experience in the field of ICT and in particular, Learning Development, Knowledge Management (KM), Enterprise Content Management (ECM), Customer Relationship Management (CRM) and Search Engine Optimization (SEO) - 20 years of experience in the field of human Resources Management (5 - 25 persons - recruitment, leading, training and motivation of employees) - 20 years of experience as a Project Manager in the field of ICT, chemical and industrial plant design and architecture. - 10 years of experience in 2D / 3D CAD planning - 10 years of experience in the field of Biological and Energy-Efficient Construction - 5 years of experience as a Member of the Board of two companies, with whom I've worked

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.