Skip to Content

Referenzarchitekturen für die Herausforderungen der digitalen Transformation

Über die Autoren

Richard Attermeyer – Richard Attermeyer arbeitet als Senior Solution Architect bei OPITZ CONSULTING. Er beschäftigt sich seit vielen Jahren mit der Architektur und der Implementierung von Anwendungen im agilen Umfeld und fokussiert sich dabei aktuell auf moderne Architekturansätze rund um Microservices, Cloud, DevOps und Continuous Delivery.

Dominik Bial – Dominik Bial leitet das Competence Center IoT bei OPITZ CONSULTING. Bei der Beratung und Entwicklung in Integrations- und BPM-Projekten hat er einen gesonderten Blick auf aktuelle IT-Trends wie Mobile, Cloud und Internet der Dinge.

Rolf Scheuch – Rolf Scheuch ist Diplom-Mathematiker und hat OPITZ CONSULTING mitbegründet. Dort ist er heute als Chief Strategy Officer tätig und arbeitet zudem als Management Coach und Autor zu Themen wie geschäftszielorientierte IT-Strategie und organisatorische Implementierung von Initiativen im Umfeld des Business- und IT-Alignments.

Torsten Winterberg – Torsten Winterberg leitet das Business Development & Innovation Team bei OPITZ CONSULTING mit Competence Centers zu IoT, Big Data, Cloud und Moderne Clients, sowie das OC|Lab. Zudem ist er Themenverantwortlicher für Integration und BPM in der DOAG Development Community, Oracle ACE Director und aktiv im Vorstand der Enterprise BPM Alliance.

1 Vorwort

Die aktuellen Herausforderungen an die IT sind gewaltig und werden hinsichtlich Veränderungsfähigkeit und Geschwindigkeit eher noch steigen. Die alten, eher auf Kosteneffizienz und Stabilität basierenden Denkmuster der IT werden sich verändern müssen. Aber wie kann man die notwendige Business Continuity sichern, standardisieren und gleichzeitig flexibel und schnell neue digitale Geschäftsmodelle implementieren, Business Moments ergreifen und ein sich veränderndes Kundenverhalten unterstützen?

Mit diesem Whitepaper präsentieren wir Ihnen eine Referenzarchitektur für eine zukunftsweisende Systemlandschaft als Plattform Ihrer digitalen Strategie.

Mit den vier grundlegenden Säulen der Digitalisierung möchten wir Ihnen aufeinander abgestimmte Referenzmodelle für die zukünftige Architektur von Applikation, Integration, Infrastruktur und Analytics vermitteln. Das Leitbild dieser Systemarchitektur orientiert sich am „Design for Change“-Ansatz.

Vielleicht bleiben noch Fragen für Ihr eigenes Vorhaben offen. Sie möchten gerne mehr über unsere Expertise wissen oder konkrete Informationen zu Ihrem eigenen Vorhaben zur Modernisierung der Systemlandschaft mit uns besprechen? Kommen Sie auf uns zu und sprechen Sie uns an.

Wir wünschen Ihnen viel Erfolg bei der Planung und Implementierung Ihres Vorhabens zur Modernisierung der Systemlandschaft, und dass Sie die Herausforderungen der Digitalisierung mit Bravour bewältigen!

Richard Attermeyer
Dominik Bial
Rolf Scheuch
Torsten Winterberg

2 Treiber der Digitalisierung

Zunehmender Wettbewerbsdruck erfordert in immer kürzer werdenden Zyklen Anpassungen bei den Geschäftsmodellen und den unterstützenden Geschäftsprozessen. Gleichzeitig wird die Interaktion mit externen Geschäftspartnern und Kunden durch die Globalisierung und digitale Vernetzung der Unternehmen immer entscheidender für den Unternehmenserfolg.

Diese Vernetzung ist eine grundlegende Voraussetzung für das „Internet of Everything“ [1], das Menschen, Maschinen und Dinge in mannigfaltiger Weise miteinander verbindet. Ohne einen verlässlichen Informationenaustauch mit qualitativ hochwertigen Daten auf einer umfassenden Plattform wäre das undenkbar.

Herausforderungen wie diese setzen seit langem gewachsene Systemlandschaften unter Druck und erfordern eine grundlegende Veränderung und Transformation ihrer Architekturkonzepte.

Viele Systemlandschaften basieren auf umfänglichen, aufwändig zu integrierenden Applikations-Suiten, häufig auch Monolithen genannt, und diese erweisen sich als veränderungsresistent. Es muss ein Umdenken hinsichtlich der zukünftigen Systemlandschaften und Applikationsarchitekturen stattfinden.

Die technischen und auch organisatorischen Herausforderungen, die aus der digitalen IT-Transformation resultieren, beschäftigen die deutschen Unternehmen momentan wie kein anderes Thema. Dennoch: Bei vielen unserer Kunden erleben wir eine kritische Distanz zur aktuellen Situation der IT und dem Wunsch, neue Konzepte zu verfolgen.

Folgende grundlegenden Geschäftstreiber, die auch in Abbildung 1 aufgeführt sind, motivieren den Umbau und die Modernisierung der gewachsenen Systemlandschaften:

  • Erhöhung der operativen Exzellenz: Der Wunsch, durch Industrie 4.0, Digitalisierung oder Cloud Computing die Prozess- bzw. Stückkosten zu senken.
  • Differenzierung vom Wettbewerb: Die Notwendigkeit, durch eine stärkere kundenzentrische Sicht (Outside-In- Betrachtung) neue Service- und Produktinnovationen marktgetrieben und zeitnah zu implementieren.
  • Neue Märkte und Umsatzsicherung: Die Chance, über neue digitale Geschäftsmodelle bzw. Digitalisierung der bestehenden Geschäftsmodelle den bestehenden Marktzugang zu sichern oder sogar neue Kundengruppen zu erschließen.
  • Adaptionsfähigkeit: Die Möglichkeit, die Interaktionskosten mit Geschäftspartnern und Kunden durch digitale Lösungen und ein Ecosystem of Value [3] zu senken sowie über eine organisatorische Ambidextrie [4] Chancen und Business Moments [5] schneller zu ergreifen.
Geschäftstreiber der Digitalisierung
Abb. 1. Geschäftstreiber der Digitalisierung

In den folgenden Kapiteln beschreiben wir ein fachliches High- Level-Referenzmodell für digitale Geschäftsmodelle. Aus diesem leiten wir die folgenden Aspekte ab:

Herausforderungen an die vier grundlegenden Säulen der Digitalisierung
Leitlinien des Design for Change für die zukünftige Systemarchitektur
Architekturziele

Die vier grundlegenden Säulen der Digitalisierung stellen wir daraufhin im Einzelnen vor, anhand von aufeinander abgestimmten Referenzmodellen zukünftiger Architekturen für Infrastruktur, Integration, Applikation und Analytics.

Wir schließen mit einem Fazit, das Sie motivieren soll, die Modernisierung Ihrer Systemwelt voranzutreiben.

3 Das digitale Geschäftsmodell

Ein digitales Geschäftsmodell beschreibt die Grundlogik, nach der eine Organisation mit Hilfe von Informationstechnologie und digitalen Produkten Werte schafft. Dabei bestimmt das digitale Geschäftsmodell,

  • was eine Organisation anbietet,
  • was für den Kunden von Wert ist,
  • wie Werte in einem Organisationssystem geschaffen werden,
  • wie die geschaffenen Werte dem Kunden kommuniziert und übertragen werden,
  • wie die geschaffenen Werte in Form von Erträgen durch das Unternehmen eingefangen werden,
  • wie die Werte in der Organisation und an Anspruchsgruppen verteilt werden
  • und wie die Grundlogik der Wertschöpfung weiterentwickelt wird, um die Nachhaltigkeit des Geschäftsmodells in der Zukunft sicherzustellen. [6]

Nach dieser Definition stellt ein digitales Geschäftsmodell nur eine Ausprägung eines klassischen Geschäftsmodells dar, wobei die Besonderheit in der absoluten Abhängigkeit der Leistungserbringung von der Nutzung der Informationstechnologie liegt und/oder der Mehrwert für den Kunden ein digitales und somit virtuelles Produkt ist [7].

Gleichwohl welche Klassifikation das von Ihnen angestrebte digitale Geschäftsmodell besitzt, es wird in seiner Ausprägung die in Abbildung 2 aufgeführten, grundlegenden fachlichen Komponenten besitzen.

Der Wertschöpfungsprozess des Geschäftsmodells wird einen lernenden Regelkreis beinhalten. Dieser beginnt und endet mit der Produktnutzung des „Gegenstands“ [8], der Verhalten und Zustand von Daten mit Hilfe von Sensorik sichtbar macht.

Der „Gegenstand“ kann dabei auch ein Smart Device sein wie ein Tablet oder ein Smartphone. 

Fachlichen Komponenten eines digitalen Geschäftsmodells
Abb. 2. Fachlichen Komponenten eines digitalen Geschäftsmodells

Entscheidend sind Sensoren, die die Umwelt wahrnehmen, und Aktuatoren, die das Verhalten des „Gegenstands“ und die Informationsdarstellung am „Gegenstand“ verändern können. Ein Beispiel dafür sind kontextsensitive Applikationen, die auf die Umgebung eingehen und Augmented-Reality-Ansätze nutzen können.

Die übermittelten Sensordaten der Endgeräte werden in Form eines Datenmanagements aufbereitet, wobei die Verarbeitung aufgrund der großen Menge und Variabilität der Sensordaten meist als Fast-Data-Verarbeitung [9] implementiert wird. Um die notwendige Geschwindigkeit von Datenaufnahme und Verarbeitung zu ermöglichen, wird man geeignete Architekturen, auch über mehrere Ebenen des Netzwerks implementieren.

An dieser Stelle helfen die Architekturkonzepte des Big Data weiter, um das Volumen an Daten und die Diversität an Formaten zu meistern. Die Streaming-Daten werden in Near Real-time gefiltert und analysiert, wobei eine „lokale“ Intelligenz zu einer Veränderung der Nutzung führen kann. Deshalb macht es Sinn, relevante Regelwerke und Geschäftslogik bereits auf dem Datenstrom zu implementieren und diese, etwa mittels BPM-Lösungen, in automatisierten Prozessen auszuführen. Abbildung 2 beschreibt dies am Beispiel der Dunkelverarbeitung.

Im Mittelpunkt vieler digitaler Geschäftsmodelle steht oft der Verbund an „Dingen“, etwa Beleuchtungseinheiten, Parkplätze, Mietobjekte, Connected Car etc., deren Verhalten dann auch im Verbund an die veränderten Umweltbedingungen angepasst werden muss. Hierzu müssen fachliche Nachrichten an ein lokales (siehe Connected Car) oder zentralisiertes Device Management versandt werden.

Das Device Management ist daraufhin in der Lage, die logischen Events der einzelnen Endgeräte aggregiert aufzubereiten und im Netzwerk zu propagieren und so das Verhalten der Dinge durch Ansteuerung der Aktuatoren zu beeinflussen. Dieser Regelkreis wird zu einem zentralen Gegenstand der Referenzarchitektur (siehe Abbildung 2, Kasten „Daten- und Device Management“). Experten bezeichnen diesen Sachverhalt als „Device2Process“ oder „Process2Device“ [10].

Zusätzlich zu diesem dynamischen Aspekt ist das Device Management verantwortlich für

die Verwaltung von Identitäten wie Personen oder Endgeräte,
die notwendige Security zur Verhinderung von eingeschleusten Streams (Fraud Detection)
und die automatisierte Propagierung oder das Harvesting sämtlicher Schnittstellen bei einem Rollout oder bei einer Anpassung der Endgeräte.

Ein wichtiger Aspekt der Security ist das automatisierte Sperren von Endgeräten durch das Device Management.

Die Frontend- und Backend-Applikationen des digitalen Geschäftsmodells nutzen dabei die aufbereiteten Daten zur Etablierung des neuen Angebots, zur Abwicklung einer speziellen Geschäftslogik oder allgemein, um einen Mehrwert für den Kunden zu erreichen.

Auf die benötigten Applikationen und Prozesse gehen wir in diesem Whitepaper nicht im Detail ein, da es zu große Unterschiede bei den Geschäftsmodellen gibt und eine Abstraktion aus unserer Sicht nicht sinnvoll ist. Gleichwohl haben alle Ansätze eines digitalen Geschäftsmodells eine intelligente Vorverarbeitung gemein: Aussagekräftige Events werden an die Systeme der eigentlichen Abwicklung übermittelt.

Diese Backend-Systeme beinhalten auch die notwendige Analytik und Prognosemodelle für die Steuerung der Abwicklung, etwa für eine verbesserte Disposition oder proaktive Wartung. Gleichzeitig lassen sich über die erfassten Daten neue Informationen gewinnen, die dabei helfen, neue Dienstleistungsangebote oder kostenpflichtige Informationsangebote (Information as a Product [11]) zu erstellen.

Der Regelkreis wird durch eine Analytik geschlossen, die neben der Erfolgsmessung über ein eher klassisches Controlling auch das Kunden- und Produktverhalten untersucht, um das Geschäftsmodell zu optimieren. Diese Untersuchung erfolgt meist im explorativen Ansatz in einem Batch-Mode, der zeitlich relativ unkritisch ist. Hierzu zählen auch die Ansätze des Deep Learnings [12], etwa für eine komplexe multidimensionale Predictive Maintenance, die stetig mit Testfällen aus der Praxis verbessert werden sollten.

Diese Erkenntnisse können verwendet werden, um entsprechende Regelwerke auf dem Stream für eine Near-Real- time-Filterung und Prüfung zu verwenden. Dies geschieht heute eher manuell, indem „hinten“ neue Modelle ermittelt werden, die dann im Data Streaming „vorne“ neue und vor allem Near- Real-time-Analysen des Datenstroms ermöglichen.

In vielen Fällen ist hier ein automatisches Modell-Update wünschenswert, damit ein selbstlernendes System entsteht.

Vier grundlegenden Säulen der Digitalisierung
Abb. 3. Zuordnung der vier grundlegenden Säulen der Digitalisierung zu den fachlichen Komponenten

Abbildung 3 zeigt eine Zerlegung unserer Referenzarchitektur in vier Architektur-Domänen, die wir als Basis für unsere „vier grundlegenden Säulen der Digitalisierung“ ansehen:

1. Infrastruktur

Das Fundament besteht aus einer flexiblen, hybriden Infrastruktur, die dynamisch auf veränderte Lastprofile eingehen kann und gleichzeitig die notwendige Stabilität besitzt. Im Wechselspiel von On-Premise, Private-Cloud-Ansätzen und Public-Cloud-Lösungen können optimale Einzellösungen über eine Systemintegration miteinander verbunden werden.

2. Integration

Die Integrationsarchitektur verbindet die „Dinge“ mit dem Device Management, mit der Stream-Verarbeitung unter Beachtung der Datensicherheit sowie mit der Integration der Applikationskomponenten von eigenen wie auch fremden Produkten. Hierzu gehören selbstverständlich auch SaaS- Lösungen.

3. Applikation

Die Applikationsarchitektur ermöglicht zeitnahe Veränderungen am Geschäftsmodell bei gleichzeitiger Wiederverwendung bestehender Komponenten und Backend-Prozesse. Somit wird die Applikationslandschaft zu einer Plattform für eigene innovative Systeme oder zur Anbindung von Dritten, ohne die Business Continuity zu gefährden.

4. Analytics

Abschließend fassen wir Big-Data-Ansätze und klassische Business Intelligence zu einer analytischen Architektur zusammen.

4 Design for Change

Die Digitalisierung und in der Folge die rascher werden Zyklen der Anpassung und Veränderung der IT-Landschaft machen ein Design for Change als übergeordnetes Architekturprinzip notwendig.

Die folgenden Herausforderungen leiten sich aus den genannten Treibern der Digitalisierung ab und fließen als Leitlinien über die vier Säulen der Digitalisierung in die neue Systemarchitektur ein, um die steigende Komplexität zu beherrschen:

  • Aktuelle Benutzerschnittstellen und die Philosophie der Mensch-Maschinen-Interaktion sind aktuell im Umbruch. Ferner ist die weitere Entwicklung der User Interfaces nicht absehbar. Nur die konsequente Trennung von Front- und Backend ermöglicht daher eine schnelle und flexible Veränderung der Benutzerinteraktion.
  • Mit Internet of Things, Big Data und Cloud Computing steigt die Komplexität der Systeme und erfordert die klare Delegation von Aufgaben für unabhängige Release-Zyklen.
  • Traditionelle Wertschöpfungsketten wandeln sich zu „Ecosystems of Value“ und erfordern eine offene, aber gesicherte, Applikationsplattform.

4.1 Trennung von Front- und Backend

Vor wenigen Jahren war die Oberflächenwelt noch überschaubar. Es gab Desktop-Anwendungen, Web-basierte Interfaces und native Oberflächen für spezielle Devices wie Smartphones. Nun aber verschwimmen diese Grenzen durch den Industriestandard HTML5 und neue Trends wie den Universal-Apps-Ansatz bei Microsoft. Hinzu kommt die Veränderung der traditionellen expliziten Bedienung von Oberflächen mittels Maus, Tastatur und Touchscreens hin zu einer eher impliziten Bedienung durch Gesten, Sprache, Augen- und Körperbewegung. Diese geht Hand in Hand mit den momentan vielleicht noch futuristischen Trends der 3D- Darstellung, die auf eine möglichst realitätsnahe Objektdarstellung abzielen.

Die Leistungsfähigkeit der Rechnerwelten, wie auch die Rechenleistung der Endgeräte, befeuern diese Entwicklung zusätzlich.

Interaktive 3D-Brillen werden bei steigender Leistungsfähigkeit immer kleiner. Chatbot-artige Benutzerschnittstellen werden immer intelligenter. Google läutet das Ende von „Mobile First“ und den Beginn von „AIl First“ ein. Somit werden wir in den nächsten 5 bis 7 Jahren eine grundlegende Veränderung der Mensch-Maschine-Interaktion erleben. Damit die bestehenden Systeme diese neuen Möglichkeiten verwenden können, bedarf es einer flexiblen Architektur, die es ermöglicht, mit der rasanten Entwicklung der Client-Technologien mitzuhalten.

Ferner wird die klassische Kommunikation eines Clients mit genau einem Server-Backend heute immer öfter durch die Kommunikation mit mehreren unabhängigen, auch externen, Service-Providern ersetzt. Clients können durchaus auch Services [13] von unterschiedlichen Backend-Systemen, ggf. sogar von unterschiedlichen Unternehmen, z. B. Partnern oder Dienstleistern, nutzen. Ein Treiber dieser Entwicklung sind die zunehmend eingesetzten Software-as-a-Service-(SaaS)- Lösungen, die Implementation eigener Cloud-Lösungen wie auch die Anbindung einer Vielzahl an heterogenen Endgeräten beim Internet der Dinge und bei Digitalisierungsprojekten.

4.2 Unabhängige Release-Zyklen

Die steigende Komplexität und die hohe Rate an Veränderung ist nicht ausschließlich ein Trend bei den Clientsystemen, sondern auch bei den Backend-Systemen. Der Monolith im Backend, der die erwähnte strukturelle Zukunftsunfähigkeit verursacht, wird zunehmend als Architekturentwurf in Frage gestellt.

Der aktuell diskutierte Microservices-Architekturansatz [14] unterteilt komplette Systeme (Frontend und Backend) in kleinere, anhand der Geschäftslogik abgegrenzte Services oder auch Business Capabilities [15] mit dem Ziel, die Weiter- und ggf. auch Neuentwicklung voneinander zu entkoppeln, die Abhängigkeiten zu reduzieren und so das Gesamtsystem flexibler zu halten. Dies senkt letztlich nicht die inhärente Komplexität der gesamten Applikationslandschaft, jedoch reduziert die Entkopplung die Komplexität der einzelnen Komponenten.

Um die Geschwindigkeit der Produktivsetzung zu erhöhen, beginnen sich die Bereiche Entwicklung (Dev) und Applikationsbetrieb (OPs) anzunähern. Über die DevOps- Bewegung [16], die gemeinsam implementierte, automatisierte Prozesse vorsieht, steigern IT-Abteilungen die Qualität der Software und die Geschwindigkeit von Entwicklung und Auslieferung.

Halbjahres- oder sogar Zweijahres-Release-Zyklen sind bei der neuen Version eines Gesamtsystems heute nicht mehr opportun. Eine permanente Release-Fähigkeit und insbesondere auch Updates einzelner, kleiner Module sind die Zukunft in einer auf „Design for Change“ ausgelegten Systemarchitektur.

4.3 Applikationsplattform

Traditionelle Wertschöpfungsketten verändern sich. Die Einbindung von Geschäftspartnern bietet weitere Chancen, sei es um Geschäftsprozesse zu optimieren oder um die eigene Fertigungstiefe an die Marktgegebenheiten anzupassen. Hierfür muss die IT-Plattform des Unternehmens die Geschäftspartner in beide Richtungen einbinden.

Zum einen muss die Plattform Dienste Dritter einbeziehen und integrieren, so werden Fertigungstiefe reduziert und Prozesse optimiert. Zum anderen kann das Unternehmen selbst als Lieferant auftreten und Dritten als Geschäftspartnern über Schnittstellen Zugang zu den eigenen Business Capabilities anbieten.

Die Analysten von Forrester sprechen in diesem Zusammenhang von einem Ecosystem of Value, das sich permanent an die Kunden- und Marktgegebenheiten anpassen lässt, dabei hilft, Kosten zu senken und durch die Dienste von Dritten auch die Kundenbindung erhöht. Die Maxime richtet sich gegen einen lähmenden Applikationsstau. Neue Ansätze müssen unkompliziert und transparent implementierbar sein.

Um die geschilderten Anforderungen schnell und unkompliziert zu erfüllen, muss die Applikationslandschaft also die Möglichkeit bieten, Geschäftspartnern die eigenen Business Capabilities über gesicherte Schnittstellen anzubieten oder selbst Dienste Dritter in den eigenen Prozessen zu konsumieren.

Exkurs: API-Management

Weil es für ein Ecosystem of Value von entscheidender Bedeutung ist, möchten wir das Thema API-Management an dieser Stelle gesondert hervorheben. APIs sind das Mittel, um die eigenen Geschäftslogiken internen Entwicklerteams oder auch Dritten zur Verfügung zu stellen und somit Innovation, Flexibilität und Geschwindigkeit zu verbessern.

Einige bekannte Beispiele für öffentliche APIs sind die Schnittstellen von Twitter, Facebook, Apple oder auch Google. Dritte können ihren Kunden durch die Nutzung von gekapselten Basisdiensten eigene höherwertigen Lösungen anbieten. Doch auch aus der Old Economy kennen wir bereits APIs oder Interfaces: Banken, Kreditkarteninstitute, Bonuskartensysteme und Versicherungen stellen seit Jahren Schnittstellen bereit, jedoch nur auf einem abgesicherten Netzwerk und nur für spezielle Partner.

Letztlich sind APIs auch ein wesentlicher Teil der geschilderten Omnichannel Customer Experience, die sich an den Bedürfnissen der Kunden orientiert und sich somit auch permanent verändern muss. Das Denkmuster der heutigen API- Welt sieht die eigene Systemwelt eher als eine Plattform mit einer API-Economy [17], als eigene Schicht zur Verwendung durch beliebige Consumer.

Unternehmen, die solche Dienste anbieten, brauchen ein API- Management für die Governance, für die Autorisierung und die Authentifizierung bei der Verwendung und natürlich Sicherheitsmechanismen für Fehlnutzung oder Missbrauch.

5 Die vier Säulen der Digitalisierung

Nachfolgend beschreiben wir die Architekturkonzepte der vier grundlegenden Säulen der Digitalisierung ausführlicher und diskutieren den Nutzen sowie die Herausforderungen der beschriebenen Konzepte.

5.1 Zukunftsorientierte Mensch-Maschine-Interaktion (Applikationsarchitektur)

Die Referenzarchitektur innerhalb der ersten Säule bezeichnen wir als Context-Aware Frontend Architecture (CAFA), siehe auch Abbildung 5. Die CAFA erweitert die drei bislang etablierten Deployment-Schichten der Architektur um die sogenannte Delivery-Schicht. Hierdurch entsteht seitens der Deployment- Architektur eine 4-Schicht-Architektur mit einer eigenen, ausgestaltbaren physikalischen Schicht für die mobile und digitale Welt.

Dieses Konzept der 4-Schicht-Architektur [19] wurde 2015 von Forrester [20] in Analystenberichten aufgegriffen. Wir haben es zu einem Blueprint der CAFA weiterentwickelt. Diesen Blueprint nutzen wir bei Beratungsleistungen für die Konzeption einer Zielarchitektur für zukunftsweisende Applikationslandschaften.

Flexibilität und Unterstützung einer Omnichannel- Strategie mittels Delivery Tier
Abb. 4. Flexibilität und Unterstützung einer Omnichannel- Strategie mittels Delivery Tier

Logische 3-Schicht-Architekturen haben zwei wesentliche Schwachpunkte beim Deployment:

  • Die mangelhafte und zu schwerfällige Unterstützung der unterschiedlichen mobilen Devices und deren eingebauter Sensorik
  • Die fehlende Erweiterung auf die Anforderungen des Internet der Dinge bei der Interaktion mit „Dingen“

Die etablierte 3-Schicht-Architektur stellt eine Plattform für Business Services zur Verfügung und abstrahiert somit die Backend-Dienste von einer spezifischen Oberfläche. Diese Services sind häufig als Webservices auf einer SOA-artigen Infrastruktur implementiert und nutzen einen Enterprise Service Bus auf einer eigenen Service Tier. Die richtige Denkweise, sollte man meinen ...

Betrachtet man nun die Anforderungen aus der Sicht der Frontends, bei denen die User Experience einen entscheidenden Faktor darstellt, so verändert sich diese Einschätzung. Die unterschiedlichen Clients benötigen Daten mit unterschiedlichen Aggregationsstufen, verbinden Daten aus verschiedenen, auch externen, Services zu neuen Informationsobjekten und nutzen Public API oder Device- spezifische Möglichkeiten, die den bestehenden Business Services nicht bekannt sind.

Bliebe man im Kontext der Digitalisierung dem Konzept der 3- Schicht-Architektur treu, so müssten die Business Services zeitnah auf die spezifischen Belange der Devices angepasst oder bestehende Services über neue zusammengesetzte Composite Services [21] zusammengefasst werden. Damit würde das Paradigma der SOA ausgehebelt, denn die Business Services würden sich in Richtung von Client-spezifischen Schnittstellen entwickeln. Letztendlich bremst die Bereitstellung der SOA-Dienste also die Innovation bei den Oberflächen aus.

Häufig umgehen Unternehmen diese Herausforderung auf der Frontend-Seite, indem sie die fehlende Logik einfach in die Frontends implementieren. Dies führt allerdings zu komplexen und auch aufwendigen Lösungen für eigentlich einfache Frontends und oft zu Widersprüchen durch die redundante Implementierung von Geschäftslogik.

Aus architektonischer Sicht benötigen wir deshalb eine eigene physikalische Schicht: die Delivery Tier [22]. Mit ihrer Hilfe kann die Entwicklung Oberflächen und Funktionalitäten optimal auf das gewünschte Device abstimmen, ohne die unterlagerten stabilen Business Services permanent verändern zu müssen. Eine wichtige Voraussetzung angesichts der steigenden Anzahl und Möglichkeiten unterschiedlicher Devices, der rasanten Entwicklung von HTML5 und den Entwicklungsumgebungen für die Devices und der damit verbundenen Tatsache, dass die Innovationszyklen [23] deutlich höher sind als bei der Veränderung von Business Services für die Backend-Prozesse.

Eine Delivery Tier, auch als „Backend for Frontend (BFF)“ bezeichnet, erlaubt also die einfache Nutzung vorhandener Backends, an denen Änderungen tunlichst minimiert werden sollten. Über die zusätzliche Komplexität, die eine solche Delivery Tier einbringt, erkauft man sich auf Frontend-Seite die Möglichkeit, auch extreme Innovationsgeschwindigkeiten mitzugehen und somit UI-Technologien deutlich häufiger zu aktualisieren.

5.2 Ganzheitliche Integrationsarchitekturen

Die ganzheitliche Sicht auf die Integration ist bei der Implementierung eines digitalen Geschäftsmodells bzw. bei der Digitalisierung eines bestehenden Geschäftsmodells ein ganz zentraler Aspekt. In der wissenschaftlichen Literatur werden unterschiedliche Klassifikationsansätze der Integration vorgenommen. Generell fokussieren alle diese Ansätze auf die Integration von Anwendungssystemen.

Im Kontext der Digitalisierung insbesondere beim Internet der Dinge [24] liegt der Schwerpunkt aber eher auf der systemtechnischen Integration einer immensen Anzahl von disjunkten Dingen, die eine bislang nicht vorstellbare Menge an Daten über die Sensorik produzieren. Ferner beginnt die Betrachtung nicht erst bei den Systemen hinter der Firewall, sondern die Integrationsaspekte beziehen sich bereits auf den gesamten Upstream-Prozess vom Ding bis hin zu den nachgelagerten Controlling-Systemen und als Down-Stream wieder zurück zum Ding.

Abbildung 6 stellt dies dar und beschreibt dabei die folgende Integrationsrichtung (in der Abbildung von links nach rechts gesehen):

  • Von kapillaren Netzwerken mit der Kommunikation zu den Dingen
  • über mögliche Public-Cloud-Lösungen für eine zentralisierte Sammlung der Daten
  • bis in die Unternehmens-IT mit den Backend-Prozessen.
Integrationsarchitekturen für digitale Geschäftsmodelle
Abb. 5. Integrationsarchitekturen für digitale Geschäftsmodelle

Analog zur Upstream-Sicht gilt dies ebenso für den Down- Stream, wo Events und Daten aus den Applikationen über das Netzwerk zu den Dingen propagiert werden.

Neben fachlichen Fragestellungen, bei denen es darum geht, wie Sensordaten die Prozesse optimieren können bzw. welchen Mehrwert die Nutzung von Echtzeitdaten bringt, fällt der Integration damit die Aufgabe zu, den Datenstrom „end-to-end“ zu unterstützen.

Ein Device Management hilft dabei, Heterogenität, Kommunikation, Sicherheitsaspekte und Dynamik der Sensorik zu beherrschen.

Im Folgenden erläutern wir die unterschiedlichen, sich ergänzenden, Lösungsansätze für eine fachliche Logik auf den unterschiedlichen Ebenen der Integration:

Filtern und Aggregieren beim Ding

Der erste Ansatz beschreibt eine direkte Filterung, Aggregation und Analyse der Daten am Ding, wobei wir als Ding auch die lokalen Gateways verstehen.

Bevor Daten überhaupt an andere Geräte oder zum Unternehmen gesendet werden, lassen sich innerhalb der Logik der Dinge einfache Algorithmen starten, die eine Vorfilterung, Validierung oder auch einfach nur eine verbesserte zeitliche Steuerung ermöglichen. Je nach Anzahl der Dinge lassen sich so die kommunizierten Datenmengen reduzieren und bei einem zusammenhängenden Cluster an Geräten (etwa im Automobil oder bei der Beleuchtung) steuern sich die Dinge selbstständig im Verbund.

Somit wird ein gewisser Teil an Logik direkt am Smart Device oder am Tablet bzw. Smartphone ausgeführt. Mittels intelligenter Devices, lassen sich so kontinuierlich Daten an ein Backend versenden. Es werden also nicht nur reine Rohdaten sondern auch konkrete Ereignisse übermittelt.

Pre-Integration Stage in der Cloud oder On-Premise

Für die Integration und Verwaltung etablieren sich IoT-Produkte, wobei eine Vielzahl der Lösungen auf Cloud-basierenden IoT- Services beruhen. Verschiedene Cloud-Betreiber bieten IoT- Cloud-Services [25] an, die eine Vorintegration von Daten sowie grundlegende Funktionen für das Device Management ermöglichen. Zum Großteil bringen diese Services Software Development Kits mit, die Entwickler bei der Kommunikation mit der Cloud und damit die Gerätekommunikation unterstützen.

In diesem Fall liegt die Datenanalyse und -Filterung noch vor dem eigentlichen Unternehmensnetzwerk: Daten werden an den Cloud-Service gesendet und analysiert. Werden bestimmte Muster in den Datenströmen erkannt, werden Ereignisse an die Backend-Systeme im Unternehmen kommuniziert oder sofort wieder an die Geräte zurückgespielt.

Der Vorteil zum vorherigen Ansatz ist, dass sich die Logik zentralisieren lässt, ohne dass eine Lösung im Unternehmen und hinter der eigenen Grenze zur IT unterhalten werden muss.

Die Verwaltung und das Ausrollen der Regeln, die innerhalb der Lösung liegen und mittels derer nach Mustern in den Datenströmen gesucht wird, gestalten sich so viel einfacher.

Ferner ist es möglich, eine Logik für eine Gruppe räumlich disjunkter Dinge zu einer einheitlichen Sicht zusammenzuziehen und als Einheit agieren zu lassen. Ein gutes Beispiel dafür wäre eine sich permanent anhand des Verkehrsflusses optimierende Ampelanlage.

Backend-Verarbeitung hinter der Firewall

Die beiden zuvor genannten Architekturansätze setzen jeweils voraus, dass eine Lösung direkt auf eingehenden Daten arbeitet. In eine Pre-Integration Stage könnte man in Ausnahmefällen noch Daten laden, die sich hinter der Grenze zur internen IT befinden. Im Normalfall würde man dies allerdings für eine striktere Trennung vermeiden. Stehen komplizierte Berechnungen an, die möglichst schnell erfolgen sollen und in direkter Verbindung zu internen Daten stehen, bieten sich hingegen Streaming-Technologien an.

Basierend auf erkannten Mustern ermöglicht Streaming, dass weitere Bearbeitungen innerhalb einer internen Landschaft gestartet werden. Einzelne spezialisierte Komponenten, sogenannte Worker [26], arbeiten Teilaufgaben ab und informieren andere Systeme, die die Ergebnisse übernehmen und weiterverarbeiten. So entsteht eine skalierbare und bzgl. der Aufgabenstellung separierte Topologie, in der die Worker dediziert Aufgaben übernehmen und Aktionen ausführen.

Seitens der Integrationsarchitektur muss man dabei unterschiedliche Sichtweisen beachten, und drei wesentliche fachliche Aufgaben sollten dabei adressiert werden:

  • Streaming mit Event Management, Complex Event Processing und Near Real-time Analytics, z. B. Lambda- Architektur [27] bei der analytischen Architektur
  • Batch-Processing mit Datenaufbereitung und Qualitätssicherung sowie aufwendigen Analysen bzw. Modellbildungen
  • IoT-Plattform mit Device Management, Security und Governance (Daten, Devices und Services), sowie dem Monitoring der gesamten IoT-Landschaft

5.3 Effektive Analytics & Business Insight (Analytische Architektur)

Big Data ist zu einem Synonym für unzählige Projektarten geworden – und damit außerdem zu einem der Hype-Begriffe schlechthin aufgestiegen.

Big-Data-Ansätze werden charakterisiert durch vier typische Dimensionen, die auch als Kriterien zur Abgrenzung der klassischen Business Intelligence verwendet werden können: Datenmenge, Datenvielfalt, Geschwindigkeit und analytische Fragestellungen [28].

Viele verbinden Big Data lediglich mit der Vorratshaltung von immer größer werdenden Datenmengen. Richtiger ist jedoch, dass Big-Data-Lösungen durch aktuellere, breitere und aussagekräftigere Analysen notwendige Informationen und Handlungsempfehlungen in einer Near-Real-time- Geschwindigkeit liefern sollen.

Bei der Digitalisierung ergeben sich die folgenden neuartigen Herausforderungen und Ansätze, die zum Teil mit Big Data adressiert werden:

  • Die große Vielfalt und die Menge an Daten, die in nahezu Echtzeit analysiert werden müssen, verändern die Sicht der Datenbewirtschaftung. Das heterogene Umfeld der Formate erfordert eine schemafreie Sicht und eine Veränderung der Datenbewirtschaftung von Extraktion-Transformation-Laden (ETL) auf Extraktion-Laden-Transformation (ELT) [29].
  • Daten bekommen im IoT einen anderen Charakter. Sie sind tendenziell kurzlebiger und schneller veraltet. Erkenntnisse müssen automatisiert zur Steuerung verwendet und nur im Fall der Eskalation schnell an die richtigen Entscheider kommuniziert werden.
  • Das Datenvolumen ist hoch, nicht vorhersehbar und tendenziell steigend.
  • Die Datenqualität sinkt zunehmend und verlangt andersartige und fehlertolerante Analyseverfahren.
  • Die Datenkomplexität steigt durch fehlende Strukturierung an.
  • Die Anzahl der Datenquellen ist extrem hoch und die Speicherung erfolgt in der Regel nicht im DWH.
  • Für Zeitreihenanalysen ist eine Datenhistorisierung notwendig.
  • Der Abfragerhythmus ist sehr wechselhaft und bindet meist viele Hardware-Ressourcen.
  • Die Filterung, Relation und Aggregation von Daten über verschiedene Quellen gewinnt an Bedeutung.

Diese Herausforderungen fließen beim Aufbau einer analytischen Architektur ein und zeigen deutlich, dass sowohl eine klassische BI/DWH-Sicht, als auch eine reine Big-Data-Sicht unzureichend sind.

Wir gehen deshalb bei der beschriebenen Referenzarchitektur, der „analytischen Architektur“, davon aus, dass mittelfristig die klassische, eher ex-post-orientierte Business Intelligence mit Data-Warehouse-Ansätzen und die neuen Big-Data-Ansätze zu umfassenden werden.

Obwohl beide Ansätze gerade hinsichtlich der technischen Implementierung äußerst verschieden sind, lösen sie doch die gleiche betriebswirtschaftliche Aufgabenstellung: Aus Daten Informationen gewinnen und durch Analysen eine bessere Steuerung des Geschäfts erreichen.

Abbildung 6 verdeutlicht das Zusammenspiel von Big Data und BI/DWH und beschreibt die Architekturkomponenten.

Analytische Architekturen bei der Digitalisierung
Abb. 6. Analytische Architekturen bei der Digitalisierung

Im Kern sind die drei unterschiedlichen technischen Lösungsansätze der Real-time-Verarbeitung, der Batch- orientierten Verarbeitung und des klassischen BI/DWH in der Architektur ausgeprägt. Gleichzeitig muss eine Verbindung der Ansätze in einem Regelkreis ermöglicht werden.

Beispiel: Real-time-Analyse im Fahrradverleih

Am Beispiel eines Geschäftsmodells zum Verleih von Fahrrädern lässt sich die Verbindung von BI/DWH und Big Data gut beschreiben:

Near Real-time werden die Sensordaten der Fahrräder analysiert und Muster erkannt, die auf eine notwendige Reparatur schließen lassen.

Hierzu generiert das System einen Serviceauftrag an das Backend-Service-Modul, das auch als SaaS-Lösung implementiert sein kann. Mit zeitlichem Versatz werden die Positionen der Fahrräder mit ihrer Mietdauer in Batch- orientierten statistischen Verfahren mit zukünftigen Events und Großereignissen korreliert. Daraufhin werden sogenannte Relokalisierungsaufträge generiert und Fahrräder eingesammelt und an geographische Punkte gebracht, die ein besseres Ausleihen versprechen.

Letztendlich fließen die Fahrradinformationen nebst Daten aus den betriebswirtschaftlichen Systemen (MaWi, FiBu, Service etc.) aggregiert in ein Data Warehouse, um ein umfassendes finanzielles Controlling zu ermöglichen. Ferner werden die Batch-orientierten Ansätze verwendet, um neue Muster zu erkennen. Die Ansätze werden möglichst auf dem Stream für eine Near-Real-time-Verarbeitung implementiert.

In diesem Beispiel liegen die wesentlichen Erfolgsfaktoren also in der Kombination von

  • klassischen BI/DWH-Ansätzen,
  • und neuen Ansätzen aus Big Data mit den Spielarten

    • Batch-orientierte explorative Simulation statistischer Modelle
    • sowie Near-Real-time-Analyse des Datenstroms.

5.4 Reaktionsfähige hybride Infrastruktur-Architekturen

Die meisten Unternehmen nutzen eine Vielzahl an Cloud- Lösungen mit unterschiedlichen Liefer- und Servicemodellen [30]. Daraus entwickelt sich oftmals eine Cloud-Schatten-IT mit unzähligen heterogenen SaaS-Lösungen, unterschiedlichen PaaS-Ansätzen von verschiedenen Anbietern und unterschiedlichen Lösungen für die System- und Applikationsintegration. Es ist also nicht verwunderlich, dass hybride Ansätze bei Infrastrukturen auf dem Vormarsch sind [31].

Gleichzeitig verändern die Lösungen zur Digitalisierung auch die klassische Infrastruktur: Alles wird Software! In diesem Sinn sprechen wir heute von Software Defined Network und Software Defined Infrastructure [32].

In Cloud-Umgebungen braucht die IT für die Bereitstellung neuer virtueller Maschinen nur einen einfachen API-Aufruf. Ebenso werden diese Maschinen nicht mehr von Hand eingerichtet, sondern automatisch durch ein Configuration Management provisioniert (Ansible, Puppet, Chef, ...). „Cattle not Pet“ ist die Maxime [33]. Die Evolutionen von Cloud und Software verstärken sich gegenseitig. Flexible Architekturen bauen Resilience [34] in Software und Infrastruktur ein. In der Folge ist es sogar möglich, eine private Cloud aufzubauen und hybride Ansätze zu verfolgen.

Anstatt auf diese Entwicklung mit Zentralisierung und Standardisierung zu antworten und somit in der Folge wieder die Geschwindigkeit zu hemmen, kann die IT einen „Design for Change“-Ansatz verfolgen und die neuen Ansätze in eine reaktive Infrastruktur integrieren. Abbildung 7 zeigt dazu eine Referenzarchitektur. Im Mittelpunkt steht hier eine hybride iPaaS-Plattform, mit der sich eine Vielzahl an Systemen integrieren lässt.

Der Trend des Cloud Computing mit seinen SaaS-Lösungen verschärft die Notwendigkeit von hybriden Infrastruktur- Architekturen [35] für die Applikationslandschaft. Diese erfordern die geschilderte modulare Architektur des Backends und die Entkopplung der Frontend-Komponenten. Die Release- Zyklen der einzelnen Komponenten dürfen nicht die Plattform als Ganzes kompromittieren.

Der iPaaS-Ansatz ermöglicht die Integration vorhandener Cloud- Lösungen, die meist als SaaS-Lösungen in Betrieb sind, mit On- Premise-Systemen oder mit IaaS- oder PaaS-Lösungen der Unternehmen.

„On-Premise“ meint alle Lösungen, deren IT-Infrastruktur- Anteile sich unter der Kontrolle des Unternehmens bei einem Hosting Provider oder in einem eigenen Rechenzentrum befinden. Um die Balance der On-Premise-Lösungen zu den Cloud-Lösungen auszudrücken, spricht man von einem „Center of Gravity“.

Das „Center of Gravity“ stellt den Anteil der Cloud-Lösungen in Bezug zu den On-Premise-Installationen [36] dar. Je höher der Einsatz unterschiedlicher Cloud-Lösungen ist, desto eher verschiebt sich auch die Integrationsplattform in die Cloud und damit näher an den Ursprung der Daten.

Zukunftsweisende hybride Infrastrukturen
Abb. 7. Zukunftsweisende hybride Infrastrukturen

Abbildung 7 zeigt implizit die unterschiedlichen Einsatzszenarien bei der Applikationsintegration beginnend mit der Near-Real-time-Integration im Produktionsbereich in Verbindung mit Manufacturing Execution Systems (MES).

Ob es sinnvoll ist, diese Integrationsleistung in einer Cloud vorzunehmen, ist umstritten. Auf einer physikalischen Lokation ist zwar die Nutzung einer expliziten Integrationsplattform möglich, jedoch haben viele Unternehmen lokale Plattformen zugunsten einer zentralen Plattform aufgegeben, die über VPN hohe Sicherheits- und Durchsatzanforderungen berücksichtigt.

Gerade im Hinblick auf eine komplette End-to-End-Integration aller Systeme in einem grundlegenden Geschäftsprozess kommt dieser zentralen Architektur eine besondere Bedeutung zu, wie etwa bei Order-to-Cash- oder bei Closed-loop- Angebotsprozessen.

Jenseits der Firewall wird es nun interessant:

  • Wie erfolgt die Integration der per Definition standardisierten SaaS-Lösungen untereinander, beziehungsweise zu den On- Premise-Lösungen?
  • Wie erfolgt eine End-to-End-Sicht auf die Prozesse?

Eine Ersatzinvestition zur Ablösung einer funktionierenden und beherrschten On-Premise-Integrationslösung oder über eine Dedicated Private Cloud zu einer Integration in einer Public Cloud ist kaufmännisch meist nicht ratsam und erhöht zudem die Risiken bei Performance und GRC.

Hier stellen Hybrid-Modelle eine Alternative dar. Mit ihnen können sich Unternehmen sowohl vertikal von der Infrastruktur aufwärts zu den Applikationen als auch horizontal über unterschiedliche funktionale Bereiche dem für sie passenden Cloud-Modell schrittweise nähern.

Generell gilt: Durch die gewachsene Dezentralisierung der Applikationen und Integrationsplattformen besteht die Gefahr von Wildwuchs und potenzieller Unbeherrschbarkeit. Umso wichtiger wird ein Ordnungsrahmen für die unternehmensweite IT-Landschaft, der Flexibilität und Geschwindigkeit der Veränderung einbezieht, gleichzeitig aber die notwendige GRC, die Nutzbarkeit der Daten sowie die End-to-End- Prozesssicherheit beachtet.

5.5 Poster: Die vier Säulen der Digitalisierung im Überblick

Wir haben die Infos zu den vier grundlegenden Säulen der Digitalisierung auf einem Poster für Sie zusammengestellt [18]:

Gerne lassen wir Ihnen ein Printexemplar des Posters per Post zukommen. Schicken Sie uns dazu einfach eine E-Mail mit Ihren Kontaktdaten.

6 Fazit

Viele Anfragen von Kunden beziehen sich auf neue Ansätze zur Modernisierung ihrer Applikationslandschaft, eine angepasste Strategie für die gesamte Systemarchitektur und gleichzeitig die Fragestellung, wie man die notwendige Flexibilität für die Anforderungen der Digitalisierung erreichen kann.

In den vorgestellten Referenzarchitekturen sind die verschiedenen Ansätze so aufeinander abgestimmt, wie wir sie aktuell bei unseren Architekturberatungen verwenden. In der Praxis wird ein Blueprint zwar niemals 1:1 erfolgen, aber die folgenden Aspekte bleiben als roter Faden in allen Lösungsansätzen erkennbar:

  • Die Kernidee des „Design for Change“
  • Die weitgehende Nutzung von Komponenten zur Bildung einer Plattform für die Systemarchitektur
  • Die konsequente Entkopplung der Frontends vom Backend

Aus diese Punkten entstehen die grundlegenden Vorteile für eine Architektur.

Insbesondere bei der Entwicklung einer Roadmap für die digitale Transformation dienen die vier grundlegenden Säulen der Digitalisierung als erster Blueprint für eine mögliche Zielarchitektur:

 

  • Zukunftsorientierte Mensch-Maschine-Interaktion
  • Ganzheitliche Integrationsarchitekturen
  • Effektive Analytics und Business Insights
  • Reaktionsfähige hybride Infrastrukturen

Die Lösung sind aber nicht Frontend- oder Backend- Monolithen, sondern kleinere und in sich Release-fähige Systeme in Front-und Backend.

Pragmatische Lösungen finden

„One size fits all“ bzw. rigide Harmonisierungs- oder Standardisierungsinitiativen können einen „Design for Change“- Ansatz torpedieren.

Andererseits sind auch Lean-Startup-Ansätze, das organisatorische Auslagern der Innovationen in „Digital Labs“ und agile Methoden bei der Entwicklung stabiler Backend- Systeme und stabiler Infrastrukturen für den produktiven Betrieb oft nicht unbedingt zielführend.

Wie so oft sind Ausgewogenheit und bedarfsgerechtes Vorgehen entscheidend. Hier hilft eine gesunde Pragmatik!

7 Quellen und Anmerkungen

[1] Internet of Everything ist ein von CISCO geprägter Marketingbegriff: internetofthingsagenda.techtarget.com/definition/Internet-of-Everything-IoE

[2] Lünendonk® Whitepaper, Software-Modernisierung, Lünendonk, 2015

[3] blogs.forrester.com/nigel_fenwick/14-03-20-the_future_of_business_is_digital

[4] de.wikipedia.org/wiki/Organisationale_Ambidextrie

[5] www.gartner.com/smarterwithgartner/the-rise-of-the-business-moment/

[6] Die Definition erfolgt in Anlehnung an Bieger, T./Reinhold, S.: Innovative Geschäftsmodelle: Konzeptionelle Grundlagen, Gestaltungsfelder und unternehmerische Praxis. In: T. Bieger, D. zu Knyphausen-Aufseß,/C. Krys (Eds.), Innovative Geschäftsmodelle, 2011

[7] Die gewählte Definition deckt sich mit den Betrachtungskriterien des St. Gallen Business Model NavigatorTM (Gassmann, Oliver et al., The St. Gallen Business Model Navigator TM, Working paper, University of St. Gallen, www.bmi- lab.ch, 2013). Hier werden vier Kernpunkte eines Geschäftsmodells identifiziert: Was bietet man dem Kunden an (Value Proposition)? Wer ist mein Kunde (Marktsegment)? Wie erfolgt die Leistungserbringung (Wertschöpfungskette)? Wie erfolgt die Umsatzgenerierung (Revenue Model)?

[8] Dieser Ansatz umfasst somit auch die Nutzung von Smartphones, Smart Watches, Wearables, Laptos etc. als „Dinge“ oder von Gegenständen mit Sensoren. Der Mensch selbst steht somit nicht unmittelbar im technischen Regelkreis, sondern tritt als Akteur bei der Nutzung und Generierung von Informationen in Erscheinung.

[9] BITKOM, Frauenhofer (Hg): Big-Data-Technologien – Wissen für Entscheider

[10] enterprise-iot.org/book/enterprise-iot/part-ii-igniteiot-methodology/igniteiot-solution-delivery/building-blocks/iot-technology-profiles/4-middleware/process_efficiency_and_automation/

[11] Diese Sicht wurde bereits 1998 bei MITSloan diskutiert und durch die neuen technologischen Möglichkeiten erhält die Sichtweise einen neuen Schub sloanreview.mit.edu/article/manage-your-information-as-a-product/

[12] en.wikipedia.org/wiki/Deep_learning

[13] Die Services können und werden zukünftig öffentliche oder private APIs sein.

[14] Bernhard, Sven; Microservices architecture – thoughts from a SOA perspective, in: SOA Magazine, 3/2014: portal.opitz-consulting.de/marketing_vertrieb/Marketing%20u%20Vertriebsmaterial/Presse-Artikel/SOA%20Magazine/soa-magazine-2014-3_microservices-architectures_bernhardt.pdf

[15] www.capstera.com/what-is-a-business-capability-map-a-compilation-of-definitions/

[16] newrelic.com/devops/what-is-devops

[17] searchsoa.techtarget.com/definition/API-economy-application-programming-interface-economy

[18] Bei Interesse an dem DIN A1 Poster bitte unter info@opitz-consulting.com anfragen. Wie schicken Ihnen das Poster dann gerne unverbindlich auf dem postalischen Weg zu.

[19] Im Deutschen werden „Layer“ und „Tier“ häufig gleichbedeutend mit dem Wort „Schicht“ übersetzt. Wir möchten in diesem Whitepaper nicht die logische Architektur („Layers“) betrachten, sondern die notwendigen physikalischen Schichten („Tiers“). „Tiers are the physical deployment of layers”, (Rockford Lhotka, www.lhotka.net/weblog/ShouldAllAppsBeNtier.aspx

[20] blogs.forrester.com/ted_schadler/13-11-20-mobile_needs_a_four_tier_engagement_platform

[21] docs.oracle.com/cd/E18727_01/doc.121/e12064/T291171T509870.htm

[22] www.sigs-datacom.de/fachzeitschriften/objektspektrum/archiv/artikelansicht/artikel-titel/frontend-architekturen-fuer-microservice-basierte-systeme.html

[23] Ein weiterer Aspekt ist die Möglichkeit der Einführung von Digital Labs oder Lean Startup Ansätzen bei der Entwicklung bzw. Verprobung von Ideen, etwa im Rahmen einer digitalen IT- Strategie.

[24] Hierbei soll auch das Internet of Services in die Betrachtung einbezogen sein: www.fraunhofer.de/de/forschung/forschungsfelder/kommunikation-wissen/internet-of-things.html

[25] dzone.com/articles/iot-software-platform-comparison

[26] www.sciencedirect.com/science/article/pii/S0167819109001343

[27] en.wikipedia.org/wiki/Lambda_architecture

[28] BITKOM, Frauenhofer (Herausgeber): Big-Data-Technologien – Wissen für Entscheider, (Download Juni 2015)

[29] www.ironsidegroup.com/2015/03/01/etl-vs-elt-whats-the-big-difference/

[30] Peter Mell, Timothy Grance: The NIST Definition of Cloud Computing, NIST Special Publication 800-145

[31] Stefan Ried, The Forrester Wave: Hybrid Integration, Q1, 2014, Forrester, 2014

[32] www.it-business.de/software-defined-infrastructure-das-naechste-grosse-ding-a-532821/

[33] dev.hpcloud.com/blog/2016/cloud-computing-pets-cattle-and-chickens

[34] Resilience bedeutet in diesem Zusammenhang, dass die Infrastruktur selbstständig auf Probleme eingehen kann. Die wesentlichen Designpatterns hierzu sind Loose Coupling, Isolation, Latency Control und Monitoring. In der Folge besteht der Applikationsbetrieb nicht mehr aus teuren, ausfallsicheren Systemen (Extremfall: Host-Systeme wie Tandem), sondern aus kostengünstiger Standard-Hardware in einem fehlertoleranten Cluster. (www.viewpoints-and-perspectives.info/home/perspectives/availability-and- resilience/)

[35] www.mulesoft.com/resources/esb/hybrid-cloud-integration-solutions

[36] Jim Harris: The Cloud is shifting our Center of Gravity, 2012, www.ocdqblog.com/home/the-cloud-is-shifting-our-center-of-gravity.html

[37] www.hostvirtual.com/dedicated-private-cloud

Back to top