Mobile-Menu

Thomas Failer, Besitzer von Data Migration International, im Interview „Mit Katzengold lässt sich kein Geld verdienen“

Von Dr. Dietmar Müller 13 min Lesedauer

An der Transformation auf SAP S/4HANA kommt kein Bestandskunde der SAP vorbei. Viele Wege führen nach Rom, aber Thomas Failer, Gründer und CEO von Data Migration International mit Sitz in Kreuzlingen, Schweiz, rät zum Einsatz einer Migrations-Plattform. Was dabei zu beachten ist, erläutert er im Gespräch mit Storage-Insider.

Das Schweizer Unternehmen Data Migration International (DMI) ist auf das Management des Lebenszyklus von Daten spezialisiert, insbesondere von Legacy-Daten aus SAP- und Non-SAP-Systemen. Insbesondere bei SAP-Bestandskunden macht der Gründer und CEO Thomas Failer einen dringenden Bedarf nach einer entsprechenden Plattform aus.(Bild:  Data Migration)
Das Schweizer Unternehmen Data Migration International (DMI) ist auf das Management des Lebenszyklus von Daten spezialisiert, insbesondere von Legacy-Daten aus SAP- und Non-SAP-Systemen. Insbesondere bei SAP-Bestandskunden macht der Gründer und CEO Thomas Failer einen dringenden Bedarf nach einer entsprechenden Plattform aus.
(Bild: Data Migration)

Storage-Insider: Herr Failer, es bleiben nur noch wenige Jahre für den Umstieg auf die aktuelle Produktgeneration SAP S/4HANA, auf welche Art und Weise auch immer. Woran machen Sie denn den Bedarf nach einer Management-Plattform fest?

Thomas Failer, Data Migration International: Es gibt vor allem drei Gründe für diesen Bedarf: den Wert, die Qualität und den Schutz der Daten. Was den Datenwert betrifft, kommt es bei der Transformation auf SAP S/4HANA darauf an, die vorhandenen Altdaten zusammen mit ihrem Kontext zu erhalten, um sie für aussagekräftige Analysen zur Verfügung zu stellen und daraus wertvolle Erkenntnisse zu ziehen. Das ist der Goldschatz, den die Unternehmen im Zuge ihrer digitalen Transformation heben wollen. Doch genau dieser Kontext droht bei der Transformation verloren zu gehen, weil die S/4-Welt andere Datenstrukturen verlangt als die Vorgängergeneration. Anstatt auf eine bonanza hoffen zu dürfen, sehen sich die Unternehmen mit einem Verlustrisiko konfrontiert, auch einem finanziellen.

Hinzu kommt die Frage der Datenqualität. Viele verschiedene Datentöpfe mit unterschiedlichen Strukturen und zahllose redundante oder fehlerhafte Stammdatensätze zu ein und demselben Kunden und Lieferanten – diese verbreitete Situation senkt die Qualität der Daten, bis das Fundament digitaler Geschäftsmodelle und -prozesse bricht. Mit Katzengold lässt sich kein Geld verdienen.

Und dann ist da noch der Gesetzgeber. Diverse Aufbewahrungspflichten und -fristen verhindern, dass die Unternehmen Daten und ihre Strukturen ändern dürfen. Darüber hinaus verpflichtet insbesondere die Europäische Datenschutz-Grundverordnung (EU-DSGVO) die Unternehmen dazu, Informationen auf der Ebene des einzelnen Datensatzes löschen zu können. Diese Fähigkeit in den Altsystemen nachzurüsten, ist aber entweder technisch nicht mehr möglich oder nur unter großem Aufwand zu realisieren. Zu den Risiken des Wert- und Qualitätsverlusts gesellt sich also noch die mangelnde Rechtssicherheit. Statt Gewinnsteigerung und Boni drohen Strafzahlungen und die persönliche Haftung der Vorstände und Geschäftsleitungen.

Den Datenschatz zu heben, dessen Qualität zu optimieren und ihn darüber hinaus zu schützen, gelingt nur mit einer Plattform, die alle dafür notwendigen Funktionalitäten vereint.

Nun führen viele Wege nach Rom … Brownfield, Greenfield und Bluefield sind methodische Ansätze, um den Weg zu SAP S/4HANA zu ebnen. Zu welcher Methode raten Sie?

Failer: Lassen Sie mich versuchen, Sie davon zu überzeugen, dass diese viel diskutierte Frage nicht die entscheidende ist. Worauf es vielmehr ankommt, ist die Trennung der Applikations- von der Datenebene. Denn was die Unternehmen unabhängig vom gewählten Ansatz benötigen, ist der rechtssichere Zugriff auf Daten unabhängig von deren Aufbewahrungsort.

Sehen Sie, bisher mussten SAP-Bestandskunden, die kein Risiko eingehen wollten, einen Brownfield-Ansatz wählen und sämtliche Daten und Geschäftsobjekte konvertieren. Mit unserer Plattform ist das nicht mehr nötig. Sobald beide Ebenen voneinander getrennt sind, können die Unternehmen rein auf Basis geschäftlicher Überlegungen bestimmen, ob und welche Stammdaten sie weiterhin in S/4 benötigen und deshalb transformieren wollen. Ob alle, nur Teile davon oder keine – die Trennung der Daten- von der Applikationsebene und unsere Plattform ermöglichen und unterstützen alle Ansätze.

Daten sind das neue Öl. Doch wenn es verunreinigt ist, kommt es zu irreparablen Motorschäden

Thomas Failer

Was kann Ihre Plattform für Informationsmanagement JiVS IMP in Sachen Migration darüber hinaus?

Failer: Sie kann richtig viel. Sie ist ja nicht einfach ein Produkt oder eine Lösung für ein spezielles Problem, sondern eine Plattform. Deshalb ist sie in der Lage, den kompletten Lebenszyklus von Legacy-Daten, aus SAP-Systemen genauso wie aus Non-SAP-Systemen, zu managen. Das fängt bei der Extraktion der Daten an. SAP-Kunden können ihren kompletten Altdatenbestand einschließlich der Daten aus ADK-Archiven und, das ist essentiell, deren Geschäftskontexts aus den Legacy-Systemen auf die Plattform überspielen, dort unverändert wie auch rechtssicher aufbewahren und stets darauf zugreifen.

Übrigens funktioniert der Zugriff auf die Legacy-Daten direkt aus S/4 heraus über SAP GUI oder SAP Fiori. Das Beste daran ist aber, dass sie dort angezeigt werden, als wären sie dort erzeugt worden. Die Anwender merken daher gar nicht, dass sie auf Informationen außerhalb von S/4 zugreifen. Das ermöglicht es den Unternehmen, sämtliche Altsysteme komplett stillzulegen und zu entsorgen. Das spart ihnen 80 Prozent und mehr an Betriebskosten im Vergleich zum Weiterbetrieb der Altsysteme. Damit ist das Verlustrisiko ein für alle Mal aus der Welt.

Im Anschluss daran können sie noch vor der Transformation und Migration nach S/4HANA ihre Daten von Fehlern bereinigen, mit Daten aus Drittquellen anreichern und somit ihre Qualität optimieren. Ich denke, das ist eine der wesentlichen Voraussetzungen für eine erfolgreiche Digitalisierung. Wir sind uns einig, dass Daten das neue Öl sind. Doch wenn es verunreinigt ist, kommt es zu irreparablen Motorschäden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Hinzu kommt: Unsere Plattform verschafft 100 Prozent Rechtssicherheit, nicht nur was die revisionssichere Aufbewahrung betrifft, sondern auch das rechtssichere Löschen, wie ich bereits gesagt habe.

DMI spricht im Hinblick auf Historisierungs-, Migrations- und Integrationsprojekten von einer „JiVS-Methodik“ – was bedeutet das?

Failer: Insbesondere zwei Dinge – erstens, sämtliche Legacy-Daten zusammen mit ihrem Geschäftskontext zu extrahieren. Das schafft die Voraussetzung dafür, den Lebenszyklus der Daten unabhängig von dem der Anwendungen zu managen. Denn Daten sind in der Regel langlebiger und statischer als Applikationen. Das liegt an rechtlichen Vorschriften zur Aufbewahrung ebenso wie am Wert der Daten. Baupläne im Maschinen- und Anlagenbau zum Beispiel oder Schnittmuster in der Bekleidungsindustrie sind auch nach Jahrzehnten noch genauso wertvoll wie bei ihrer Entstehung. Hinzu kommt: Die heutigen Analysemöglichkeiten steigern diesen Wert weiter.

Mindestens ebenso wichtig ist allerdings, dass die Unternehmen ihre Stamm- und Bewegungsdaten mit unserem Ansatz über den Application-Layer transformieren und migrieren und dafür die Standardwerkzeuge wie das SAP Migration Cockpit nutzen können. Das beseitigt das Risiko, dass dabei Fehler passieren. Das bedeutet aber gleichzeitig, dass die Unternehmen ihr neues S/4HANA-System als Empty-Shell, also ohne Daten, implementieren und auf Geschäftsobjektebene an ihre Bedürfnisse anpassen können und erst danach die selektierten Bewegungs- und Stammdaten transformieren und migrieren. Das ist wie ein Greenfield-Projekt, nur besser.

Ihre Plattform bildet also – wenn wir es richtig verstanden haben – eine von den Anwendungen unabhängige Datenschicht. In dieser Schicht sollen alle Informationen aus den Legacy-Systemen, die unbedingt in S/4 Hana benötigt werden, gesammelt werden. Richtig?

Failer: Fast. Es sind nicht nur die Daten, die in S/HANA benötigt werden, sondern auch ihr Geschäftskontext. Nur wenn auch der Business-Kontext gesichert ist, können SAP-Kunden selektieren, ob und welche Daten sie nach S/4HANA übernehmen wollen. Die Erfahrung aus über 2.000 erfolgreichen Projekten lehrt: In der Regel benötigen die Unternehmen nur noch fünf bis zehn Prozent der Bewegungsdaten im neuen System und nur noch 20 Prozent der Stammdaten. In allen großen SAP-Systemen haben sich über die Jahre Daten angesammelt, die nicht mehr das Unternehmen, wie es heute ist, widerspiegeln. Eine neue ERP-Generation einzuführen, eröffnet vor diesem Hintergrund gerade die Chance, alte Zöpfe abzuschneiden.

Dies bedeutet aber auch, nur noch mit den heute relevanten Organisationseinheiten im S/4HANA zu beginnen. In der Regel benötigen die Unternehmen nur noch die Hälfte davon im neuen System. Es ist doch völlig nutzlos, zum Beispiel Buchungskreise zu Werken zu übernehmen, die gar nicht mehr existieren. Das ist nur Ballast. Wird dieser mit in die neue ERP-Welt übernommen, dann brauchen die Unternehmen auch die dazu passenden Business-Objekte in S/4HANA. Das ergibt einfach keinen Sinn.

Zudem wäre es überhaupt nicht wirtschaftlich. Mit unserer Methode lässt sich der Aufwand für die Datentransformation und -migration unserer Erfahrung nach halbieren, wenn alles, was in S/4HANA nicht unmittelbar benötigt wird, auf unserer Plattform verbleibt. Hinzu kommt: Wenn sie regelmäßig die operativ nicht mehr benötigten Daten wie zum Beispiel zu abgeschlossenen Aufträgen auf unsere Plattform überspielen, halten die Unternehmen ihre S/4-Systeme rank und schlank. Wir gehen davon aus, dass sich die Gesamtbetriebskosten für die neue ERP-Generation dadurch um ein Viertel senken lassen. Denn die Systemumgebung für das S/4-In-Memory-System ist immer noch teuer. Und je weniger die Unternehmen davon benötigen, desto besser beziehungsweise günstiger. Außerdem lassen sich der Aufwand für Updates, das Erstellen von Mandanten- und Systemkopien sowie Backups vereinfachen und beschleunigen.

Die zentralen Kriterien für die Datenselektion lauten Wirtschaftlichkeit und Agilität

Thomas Failer

Gibt es angesichts immer neuer Gesetzesvorgaben etwa zur Aufbewahrungspflicht überhaupt noch Daten, die so unwichtig sind, dass man sie bei der Migration zurücklassen könnte?

Failer: Es gibt im Grunde keine unwichtigen Daten. Relevanz ist nicht das Kriterium für die Antwort auf die Frage, welche Daten nach S/4HANA transformiert werden sollen. Ich habe ja schon erwähnt, dass sich sogar der Wert von jahrzehntealten Daten weiter steigern lässt. Das gilt aber dank unserer Plattform unabhängig vom Aufbewahrungsort.

Die zentralen Kriterien für die Datenselektion lauten vielmehr Wirtschaftlichkeit und Agilität – vor, während und nach der Einführung der neuen Produktgeneration aus Walldorf. 80 Prozent weniger Betriebskosten als Folge der Stilllegung der Altsysteme, Halbierung des Migrationsaufwands und 25 Prozent weniger Gesamtbetriebskosten für S/4HANA sind die bereits genannten zentralen wirtschaftlichen Vorteile. Weitere wären die Möglichkeit, Systemlandschaften zu harmonisieren und sogar ganze Rechenzentrumsstandorte stillzulegen, weil unsere Plattform auch Daten aus Non-SAP-Systemen managen kann und der Zugriff auf Daten zusammen mit ihrem Geschäftskontext, ich betone es erneut, von überall her möglich ist.

Die Entkopplung des Lebenszyklus der Daten von dem der Anwendungen steigert zudem die geschäftliche Agilität. Unternehmen kaufen ständig neue Firmen hinzu, fusionieren und verkaufen umgekehrt Tochterunternehmen oder Geschäftsbereiche. Die Folgen dieser Entscheidungen muss die IT bewältigen. Bei einem Verkauf sind sämtliche Daten aus den diversen Live- und Legacy-Systemen, auf die der Käufer ein Anrecht hat, zu übergeben, aber eben nur diese. Sie zu finden, zu extrahieren, exakt von allen anderen Daten zu trennen und am Ende in einem modernen Format, mit dem der Käufer unabhängig von den Quellsystemen arbeiten kann, zu übergeben, ist in der Regel eine personalintensive und kostspielige Aufgabe, weil hier ja auch Fristen einzuhalten sind. Unsere Plattform hingegen vereinfacht und beschleunigt diese Aufgabe massiv. Das ist gerade der Vorteil einer separaten Plattform für Datenmanagement, denn sie unterstützt nicht nur die S/4-Transformation, sondern verschiedenste Szenarien.

Apropos Vereinfachen und Beschleunigen: Sie versprechen eine Migration mit einem Klick. In echt?

Failer: Ja, in echt. Aber Sie haben natürlich recht. Das ist ein Marketingbegriff, doch er drückt etwas Essentielles aus: Einfachheit, die sich durch einen neuen Grad an Bedienkomfort auszeichnet. Mit unserer Plattform und unserem SaaS-Angebot JiVS One-Click Transformation Cockpit – kurz JiVS OCC – können Sie selbst so komplexe Projekte wie eine Transformation und Migration nach S/4HANA auf einer grafischen Benutzeroberfläche mithilfe weniger Mausklicks vorbereiten und ausführen. Wenn Sie bedenken, wie viel Automatisierung eingebaut sein muss, damit diese Einfachheit überhaupt möglich wird, dann wird klar, dass dieser Marketingbegriff Substanz hat.

Noch vor wenigen Jahren galt es als verpönt, immer noch eine Schicht in die IT-Infrastruktur einzuziehen, weil das jeweils die Performance des Gesamtsystems verlangsamt. Ist das heutzutage kein Problem mehr?

Failer: Nein, das ist kein Problem mehr. Die Cloud hat aus der Sicht selbst der größten Unternehmen die begrenzte Verfügbarkeit von Ressourcen beseitigt. Mithilfe der Cloud-Ressourcen haben wir unter anderem ein spezielles Turboverfahren zur Extraktion von Daten und ihres Geschäftskontextes entwickelt. Damit ist es möglich, auf Knopfdruck selbst Mengen zwischen 10, 100 und mehr Terabyte an Informationen in sehr kurzer Zeit völlig automatisiert aus Legacy-Systemen herauszulösen, auf JiVS IMP zu überspielen und, wie von Wirtschaftsprüfern zertifiziert, dort rechtssicher bis zu deren Löschung aufzubewahren. Die Aufbewahrung selbst muss natürlich nicht in der Cloud erfolgen.

Einmal auf unsere Plattform überspielt und dort gespeichert, lässt sich der Lebenszyklus der Daten bis zur endgültigen Löschung und unabhängig vom Lebenszyklus der Anwendungen, in denen sie erzeugt und bearbeitet werden, managen. Es geht folglich nicht um eine je eigene Schicht pro Anwendung, sondern um eine unternehmensweite Datenschicht für sämtliche Anwendungen, also das, was Gartner eine Data Fabric nennt.

Lassen Sie uns noch das beherrschende Thema unserer Tage anschneiden: Was ändert sich durch den Einsatz künstlicher Intelligenz (KI) für die Kunden, wie können sie sie geschäftlich sinnvoll einsetzen?

Failer: Die entscheidenden Fragen lauten in diesem Zusammenhang: Wie können wir mithilfe von KI effizienter werden? Wie können wir Mitarbeiter von Routineaufgaben entlasten? Wie können wir IT-Projekte beschleunigen? Anders ausgedrückt: Bei KI geht es im Unternehmenseinsatz immer um ihr Automatisierungspotenzial. Man könnte sogar sagen, dass Automatisierung als Synonym von KI verstanden werden kann.

Und noch etwas Grundsätzliches: Generative KI ist im Unternehmenseinsatz nicht immer gleichbedeutend mit Public Cloud als Datenquelle. Vielmehr stammen die relevanten Daten im ERP-Kontext aus Legacy- und Live-Systemen des jeweiligen Unternehmens. Bei sehr großen Firmen summieren sie sich schnell zu Big Data, wenngleich sämtliche Altdaten mithilfe unserer Plattform im Zugriff stehen. Aus unserer Sicht besteht das Ziel der Arbeit mit generativer KI im ERP-Kontext darin, eine Sammlung von sinnvollen Eingabeaufforderungen zu schaffen, die sehr gute Ergebnisse erzielen. Dieses Ziel verfolgen wir in unserer Entwicklung.

Unser Ziel lautet, den Aufwand in den kommenden Jahren noch einmal im gleichen Umfang zu senken

Thomas Failer

Das heißt, auch Sie werden künftig KI in Ihre Produkte einbinden? In welcher Form?

Failer: Es sind vor allem zwei Szenarien, die für unser KI-Angebot essenziell sind. Zum einen die SAP-Transformation – mit unserem Ansatz ist es ja heute schon möglich, den dafür nötigen Zeitaufwand zu halbieren. Doch unser Ziel lautet, den Aufwand in den kommenden Jahren noch einmal im gleichen Umfang zu senken. Und da kommt natürlich KI ins Spiel.

Wir wollen mithilfe von KI bis 2027 der führende Anbieter von intelligentem Datenmanagement und einer intelligenten unternehmensweiten Data Fabric sein. Auf dem Weg dorthin haben wir Meilensteine definiert. Zusätzliche Funktionalitäten im Bereich Retention-Management sollen 2024 den Kunden zur Verfügung stehen. Das wird dann Version 11 unserer Plattform JiVS IMP sein.

2025 werden wir in unserem One-Click-Transformation-Cockpit JiVS OCC die damit möglichen Analysen Stück für Stück mit KI-Algorithmen ausstatten. Dadurch können Kunden in kürzester Zeit herausfinden und sich eine Empfehlung dazu erstellen lassen, welche und wie viele Daten sie in S/4HANA benötigen und was auf unserer Plattform verbleiben kann. Wir nennen dieses Verfahren Datenreduktionspotenzialanalyse. Darüber hinaus haben wir weitere KI-Überraschungen in Planung, die wir ab 2024 sukzessive im Markt einführen wollen.

Seit dem 1. September 2023 gibt es auch in der Schweiz ein der DSGVO vergleichbares Datenschutzgesetz. DMI hat angekündigt, diesem mittels KI gerecht werden zu wollen. Wie soll das gehen?

Failer: Das neue Gesetz ist in der Tat eine immense Herausforderung und hat viele Unternehmen wachgerüttelt, nicht nur in der Schweiz. Wir haben den Eindruck, dass sich die meisten Bemühungen in diesem Bereich bislang auf Daten beschränkt haben. Das klingt jetzt vielleicht etwas merkwürdig. Aber personenbezogene Daten liegen nicht nur strukturiert in Tabellen vor, sondern auch in unstrukturierter Form wie zum Beispiel in Dokumenten oder Bildern.

Bislang haben die Unternehmen unserer Erfahrung nach einen sehr pragmatischen Ansatz verfolgt, etwa in der Art: In diesen und jenen Tabellen und Feldern sollten, wenn alles sauber gepflegt und abgelegt wurde, personenbezogene Daten zu finden sein, zum Beispiel Vorname und Name in einem Stammdatensatz oder in der Beschreibung eines Bildes von einer Person. Und dann wurden die Algorithmen und Regeln für Retention-Management nur auf diese Tabellen und Felder angewandt. Was aber, wenn diese Daten auch an anderen Stellen abgelegt wurden oder zum Beispiel in einer Bilddatenbank überhaupt nicht eingepflegt wurden? Dann kann KI beim Identifizieren und Anpassen der Algorithmen helfen.

Aber das ist nur der Anfang. Wäre es nicht wünschenswert, wenn die KI auf der Basis der von ihr identifizierten Daten und Ablageorte Vorschläge unterbreitet, wie sich die Algorithmen für Retention-Management anpassen lassen, um wirklich alle personenbezogene Daten regelkonform zu erfassen und zu managen? Wenn sie diese Vorschläge in einem weiteren Schritt automatisch implementieren würde? Der Nutzen wäre immens, insbesondere wenn das nicht nur bei den Regeln möglich wäre, sondern auch bei den Geschäftsobjekten, die für das Management der personenbezogenen Daten zusätzlich benötigt würden.

Welche Rolle spielen denn die Geschäftsobjekte dabei?

Failer: Das Management von personenbezogenen Daten muss prinzipiell jenseits der Grenzen bestimmter Systeme und Applikationen erfolgen. Etwa die Hälfte der Systeme und Anwendungen, die für das Management personenbezogener Daten relevant sind, stammen nicht aus SAP. Folglich reichen reine SAP-Geschäftsobjekte, ob aus dem Standard oder individuell programmiert, nicht aus. Darüber hinaus ist jede System- und Applikationslandschaft kundenspezifisch. Folglich bedarf es immer auch kundenspezifischer Geschäftsobjekte. Diese enthalten zum Beispiel die Informationen, in welchen Kopf- und Subtabellen sich die Daten zu einer bestimmten Person befinden und wie die Primär- und Sekundärschlüssel dieser Tabellen miteinander verknüpft sind. Solche Geschäftsobjekte von einer generativen KI erstellen zu lassen, würde viel Zeit und Kosten sparen.

Herr Failer, wir bedanken uns für dieses sehr informative Gespräch!

Aktuelles eBook

Storage für HPC & KI

eBook Storage für HPC & KI
eBook „Storage für HPC & KI“
(Bild: Storage-Insider)

Speichersysteme für das HPC und für die verschiedenen Disziplinen der KI sind hohen Anforderungen ausgesetzt. Denn sie müssen enorme Datenmengen in kürzester Zeit bereitstellen oder sammeln. Wie können diese Herausforderungen gemeistert werden?

Die Themen im Überblick:

  • Aktuelle Trends in der Künstlichen Intelligenz
  • High-Performance Computing – Explosion der Innovationen
  • Künstliche Intelligenz – nahezu Echtzeit-Datenverarbeitung

(ID:50006368)