Die Gartner Inc. ist der wohl bekannteste Anbieter von Marktforschungsergebnissen und Analysen zu den Entwicklungen in der IT weltweit. Deshalb wird jährlich mit Spannung auf den Report zu den Top Strategic Technology Trends für das nächste Jahr gewartet. Diesen hat Gartner nun veröffentlicht und seine Top Trends für das Jahr 2022 verraten. In unserer Interviewreihe mit Kai Kauffmann werfen wir einen Blick auf die Trends und beleuchten, was es mit ihnen auf sich hat und wie Unternehmen sie implementieren und nutzen können. In Teil zwei der Reihe geht es um das Thema Data Fabric.

Waldemar:
Hallo Kai, vielen Dank, dass du dir die Zeit für uns nimmst!
Du sag mal, Data Fabric und Top Technology Trends, da war doch schon mal was!

Kai:
Genau, das Thema Data Fabric taucht in Gartners Top Trends nicht zum ersten Mal auf. Schon 2019 tauchte es bei den Data and Analytics Technology Trends auf. Damals mit der Vorhersage, dass bis 2022 ein großer Teil der Unternehmen eine Data Fabric implementieren würden. In den letzten drei Jahren offenbarte sich jedoch, dass auf dem Weg dahin noch andere Herausforderungen gelöst werden müssen. Nun scheint für Gartner die Zeit reif dafür.

Was genau ist eine Data Fabric eigentlich?

Man kann es als eine Ergänzung und Optimierung in seinem bisherigen Datenmanagement betrachten. Unternehmen müssen immer mehr Daten aus immer mehr verschiedenen Quellen verarbeiten. Bisher wurde viel mit einem Data Warehouse oder Data Lakes gearbeitet. Diese ziehen aber einen hohen manuellen Aufwand nach sich. Wichtig zu verstehen ist, dass eine Data Fabric keineswegs eine Technologie ist, die solche Systeme ersetzt. Viel mehr ist sie ein Bindeglied zwischen ihnen, dass viele Vorgänge im Data Management automatisiert. Eine Data Fabric ist also eine mögliche Antwort auf den steigenden manuellen Aufwand im Datenmanagement. Man kann es sich wie ein Netz vorstellen, das bestehende Storages verbindet.

Die Besonderheit einer Data Fabric ist, dass sie keine eigenen Daten enthält, wie beispielsweise Data Lakes oder Warehouses. Viel mehr greift sie auf diese Storages zu und verarbeitet die Metadaten. Diese Metadaten beschreiben die Daten, zu denen sie gehören. Durch diese Analyse kann eine Data Fabric nun bei der Datenintegration helfen. Sie bringt die Daten auf einen gemeinsamen Nenner, damit sie zusammen verarbeitet werden können. Schlägt die Datenintegration nun fehl, erkennt eine eingespielt Data Fabric dies. Je nach Art kann sie anschließend sogar eigenständig Reparaturmaßnahmen einleiten, um diesen Fehler zu beheben. Sonst wäre das eine langwierige, manuelle Aufgabe des Data Engineers. Häufig wird dafür künstliche Intelligenz innerhalb der Data Fabric genutzt, damit sie eben jene Verknüpfungen herstellen kann. Das bedeutet aber nicht, dass es eine vollumfängliche Komplettlösung darstellt. Die meisten Anbieter bieten eine Basis (ca. zwei Drittel) an der dann kundenspezifische Anpassungen hinsichtlich ihrer Komponenten angepasst werden (ca. ein Drittel).

Was ist das Ziel einer Data Fabric?

Das zentrale Ziel der Implementierung einer Data Fabric ist es eine Plattform zu schaffen, die der IT aber auch den Business Usern große Mengen an manuellem Aufwand im Data Management abnimmt. Durch die Verarbeitung der Metadaten, ermöglicht dieses Architekturdesign einen automatisierten Zugriff auf Daten in hoher Qualität. Bricht man das herunter, möchte man mit einer Data Fabric den Wert seiner Daten maximieren, während man gleichzeitig seinen manuellen Aufwand minimiert. Außerdem hilft eine Data Fabric Unternehmen fit zu machen für weitergehende Datenprojekte. Machine Learning und KI-Vorhaben brauchen hochqualitative Daten. Das macht sie meist sehr aufwendig umzusetzen, da diese Datenqualität erst einmal geschaffen werden muss. Ziel einer Data Fabric ist es also auch hierbei zu unterstützen und eine solide Basis dafür zu schaffen.

Was zeichnet eine gute Data Fabric aus?

Eine gute Data Fabric hat eine Vielzahl an Konnektoren um auf verschiedenste Datenquellen zugreifen zu können. Das bedeutet im Umkehrschluss, dass wenn mein Unternehmen viel mit eigenen Lösungen arbeitet, es auch komplexer ist einheitliche Konnektoren zu finden. Man muss in diesem Falle also etwas individuellen Aufwand aufbringen. Das ist das eine Drittel, von dem ich vorhin sprach. Dann gelingt aber auch das Anbinden von zusätzlichen Anwendungen, Spezialstorages und Systemen. Eine gute Data Fabric arbeitet viel mit Metadaten, also Daten, die dazu dienen andere Daten beschreiben zu können und so neue Daten daraus abzuleiten. Ein Anwendungsbeispiel wäre dann das Erkennen von Schlüsselbeziehungen. Die automatische Auswertung dieser ermöglicht es herauszufinden, welche Datensätze vielleicht sogar besser zusammenpassen als die bereits bestehenden.

Weiter können Data Fabrics über automatisches Data Profiling prüfen, ob mir Daten fehlen. Andere Systeme erkennen auch wenn ein Feld leer ist. Durch ihre Anreicherung mit Business Logik kann die Data Fabric aber auch erkennen, ob ein befülltes Feld Sinn ergibt, oder ob Teile der benötigten Informationen fehlen. Dafür analysiert das System vorhandene Daten über Statistiken und kann auch feststellen, wie gut die Datenqualität ist. Wenn man das System nun eine Weile mitlernen lässt, kann es mit der Zeit auch Vorschläge geben, wie man seine Daten qualitativ verbessern könnte.

Es gibt Anbieter von Data Fabrics die neben den Standardaufgaben auch eben jene Abdecken wie Data Quality oder Data Governance – sprich sie achten nicht nur darauf wie gut die Qualität der Daten ist, sondern wägen auch ab und entscheiden wer diese hochqualitativen Daten sehen und verarbeiten darf und in welchen Folgeanwendungen sie später liegen.

Welchen Mehrwert bietet eine Data Fabric?

Qualitativ hochwertige Daten immer sofort dort zur Verfügung, wo ich sie für meine Businessanforderung brauche. Das ist der zentrale Mehrwert aus der Businessperspektive. IT-seitig ist es das schlankere, effizientere Data Management mit geringem manuellem Aufwand. Zusammengefasst also besseres Data Management, weniger manueller Aufwand, mehr Automatisierung, bessere Daten an der richtigen Stelle. Zusätzlich öffnet sich die Möglichkeit, Insights aus den Daten heraus zu generieren, die dann wieder dabei helfen das Data Management zu optimieren. Wenn ich Daten besser verstehe kann ich sie entsprechend auch besser verarbeiten.

Mit einer gut eingeschwungenen Data Fabric wird das Skalieren vereinfacht: Das was sie aus den bestehenden Strukturen und Daten gelernt hat, kann sie nun schon nutzen, um eine neue Datenquelle anzubinden. Der manuelle Aufwand wird so minimal gehalten, was ohne eine Data Fabric kaum vorstellbar wäre. Ohne sie müsste man physische Modelle bauen, die Integration in die Wege leiten und das manuelle Analysieren von Verbindungen zwischen den neuen und den bestehenden Daten sicherstellen. Mit einer Data Fabric bleibt im besten Falle nur noch die Kontrolle als händisches To-Do über. Wichtig zu verstehen ist also, dass man nicht einfach einen Knopf drückt und alles läuft.

Ein weiterer Mehrwert ist die Zukunftssicherheit aus infrastruktureller Sicht. Das Generieren von Business Cases muss jedoch unbedingt geschehen, da die Daten alleine, auch in bester Qualität kein Geschäftsmodell an sich sind. Was genau möchte ich eigentlich analysieren oder welche Produkte benötigt mein Kunde aktuell überhaupt? Die Data Fabric unterstützt beim Aufbau einer Datenbasis zur Beantwortung solcher Fragen. Diese dann in konkrete Cases abzuleiten, bleibt aber eine manuelle Aufgabe.

Für wen macht es Sinn?

Wenn man einmal betrachtet, was es braucht, damit sich eine Data Fabric rentiert, kann man die Frage, für wen sich der Einsatz lohnt schnell beantworten. Wie bereits angerissen, macht es nur Sinn, wenn man bereits mehrere Datenquellen hat, die in verschiedenen Architekturen liegen. Dazu noch viele verschiedene Arten von Daten, die sich in ihrer Qualität und ihren Spezifikationen unterscheiden. Umso wichtiger ist es sich beim Aufsetzen solcher Analyse-Infrastrukturen möglichst früh Gedanken zu machen: Wie wird der Wachstumspfad aussehen? Wird es ein einzelnes Silo bleiben, dann kann ich innerhalb des Silos optimieren und brauche keine übergreifende Lösung. Sobald es aber mehrere werden, macht es Sinn sich über genau solche Strukturen wie eine Data Fabric Gedanken zu machen. Denn mit einer gut eingeschwungenen Data Fabric wird das Skalieren vereinfacht.

Welche Voraussetzungen gibt es?

Wenn man in so eine Richtung geht und ein solches Architekturkonzept erarbeitet ist es deshalb wichtig zu Beginn genau zu analysieren „Was habe ich heute?“ – Daraus leiten sich dann Argumente für oder gegen eine bestimmte Technologie ab. Grundsätzliche Voraussetzungen gibt es erstmal gar nicht so viele. Klar braucht man etwas wo sie laufen kann – sprich in der Cloud oder on-premise. Die gängigen Systeme sind aber offen, dadurch sind die Voraussetzungen hier nicht sehr hoch. Konfigurationen, Zugänge und Netzwerke müssen bereitstehen. Die Data Fabric braucht natürlich Zugriff auf die bestehenden Systeme. Je mehr davon vorhanden sind und je mehr Konnektoren dafür bereitstehen, desto schneller lässt sich eine Data Fabric ausrollen und implementieren.

Man kann sagen, man beginnt an einer Stelle und arbeitet sich Schritt für Schritt weiter. Der spürbare Mehrwert tritt aber erst dann wirklich ein, wenn alle Systeme daran angeschlossen sind. Anfänglich sind auch Skills und Ressourcen notwendig, einen solchen Einführungsprozess zu begleiten. Hier macht es Sinn zu definieren, was man im ersten Schritt erreichen möchte und wie die nächsten Schritte aussehen. Immer mit der Frage im Blick: „Was will ich eigentlich damit erreichen?“. Monetär gesehen gibt es dann natürlich noch Lizenzgebühren je nach Anbieter. Die Herausforderungen im Data Management sind aber groß genug, damit sich eine Implementierung auch definitiv schnell lohnt.

Vielen Dank für deinen ausführlichen Input zum Thema Data Fabric. Unser erstes Interview mit Kai Kauffmann drehte sich um das Thema Generative KI.
Im nächsten Teil unserer Interviewreihe geht es dann um das Stichwort Cloud Native Platforms.

Du willst keine Neuigkeiten zum Thema Data Science und KI verpassen? Dann melde dich jetzt für unseren Newsletter an:

Hier geht’s zum Report zu den Top Technology Trends 2022 von Gartner.

arrow left Zurück zur Übersicht