Dieser Inhalt ist nur exklusiv für E3-Abonnenten verfügbar.
» Hier zum E3-Abonnement.
» Hier zum E3-Abonnement.
Already a member? Hier einloggen
Peter M. Färbinger, Herausgeber und Chefredakteur E3-Magazin DE, US und ES (e3mag.com), B4Bmedia.net AG, Freilassing (DE), E-Mail: pmf@b4bmedia.net und Tel. +49(0)8654/77130-21
![[shutterstock.com:524488984, Victor Metelskiy]](https://e326.greatsolution.dev/wp-content/uploads/2017/02/shutterstock_524488984.jpg)



Die Arbeit an der SAP-Basis ist entscheidend für die erfolgreiche S/4-Conversion.
Damit bekommt das sogenannte Competence Center bei den SAP-Bestandskunden strategische Bedeutung. Unhabhängig vom Betriebsmodell eines S/4 Hana sind Themen wie Automatisierung, Monitoring, Security, Application Lifecycle Management und Datenmanagement die Basis für den operativen S/4-Betrieb.
Zum zweiten Mal bereits veranstaltet das E3-Magazin in Salzburg einen Summit für die SAP-Community, um sich über alle Aspekte der S/4-Hana-Basisarbeit umfassend zu informieren.
FourSide Hotel Salzburg,
Trademark Collection by Wyndham
Am Messezentrum 2, 5020 Salzburg, Österreich
+43-66-24355460

3 Kommentare
Roland Kramer
Hallo,
und wenn wir da gerade bei vereinfachten Adaptern sind, die auch via SDI mit HANA sogar bevorzugt funktionieren (Stichwort: konsolidierte Daten gleich auf DB Ebene lesen, und das Ergebnis nach oben in die Applikation geben). Seit ca. 10 Jahren is eine Firma Teil des SAP Kosmos geworden, deren Datenbank(en) und Replikationsmethoden wirklich gut konnten.
Ich denke, hier weiss jeder was hier gemeint ist …
https://blogs.sap.com/2020/05/07/sap-sybase-iq-the-hidden-treasure-..
Werner Dähn
Für mich klingt es eher umgekehrt zu “Jürgen Müller meinte [..], dass SAP in den vergangenen Jahren viel gelernt habe”.
Ich denken, man baut ein Lösung auf Basis von wenigen, trivialen Kunden Use Cases und verbaut sich so die Zukunft. So würde ich zumindest den aktuellen Plan charakterisieren. Das gleiche Problem ist bei anderen Produkten ebenfalls passiert. Data Intelligence ist ein gutes Beispiel dafür.
Lücken die ich zum Thema Integration gefunden habe sind:
* Data Fabric wird als virtuelle Integration beschrieben, die Technik dahinter ist heute SAP Hana Smart Data Integration (SDI). Das gibt es schon seit 7 Jahren. Es wird uns also etwas als brandneu verkauft, das in Hana, BW, DWC bereits seit langem verwendet wird. Peinlich.
* Es wurde gesagt, dass man den DPAgent von SDI loswerden möchte. Es soll nichts mehr beim Kunden installiert werden. Warum gibt es den DPAgent bei SDI? Entweder man war damals dumm oder es gibt einen logischen Grund für dessen Existenz. Wenn es den nicht mehr gibt, wie kann das SAP Cloud System die anderen Systeme erreichen? Mit SAP Cloud Connector. Dann muss der aber alle notwendigen Ports öffnen: Oracle, SQL Server, Fileshares, und 100te mehr. Da wird sich die IT freuen. Aber selbst wenn, wie liest man ein Datenbank Logfile für Change Data Capture? Der DPAgent wird dort installiert und für den ist es ein lokales File.
* Jeder Kunde hat Oracle, SQL Server, … und ein paar zusätzliche Systeme die nicht verbreitet sind. Wie bekommt man deren Daten hinein? Für SDI werden von Kunden selbst geschriebene Adapter im DPAgent installiert. Was ist das Erweiterungskonzept bei DataSphere?
* Data Governance ist ein Thema zu dem SAP seit 20 Jahren sagt, man habe die perfekte, voll integrierte, Lösung. Einfach mal auf die Produktseite von SAP Information Steward gehen. Man findet dort die identischen Aussagen.
* Die Anbindung DataBricks an DataSphere wird ebenfalls über SDI gemacht. Man hat dazu nicht einmal einen neuen Adapter geschrieben, sondern verwendet den generischen CamelJDBC Adapter. Warum wird der nicht für alle Datenbanken verwendet? Weil er nur die Dinge kann, die bei allen Datenbanken gleich sind. Darum gibt es spezifische SDI Adapter für Oracle, SQLServer, Cassandra, Soap, Twitter,… und viele andere.
* In DataSphere den Data Intelligence Unterbau komplett einzubinden, wird die Betriebskosten für SAP deutlich erhöhen. Und das obwohl Alternativen wie z.B. Snowflake existieren, die deutlich billiger und leistungsfähiger sind. Das wird nicht lange gut gehen.
* Data Governance erbringt den größten Wert, wenn alle Systeme eingebunden sind. Was hilft mir eine Impact Analyse wenn nur für die Hälfte der Systeme Informationen vorliegen? Damit ein Kunde diese Informationen in DataSphere zentralisiert, müsste die Lösung besser in allen Richtungen als andere, offene Lösungen, sein. Sonst werden Kunden z.B. OpenMetadata dafür verwenden.
Was also passieren wird, ist, dass man neue Verbindungen bauen wird, diese werden massive Einschränkungen haben (Delta! Realtime Replication! Pushdown Optionen!) und weil die gewählte Architektur eine Lösung verhindert, hat man dann die alten SDI Adapter weiterhin. In Zukunft wird es dann, so wie heute auch, einen Oracle SDA Adapter (sehr gut für Data Fabric), einen SDI Adapter (der einzige der CDC und Replikation kann), einen für Cloud Integration und dann noch zusätzlich einen DataSphere spezifischen Adapter, geben.
Ich hätte ja nur einen Adapter, den SDI Adapter, und dafür SDI deutlich vereinfacht. Da SDI auf Hana aufbaut, hat man dessen Funktionalität dann automatisch überall: Hana onPrem, Hana Cloud, S/4Hana, BW, DWC, BTP,…
Die anderen Themen, wie der neue Modeller, sind wiederum vorbildlich gemacht. Da kann sich Snowflake und Co etwas abschauen.
Peter M. Färbinger, E-3 Magazin
Den Nagel auf den Kopf getroffen! Intuitiv hat hier Werner Dähn alle Diskussionspunkte der DSAG-Technologietage 2023 in Mannheim folgerichtig zusammengefasst. Naturgemäß wurden diese berechtigen Themen nicht auf der großen Bühne während der Keynotes diskutiert, sondern erst später in den DSAG-Arbeitskreisen – dort aber konnte sich das E-3 Magazin davon überzeugen, dass nicht alles Gold ist, was glänzt!
Kommentare sind geschlossen.