











































































Aktuelle Themen
Ob Fachartikel, Whitepaper oder Live-Event – wir teilen unser Know-how aus über 400 Projekten.
In 3 Schritten von Abhängigkeit zu Handlungsspielraum – herstellerneutral, mit Souveränitätsscore,
Risikoradar & umsetzbarer Roadmap. Umfasst Cloud, Daten, KI und den digitalen Arbeitsplatz
Sie möchten IT-Trends nicht nur verfolgen, sondern von Experten erklärt bekommen? In über 20 aktuellen Events und Webinaren teilen unsere Spezialisten praxisnahes Wissen.
Sie suchen Antworten auf konkrete IT-Herausforderungen in Ihrem Unternehmen? In über 800 Fachbeiträgen beleuchten unsere Berater aktuelle Themen. Praxisnah, verständlich und mit dem Know-how aus hunderten Kundenprojekten.
Sie wollen fundierte Entscheidungsgrundlagen für Ihre IT-Strategie? Unsere über 120 Whitepaper liefern Ihnen tiefgehende Analysen, Vergleiche und Best Practices. Kostenlos und sofort verfügbar für Ihr nächstes Projekt.
Erfolgreiche Projekte mit Rewion als Trusted Advisor
2026 verschärft Microsoft die Standards für Kerberos in Active Directory: Die veraltete RC4-Verschlüsselung wird schrittweise deaktiviert. Ziel ist es, bekannte Risiken zu reduzieren und die Sicherheitslücke CVE-2026-20833 zu adressieren. Mit den Sicherheitsupdates des ersten Halbjahres im Jahr 2026 wird das Standardverhalten am Key Distribution Center (KDC) phasenweise angepasst. Ohne saubere Vorbereitung kann das zu Authentifizierungsfehlern und Zugriffsproblemen führen.
Der Artikel gibt Ihnen einen kompakten Überblick und zeigt, wie Sie Ihr Unternehmen rechtzeitig dafür prüfen und vorbereiten können.
Um die Änderung einordnen zu können, lohnt sich ein Blick ins Jahr 2022: Damals hat Microsoft ein grundlegendes Standardverhalten definiert. Microsoft steuert die zulässigen Kerberos-Verschlüsselungsalgorithmen über zwei Registry-Einträge: Der eine steuert das domänenweite Standardverhalten (DefaultDomainSupportedEncTypes) und der andere (msds-SupportedEncryptionTypes) steuert das Verhalten dezidiert für Computer und Serverdienste. Mit den Updates aus 2022 und 2026 ändert sich jeweils der implizite Standardwert von DefaultDomainSupportedEncTypes. Wenn man einen anderen Wert möchte, muss man ihn explizit setzen. Der KDC orientiert sich immer dann an DefaultDomainSupportedEncTypes, wenn msds-SupportedEncryptionTypes entweder nicht gesetzt oder 0 entspricht. Beide Werte bestimmen den genutzten Verschlüsselungsalgorithmus für die Kerberos Anmeldung. Das Key Distribution Center ist die Steuerzentrale für das Active Directory und übernimmt die Rolle eines Türstehers, der den Einlass kontrolliert.
Vereinfacht gesagt: vor 2022 akzeptierte der KDC entweder RC4 oder AES – je nachdem, was angefragt wurde. Seit 2022 gilt implizit ein Default von 0x27. Ab 2026 wird der Standardwert auf 0x18 gesetzt.
| Wert | Übersetzung | Bewertung |
| 0x18 | AES-128, AES-256 | ✅ |
| 0x27 | DES, RC4, AES-256-SK | ❌ |
| 0x1C | RC4, AES-128, AES-256 | ⚠️ |
| 0x1F | DES, RC4, AES-128, AES-256 | ❌ |
Wird der Standard auf 0x18 gesetzt, können ältere Systeme oder alte Konfiguration scheitern, wenn Sie auf RC4 angewiesen sind. Der KDC erlaubt nur Algorithmen, die effektiv erlaubt sind.
| Betriebssystem | DES_CBC_CRC | DES_CBC_MD5 | RC4_HMAC_MD5 | AES128_HMAC_SHA1 | AES256_HMAC_SHA1 |
| Windows 2003, Windows XP und älter |
Supported | Supported | Supported | No support | No support |
| Windows Vista | Supported | Supported | Supported | Supported | Supported |
| Windows 2008 | Supported | Supported | Supported | Supported | Supported |
| Windows 2008R2 | Deactivated | Deactivated | Supported | Supported | Supported |
| Windows 7 | Deactivated | Deactivated | Supported | Supported | Supported |
| Windows 2012 | Deactivated | Deactivated | Supported | Supported | Supported |
| Windows 2012R2 | Deactivated | Deactivated | Supported | Supported | Supported |
| Windows 10 | Deactivated | Deactivated | Supported | Supported | Supported |
| Windows 2016 | Deactivated | Deactivated | Supported | Supported | Supported |
| Windows 2022 | Deactivated | Deactivated | Supported | Supported | Supported |
| Windows 11 | Deactivated | Deactivated | Supported | Supported | Supported |
| Windows 2025 | No support | No support | Deactivated | Supported | Supported |
Die automatische Umsetzung wird über den im Januar 2026 eingeführten Wert RC4DefaultDisablementPhase gesteuert. Je nachdem, wie dieser eingestellt ist, werden RC4 Versuche zugelassen, blockiert oder protokolliert.
Bei aktiviertem RC4DefaultDisablementPhase wird AES zum Standard und setzt damit DefaultDomainSupportedEncTypes implizit auf den Wert 0x18. Bei einem aktivierten Audit Wert werden Meldungen generiert, die die fehlende Unterstützung kenntlich machen.
Eine vorzeitige Überprüfung Ihrer Umgebung ist daher dringendst zu empfehlen. Nach Abschluss der Umstellung wird RC4 für Kerberos in einer Active Directory Umgebung deaktiviert und daher erstmal nicht mehr nutzbar sein.
Microsoft unterteilt die Umstellung in drei Phasen:

Visualisierung der drei Update Phasen für Kerberos Änderung
Die erste Phase ist die Audit Phase. In dieser Phase werden zusätzliche Telemetriedaten und Events eingeführt, um Probleme zu identifizieren, bevor die Durchsetzung greift. Ziel ist es, die RC4-Abhängigkeiten sichtbar zu machen und erforderliche Anpassungen rechtzeitig umzusetzen. Optional kann die Deaktivierung von RC4 bereits in dieser Phase manuell vorgezogen werden. Eine vorzeitige Deaktivierung sollte dennoch unbedingt vorab geprüft werden, da sie ansonsten zu Authentifizierungsabbrüchen und damit zu Dienstunterbrechungen führen kann. Für die Auswertung der Events bietet sich eine zentrale Stelle zur Protokollanalyse an (bspw. über Windows Eventlog Forwarding oder SIEM). Die Event ID’s 201-209, 4768-4769 sind zu prüfen.
In der zweiten Phase wird der Standard von RC4 auf AES automatisch gesetzt. Diese Umstellung kann noch rückgängig gemacht werden. Diese Phase ist die letzte Phase, in der Administratoren noch die Flexibilität haben, RC4DefaultDisablementPhase zurückzudrehen. Bevor es zur dritten Phase geht, sollte sichergestellt werden, dass kein Gerät mehr auf RC4 angewiesen ist, da ansonsten die Authentifizierung fehlschlägt.
Die dritte Phase ist die letzte Phase. In dieser Phase gibt es kein einfaches Entrinnen mehr. Die Durchsetzung greift ein und deaktiviert RC4. Eine Reaktivierung über RC4DefaultDisablementPhase ist dann nicht mehr möglich. Wenn Sie diese Phase überstanden haben und Ihre Serverdienste weiterhin laufen, haben Sie gute Arbeit geleistet.
Beides sind weitverbreitete Verschlüsselungsalgorithmen. RC4 war lange Bestandteil von vielen Softwares, da es im Vergleich zu AES effizienter und eine größere Abwärtskompatibilität gewährleistet.
Der Rivest Cipher 4 (RC4) Verschlüsselungsalgorithmus ist kryptografisch unsicher und kann durch sogenannte „Roasting Attacken“ wie dem Kerberoasting ausgenutzt werden. Hierbei fordert ein Angreifer ein Kerberos Ticket an und „brute forced“ offline das Passwort des Authentifizierungstickets. Gelingt es, das Passwort zu knacken, sind u.a. weitergehende Ticket-Manipulation wie dem Silver Ticket möglich, um sich Zugriff auf Dienste zu verschaffen.
Sie müssen handeln, wenn Sie eine Active Directory oder Hybrid-Umgebung nutzen. Sobald sich ein Legacy Gerät im Netzwerk befindet und das Update eingespielt wird, schlägt die Kerberos Authentifizierung fehl und es kommt zu einem Fallback zu NTLM. Bei NTLM gibt es ganz andere Angriffsvektoren, die zu beheben sind. Wenn Sie NTLM bereits erfolgreich unterbunden haben, schlägt die Anmeldung grundlegend fehl. Ggf. müssen Sie regulatorische Anforderungen (wie NIS2, DORA, ISO/IEC 27001 etc.) nachkommen und wollen daher beim Audit glänzen. Das können Sie nur, wenn Sie RC4 deaktivieren und AES die Bühne geben.
Um obiges kurz und knapp zusammenzufassen, hier eine Handlungsempfehlung zu der bevorstehenden technischen Umstellung seitens Microsofts. Es ist wichtig, dass Sie sich unbedingt vorab ein Bild Ihrer Umgebung machen. Die Umstellung findet automatisch statt und kann im schlimmsten Fall den Zugriff auf Serverdienste einschränken.
Bei Fragen oder Anregen zum Thema Active Directory oder Kerberos Authentfizierung stehen wir Ihnen gerne beratend zur Seite. Wir freuen uns auf Ihre Kontaktaufnahme.
SAP hat angekündigt, SAP Build Apps als eigenständiges Standalone‑Produkt zum 30. September 2026 einzustellen.
Für viele Unternehmen ist das mehr als eine übliche Produktabkündigung. Bestehende Anwendungen lassen sich nicht einfach „umstellen“. Sie müssen neu gedacht und in vielen Fällen manuell neu aufgebaut werden.
Genau deshalb ist eine Build Apps Migration kein reines Technikprojekt. Sie ist eine geplante Transition, die mehrere Ebenen betrifft: das Applikationsportfolio, die Architektur, den Betrieb und nicht zuletzt die benötigten Skills.
Dieser Artikel ordnet die Entscheidung der SAP ein, beschreibt die wichtigsten technischen Konsequenzen und zeigt realistische Handlungsoptionen auf. Dazu zählen der Wechsel in das neue SAP Build Angebot, ein Neubau mit SAPUI5 und CAP sowie der Einsatz von Drittanbieter‑Plattformen.
Die Zielgruppe sind IT‑Leitungen, Enterprise‑ und Solution‑Architekt:innen, Product Owner sowie Verantwortliche für SAP BTP, die bestehende Build‑Apps‑Anwendungen absichern und eine tragfähige Nachfolgestrategie entwickeln müssen.
Um die Tragweite der Abkündigung zu verstehen, hilft ein kurzer Blick in die Vergangenheit: SAP übernahm AppGyver im Februar 2021 und integrierte die No‑Code‑/Low‑Code‑Plattform später als SAP Build Apps in die SAP BTP. Der Ansatz passt zur propagierten Clean‑Core‑Strategie, da so Erweiterungen außerhalb des S/4HANA‑Kerns ermöglicht wurden.
Bereits zuvor gab es erste Einschnitte. Die AppGyver Community Edition verlor ihren Support zum 30. September 2024. Im April 2025 folgte schließlich der Launch des Unified SAP Build Ansatzes. Apps, Prozesse und Work‑Zone‑Themen wurden stärker zusammengeführt und in eine gemeinsame Lobby integriert.
Die Abkündigung der Standalone‑Variante ist eine Weiterführung dieser Konsolidierung. SAP möchte die Werkzeuge für Anwendungen, Prozessautomatisierung und Portale in einem integrierten Angebot bündeln.
Auf dem Papier wirkt das vereinfachend. Für Bestandskunden bedeutet es jedoch einen harten Schnitt. Das frühere Standalone Build Apps basiert technologisch auf anderen Grundlagen als das neue Unified‑Umfeld.
Die wichtigste technische Aussage lässt sich klar zusammenfassen: Für Frontend‑Projekte existiert kein automatisierter Migrationspfad.
Konkret bedeutet das, dass Seiten, Datenbindungen, Logikflüsse, Navigationen und individuelle Komponenten in der Zielumgebung manuell neu aufgebaut werden müssen.
Was viele Teams an Build Apps überzeugt hat – die visuelle Modellierung von Logikflüssen – wird in der Transition zur größten Herausforderung. Es gibt kein Werkzeug, das visuelle Logikdiagramme automatisiert in die neue Architektur überführt. Der Grund hierfür liegt in den unterschiedlichen Grundlagen der Systeme. Während das ursprüngliche Build Apps unter anderem auf steroids.js und AngularJS basierte, orientiert sich das neue Unified‑Angebot an SAP‑Standards wie SAPUI5 und dem Cloud Application Programming Model (CAP).
Das bedeutet nicht, dass ein Migrationspfad grundsätzlich unmöglich gewesen wäre. SAP hat sich jedoch bewusst dagegen entschieden, auch für Standardszenarien einen solchen bereitzustellen.
In der Praxis müssen bestehende Anwendungen daher zunächst sauber dokumentiert und anschließend neu implementiert werden. Betroffen sind unter anderem Variablenbindungen, Formeln, Event‑Handler, Navigationslogik sowie Custom‑JavaScript‑Komponenten.
Für Backend‑Projekte beschreibt SAP zumindest einen rudimentären Weg, Daten zu übernehmen. Dieser Ansatz ist jedoch eher eine manuelle Datenrettung als eine Migration im klassischen Sinn.
Entitäten werden einzeln aus dem Datenbrowser als CSV‑Dateien exportiert. In der Zielumgebung – idealerweise in einem CAP‑Projekt – müssen passende Tabellen manuell angelegt werden. Anschließend erfolgt der Import der CSVs.
Nicht automatisch übernommen werden dabei Beziehungen zwischen Entitäten, Metadaten, Berechtigungsstrukturen und weitere implizite Regeln. Genau diese Aspekte sind in produktiven Anwendungen häufig kritisch. Zusätzlich entsteht ein Integrationsrisiko: Wenn bestehende Frontends Services konsumieren, sollten neue CAP‑Services möglichst kompatible API‑Signaturen bereitstellen, um den Anpassungsaufwand im Frontend zu begrenzen.
Wenn Sie SAP Build Apps produktiv einsetzen, sollten Sie die Situation nicht als „ein Projekt“ betrachten, sondern als Portfolio‑Entscheidung.
Nicht jede Anwendung benötigt denselben Zielpfad.
Ein strukturiertes Application‑Portfolio‑Management hilft, Prioritäten zu setzen. Typische Kriterien sind strategische Relevanz, technische Komplexität und Änderungsdynamik.
SAP garantiert den weiteren Betrieb bis zum Ende laufender Verträge. Das gilt unabhängig vom Lizenzmodell. SLAs und Wartungszusagen bleiben bestehen.
Diese Option ist jedoch mit Einschränkungen verbunden. Für die Standalone‑Version sind keine neuen Funktionen vorgesehen. Neue Sicherheitsstandards oder Innovationen wie die tiefere Integration von Joule fließen primär in das Unified Offering.
Zudem wird es zunehmend schwieriger, qualifizierte Fachkräfte für eine auslaufende Technologie zu finden.
Abwarten kann daher sinnvoll sein, wenn Anwendungen stabil sind oder ohnehin vor September 2026 abgelöst werden. Für alle anderen stellt es meist nur einen zeitlichen Aufschub dar.
Der offizielle SAP‑Pfad ist der Umstieg auf das vereinheitlichte SAP Build Angebot.
Der Mehrwert liegt nicht in einer automatisierten Migration, sondern in einer konsolidierten Entwicklungsumgebung. Low‑Code, Pro‑Code und KI‑gestützte Funktionen sind zentral gebündelt.
Viele Unternehmen nutzen den Neubau gezielt, um technische Schulden abzubauen. Anwendungen werden auf einer moderneren Architektur neu aufgesetzt – mit klarer Trennung von Frontend, Services und Datenmodell.
Gleichzeitig sollte kritisch geprüft werden, ob und in welchem Umfang Investitionen in ein weiteres SAP‑Innovationsprodukt sinnvoll sind, dessen langfristige Stabilität sich erst bewähren muss.
Für geschäftskritische Anwendungen ist der Einschnitt ein Anlass, wieder stärker auf Pro‑Code zu setzen.
CAP und SAPUI5 gelten als strategische SAP‑Standards. Sie bieten langfristige Wartbarkeit und reduzieren die Abhängigkeit von kurzfristigen Tool‑Entscheidungen.
CAP strukturiert die Service‑Entwicklung und etabliert bewährte Enterprise‑Patterns. UI5 – ergänzt durch Fiori Elements – kann die Entwicklung standardisierter Oberflächen beschleunigen.
Der höhere Schulungsaufwand ist real, rechnet sich aber häufig über den Lebenszyklus zentraler Anwendungen.
Einige Unternehmen evaluieren bewusst Alternativen außerhalb des SAP‑Portfolios. Das ist insbesondere dann sinnvoll, wenn Fachbereiche stark eingebunden sind, Time‑to‑Market im Fokus steht oder mobile Szenarien besondere Anforderungen stellen.
Plattformen wie Simplifier, Neptune DXP oder Mendix adressieren unterschiedliche Schwerpunkte – von schneller Fiori‑Entwicklung über ABAP‑nahe Architekturen bis hin zu komplexen, systemübergreifenden Anwendungen.
Gleichzeitig erhöht ein Drittanbieter die Abhängigkeiten, beeinflusst Lizenzkosten und steigert die Komplexität der Landschaft. Dieser Weg sollte daher gut abgewogen sein.
Die größte Gefahr in solchen Umbruchphasen ist Aktionismus: Einzelne Apps werden hektisch neu gebaut, während das Gesamtportfolio unklar bleibt. Besser ist ein klarer Ablauf, der technische und organisatorische Arbeitspakete verbindet.
Der erste Schritt ist eine vollständige Inventarisierung Ihrer SAP Build Apps Lösungen:
Daraus entsteht eine Priorisierung nach strategischer Relevanz und technischer Komplexität. So vermeiden Sie, dass knappe Kapazitäten in Apps fließen, die ohnehin abgelöst werden.
Zum Schluss entscheidet die Umsetzungsgeschwindigkeit oft über Erfolg oder Stillstand. Deshalb ist es sinnvoll, frühzeitig Pilot‑Apps auszuwählen: eine einfache, eine mittelkomplexe und eine kritische App. Auf dieser Basis können Sie Standards für Architektur, Security, Naming, Transport/Deployment und Tests definieren und diese Standards danach konsequent für die restliche Build Apps Migration anwenden.
SAP setzt stark auf generative KI, um den Neubau zu beschleunigen. Joule soll in SAP Build Code und Build Apps helfen, Anforderungen schneller in umsetzbare Strukturen zu übersetzen. Der Trend geht damit von reinem Low‑Code stärker in Richtung „KI‑assistierter“ Entwicklung, bei der Menschen Ergebnisse prüfen, integrieren und absichern.
Wichtig ist hier aber die Erwartungshaltung: KI kann Zeit sparen, sie ersetzt aber nicht die Kernarbeit der Transition – also saubere Zielarchitektur, klare Verantwortlichkeiten, Sicherheitskonzept, Tests und Betriebsprozesse.
Cloud-Umgebungen wachsen oft schneller als Teams sie manuell verwalten können. Zwar sind sie in kleinen Infrastrukturen noch überschaubar, können allerdings schnell zum Problem werden, sobald die Infrastruktur komplexer wird. Änderungen dauern zu lange, Fehler können sich einschleichen und Entwickler warten auf Ressourcen, um weiterarbeiten zu können. Um sowohl Entwicklern als auch dem Platform-Team die Arbeit zu erleichtern, können verschiedene Prozesse automatisiert werden. In diesem Artikel geben wir einen Überblick, wie Automatisierung im Cloud Platform Engineering aussehen kann und welche Vorteile sie Unternehmen bringt.
Ohne Automatisierung ist Cloud Platform Engineering komplex: Jede Entwicklungsumgebung muss manuell aufgesetzt werden. Dadurch können sich Releases verzögern, Umgebungen inkonsistent sein und eine aufwendige Koordination ist nötig. Auch das Fehlerpotenzial ist entsprechend höher: Je mehr manuelle Eingriffe ein Prozess erfordert, desto wahrscheinlicher wird ein Versehen und desto schwerer lässt sich das Problem im Nachhinein nachvollziehen.
In der Praxis bedeutet das: Tickets stapeln sich, Teams verschieben Deployments und das Platform-Team wird zum Flaschenhals, weniger zum Enabler. Gerade beim Aufsetzen der Umgebungen gibt es jedoch zahlreiche wiederkehrende und regelbasierte Aufgaben, die sich an Anforderungen und Compliance-Richtlinien des Unternehmens orientieren. Um das Platform-Team zu entlasten und verlässlich und schnell Umgebungen aufsetzen zu können, kann Automatisierung auf verschiedenen Wegen umgesetzt werden.
Im Cloud Platform Engineering gibt es nicht die eine Automatisierung oder das eine Automatisierungs-Tool. Vielmehr können Unternehmen in mehreren Bereichen Tools und Konzepte einsetzen, die sich gegenseitig ergänzen. Dabei kann es beispielsweise um die Bereitstellung der Infrastruktur gehen, die eigenständige Arbeit der Entwickler oder den permanenten Blick auf den Betrieb.

Bei CI/CD-Pipelines handelt es sich um einen automatisierten Prozess, der Änderungen am Code kontinuierlich integriert (Continuous Integration), testet und bereitstellt (Continuous Deployment). Das Prinzip dahinter, Infrastructure as Code, sorgt dafür, dass Umgebungen nicht mehr per Hand konfiguriert werden müssen. Stattdessen entstehen sie durch reproduzierbare, beschreibbare Vorlagen.
In einer automatisierten Pipeline durchläuft jede Änderung an der Infrastruktur mehrere Schritte, bevor sie in den Release geht: automatische Validierung, Sicherheitschecks und Testläufe. Fehler werden so früh erkannt und nicht erst dann, wenn sie bereits Auswirkungen haben. So entstehen konsistentere Umgebungen, weniger manuelle Eingriffe und deutlich kürzere Durchlaufzeiten bei Änderungen.
Die wichtigsten Vorteile auf einen Blick:
Gerade in wachsenden IT-Teams entsteht oft die gleiche Herausforderung: Entwickler müssen auf Ressourcen warten, weil jede Anfrage über das Platform-Team läuft. Mit Self-Service-Portalen können Unternehmen dieses Problem lösen, indem sie standardisierte Bausteine bereitstellen, die Entwickler eigenständig nutzen können. Dafür brauchen sie kein technisches Spezialwissen und sparen sich Wartezeiten.
Die Plattform dabei stellt sicher, dass alles, was über das Portal geschieht, den internen Standards für Sicherheit und Compliance entspricht. Entwickler arbeiten schneller und unabhängiger. Das Platform-Team wiederum gewinnt Zeit im Arbeitsalltag.
Die wichtigsten Vorteile auf einen Blick:
Neben dem Rollout gibt es auch im laufenden Betrieb Möglichkeiten zur Automatisierung. Vom Monitoring bis zur automatischen Reaktion auf Probleme können Unternehmen verschiedene Automatisierungen umsetzen.
Wichtig ist vor allem der Unterschied zwischen klassischem Monitoring und moderner Observability: Monitoring zeigt auf, dass etwas nicht stimmt, Observability hingegen gibt Aufschluss darüber, warum etwas nicht stimmt. Durch automatisierte Alarme, strukturierte Protokolle und nachvollziehbare Metriken können Teams proaktiv handeln. Teilweise gibt es bereits Systeme, die bekannte Probleme selbstständig korrigieren können, ohne dass ein Mensch eingreifen muss.
Die wichtigsten Vorteile auf einen Blick:
Die Wirkung von Automatisierung im Cloud Platform Engineering zeigt sich auf verschiedenen Ebenen, von der Geschwindigkeit bis zur Kosteneffizienz.
Automatisierung ist ein wichtiger und grundlegender Bestandteil im Cloud Platform Engineering. Durchdachte Automatisierungsstrukturen schaffen die Voraussetzungen für schnellere Entwicklung, höhere Zuverlässigkeit und Cloud Plattformen, die mit den Anforderungen des Unternehmens wachsen können. Zwar lohnt es sich schon von Anfang an, Automatisierung in die Cloud Infrastruktur zu integrieren, aber auch nachträglich können Tools und Konzepte integriert werden. Dabei ist es am sinnvollsten, mit den Bereichen zu beginnen, die den größten Engpass verursachen und von dort aus strukturiert weiterzubauen. So entsteht mit der Zeit eine zuverlässige Automatisierungsstruktur.
Nachdem wir im im ersten Teil unserer Blogreihe das Extensibility-Modell grundlegend betrachtet haben, widmen wir uns nun der praktischen Anwendung bei der Erweiterung von SAP S/4HANA. Die fundamentale Systementscheidung für eine Architektur auf der SAP Business Technology Platform (BTP) gegenüber einem On-Stack-Ansatz definiert maßgeblich die Performance, Wartbarkeit und Skalierbarkeit künftiger Entwicklungen. Eine klare S/4HANA Erweiterungsstrategie hilft dabei, die Vorteile beider Welten effizient zu nutzen. Während direkte Erweiterungen im ERP-Kern einen tiefgreifenden Zugriff auf lokale Geschäftsprozesse bieten, eröffnet die Cloud neue Wege für die Integration von Drittsystemen und externen Nutzergruppen. Dieser Artikel bietet konkrete Entscheidungskriterien für technische Projektleiter, Enterprise-Architekten und leitende SAP-Entwickler.
Die Entwicklung direkt im S/4HANA-System stellt die engste Form der Systemerweiterung dar. Sie unterteilt sich heute in zwei primäre Bereiche, wobei die Key User Extensibility vor allem Anwender mit tiefem Prozessverständnis anspricht. Diese können über integrierte Wizard-Tools benutzerdefinierte Felder, einfache Validierungen oder analytische Ansichten generieren, ohne tiefgehende Programmierkenntnisse zu besitzen. Mit dem Release S/4HANA 2025 FPS01 hat SAP diesen Bereich funktional deutlich aufgewertet. Es ist nun möglich, vollwertige Fiori-Elements-Anwendungen für benutzerdefinierte Geschäftsobjekte mit wenigen Klicks zu erstellen und die Verhaltenssteuerung für SAP-eigene Objekte nahtlos anzupassen.
Sobald die fachlichen Anforderungen komplexer werden, kommt die Developer Extensibility zum Einsatz. Sie stellt professionellen Entwicklern das moderne ABAP Cloud Modell zur Verfügung. Der entscheidende architektonische Vorteil dieses On-Stack-Ansatzes liegt in der physischen und logischen Nähe zu den Geschäftsdaten. Dadurch bleiben die transaktionale Integrität und hohe Ausführungsgeschwindigkeiten gewahrt, da keine externen Schnittstellenaufrufe notwendig sind.
Im Gegensatz dazu steht die Side-by-Side Extensibility auf der SAP BTP, bei der Applikationen vollständig außerhalb des ERP-Kerns entwickelt und betrieben werden. Die Kommunikation erfolgt ausschließlich über lose gekoppelte, freigegebene Remote-APIs oder asynchrone Ereignisse über den Event Mesh. Dieses Modell eignet sich besonders für Applikationen, die für externe Endnutzer wie Lieferanten oder Endkunden gedacht sind. Die BTP fungiert hierbei als sichere, isolierte Zone, die den internen ERP-Kern schützt. Zudem ist dieses Muster ideal für Partner, die eigenständige und mandantenfähige Software-as-a-Service Lösungen entwickeln möchten.
Bei der Wahl des Programmiermodells innerhalb der S/4HANA Erweiterungsstrategie stehen das SAP Cloud Application Programming Model (CAP) und das ABAP RESTful Application Programming Model (RAP) im Fokus. Während Entwicklungen über das RAP-Modell On-Stack meist keine zusätzlichen Lizenzkosten verursachen, erfordert die ABAP Environment auf der BTP eine eigene Subskription. Im Vergleich dazu bieten CAP-Anwendungen auf Cloud Foundry ein granulareres Preismodell, was je nach Projektumfang wirtschaftlicher sein kann.
Die Entscheidung zwischen On-Stack und Side-by-Side erfordert eine genaue Analyse der Datenströme, da eine Lösung auf der BTP nicht automatisch effizienter ist. Ein kritischer Faktor bleibt die physikalische Bindung von Daten an ihren Ursprungsort. Wenn Millionen von Datensätzen über OData-Schnittstellen übertragen werden, entstehen unweigerlich Performance-Engpässe, sofern der BTP-Subaccount und das S/4HANA-System nicht geografisch und infrastrukturell optimal aufeinander abgestimmt sind.
Neben den Latenzen stellt die sogenannte Principal Propagation eine administrative Hürde dar. Sie erfordert eine komplexe Konfiguration des SAP Cloud Connectors sowie den Import von Zertifikaten und regelbasierte Mappings im System. On-Stack-Erweiterungen punkten hier durch die native Nutzung lokaler Berechtigungskonzepte, was die Stabilität erhöht. Cloud-Szenarien verlangen hingegen eine exakte Synchronisation der Identitätsdaten zwischen dem lokalen System und dem Cloud-Identitätsanbieter.
Um Ihnen die Navigation durch diese komplexen Abwägungen zu erleichtern, bietet die folgende Infografik eine grobe Entscheidungsgrundlage, welche die wichtigsten Kriterien von der Datenlast bis hin zum Nutzerkreis visualisiert.

Da keine der beiden Varianten isoliert alle modernen Anforderungen abdeckt, liegt die optimale Lösung für komplexe Szenarien häufig in einer hybriden Architektur. Hierbei werden datenintensive Kernprozesse performant On-Stack mittels ABAP Cloud abgewickelt, während kundenorientierte Frontends oder die Integration von Drittsystemen flexibel über die BTP realisiert werden. Die Wahl der Bereitstellungsform beeinflusst langfristig sowohl die Backend-Performance als auch die Flexibilität Ihrer Systemlandschaft. Im dritten Teil dieser Serie analysieren wir, wie sich diese Faktoren künftig auf Benutzeroberflächen und die Integration von künstlicher Intelligenz auswirken.
Gerne unterstützen wir Sie bei diesen komplexen Fragestellungen durch detaillierte Machbarkeitsstudien, um die perfekte Balance zwischen Cloud-Innovation und ERP-Stabilität für Ihr Unternehmen zu finden. Kontaktieren Sie uns für ein unverbindliches Beratungsgespräch oder lesen Sie unsere weiteren Blogartikel zu den Themen Clean Core und SAP BTP Integration.
Die Architektur von Unternehmenssoftware durchläuft einen fundamentalen Wandel. Historisch gewachsene ERP-Landschaften zeichnen sich durch tiefgreifende, monolithische Strukturen aus. Kundenindividueller Code greift häufig in Form von Modifikationen oder User Exits direkt und ungeschützt in den Kern des Systems ein. Diese über Jahrzehnte übliche Praxis führt heute zu erheblicher technischer Schuld, bremst die Agilität von Unternehmen, und macht Systemupgrades komplex und kostenintensiv. Um in einem dynamischen Marktumfeld wettbewerbsfähig zu bleiben, ist die Umsetzung einer Clean Core Strategie unerlässlich. Diese fordert eine strikte technologische Entkopplung von Standardsoftware und individuellen Anpassungen. Unser erster Beitrag dieser dreiteiligen Blogreihe richtet sich gezielt an Enterprise Architekten, leitende SAP-Entwickler und IT-Strategen, die eine performante, wartbare und zukunftssichere Systemlandschaft konzipieren möchten.
Der Begriff des „sauberen Kerns“ wird in der globalen Entwicklergemeinschaft intensiv diskutiert und oft missverstanden. Kundenindividueller Code muss nicht vollständig vermieden werden. „Clean Core“ bedeutet Erweiterung technologisch so zu entkoppeln und zu standardisieren, dass der eigentliche SAP-Standard unangetastet bleibt. Dadurch lassen sich künftige Releases ohne manuellen Anpassungsaufwand einspielen. Das Ziel ist es, Upgrades reibungslos zu gestalten, Altlasten abzubauen und neue Technologien wie Künstliche Intelligenz nahtlos zu integrieren. Für einen dauerhaft effizienten Betrieb stützt sich dieses Architekturkonzept auf fünf Kernprinzipien: durchgängige Prozesse, nahtlose Integration, verlässliche Datenqualität, effiziente Operations und eine standardisierte Erweiterbarkeit.
Im Bereich der Erweiterbarkeit hat die SAP ihre Vorgaben zuletzt stark an die Realität historisch gewachsener Systeme angepasst. Ursprünglich wurde der Entwickler-Community ein striktes Drei-Tier-Modell vorgegeben. Dieses unterschied zwischen Cloud-konformen Erweiterungen (Tier 1), Brückenlösungen (Tier 2) und klassischen, modifizierenden Anpassungen (Tier 3). Dieses binäre System aus „erlaubt“ und „verboten“ erwies sich jedoch in der Migrationspraxis als viel zu restriktiv. Als Lösung führt die SAP ein differenziertes Modell mit vier Leveln ein, das die Kompatibilität von Erweiterungen wesentlich granularer bewertet und einen realistischeren Transformationspfad aufzeigt.
Das sogenannte A-D Extensibility Modell klassifiziert den individuellen Code anhand seiner technischen Umsetzung und der genutzten Schnittstellen in folgende vier Kategorien beziehungsweise Stufen:
Level A (ABAP Cloud Readiness): Die sauberste Form der Erweiterung nutzt exklusiv offiziell freigegebene SAP-APIs sowie das ABAP Cloud Entwicklungsmodell. Diese Stufe garantiert höchste Upgrade-Stabilität ohne manuellen Anpassungsaufwand und ist vollständig Cloud-ready.
Level B (Classic SAP APIs): Auf dieser Ebene nutzt der Code klassische, gut dokumentierte SAP-APIs wie BAPIs oder freigegebene BADIs und folgt den etablierten Best Practices für die klassische ABAP-Entwicklung. Diese Stufe bietet eine sehr hohe Stabilität, erfordert bei Upgrades in der Regel nur marginale funktionale Prüfungen und gilt im Rahmen von Private Cloud Deployments oder On-Premise-Szenarien als valide und zukunftssichere Basis.
Level C (Unreleased SAP Objects): Diese Stufe umfasst die Nutzung interner SAP-Objekte, die nicht offiziell für Kunden freigegeben wurden. Die Stabilität ist hier nur bedingt gegeben, da vor jedem Upgrade eine zwingende technische Verifizierung der genutzten Objekte über das Changelog erforderlich ist.
Level D (Modifications & Technical Debt): Diese kritische Stufe umfasst die Nutzung explizit nicht empfohlener Objekte, direkte Kernmodifikationen des SAP-Standards oder veraltete, invasive Techniken wie implizite Enhancements. Code auf diesem Level erzeugt massive technische Schulden, verhindert reibungslose Upgrades und muss im Rahmen der Transformation zwingend in höhere Level refaktoriert werden.
Die rein theoretische Definition dieser vier Level reicht für eine erfolgreiche und nachhaltige Architektur-Transformation jedoch bei Weitem nicht aus. Es bedarf einer strengen Governance, um sicherzustellen, dass Entwicklungsteams diese Leitplanken im Arbeitsalltag konsequent einhalten. Die technische Einhaltung dieser strikten Vorgaben wird durch das ABAP Test Cockpit (ATC) unterstützt, welches den Code automatisiert auf seine ABAP Cloud Readiness prüft und detaillierte Fehler oder Warnungen ausgibt, sobald ein Entwickler den im System definierten Clean Core Standard verlässt. Um Entwicklern den Übergang zu erleichtern, stellt die SAP den SAP Extensibility Explorer sowie das Cloudification Repository zur Verfügung. So können Sie bereits in der Designphase freigegebene Schnittstellen identifizieren und neue Erweiterungen direkt konform zu Level A entwickeln.
Trotz dieser klaren strategischen Ausrichtung gibt es in der realen Projektpraxis weiterhin erhebliche Herausforderungen. Die Deutschsprachige SAP-Anwendergruppe (DSAG) hat diese kritische Situation bereits auf den Technologietagen 2025 unter dem Motto „Strategy Royale: Call, Raise or Fold?“ intensiv diskutiert. Die mit Abstand größte technische Hürde bei der Umsetzung der Clean Core Paradigmen ist derzeit die mangelnde Verfügbarkeit von Level-A-kompatiblen, freigegebenen Schnittstellen.
Wie sich diese theoretischen Vorgaben in der Praxis umsetzen lassen und welche Kriterien die architektonische Entscheidung zwischen On-Stack-Erweiterungen und Side-by-Side-Bereitstellungen beeinflussen, beleuchten wir im zweiten Teil dieser Blogreihe.
Eine fundierte Entscheidung bildet hier das Rückgrat Ihrer digitalen Transformation. Unser Expertenteam begleitet Sie gerne bei der strategischen Neuausrichtung Ihrer Systemlandschaft. Wir führen tiefgreifende Code-Analysen Ihres S/4HANA-Systems mittels ATC durch und erarbeiten einen belastbaren Refactoring-Plan, um Ihre historischen Modifikationen sicher in die Level A und B zu überführen. Nehmen Sie Kontakt mit uns auf, um Ihre individuelle Roadmap für einen Clean Core zu definieren.
Mobile Endgeräte sind fester Bestandteil im Arbeitsalltag zahlreicher Unternehmen geworden. Smartphones, Tablets und Laptops ermöglichen flexibles Arbeiten – ob im Büro, im Homeoffice oder unterwegs. Je mehr Geräte allerdings im Umlauf sind, desto komplexer wird ihre Verwaltung. Mobile Device Management bietet Unternehmen die technische Grundlage, um alle Geräte zentral zu steuern, abzusichern und zu überwachen. Die rein technische Umsetzung reicht jedoch noch nicht aus. Auch alle Mitarbeitenden müssen wissen, wie sie mit ihren Geräten umgehen sollen und welche Richtlinien warum gelten. Deshalb lohnen sich MDM-Schulungen für alle Mitarbeitenden im Zuge der Einführung des Mobile Device Managements. Warum diese Schulungen wichtig sind, welche Inhalte sie vermitteln sollten und welche Formate sich eignen, erklären wir in diesem Artikel.
Zahlreiche Sicherheitsvorfälle entstehen durch menschliche Fehler, weniger durch technische Schwachstellen. Mitarbeitende, die nicht wissen, welche Apps sie auf ihrem Dienstgerät installieren dürfen oder wie sie mit Unternehmensdaten auf privaten Geräten umgehen sollen, machen eines der größten Risiken für die IT im Unternehmen aus. Mit MDM-Lösungen können entsprechende Sicherheitsrichtlinien umgesetzt werden, erfordern allerdings Verständnis und Akzeptanz der User, das durch Schulungen entsteht. Andernfalls entstehen verschiedene Risiken:
An dieser Stelle sind auch Anforderungen der DSGVO und der NIS2-Richtlinie relevant. Beide fordern, dass Unternehmen neben technischen Maßnahmen für die IT-Sicherheit auch organisatorische Maßnahmen etablieren. Dazu zählen auch Mitarbeiterschulungen, die das Team über richtige Verhaltensweisen und Schutzmaßnahmen aufklären.
Eine gute MDM-Schulung geht einerseits auf technisches Grundwissen ein und schafft andererseits ein Verständnis für den Sinn hinter verwalteten Geräten und Sicherheitsmaßnahmen. Verstehen alle Teams, warum Regeln gelten, steigt die Akzeptanz und Mitarbeitende halten sich daran. Wichtig ist dabei auch: Passen Sie die Inhalte auf die jeweilige Zielgruppe an. Für IT-Administratoren sind andere Grundlagen und Themen wichtig als für Mitarbeitende im Vertrieb oder Kundenservice.
Für alle Mitarbeitenden eignen sich diese Inhalte:
Für IT-Verantwortliche und Administratoren kommen weitere Themen hinzu, etwa die Konfiguration von Geräteprofilen, das Management von App-Berechtigungen oder die Auswertung von Compliance-Reports. Durch eine klare Unterscheidung dieser Zielgruppen stellen Sie sicher, dass die Schulungen effizient sind und die Informationen wirklich relevant sind.
Natürlich ist es wichtig, was Teams im Zuge der MDM-Schulungen lernen. Zentrale Frage ist aber auch, wie sie die nötigen Infos vermittelt bekommen. Dafür können Unternehmen verschiedene Wege wählen:

Den Erfolg der MDM-Schulungen können Sie beispielsweise durch kleine Wissenstests nach einzelnen Einheiten überprüfen. Holen Sie sich außerdem Feedback ein, ob an den Schulungen etwas verbessert werden kann, um für zukünftige Einheiten zu lernen.
Wichtig ist auch: MDM-Lösungen entwickeln sich ständig weiter. Deshalb reicht eine einmalige Schulung meist nicht aus. Neue Gerätetypen, aktualisierte Unternehmensrichtlinien oder neue gesetzliche Vorgaben erfordern regelmäßige Updates. Sinnvoll ist es daher, MDM-Schulungsinhalte jährlich aufzufrischen und zusätzliche Schulungen einzuplanen, wenn es größere Änderungen gibt.
Oft werden MDM-Schulungen als notwendige Compliance-Maßnahme angesehen. Dabei sorgen sie dafür, dass alle Teams die Regeln und Vorgaben rund um die Geräteverwaltung verstehen und akzeptieren und reduzieren somit die Sicherheitsrisiken für die IT des gesamten Unternehmens. Je besser Mitarbeitende nämlich verstehen, warum Regeln gelten, desto weniger fühlen sie sich kontrolliert und desto eher halten sie sich an sie. Unternehmen schaffen so die Grundlage für sichere Remote-Arbeit.
Ein Termin wird kurzfristig abgesagt.
Familiärer Krankheitsfall.
Keine Vertretung.
Alles hängt an einer Person.
Was im Alltag nachvollziehbar ist, wird in der IT zum Risiko:
– Ein Single Point of Failure
Die entscheidende Frage lautet:
Wie viele solcher Abhängigkeiten gibt es in Ihrem Unternehmen, ohne dass Sie es wissen?
Kritisches Wissen liegt bei einzelnen Personen
Systeme sind nicht einheitlich abgesichert
Prozesse sind nicht ausreichend dokumentiert
Vertretungsregelungen existieren nur auf dem Papier
Solange alles läuft, bleibt das unsichtbar.
Doch im Ernstfall führt genau das zu:
Mit NIS2, ISO 27001 und neuen regulatorischen Anforderungen verändert sich IT-Sicherheit grundlegend:
Weg von Einzelmaßnahmen
Hin zu nachweisbarer Resilienz
Unternehmen müssen heute zeigen können:
Welche Risiken bestehen
Welche Maßnahmen umgesetzt wurden
Wie Systeme abgesichert sind
Wie Ausfälle abgefangen werden
„Wir haben das im Griff“ reicht nicht mehr.
Moderne IT-Sicherheit basiert auf zwei Säulen:
System Hardening (IT-Härtung)
Sichere Konfigurationen
Zugriffskontrollen
Monitoring & Logging
Klare Verantwortlichkeiten
Dokumentierte Prozesse
Vertretungsregelungen
Notfall- und Wiederanlaufpläne
Erst die Kombination macht Ihr Unternehmen wirklich widerstandsfähig.
Wir setzen genau dort an, wo die größten Risiken entstehen:
Analyse Ihrer Systeme, Prozesse und Abhängigkeiten
Identifikation von Schwachstellen (z. B. Single Points of Failure)
Welche Ausfälle hätten welche Auswirkungen?
Wo besteht akuter Handlungsbedarf?
Technisch (Hardening, Zugriffskonzepte)
Organisatorisch (Vertretung, Prozesse, Richtlinien)
Einführung sicherer Standards (z. B. CIS Benchmarks)
Strukturierte Umsetzung statt Insellösungen
Dokumentation für Audits (ISO 27001, NIS2)
Kontinuierliche Verbesserung
Ergebnis: Sicherheit, die funktioniert und geprüft standhält
Was passiert bei Ihnen, wenn morgen eine Schlüsselperson ausfällt?
Läuft alles weiter?
Oder steht ein Teil Ihres Unternehmens still?
Lassen Sie uns gemeinsam herausfinden, wo Ihre größten Risiken liegen und wie Sie diese strukturiert beseitigen.
Jetzt unverbindlich anfragen:
Kontaktieren Sie uns für eine erste Einschätzung
Rewion – Ihr Partner für IT-Härtung, ISO 27001 & NIS2-Compliance
Lesen sie auch: Warum ISO 27001 und NIS2 keine Bedrohung, sondern eine strategische Chance sind.
Auch interessant alle Themen und Informationen beim: BSI
Phishing beschreibt den Versuch, Menschen über gefälschte E‑Mails, Nachrichten oder Webseiten dazu zu bringen, vertrauliche Informationen preiszugeben oder schädliche Aktionen auszuführen wie zum Beispiel etwa das Öffnen eines Links, das Eingeben von Zugangsdaten oder das Freigeben von Zahlungen.
2026 ist Phishing besonders kritisch, weil:
Der Mensch ist damit mehr denn je das primäre Angriffsziel.
Künstliche Intelligenz wirkt bei Phishing als Multiplikator. Sie ersetzt keine Angreifer, sondern macht sie schneller, präziser und skalierbarer.
Moderne KI generiert fehlerfreie, realistisch klingende Texte, angepasst an Branche, Rolle und Tonfall. Eine E‑Mail vom „CFO“ klingt heute exakt so, wie man es erwartet.
KI wertet öffentlich verfügbare Informationen aus:
So entstehen Nachrichten, die inhaltlich exakt zum Arbeitskontext passen.
Neben Text kommen 2026 zunehmend KI‑generierte Stimmen und Videos zum Einsatz. Gefälschte Anrufe oder Meetings mit vermeintlichen Führungskräften sind keine Ausnahme mehr, sondern Realität.
KI ermöglicht tausende individualisierte Angriffe in kürzester Zeit. Ebenso Varianten‑Tests, um die erfolgreichste Version zu identifizieren.
Technologie allein reicht nicht mehr aus. Wirksamer Schutz entsteht nur durch das Zusammenspiel von Technik, Prozessen und Menschen.
Klassische Spamfilter stoßen an ihre Grenzen. Notwendig sind:
Viele erfolgreiche Angriffe nutzen Zeitdruck und Autorität aus. Deshalb braucht es:
Awareness‑Trainings müssen sich weiterentwickeln. Es geht nicht mehr um Rechtschreibfehler, sondern um:
KI‑gestütztes Phishing ist Teil des täglichen Bedrohungsszenarios geworden. Unternehmen, die weiterhin nur auf klassische Schutzmechanismen setzen, laufen Gefahr, systematisch ausgetrickst zu werden. Die gute Nachricht: Mit der richtigen Kombination aus Technologie, Prozessen und Beratung lässt sich das Risiko deutlich reduzieren.
Wir unterstützen Sie dabei, Ihre Organisation auf diese neue Bedrohungslage auszurichten. Pragmatisch, realistisch und nachhaltig. Prüfen Sie gerne auch wie sie mit Zero Trust ihr Unternehmen besser schützen.
There are no results matching your search
Hinter jeder schnellen Lösung steht ein echter Mensch, der genau weiß, was er tut. Unsere zertifizierten IT-Experten sind da, um Ihre Probleme schnell, freundlich und stressfrei zu lösen.
There are no results matching your search


























Digitale Souveränität ist in zahlreichen Unternehmen in den Fokus gerückt. Ob Cloud, KI oder Datensicherheit: Für Expert:innen entstehen konkrete technische und regulatorische Herausforderungen, die verschiedenste Fragen aufwerfen. Wie können wir Cloud-Infrastrukturen gestalten, die Unabhängigkeit und Performance verbinden? Welche Governance-Modelle brauchen wir, um KI-Systeme unter verschärften Compliance-Anforderungen zu betreiben? Wie können wir Datenschutz und Verfügbarkeit in einem unsicheren geopolitischen Umfeld gewährleisten? In unserem Networking-Event (unterstützt durch STACKIT) gehen wir diesen Fragen auf den Grund.
Unsere Veranstaltung „Digitale Souveränität: Cloud, KI & Datensicherheit im Fokus“ bringt Spezialist:innen aus den Bereichen Cloud Computing, Artificial Intelligence und Cyber sowie Data Security zusammen und möchte den Raum für Austausch öffnen. Wir diskutieren digitale Souveränitätsstrategien aus der Praxis, geben Beispiele zur Einführung deutscher Cloud Technologien mit STACKIT, diskutieren Best Practices und kommen so in Vorträgen, Diskussionen und beim abendlichen BBQ über den Dächern Stuttgarts ins Gespräch.
Donnerstag, 21. Mai 2026, 14:00 Uhr
OutOfOffice Stuttgart
Am Fruchtkasten 3
70173 Stuttgart
BBQ und Getränke inklusive
Schwarz Gruppe, ARD, TRUMPF, dm, SWR, Bosch Health Campus, Röchling, Deutsche Bahn, thyssenkrupp, WDR, DÜRR und viele mehr
Souveränität ist ein zentraler Baustein für digitale Unabhängigkeit, Datenschutz und Compliance in Europa. In diesem kompakten Webinar erfahren Sie, wie Unternehmen mit STACKIT eine sichere und leistungsfähige Cloud Infrastruktur aufbauen und betreiben können. Sie lernen die wichtigsten Funktionen kennen, erfahren, wie sich STACKIT von anderen Anbietern unterscheidet und erhalten praxisnahe Hinweise für die technische Umsetzung im eigenen Unternehmen.
Die Bedeutung von Nachhaltigkeit in der Informationstechnologie nimmt stetig zu, sowohl aus ökologischer als auch aus ökonomischer Perspektive. In diesem Webinar vermitteln wir Ihnen grundlegendes Wissen zu IT Sustainability und zeigen auf, wie Sie Nachhaltigkeitsprinzipien effektiv in Ihrer IT-Strategie verankern können.
Sie erfahren, wie sich nachhaltige IT auf den Energieverbrauch, die Reduzierung von CO2-Emissionen und die Verlängerung der Lebensdauer von IT-Komponenten auswirkt. Wir besprechen, wie Unternehmen durch die Implementierung grüner IT-Praktiken nicht nur die Umwelt schützen, sondern auch langfristig Kosten einsparen können.
Zusätzlich erhalten Sie Einblick in erfolgreiche Fallstudien und lernen Best Practices kennen, mit denen Sie Ihre IT-Prozesse und -Systeme nachhaltiger gestalten können.
There are no results matching your search




















There are no results matching your search
Willkommen bei unserem exklusiven Support für Bestandskunden. Hier finden Sie alle nötigen Informationen, um schnell und unkompliziert Hilfe bei technischen Anfragen zu erhalten.
Für eine direkte Unterstützung per Fernwartung, laden Sie bitte unser TeamViewer-Modul herunter:
Bitte beachten Sie: Dieser Kanal ist speziell für technische Anfragen unserer Bestandskunden vorgesehen. Für allgemeine Anfragen, Informationen zu unseren Dienstleistungen oder eine Erstberatung nutzen Sie bitte unser Kontaktformular oder schreiben Sie eine E-Mail an [email protected].