IT-Beratung & IT-Services

Ganzheitlich und auf Augenhöhe

Erleben Sie, warum

160+ Kunden

auf uns setzen

Erfolgsgeschichten

Erfolgreiche Projekte mit Rewion als Trusted Advisor

Sicherheit in der Cloud ist keine Zusatzfunktion, die sich nachträglich einbauen lässt. Sie muss von Beginn an Teil der Architektur sein. Diesen Grundsatz verfolgt der Cloud Security by Design Ansatz. Sicherheitsmechanismen werden bereits in der Planungsphase berücksichtigt und in jede Schicht der Infrastruktur integriert. So schützen Unternehmen ihre Cloud-Infrastruktur zuverlässig vor bekannten Bedrohungen und schaffen die Grundlage für künftige Anforderungen. Wir erklären in diesem Artikel die Hintergründe des Security by Design Ansatzes, gehen auf Umsetzungsmöglichkeiten ein und geben Tipps für den sicheren Aufbau der Cloud-Infrastruktur.

Was bedeutet der Cloud Security by Design Ansatz?

Cloud Security by Design steht für den Grundsatz, Sicherheit von Beginn an als zentralen Bestandteil der Cloud-Architektur zu verstehen, statt das Thema wie ein Add-on zu behandeln. Statt Sicherheitsmaßnahmen reaktiv nach Vorfällen einzuführen, werden Schutzmechanismen von Anfang an in Design-Entscheidungen eingebettet. Konkret können das verschiedene Mechanismen sein:

 

  • Auswahl sicherer Services
  • Definition von Zugriffsrechten
  • Verschlüsselung von Daten
  • Kontinuierliche Überwachung der Infrastruktur

 

Ziel ist es, Schwachstellen zu minimieren, die Reaktionszeiten bei Angriffen zu verkürzen und sicherzustellen, dass Compliance-Anforderungen automatisch erfüllt werden. Wichtig ist auch, dass Entwicklungsteams, Platform Engineers und Sicherheitsexperten eng zusammenarbeiten, um gemeinsam eine sichere und resiliente Cloud-Umgebung zu schaffen.

Wie kann Cloud Security by Design umgesetzt werden?

Für eine erfolgreiche Umsetzung von Cloud Security by Design braucht es eine Kombination aus technischen Maßnahmen, organisatorischen Prozessen und kulturellem Wandel. Unternehmen können in der Entwicklung ihrer Cloud-Infrastruktur verschiedene Maßnahmen implementieren.

Grafik Cloud Security by Design

Zero-Trust-Ansatz
Das Prinzip „Never trust, always verify“ gilt als Fundament moderner Cloud-Sicherheit. Anders als traditionelle Netzwerkmodelle, die innerhalb des eigenen Netzwerks Vertrauen voraussetzen, behandelt Zero Trust jede Anfrage, unabhängig von ihrer Herkunft, als potenziell gefährlich. Jeder Zugriff wird einzeln validiert, Nutzer und Geräte werden kontinuierlich überprüft und Zugriffsrechte werden auf das absolute Minimum beschränkt. Dieser Ansatz verhindert laterale Bewegungen von Angreifern innerhalb der Infrastruktur und minimiert so den Schaden im Falle einer Kompromittierung.

 

Identity & Access Management (IAM)
Die richtige Verwaltung von Identitäten und Zugriffsrechten ist unumgänglich für den Aufbau einer sicheren Cloud-Umgebung. IAM-Systeme stellen sicher, dass nur autorisierte Personen und Services auf bestimmte Ressourcen zugreifen können. Durch rollenbasierte Zugriffskontrollen erhalten Nutzer genau die Berechtigungen, die sie für ihre Aufgaben benötigen. Multi-Faktor-Authentifizierung fügt eine zusätzliche Sicherheitsebene hinzu, zudem reduzieren zeitlich begrenzte Zugriffstoken das Risiko kompromittierter Zugänge.

 

Automatisierte Sicherheitsprüfungen
Manuelle Sicherheitsüberprüfungen sind fehleranfällig und können mit der Geschwindigkeit moderner Cloud-Deployments kaum Schritt halten. Automatisierte Sicherheitstests sollten daher fester Bestandteil jeder CI/CD-Pipeline sein. Tools scannen Code auf Schwachstellen, überprüfen Konfigurationen auf Fehleinstellungen und identifizieren unsichere Abhängigkeiten noch vor dem Deployment. Regelmäßige Penetrationstests und Schwachstellenscans ergänzen diese kontinuierlichen Prüfungen und stellen sicher, dass auch produktive Systeme laufend auf Sicherheitslücken untersucht werden.

 

Compliance-Anforderungen
Regulatorische Vorgaben wie die DSGVO oder ISO 27001 setzen klare Standards für den Umgang mit Daten und Sicherheitsprozessen. Cloud Security by Design berücksichtigt diese Anforderungen bereits in der Architekturphase, sodass Compliance nicht nachträglich zum Problem wird. Dazu gehören Mechanismen zur Datenverschlüsselung, Protokollierung von Zugriffen, Löschkonzepte und Dokumentation von Sicherheitsmaßnahmen. Durch die Integration dieser Anforderungen von Beginn an vermeiden Unternehmen teure Nachbesserungen und potenzielle Strafen.

 

CSPM (Cloud Security Posture Management)
CSPM-Tools überwachen die Cloud-Umgebung kontinuierlich auf Fehlkonfigurationen, Compliance-Verstöße und Sicherheitsrisiken. Sie erkennen beispielsweise öffentlich zugängliche Speicher-Buckets, übermäßig permissive Firewalls oder veraltete Verschlüsselungsstandards. Durch automatisierte Warnungen und Empfehlungen helfen CSPM-Lösungen IT-Teams dabei, den Sicherheitsstatus der Cloud-Infrastruktur hoch zu halten und Schwachstellen zu schließen, bevor sie ausgenutzt werden können.

3 Tipps für sicheres Cloud Platform Engineering

Neben den grundlegenden Sicherheitskonzepten gibt es noch einige konkrete Maßnahmen, die IT-Teams im Aufbau ihrer Cloud-Infrastruktur umsetzen können, um ihre Umgebung abzusichern.

 

  • Verschlüsselung überall implementieren: Daten sollten sowohl im Ruhezustand als auch während der Übertragung verschlüsselt sein. Moderne Cloud-Plattformen arbeiten mit nativen Verschlüsselungsmechanismen, die sich mit wenig Aufwand aktivieren lassen. Besonders wichtig ist das Management der Verschlüsselungsschlüssel: Sie sollten getrennt von den Daten gespeichert und regelmäßig rotiert werden. Durch sichere Verschlüsselung schützen Unternehmen sich sowohl vor externen Angreifern als auch vor internen Risiken.
  • Least Privilege Prinzip konsequent anwenden: Jeder Nutzer, jede Anwendung und jeder Service sollte soweit möglich nur die minimalen Berechtigungen erhalten, die für die jeweilige Aufgabe notwendig sind. Übermäßige Rechte gelten als eine der häufigsten Ursachen für erfolgreiche Angriffe. Durch regelmäßige Überprüfungen der vergebenen Berechtigungen stellt die IT sicher, dass keine ungenutzten oder veralteten Zugriffsrechte bestehen bleiben. Automatisierte Tools können dabei helfen, diese Reviews effizient durchzuführen.
  • Logging und Monitoring als Frühwarnsystem nutzen: Umfassendes Logging aller Aktivitäten in der Cloud-Umgebung schafft Transparenz und ermöglicht die Nachverfolgung von Sicherheitsvorfällen. Kombiniert mit intelligenten Monitoring- und Alerting-Systemen kann die IT verdächtige Aktivitäten in Echtzeit erkennen. Ergänzend können SIEM-Lösungen dabei helfen, aus der großen Anzahl an Logdaten relevante Sicherheitsereignisse herauszufiltern und schnelle Reaktionen zu ermöglichen.

Fazit: Cloud Security by Design als Grundlage für jede Entwicklung

Arbeiten Unternehmen im Aufbau ihrer Cloud-Infrastruktur nach dem Security by Design Ansatz, folgen sie damit einer heute notwendigen Grundhaltung. Indem sie Sicherheit von Anfang an in Planung und Umsetzung integrieren, minimieren sie Risiken, erfüllen Compliance-Anforderungen und sparen langfristig Kosten. Eine Kombination aus automatisierten Sicherheitsprüfungen, IAM und kontinuierlichem Monitoring legt ein sicheres Fundament. Wichtig ist, dass Unternehmen Sicherheit zum zentralen Bestandteil jeder Cloud-Lösung machen, statt sie als nachträglichen Gedanken zu vernachlässigen.

„Wir müssen in die Cloud, und zwar sofort.“ Dieser Satz fällt mittlerweile in vielen Unternehmen. Darauf folgt jedoch häufig Verunsicherung. Was geschieht mit den bestehenden Systemen? Wie gehen wir mit sensiblen Daten um? Muss wirklich alles in die Cloud? Ein radikaler Umzug ist meist weder nötig noch wirklich ratsam. Beim Weg in die Cloud geht es vielmehr um eine strukturierte Transformation statt um die rein technische Umsetzung. Umso wichtiger ist es also, diesen Weg detailliert zu planen und Schritt für Schritt zu gehen. Welche Möglichkeiten es für einen schrittweisen Einstieg in die Cloud gibt, welche Workloads in die Cloud gehören und welche auch On Premises bleiben können, zeigen wir in diesem Artikel.

Hybride Lösungen als Brücke zum Einstieg in die Cloud

Ist die Entscheidung für die Cloud gefallen, stehen Unternehmen vor der Frage, ob die bestehende IT-Infrastruktur komplett in die Cloud verlagert werden soll oder ob On-Premises Systeme bestehen bleiben können. Hybride Lösungen sind hier oft ein sinnvoller Weg, um erste Schritte zu gehen, ohne komplizierte Neuentwicklungen anstoßen zu müssen. Bei dieser Variante arbeiten lokale Server und Cloud-Dienste parallel und ergänzen sich gegenseitig.

 

In der IT-Infrastruktur bedeutet das konkret: Kritische Anwendungen und Daten bleiben On Premises unter direkter Kontrolle. Gleichzeitig werden flexible Cloud-Ressourcen dort eingesetzt, wo sie das Unternehmen wirklich voranbringen, etwa bei der Skalierung von Rechenleistung in Spitzenlastzeiten oder bei der unkomplizierten und ortsunabhängigen Zusammenarbeit im Team. Übliche Bedenken rund um Datensicherheit und Kontrollverlust können so gezielt thematisiert werden, weil die Hoheit über sensible Systeme lokal erhalten bleibt.

Welche Workloads eignen sich für den Einstieg in die Cloud?

Nicht jede Anwendung ist gleichermaßen sinnvoll für den Betrieb in der Cloud. Wichtig ist deshalb, zuerst zu bewerten, ob die Auslagerung in die Cloud sinnvoll ist. Es geht weniger darum, ob ein Umzug in die Cloud grundsätzlich möglich ist – technisch lassen sich die meisten Workloads abbilden, sinnvoll ist das aber nicht immer. Grundsätzlich sind gerade für den Einstieg verschiedene Workloads gut für die Cloud geeignet:

Grafik Einstieg in die Cloud

  • Kollaborationstools wie E-Mail, Videocalls und gemeinsame Dokumentenbearbeitung – sie sind oft cloudnativ und funktionieren dort am besten
  • Anwendungen mit stark schwankendem Ressourcenbedarf, die je nach Auslastung skalieren müssen
  • Entwicklungs- und Testumgebungen, die schnell auf- und wieder abgebaut werden sollen
  • Backup- und Archivierungslösungen, bei denen Verfügbarkeit und Skalierbarkeit besonders wichtig sind

 

Auf der anderen Seite gibt es einige Bereiche, in denen ein lokaler Betrieb nach wie vor die bessere Wahl sein kann. Dazu zählen vor allem Anwendungen mit hohen Compliance-Anforderungen, etwa in der Medizin, im Finanzwesen oder in Behörden. Hier gelten strenge gesetzliche Vorgaben für Datenhaltung und -zugriff. Auch Systeme mit extrem niedrigen Latenzanforderungen wie zum Beispiel Steuerungssoftware in der Produktion  sind häufig besser On Premises aufgehoben. Gleiches gilt für sehr große Datenmengen, bei denen die Übertragungskosten und -zeiten in die Cloud wirtschaftlich keinen Sinn ergeben.

 

Wichtig ist, dass es keine universelle Antwort gibt. Welcher Weg für ein Unternehmen passend ist, hängt von der Branche, der bestehenden Infrastruktur und den regulatorischen Rahmenbedingungen ab. Eine fundierte Bestandsaufnahme ist deshalb der erste sinnvolle Schritt.

Erste Schritte in die Cloud ohne Risiko mit Backup & Disaster Recovery

Haben Unternehmen noch keine Erfahrungen mit der Cloud, lohnt sich ein Einstieg mit möglichst geringem Risiko, aber dennoch hohem Nutzen – ein Quick Win. Gut geeignet dafür ist Backup und Disaster Recovery. Die Logik dahinter ist einfach: Backups sind ohnehin grundsätzlich von den produktiven Systemen getrennt, sodass ein ideales Testfeld für die Cloud entsteht, ohne dass kritische Abläufe davon betroffen sind. Gleichzeitig löst der Umstieg auf Cloud-Backups ein häufiges Problem: Lokale Backups sind anfällig für dieselben physischen Risiken wie die Primärsysteme, etwa Feuer, Wasserschäden oder Hardwareausfälle. Ein Cloud-Backup liegt geografisch getrennt und ist im Ernstfall unabhängig verfügbar. Für Unternehmen entstehen also mehrere Vorteile:

 

  • Schnelle Implementierung ohne Eingriff in laufende Systeme
  • Skalierbare Speicherkapazität: Unternehmen zahlen nur, was sie tatsächlich nutzen
  • Kürzere Wiederherstellungszeiten im Ernstfall durch automatisierte Disaster-Recovery-Prozesse
  • Erste praktische Erfahrungen mit Cloud-Anbietern, SLAs und Verwaltungstools ohne großes Risiko

 

Grundsätzlich gilt der Umstieg auf Cloud-Backups als guter Einstieg in die Cloud, der das Vertrauen in die Technologie im Unternehmen stärkt. So kann die Basis für weitere Migrationsprojekte entstehen, die auf Zustimmung im Unternehmen trifft.

Fazit: Einstieg in die Cloud mit Quick Wins, die Sicherheit geben

Die Cloud bietet Unternehmen große Chancen – der Einstieg sollte aber unbedingt durchdacht sein. Ein schrittweiser Einstieg sorgt für mehr Klarheit und Sicherheit, vermeidet Risiken und ist weitsichtig. Durch hybride Modelle schaffen Unternehmen Flexibilität, ohne aber bewährte Strukturen zu opfern. Wichtig ist eine klare Unterscheidung zwischen Workloads, die in die Cloud gehören und solchen, die weiterhin On Premises betrieben werden können. So vermeiden Unternehmen unnötige Kosten und Komplexität und profitieren gleichzeitig von Cloud-Vorteilen.

Eine starke Unternehmenskultur entsteht nicht über Nacht. Vielmehr wächst sie mit gelebten Werten und Wertschätzung sowie durch ein Arbeitsumfeld, in dem Menschen sich gesehen und gehört fühlen. Umso mehr freut es uns, dass Rewion auch im Jahr 2026 erneut mit dem kununu Top Company-Siegel ausgezeichnet wurde. Nach der Auszeichnung im Jahr 2025 zählt Rewion damit ein weiteres Mal zu den attraktivsten Arbeitgebern Deutschlands. Wer sagt das? Die wichtigsten Stimmen: unsere Mitarbeitenden selbst. Diese Auszeichnung zeigt uns, dass unser Anspruch an ein modernes, vertrauensvolles und gemeinschaftliches Arbeitsumfeld wirklich gelebt wird.

Was steckt hinter dem kununu Top Company-Award?

Der kununu Top Company-Award wird jährlich auf Basis unabhängiger Bewertungen von aktuellen und ehemaligen Mitarbeitenden vergeben. Anders als viele andere Arbeitgebersiegel ist er damit nicht käuflich und basiert nicht auf Informationen von Unternehmen selbst. Für uns heißt das: Er ist besonders glaubwürdig.

 

Jährlich erhalten nur rund fünf Prozent aller auf kununu gelisteten Unternehmen diese Auszeichnung. Voraussetzung dafür ist eine überdurchschnittlich hohe Zufriedenheit der Mitarbeitenden sowie kontinuierlich positives Feedback. Dass Rewion diese Kriterien 2026 erneut erfüllt, ist für uns ein starkes Zeichen und vor allem ein großes Kompliment an unser gesamtes Team.

 

kununu CEO Nina Zimmermann fasst die Bedeutung des Awards perfekt zusammen:
„Ein starkes Zeichen an Talente, die nach ihrem idealen Arbeitgeber suchen.“ Genau dieses Signal möchten wir senden. Rewion schafft einen Arbeitsplatz, an dem Menschen gerne arbeiten, sich entwickeln können und gemeinsam erfolgreich sind.

Was das Arbeitsumfeld bei Rewion ausmacht

Die kununu-Auszeichnung zeigt uns, dass wir als Arbeitgeber den richtigen Weg gehen. Ein wertschätzender Umgang, Vertrauen in unsere Mitarbeitenden und ein starkes Gemeinschaftsgefühl machen unseren Arbeitsalltag aus. Wir sind der Meinung, dass gute Arbeit dort entsteht, wo Menschen sich wohlfühlen, Verantwortung übernehmen dürfen und ihre Ideen einbringen können. Grundsätzlich finden aber auch feste Standorte langweilig und haben deshalb drei Standorte in Stuttgart, Köln und Zürich aufgebaut. Genauso gerne arbeitet unser Team aber auch beim Kunden oder im eigenen Wohnzimmer.

 

Zusammengefasst gibt es mehrere Punkte, die unser Arbeitsverständnis ausmachen:

  • Flexible Arbeitszeiten & -orte
  • Coaching, Mentoring & Fortbildung
  • Innovation & Selbstverwirklichung
  • Offene Unternehmenskultur

 

Dass unsere Mitarbeitenden dieses Modell so positiv bewerten, macht uns stolz und motiviert uns zeitgleich, diesen Weg auch in Zukunft weiterzugehen.

Werde auch du Teil von Rewion!

Die kununu Top Company-Auszeichnung 2026 ist für uns auch ein Ansporn. Wir möchten gemeinsam mit Menschen weiter wachsen, die unsere Werte teilen und Lust haben, die IT-Welt aktiv mitzugestalten. Du suchst einen Arbeitgeber, bei dem Unternehmenskultur mehr ist als ein Versprechen? Dann lerne uns bei Rewion kennen. Schau dich in unseren offenen Stellen um und werde Teil eines Teams, das zu den besten Arbeitsumfeldern Deutschlands zählt.

Die Cloud-Infrastruktur bildet die Grundlage einer modernen Unternehmens-IT. Wer sorgt aber eigentlich dafür, dass Anwendungen zuverlässig laufen, schnell skalieren und rund um die Uhr verfügbar sind? Hinter jeder erfolgreichen Cloud-Lösung steht ein komplexes Zusammenspiel verschiedener Fachbereiche. Platform Engineers, Site Reliability Engineers und DevOps Engineers arbeiten zusammen, um stabile, effiziente und zukunftssichere Infrastrukturen aufzubauen. Wir gehen in diesem Artikel auf die einzelnen Bereiche und ihre spezifischen Aufgaben ein. Außerdem zeigen wir, wie sie gemeinsam zur erfolgreichen Entwicklung einer Cloud-Infrastruktur beitragen und im Anschluss ihren Betrieb sicherstellen und optimieren.

Was ist Teil einer Cloud-Infrastruktur?

Eine Cloud-Infrastruktur besteht aus weit mehr als nur Servern in einem Rechenzentrum. Sie umfasst virtuelle Maschinen, Container, Speicherlösungen, Netzwerkkomponenten und Datenbanken, die flexibel über das Internet bereitgestellt werden. Hinzu kommen Orchestrierungstools, die den Betrieb automatisieren, Monitoring-Systeme für die Überwachung und Sicherheitsmechanismen zum Schutz der Daten. All diese Komponenten müssen nahtlos zusammenarbeiten und sich dynamisch an wechselnde Anforderungen anpassen können.

 

Komplexität entsteht einerseits natürlich durch die Technik selbst, andererseits aber auch durch die Verwaltung, Aktualisierung und Optimierung der einzelnen Elemente. Moderne Cloud-Infrastrukturen stellen Automatisierung, Skalierbarkeit und hohe Verfügbarkeit in den Mittelpunkt. Um diese Eigenschaften zu erreichen, braucht es spezialisierte Fachkräfte und durchdachte Prozesse.

Wer arbeitet an der Entwicklung der Cloud-Infrastruktur und wie überschneiden sich die Bereiche?

Die Entwicklung einer Cloud-Infrastruktur ist Teamarbeit und wird besonders von drei zentralen Rollen gesteuert: Platform Engineers schaffen die technische Grundlage, Site Reliability Engineers sorgen für Stabilität und Performance und DevOps Engineers ermöglichen reibungslose Entwicklungs- und Deployment-Prozesse. Jeder Bereich bringt zwar spezifisches Know-how mit, die Grenzen verschwimmen aber immer stärker. Wichtig ist vor allem, dass alle Bereiche ineinandergreifen, damit eine Infrastruktur entsteht, die innovativ und zeitgleich zuverlässig ist.

Grafik Cloud-Infrastruktur Bereiche

Platform Engineering

Platform Engineers legen das Fundament für die gesamte Cloud-Infrastruktur. Sie entwickeln und pflegen die Plattformen, auf denen Anwendungen betrieben werden und schaffen damit die technische Basis für alle anderen Teams.

  • Skalierung: Platform Engineers implementieren Mechanismen, die es ermöglichen, Ressourcen automatisch an die aktuelle Last anzupassen und Lastspitzen problemlos zu bewältigen.
  • Cloud-Infrastruktur: Sie definieren und verwalten die grundlegende Architektur in der Cloud, von Netzwerken über Storage bis hin zu Compute-Ressourcen.
  • Application Lifecycle Management: Die Verwaltung des gesamten Lebenszyklus aller Anwendungen, von der Entwicklung über den Betrieb bis zur Ablösung, liegt in ihrem Verantwortungsbereich.
  • Containerisierung: Platform Engineers setzen Container-Technologien ein, um Anwendungen portabel, konsistent und ressourceneffizient zu betreiben.
  • Service Orchestrierung: Sie koordinieren verschiedene Services und sorgen dafür, dass sie automatisiert zusammenspielen und effizient verwaltet werden können.

SRE

Site Reliability Engineers (SRE) verbinden Software Engineering mit Systemadministration. Ihr Fokus liegt auf der Zuverlässigkeit und Performance der Infrastruktur. Sie stellen sicher, dass Systeme laufen, wenn sie gebraucht werden.

 

  • Monitoring: SREs implementieren umfassende Überwachungssysteme, die den Zustand der Infrastruktur dauerhaft im Blick behalten und frühzeitig auf Anomalien hinweisen.
  • Zuverlässigkeit: Sie entwickeln Strategien und technische Lösungen, um Ausfallzeiten zu minimieren und die Stabilität der Systeme zu verbessern.
  • Verfügbarkeit: Sie sorgen dafür, dass Services rund um die Uhr erreichbar sind. Dafür kommen Redundanzen und Failover-Mechanismen zum Einsatz.
  • Incident Response: Bei Störungen reagieren SREs schnell und strukturiert, analysieren die Ursachen und implementieren Maßnahmen, die ähnliche Vorfälle zukünftig vermeiden.
  • Service Level Objectives: Sie definieren messbare Ziele für die Servicequalität und stellen sicher, dass sie kontinuierlich eingehalten und überwacht werden.

DevOps Engineering

DevOps Engineers bilden die Schnittstelle zwischen Entwicklung und Betrieb der Cloud-Infrastruktur. Sie schaffen die Prozesse und Tools, die es Teams ermöglichen, Software schneller und sicherer auszuliefern.

 

  • Kollaboration: DevOps Engineers fördern die Zusammenarbeit zwischen Entwicklungs- und Operations-Teams und brechen mit Hierarchien und festgefahrenen Strukturen.
  • Automatisierung: Sie automatisieren wiederkehrende Aufgaben im Entwicklungs- und Deployment-Prozess, um Fehler zu reduzieren und die Geschwindigkeit zu erhöhen.
  • Deployment: Die Verantwortung für eine reibungslose und zuverlässige Bereitstellung von Software in verschiedenen Umgebungen liegt beim DevOps Team.
  • CI & CD: DevOps Engineers implementieren CI/CD Pipelines, die automatisierte Tests und Auslieferungen ermöglichen und so die Time-to-Market verkürzen.

Welche Schnittmengen haben die verschiedenen Bereiche und wie wirken sie zusammen?

Die drei Bereiche ergänzen sich in verschiedenen Situationen.

 

Platform Engineers und DevOps Engineers teilen die Verantwortung für Cloud-Infrastruktur-Management und Deployment-Automatisierung: Platform Engineers stellen die grundlegende Plattform bereit, DevOps Engineers nutzen sie für effiziente Auslieferungsprozesse.

 

DevOps Engineers und SREs arbeiten eng bei kontinuierlicher Verbesserung, Monitoring und Alerting zusammen: DevOps-Prozesse liefern die Basis für schnelle Iterationen, SREs sorgen dafür, dass dabei die Stabilität nicht leidet.

 

Platform Engineers und SREs wiederum legen gemeinsam den Fokus auf Performance-Optimierung und Kapazitätsplanung: Sie stellen sicher, dass die Infrastruktur funktioniert und effizient dimensioniert ist.

 

Im Idealfall entsteht so ein Kreislauf: Platform Engineers schaffen die technische Grundlage, DevOps Engineers ermöglichen schnelle Deployments, und SREs gewährleisten, dass alles zuverlässig läuft. Feedback aus dem Betrieb fließt zurück in die Plattform-Entwicklung, sodass sich die Infrastruktur kontinuierlich verbessert.

Fazit: Zusammenspiel zwischen allen Bereichen als Basis für eine funktionale Cloud-Infrastruktur

Eine effiziente Cloud-Infrastruktur entsteht durch das koordinierte Zusammenwirken mehrerer Spezialisten. Platform Engineers, SREs und DevOps Engineers bringen jeweils eigene Perspektiven und Fähigkeiten ein, die sich gegenseitig ergänzen und verstärken. Die Rollen setzen zwar unterschiedliche Schwerpunkte, verfolgen aber alle ein Ziel: eine stabile, skalierbare und zukunftssichere Cloud-Infrastruktur. Unternehmen können durch dieses Zusammenspiel von kürzeren Entwicklungszyklen und höherer Systemzuverlässigkeit profitieren und sind zeitgleich fähig, schnell auf Marktveränderungen zu reagieren.

Was passiert im Incident, wenn niemand Zeit zum Nachlesen hat?

Cyberangriffe kündigen sich nicht an. Wenn Systeme ausfallen, Kommunikationswege wegbrechen und der Druck steigt, entscheidet sich Cyber Incident Response. Und zwar nicht an der Qualität eines Dokuments, sondern daran, ob alle Beteiligten wissen, was jetzt zu tun ist und wer mit wem kommuniziert.

 

Incident Response Management ist heute ein unverzichtbarer Bestandteil moderner IT-Sicherheitsstrategien – auch in Krankenhäusern. In der Praxis zeigt sich jedoch immer wieder, dass ein dokumentierter Plan allein im Ernstfall nicht ausreicht.

 

Wenn zentrale Systeme nicht verfügbar sind und Entscheidungen unter hohem Zeitdruck getroffen werden müssen, bleibt keine Zeit, umfangreiche Dokumente zu lesen. Cyber Incident Response entscheidet sich dann nicht im Plan, sondern im Handeln.

 

Genau hier stellt sich die entscheidende Frage: Wie wird Planung in konkrete Handlungssicherheit übersetzt?

Parallelität und Koordination als größte Herausforderung im Cyber Incident

Im Ernstfall läuft in der IT unglaublich viel parallel ab: Analyse, Eindämmung, Wiederherstellung, interne Abstimmung und externe Kommunikation. Gleichzeitig erreichen Anfragen aus Management, Fachbereichen, externen Dienstleistern oder Behörden die IT. Entscheidungen müssen getroffen werden, häufig auf Basis unvollständiger Informationen.

 

Die IT ist dabei meist ohnehin stark ausgelastet und übernimmt dennoch eine zentrale Koordinationsrolle. Gerade diese Parallelität macht Cyber Incident Response so anspruchsvoll. Wenn im Ernstfall noch geklärt werden muss, wer wofür verantwortlich ist, geht wertvolle Zeit verloren.

 

Dann geht es nicht mehr um Details, sondern um die zentralen Fragen: Was ist jetzt zu tun? Wer ist zuständig? Und wie wird kommuniziert?

Das IT-Poster als operatives Element des Cyber Incident Response Plans

Ein Cyber Incident Response Plan definiert Rollen, Abläufe und Entscheidungswege. Ein Poster für den Bereich IT ist dabei kein eigenständiges Dokument neben dem Cyber Incident Response Plan, sondern dessen operative Verdichtung.

 

Während der Plan die inhaltliche Grundlage schafft und Dokumentation ermöglicht, übersetzt das Poster diese Inhalte in eine Form, die im Ernstfall schnelle Orientierung möglich macht.

Auf einen Blick wird sichtbar:

  • wer im Incident welche Verantwortung trägt
  • wer wann mit wem kommuniziert
  • wer innerhalb der IT welchen Teil der Reaktion übernimmt

 

Das IT-Poster schafft eine gemeinsame Referenz für alle Beteiligten und reduziert Rückfragen, Parallel- & Doppelabstimmungen und widersprüchliche Aussagen. Gerade unter Zeitdruck ist diese Klarheit entscheidend.

Warum Aktualität über Wirksamkeit entscheidet

Ein Poster bleibt nur dann hilfreich, wenn es aktuell gehalten wird. Im Ernstfall darf keine Unklarheit darüber bestehen, wer Verantwortung übernimmt, wer Entscheidungen trifft oder wie Eskalationswege aussehen. Veraltete Rollen oder Eskalationswege führen zu Verzögerungen und zusätzlicher Unsicherheit.

 

Damit das Poster als verbindliche Referenz funktioniert, müssen Inhalte regelmäßig überprüft und an organisatorische oder technische Veränderungen angepasst werden. Aktualität ist keine formale Pflicht, sondern Voraussetzung für Handlungsfähigkeit.

Vom Plan zur Handlungssicherheit

Ein Cyber Incident Response Plan bildet das Fundament für den Umgang mit Sicherheitsvorfällen. Ob er im Ernstfall wirkt, entscheidet sich jedoch daran, ob er handlungsfähig macht.

 

Das IT-Poster schließt diese Lücke. Es übersetzt Planung in konkrete Orientierung, reduziert Komplexität und unterstützt die IT dabei, auch unter hoher Belastung handlungsfähig zu bleiben. Cyber Incident Response scheitert selten an fehlenden Konzepten. Entscheidend ist, ob diese Konzepte im entscheidenden Moment nutzbar sind.

Die sichere Verwaltung von Zugangsdaten ist eine zentrale Voraussetzung für stabile und revisionssichere RPA-Lösungen. Wer den Credential Vault nutzen möchte, schafft in Automation Anywhere eine klare Trennung zwischen Bot-Logik und sensiblen Zugangsinformationen. Genau hier setzt der Credential Vault an: Er stellt eine standardisierte, zentral verwaltete und sichere Möglichkeit bereit, Credentials zu speichern, zu verwenden und zu kontrollieren – sowohl innerhalb der Plattform als auch in Kombination mit externen Systemen. Dieser Artikel richtet sich an IT-Administratoren und technische Entscheider, die Automation Anywhere in produktiven Umgebungen betreiben oder einführen.

Grundlagen des Credential Vaults in Automation Anywhere

Der Credential Vault ist ein fester Bestandteil der Automation-Anywhere-Cloud-Plattform und dient der sicheren Speicherung von sensiblen Informationen wie Benutzernamen, Passwörtern, Tokens oder Schlüsseln. Diese Daten werden verschlüsselt abgelegt und sind weder für Bot-Entwickler noch für Laufzeitprozesse im Klartext sichtbar. Bots greifen ausschließlich über definierte Referenzen auf die Credentials zu. Dadurch lassen sich Sicherheitsrichtlinien umsetzen, ohne die Automatisierung einzuschränken.

Der Zugriff auf den Vault erfolgt über den Control Room, der als zentrale Verwaltungsinstanz fungiert. Alle administrativen Aufgaben, von der Erstellung bis zur Berechtigungssteuerung, werden hier durchgeführt.

Credential Vault nutzen im Automation Anywhere Control Room

Locker als Strukturierungsprinzip

Credentials werden in sogenannten Lockern organisiert. Ein Locker ist ein logisch abgeschlossener Container, der mehrere Credentials enthalten kann und über Berechtigungen gesteuert wird. Administratoren legen fest, welche Benutzer oder Bots auf einen Locker zugreifen dürfen. Dadurch lassen sich technische Zugänge, Fachbereichszugänge und Systemzugänge klar voneinander trennen.

Erstellung und Pflege von Lockern

Lockers werden im Control Room angelegt und können jederzeit angepasst werden. Änderungen an Berechtigungen wirken sich sofort auf alle Bots aus, die diesen Locker verwenden. Das erleichtert die Administration erheblich, da keine Anpassung an einzelnen Bots notwendig ist, wenn sich Zugriffsrechte ändern.

Credentials erstellen, ändern und übertragen

Innerhalb eines Lockers können einzelne Credentials angelegt werden. Dabei definiert der Administrator, welche Felder gespeichert werden, zum Beispiel Benutzername und Passwort oder API-Key und Secret. Diese Daten lassen sich jederzeit ändern, ohne den Bot anzupassen. Besonders im produktiven Betrieb ist das ein entscheidender Vorteil, da Passwortwechsel oder Systemmigrationen ohne Stillstand erfolgen können.

Die Ownership von Credentials kann zudem zwischen Benutzern übertragen werden. Das ist wichtig für Vertretungsregelungen, Teamwechsel oder organisatorische Änderungen und verhindert, dass produktive Bots von einzelnen Personen abhängig sind.

Credential Vault nutzen beim Erstellen von Credentials

Credential Vault nutzen in Bots und Automatisierungen

Sobald ein Bot ausgeführt wird, ruft er die benötigten Zugangsdaten zur Laufzeit aus dem Credential Vault ab. Die Werte werden nur temporär im Arbeitsspeicher gehalten und nicht geloggt oder persistiert. Entwickler müssen daher keine sensiblen Informationen in Variablen oder Skripten hinterlegen. Wer den Credential Vault nutzen möchte, erhöht damit unmittelbar die Sicherheit und Wartbarkeit seiner Automatisierungen.

Credential Vault nutzen in Bots zur Laufzeit

Praxisbeispiele aus dem Betrieb

In der Praxis wird der Vault häufig für Web-Logins, Datenbankzugriffe oder den Zugriff auf File-Server genutzt. Ein typisches Szenario ist ein Bot, der sich täglich in einem Fachsystem anmeldet, Berichte exportiert und die Daten weiterverarbeitet. Das Passwort liegt dabei ausschließlich im Vault. Wird es geändert, läuft der Bot ohne Anpassung weiter. Ein weiteres Beispiel ist die Nutzung von Service-Accounts für Datenbankabfragen, die zentral verwaltet und regelmäßig rotiert werden.

Benutzerbezogene Credentials und Benachrichtigungen

Automation Anywhere ermöglicht auch benutzerbezogene Credentials. Diese sind an einen bestimmten User gebunden und können für persönliche Zugriffe verwendet werden, etwa bei attended Bots. Zusätzlich lassen sich E-Mail-Benachrichtigungen konfigurieren, wenn Credentials ablaufen oder geändert werden. Das unterstützt IT-Teams dabei, Sicherheitsanforderungen einzuhalten und Ausfälle zu vermeiden.

Credential Vault nutzen mit externen Key Vaults

Neben dem internen Vault unterstützt Automation Anywhere auch externe Credential-Speicher. Dazu gehören unter anderem Azure Key Vault, AWS Secrets Manager oder HashiCorp Vault. Die Integration erfolgt über eine definierte Schnittstelle, sodass Bots auch hier zur Laufzeit auf externe Secrets zugreifen können.

Diese Variante wird häufig in regulierten Umgebungen eingesetzt, in denen zentrale Sicherheitsplattformen bereits etabliert sind. Der Vorteil liegt in der durchgängigen Nutzung bestehender Sicherheitsrichtlinien, Logging-Mechanismen und Compliance-Vorgaben. Gleichzeitig bleiben die Bots in Automation Anywhere unverändert, da sie weiterhin mit Referenzen arbeiten.

Credential Vault nutzen für sichere Skalierung

Gerade bei wachsender Bot-Landschaft wird deutlich, wie wichtig eine zentrale Credential-Verwaltung ist. Ohne Vault entstehen schnell Sicherheitsrisiken durch Hardcoding, unklare Zuständigkeiten oder fehlende Transparenz. Wer den Credential Vault nutzen will, schafft eine saubere Grundlage für Skalierung, Betrieb und Auditierbarkeit von RPA-Plattformen.

Fazit

Der Credential Vault von Automation Anywhere ist inzwischen ein essenzieller Bestandteil für den sicheren Betrieb von Automatisierungen. Er ermöglicht eine klare Trennung von Logik und sensiblen Daten, reduziert Betriebsrisiken und vereinfacht administrative Prozesse. Durch die Unterstützung externer Key Vaults lässt sich die Plattform zudem nahtlos in bestehende Sicherheitsarchitekturen integrieren. Für IT-Administratoren und Entscheider ist der konsequente Einsatz des Vaults ein zentraler Baustein für stabile, sichere und wartbare RPA-Umgebungen. Wer den Credential Vault nutzen möchte, legt damit die Basis für nachhaltige Automatisierung.

Mobile Geräte sind aus dem Arbeitsalltag nicht mehr wegzudenken. Gleichzeitig wachsen allerdings die Anforderungen an Sicherheit, Compliance und den Schutz persönlicher Daten. Deshalb treffen Mobile Device Management (MDM) und Datenschutz aufeinander. Unternehmen müssen geschäftliche Informationen zuverlässig absichern, dürfen dabei aber nicht in die Privatsphäre ihrer Mitarbeitenden eingreifen. Besonders bei BYOD und hybriden Arbeitsmodellen entstehen so schnell Unsicherheiten und Vorbehalte. Ein durchdachtes Mobile Device Management hilft dabei, diese Herausforderungen zu meistern, indem Datenschutz von Anfang an berücksichtigt wird. Wir zeigen in diesem Artikel, wo die größten Bedenken liegen und wie Unternehmen geschäftliche und private Daten sinnvoll trennen.

Welche Bedenken gibt es rund um MDM und den Datenschutz?

MDM und Datenschutz werden häufig als Gegensätze wahrgenommen. Auf der einen Seite steht die berechtigte Notwendigkeit, sensible Unternehmensdaten zu schützen. Auf der anderen Seite stehen wiederum Mitarbeitende, die Sorge haben, durch MDM-Lösungen überwacht oder in ihrer Privatsphäre eingeschränkt zu werden. Diese Sorge ist einer der Hauptgründe, aus denen MDM-Projekte intern immer wieder auf Widerstand stoßen.

 

Datenschutzbedenken im Team entstehen vor allem dann, wenn nicht klar ist, welche Daten tatsächlich erfasst werden und wo genau die Grenzen der Verwaltung liegen. Besonders kritisch sehen viele Mitarbeitende:

  • die mögliche Einsicht in private E-Mails, Fotos oder Nachrichten
  • die Ortung von Geräten außerhalb der Arbeitszeit
  • pauschale Fernlöschungen, bei denen auch private Inhalte verloren gehen
  • unklare Zuständigkeiten und fehlende Transparenz

 

Die DSGVO als wichtiger rechtlicher Rahmen

Die DSGVO gibt hier eine klare Richtung vor. Unternehmen dürfen Daten nur nutzen und verarbeiten, solange sie einem konkreten Zweck dienen, die Nutzung verhältnismäßig ist und transparent kommuniziert wird. Für MDM bedeutet das: versteckten Funktionen, unnötige Datenerhebung und pauschale Eingriffe in private Bereiche sind durch die DSGVO untersagt. Unternehmen haben selbst die Verantwortung, nachzuweisen, dass MDM und Datenschutz sowohl technisch als auch organisatorisch miteinander vereinbar sind. Maßnahmen können dafür verschiedene zum Einsatz kommen.

 

Grafik MDM und Datenschutz

Organisatorische Maßnahmen für Datenschutz im MDM: Vertrauen durch klare Regeln

Um Mobile Device Management und Datenschutz sinnvoll umzusetzen, braucht es mehr als die richtige technische Lösung. Klare organisatorische Rahmenbedingungen sind mindestens genauso wichtig, da sie die Grundlage dafür bilden, dass MDM-Lösungen akzeptiert und korrekt eingesetzt werden. Dabei braucht es vor allem verbindliche Richtlinien für die Nutzung, die verschiedene Aspekte regeln:

 

  • ob und in welchem Umfang private Nutzung der Geräte erlaubt ist
  • welche Daten durch das Unternehmen verwaltet werden
  • welche Maßnahmen bei Verlust oder Diebstahl gelten
  • welche Rechte und Pflichten beide Seiten haben

 

Wichtig ist, dass diese Regeln klar an alle Mitarbeitenden kommuniziert werden. So ist für alle Seiten von Beginn an klar, was MDM darf und was ausdrücklich untersagt ist, sodass die Vorbehalte deutlich geringer ausfallen.

 

Transparenz ist wichtig für Vertrauen
Der Einsatz einer MDM-Lösung im Unternehmen steht und fällt mit der Offenheit des Unternehmens. Sie müssen nachvollziehbar erklären, welche Funktionen zum Einsatz kommen und was definitiv nicht passiert. Aussagen wie „Wir sehen keine privaten Inhalte“ oder „Standortdaten werden nicht dauerhaft gespeichert“ sorgen für Sicherheit im Team.

 

Einbindung relevanter Stellen
Außerdem sinnvoll ist es, Datenschutzbeauftragte frühzeitig einzubinden, um Risiken zu bewerten und Maßnahmen transparent zu dokumentieren. In mitbestimmungspflichtigen Umfeldern ist auch die Einbindung des Betriebsrats nötig. Um nach der Einführung Unsicherheiten abzubauen, eignen sich Schulungen und kurze Leitfäden, an denen Mitarbeitende sich orientieren können.

Technische Umsetzung von MDM mit sauberer Datentrennung

Neben organisatorischen Aspekten geht es außerdem um die technische Umsetzung der klaren Trennung geschäftlicher und privater Daten. Dafür bieten MDM-Lösungen verschiedene Wege in der Umsetzung.

 

  • Geschützte Bereiche: Ein grundlegendes Prinzip ist die logische Trennung von Daten. Geschäftliche Apps und Informationen werden in einem geschützten Bereich verwaltet, sodass private Inhalte unberührt bleiben. So kann die IT Unternehmensdaten absichern, ohne das gesamte Gerät zu kontrollieren, beispielsweise können private Apps so nicht auf die geschäftlichen Daten zugreifen, berufliche Apps aber auch nicht auf die privaten Daten.

 

  • Selektive Maßnahmen: Statt ein Gerät komplett zurückzusetzen, können bei Bedarf gezielt nur geschäftliche Daten entfernt werden. Das ist besonders relevant bei Gerätewechseln oder nach Ausstieg von Mitarbeitenden aus dem Unternehmen. Private Inhalte bleiben erhalten, geschäftliche Daten können restlos gelöscht werden.

 

  • Restriktive Einsicht: Datenschutzfreundliche MDM-Konzepte setzen auf Einschränkung der Einsichtsmöglichkeiten. Administratoren verwalten Einstellungen und Anwendungen, erhalten aber keinen Zugriff auf persönliche Inhalte. Zugriffe werden dokumentiert und auf das notwendige Minimum begrenzt.

Diese Form der Trennung reduziert datenschutzrechtliche Risiken und vereinfacht zeitgleich den Betrieb. Klare Trennung und Regelungen sorgen für Transparenz und Sicherheit für Admins und Mitarbeitende und machen Mobile Device Management so zu einem stabilen Fundament für mobiles Arbeiten.

Fazit: Vertrauen und Transparenz als Grundlage mit datenschutzkonformem MDM

Mobile Device Management und Datenschutz schließen sich keinesfalls aus. Vielmehr ergänzen die beiden Themen sich und sorgen für Transparenz und Sicherheit für Mitarbeitende und Unternehmen. Wer Datenschutz frühzeitig berücksichtigt, schafft Rechtssicherheit, Akzeptanz und nachhaltige Strukturen. Wichtig dabei ist vor allem die Kombination aus klaren Regeln, transparenter Kommunikation und einer technischen Umsetzung, die private Daten respektiert und geschäftliche schützt. Unternehmen profitieren von besser geschützten Informationen, während Mitarbeitende die Kontrolle über ihre persönlichen Inhalte behalten. So kann MDM als sinnvolles Werkzeug für einen sicheren und modernen Arbeitsalltag in das Unternehmen integriert werden, das Vertrauen schafft und langfristig tragfähig bleibt.

Ein Strategieprozess entscheidet darüber, ob eine IT-Strategie Orientierung gibt oder wirkungslos bleibt. Nicht das Dokument ist kritisch, sondern der Weg dorthin.

Dieser Artikel zeigt, wie ein strukturierter Strategieprozess in der IT aussieht, welche Schritte zwingend sind und wo Organisationen typischerweise scheitern.

Was ist ein Strategieprozess?

Der Strategieprozess beschreibt die systematische Vorgehensweise zur Entwicklung einer Strategie. Im IT-Kontext stellt er sicher, dass strategische Entscheidungen nachvollziehbar, abgestimmt und umsetzbar sind.

Ein guter Strategieprozess verbindet drei Ebenen:

  • Unternehmensziele

  • IT-Fähigkeiten und -Limitationen

  • Umsetzung in Initiativen und Budget

Ohne klaren Prozess entsteht Strategie zufällig oder politisch.

Warum der Prozess entscheidend ist

Viele IT-Organisationen haben strategische Inhalte, aber keinen sauberen Prozess. Die Folgen sind bekannt:

  • Fehlende Priorisierung

  • Widersprüchliche Initiativen

  • Strategien ohne Umsetzungskraft

Ein klar definierter Strategieprozess schafft:

  • Transparenz in Entscheidungen

  • Verbindlichkeit bei Prioritäten

  • Akzeptanz bei Stakeholdern

Der typische Strategieprozess in der IT

Bewährt hat sich ein mehrstufiges Vorgehen mit klaren Übergaben.

  1. Klärung des strategischen Rahmens
    Ableitung aus Unternehmensstrategie, Zielen und Rahmenbedingungen. Ohne diesen Schritt ist jede IT-Strategie isoliert.
  2. Analysephase
    Erhebung der relevanten Treiber, qualitative Standortbestimmung, Analyse von Stärken, Schwächen, Chancen und Risiken (SWOT-Analyse).
  3. Strategische Ausrichtung
    Definition von Mission und Vision der IT als Leitplanken für alle weiteren Entscheidungen.
  4. Ableitung von Handlungsfeldern
    Festlegung weniger, klar abgegrenzter strategischer Schwerpunkte. Fokus statt Vollständigkeit.
  5. Zieldefinition und Messbarkeit
    Übersetzung der Handlungsfelder in messbare Ziele, häufig über OKRs oder strategische KPIs.
  6. Umsetzungsplanung
    Erarbeitung einer Roadmap inklusive zeitlicher Priorisierung und Abhängigkeiten.
  7. Finanzielle Einordnung
    Abgleich von Ambition und finanziellen Ressourcen. Ohne Budget keine Strategie.

Typische Fehler im Strategieprozess

In der Praxis zeigen sich immer wieder dieselben Schwachstellen:

  • Analyse ohne klare Schlussfolgerungen

  • Zu viele Handlungsfelder ohne Priorität

  • Strategieentwicklung ohne Beteiligung relevanter Stakeholder

  • Kein formalisierter Übergang in Umsetzung und Steuerung

Ein häufiger Fehler ist, den Strategieprozess als einmaliges Projekt zu verstehen. Strategie ist zyklisch.

Wie oft sollte ein Strategieprozess durchgeführt werden?

Ein vollständiger Strategieprozess ist kein Jahresritual.

  • Grundlegende Überarbeitung alle 3 bis 4 Jahre

  • Jährliche Überprüfung und Anpassung

  • Regelmäßige Fortschrittskontrolle über KPIs und Reviews

Der Prozess endet nicht mit der Freigabe der Strategie, sondern mit deren Umsetzung.

Fazit

Ein wirksamer Strategieprozess macht IT führbar. Er schafft Klarheit über Richtung, Prioritäten und Investitionen.

Ohne klaren Prozess bleibt IT reaktiv.
Mit klarem Prozess wird IT zum strategischen Partner.

IT-Beratung auf höchstem Niveau

Hinter jeder schnellen Lösung steht ein echter Mensch, der genau weiß, was er tut. Unsere zertifizierten IT-Experten sind da, um Ihre Probleme schnell, freundlich und stressfrei zu lösen.

Markus Rill

REWION Imagefilm: Das sind WIR

Unsere Partner
Logo Flughafenregion Zürich

Ihr Unternehmen plant den Einstieg in Microsoft 365 oder ist bereits dabei, Workloads in die Cloud zu verlagern? Sie betreiben eine lokale Exchange-Umgebung und möchten verstehen, wie Sie diese sauber mit Exchange Online verbinden und Postfächer migrieren können?

 

In diesem Webinar erhalten Sie einen strukturierten Einblick in die Implementierung einer Exchange-Hybrid-Umgebung – der technischen Brücke zwischen lokalem Exchange und Exchange Online in Microsoft 365. Wir zeigen, welche Voraussetzungen erfüllt sein müssen, welche Hybrid-Bereitstellungspfade zur Verfügung stehen und wie typische Migrationsszenarien ablaufen. So erhalten Sie eine fundierte Entscheidungsgrundlage für Ihre eigene Exchange Online Migration und konkrete nächste Schritte für Ihr Projekt.

Unser 60-minütiges Webinar „Zurück zu den Basics – RPA richtig implementieren und mit Lichtgeschwindigkeit Richtung Agentic AI“ bietet Ihnen einen kompakten und strukturierten Einblick in die Grundlagen einer skalierbaren Automatisierungsarchitektur.

Viele Unternehmen sprechen aktuell über Agentic AI und intelligente Automatisierung. Doch ohne ein stabiles RPA-Fundament fehlt die Grundlage für nachhaltige Skalierung. In diesem Webinar zeigen wir, warum RPA weiterhin das Handwerk in der Automatisierungsfabrik bleibt, welche typischen Fehler bei der Implementierung auftreten und wie eine strukturierte Architektur den Übergang zu Agentic AI ermöglicht.

Sie erhalten einen Überblick über zentrale Erfolgsfaktoren, Governance-Aspekte und Architekturprinzipien. Darüber hinaus zeigen wir auf, wie deterministische Automatisierung (RPA) sinnvoll mit KI-gestützten Komponenten kombiniert werden kann.

Das Webinar vermittelt Orientierung, zeigt strategische Eckpunkte auf und gibt Impulse, wie Sie das Thema in Ihrem eigenen Umfeld strukturiert angehen können – ohne dabei zu tief in technische Details einzusteigen.

Digitale Souveränität ist in zahlreichen Unternehmen in den Fokus gerückt. Ob Cloud, KI oder Datensicherheit: Für Expert:innen entstehen konkrete technische und regulatorische Herausforderungen, die verschiedenste Fragen aufwerfen. Wie können wir Cloud-Infrastrukturen gestalten, die Unabhängigkeit und Performance verbinden? Welche Governance-Modelle brauchen wir, um KI-Systeme unter verschärften Compliance-Anforderungen zu betreiben? Wie können wir Datenschutz und Verfügbarkeit in einem unsicheren geopolitischen Umfeld gewährleisten? In unserem Networking-Event (unterstützt durch STACKIT) gehen wir diesen Fragen auf den Grund.

 

Unsere Veranstaltung „Digitale Souveränität: Cloud, KI & Datensicherheit im Fokus“ bringt Spezialist:innen aus den Bereichen Cloud Computing, Artificial Intelligence und Cyber sowie Data Security zusammen und möchte den Raum für Austausch öffnen. Wir diskutieren digitale Souveränitätsstrategien aus der Praxis, geben Beispiele zur Einführung deutscher Cloud Technologien mit STACKIT, diskutieren Best Practices und kommen so in Vorträgen, Diskussionen und beim abendlichen BBQ über den Dächern Stuttgarts ins Gespräch.

Datum & Zeit

Donnerstag, 21. Mai 2026, 14:00 Uhr

Ort

OutOfOffice Stuttgart

Am Fruchtkasten 3

70173 Stuttgart

Verpflegung

BBQ und Getränke inklusive

Souveränität ist ein zentraler Baustein für digitale Unabhängigkeit, Datenschutz und Compliance in Europa. In diesem kompakten Webinar erfahren Sie, wie Unternehmen mit STACKIT eine sichere und leistungsfähige Cloud Infrastruktur aufbauen und betreiben können. Sie lernen die wichtigsten Funktionen kennen, erfahren, wie sich STACKIT von anderen Anbietern unterscheidet und erhalten praxisnahe Hinweise für die technische Umsetzung im eigenen Unternehmen. 

In 60 Minuten zeigen wir, wie Sie mit Conditional Access, sinnvollen Baseline-Policies und praxiserprobten Tipps Ihr Zugriffsmodell schnell und sicher weiterentwickeln. Kompakt, verständlich und direkt umsetzbar: kurze Zero-Trust-Einführung, konkrete Beispiele aus Microsoft 365 sowie klare Empfehlungen für Rollout, Governance und Notfallzugriffe. Ideal für IT- und Security-Verantwortliche, die ohne Buzzwords zu belastbaren Ergebnissen kommen wollen. Jetzt anmelden und Platz sichern.

  • Praxisnahe Demos zu Conditional Access, MFA-Strategien und sicheren Break-Glass-Accounts
  • Klarer Stufenplan mit Report-only, Pilotgruppen und kontrolliertem Rollout ohne Unterbrechungen
  • Checkliste, Quick Wins und Vorlagen für Governance, Monitoring und Dokumentation in Microsoft 365

An der Nutzung von M365 führt oft kein Weg vorbei und dennoch handelt es sich hierbei um ein datenschutzrechtlich brisantes Thema. Die fehlenden Informationen der Aufsichtsbehörden führt dazu, dass Unternehmen in diesem Fall oft im Regen stehen gelassen werden. In unserem Webinar „Datenschutz beim Einsatz von M365“ möchten wir Licht in das Dunkel bringen und für Sie einordnen, welchen Herausforderungen Sie zu begegnen haben und wie Sie insbesondere technische und organisatorische Maßnahmen heranziehen können, um Verarbeitungsvorgänge von und mit Microsoft 365 datenschutzfreundlich beeinflussen zu können.

  • Sie erhalten einen Überblick, was für Herausforderungen bei der M365-Nutzung zu beachten sind.
  • Sie wissen, welche Lösungsstrategien es gibt.
  • Sie erhalten einen Überblick, wie technische und organisatorische Maßnahmen den Datenschutz von und mit M365
    beeinflussen.

Die Bedeutung von Nachhaltigkeit in der Informationstechnologie nimmt stetig zu, sowohl aus ökologischer als auch aus ökonomischer Perspektive. In diesem Webinar vermitteln wir Ihnen grundlegendes Wissen zu IT Sustainability und zeigen auf, wie Sie Nachhaltigkeitsprinzipien effektiv in Ihrer IT-Strategie verankern können.

Sie erfahren, wie sich nachhaltige IT auf den Energieverbrauch, die Reduzierung von CO2-Emissionen und die Verlängerung der Lebensdauer von IT-Komponenten auswirkt. Wir besprechen, wie Unternehmen durch die Implementierung grüner IT-Praktiken nicht nur die Umwelt schützen, sondern auch langfristig Kosten einsparen können.

Zusätzlich erhalten Sie Einblick in erfolgreiche Fallstudien und lernen Best Practices kennen, mit denen Sie Ihre IT-Prozesse und -Systeme nachhaltiger gestalten können.

Wie gelingt der Aufbau einer zukunftssicheren SAP BTP-Umgebung in der Praxis? In diesem Webinar geben wir einen Einblick in ein reales Projekt – kein Konzept, kein Whitepaper, sondern konkrete Erfahrungen aus der Umsetzung.
Gemeinsam schauen wir auf die Ausgangssituation, Herausforderungen und wie wir daraus eine tragfähige Roadmap zu einer stabilen und sicheren SAP BTP-Landschaft entwickelt haben.
Unsere Technologiepartner
Als Bereichsleiter SAP Logistik und Produktion bei Rewion trägst du die volle Verantwortung für den Aufbau, die Weiterentwicklung und die Positionierung des Bereichs innerhalb unserer Organisation.
Als (Senior) Technology Consultant SAP BTP (m/w/d) der Rewion führst du Projekte für unsere Kunden rund um die Business Technology Platform zum Erfolg.
Du analysierst Daten, entwickelst KI-Modelle, erstellst Dashboards und Schulungen und trägst mit hoher Eigenmotivation dazu bei, datengetriebene Prozesse bei unseren Kunden strategisch und technisch weiterzuentwickeln.
Als Developer RPA setzt du dein technisches Know-how und deine Leidenschaft für Automatisierung ein, um innovative RPA-Lösungen zu entwickeln, die den Erfolg unserer Kunden sicherstellen.
Als Generative AI Consultant berätst du Konzerne und mittelständische Unternehmen im Bereich KI-Strategie und in KI-Projekten.
Als Bereichsleiter SAP BTP (m/w/d) bei Rewion trägst du die volle Verantwortung für alle Themen rund um die Business Technology Platform. Mit hoher Leistungsbereitschaft und einem starken Wachstumsdrang förderst und lenkst du das Wachstum in allen Facetten deines Bereichs, einschließlich Personalentwicklung, Marketing und Vertrieb.
Als (Senior) Consultant SAP Logistics setzt du deine Begeisterung für Logistikprozesse ein und führst Projekte unserer Kunden zum Erfolg. Durch dein Engagement und Verantwortungsbewusstsein leistest du einen entscheidenden Beitrag zum Erfolg des Unternehmens und schaffst dir hervorragende Perspektiven für deine Karriere bei uns.
Als (Senior) Consultant SAP bei Rewion bringst du deine Begeisterung für dein Fachgebiet ein und führst Projekte unserer Kunden zum Erfolg. Durch dein Engagement und Verantwortungsbewusstsein leistest du einen entscheidenden Beitrag zum Erfolg des Unternehmens und schaffst dir hervorragende Perspektiven für deine Karriere bei uns.

Technischer Support

Willkommen bei unserem exklusiven Support für Bestandskunden. Hier finden Sie alle nötigen Informationen, um schnell und unkompliziert Hilfe bei technischen Anfragen zu erhalten.

Support-Hotline

Für dringende Anfragen erreichen Sie uns telefonisch unter:

Support E-Mail

Senden Sie uns Ihr Anliegen mit allen relevanten Details an:

Fernwartung via TeamViewer

Für eine direkte Unterstützung per Fernwartung, laden Sie bitte unser TeamViewer-Modul herunter:

Bitte beachten Sie: Dieser Kanal ist speziell für technische Anfragen unserer Bestandskunden vorgesehen. Für allgemeine Anfragen, Informationen zu unseren Dienstleistungen oder eine Erstberatung nutzen Sie bitte unser Kontaktformular oder schreiben Sie eine E-Mail an info@rewion.com.