IT-Beratung & IT-Services

Ganzheitlich und auf Augenhöhe

Erleben Sie, warum

160+ Kunden

auf uns setzen

Erfolgsgeschichten

Erfolgreiche Projekte mit Rewion als Trusted Advisor

Eine starke Unternehmenskultur entsteht nicht über Nacht. Vielmehr wächst sie mit gelebten Werten und Wertschätzung sowie durch ein Arbeitsumfeld, in dem Menschen sich gesehen und gehört fühlen. Umso mehr freut es uns, dass Rewion auch im Jahr 2026 erneut mit dem kununu Top Company-Siegel ausgezeichnet wurde. Nach der Auszeichnung im Jahr 2025 zählt Rewion damit ein weiteres Mal zu den attraktivsten Arbeitgebern Deutschlands. Wer sagt das? Die wichtigsten Stimmen: unsere Mitarbeitenden selbst. Diese Auszeichnung zeigt uns, dass unser Anspruch an ein modernes, vertrauensvolles und gemeinschaftliches Arbeitsumfeld wirklich gelebt wird.

Was steckt hinter dem kununu Top Company-Award?

Der kununu Top Company-Award wird jährlich auf Basis unabhängiger Bewertungen von aktuellen und ehemaligen Mitarbeitenden vergeben. Anders als viele andere Arbeitgebersiegel ist er damit nicht käuflich und basiert nicht auf Informationen von Unternehmen selbst. Für uns heißt das: Er ist besonders glaubwürdig.

 

Jährlich erhalten nur rund fünf Prozent aller auf kununu gelisteten Unternehmen diese Auszeichnung. Voraussetzung dafür ist eine überdurchschnittlich hohe Zufriedenheit der Mitarbeitenden sowie kontinuierlich positives Feedback. Dass Rewion diese Kriterien 2026 erneut erfüllt, ist für uns ein starkes Zeichen und vor allem ein großes Kompliment an unser gesamtes Team.

 

kununu CEO Nina Zimmermann fasst die Bedeutung des Awards perfekt zusammen:
„Ein starkes Zeichen an Talente, die nach ihrem idealen Arbeitgeber suchen.“ Genau dieses Signal möchten wir senden. Rewion schafft einen Arbeitsplatz, an dem Menschen gerne arbeiten, sich entwickeln können und gemeinsam erfolgreich sind.

Was das Arbeitsumfeld bei Rewion ausmacht

Die kununu-Auszeichnung zeigt uns, dass wir als Arbeitgeber den richtigen Weg gehen. Ein wertschätzender Umgang, Vertrauen in unsere Mitarbeitenden und ein starkes Gemeinschaftsgefühl machen unseren Arbeitsalltag aus. Wir sind der Meinung, dass gute Arbeit dort entsteht, wo Menschen sich wohlfühlen, Verantwortung übernehmen dürfen und ihre Ideen einbringen können. Grundsätzlich finden aber auch feste Standorte langweilig und haben deshalb drei Standorte in Stuttgart, Köln und Zürich aufgebaut. Genauso gerne arbeitet unser Team aber auch beim Kunden oder im eigenen Wohnzimmer.

 

Zusammengefasst gibt es mehrere Punkte, die unser Arbeitsverständnis ausmachen:

  • Flexible Arbeitszeiten & -orte
  • Coaching, Mentoring & Fortbildung
  • Innovation & Selbstverwirklichung
  • Offene Unternehmenskultur

 

Dass unsere Mitarbeitenden dieses Modell so positiv bewerten, macht uns stolz und motiviert uns zeitgleich, diesen Weg auch in Zukunft weiterzugehen.

Werde auch du Teil von Rewion!

Die kununu Top Company-Auszeichnung 2026 ist für uns auch ein Ansporn. Wir möchten gemeinsam mit Menschen weiter wachsen, die unsere Werte teilen und Lust haben, die IT-Welt aktiv mitzugestalten. Du suchst einen Arbeitgeber, bei dem Unternehmenskultur mehr ist als ein Versprechen? Dann lerne uns bei Rewion kennen. Schau dich in unseren offenen Stellen um und werde Teil eines Teams, das zu den besten Arbeitsumfeldern Deutschlands zählt.

Die Cloud-Infrastruktur bildet die Grundlage einer modernen Unternehmens-IT. Wer sorgt aber eigentlich dafür, dass Anwendungen zuverlässig laufen, schnell skalieren und rund um die Uhr verfügbar sind? Hinter jeder erfolgreichen Cloud-Lösung steht ein komplexes Zusammenspiel verschiedener Fachbereiche. Platform Engineers, Site Reliability Engineers und DevOps Engineers arbeiten zusammen, um stabile, effiziente und zukunftssichere Infrastrukturen aufzubauen. Wir gehen in diesem Artikel auf die einzelnen Bereiche und ihre spezifischen Aufgaben ein. Außerdem zeigen wir, wie sie gemeinsam zur erfolgreichen Entwicklung einer Cloud-Infrastruktur beitragen und im Anschluss ihren Betrieb sicherstellen und optimieren.

Was ist Teil einer Cloud-Infrastruktur?

Eine Cloud-Infrastruktur besteht aus weit mehr als nur Servern in einem Rechenzentrum. Sie umfasst virtuelle Maschinen, Container, Speicherlösungen, Netzwerkkomponenten und Datenbanken, die flexibel über das Internet bereitgestellt werden. Hinzu kommen Orchestrierungstools, die den Betrieb automatisieren, Monitoring-Systeme für die Überwachung und Sicherheitsmechanismen zum Schutz der Daten. All diese Komponenten müssen nahtlos zusammenarbeiten und sich dynamisch an wechselnde Anforderungen anpassen können.

 

Komplexität entsteht einerseits natürlich durch die Technik selbst, andererseits aber auch durch die Verwaltung, Aktualisierung und Optimierung der einzelnen Elemente. Moderne Cloud-Infrastrukturen stellen Automatisierung, Skalierbarkeit und hohe Verfügbarkeit in den Mittelpunkt. Um diese Eigenschaften zu erreichen, braucht es spezialisierte Fachkräfte und durchdachte Prozesse.

Wer arbeitet an der Entwicklung der Cloud-Infrastruktur und wie überschneiden sich die Bereiche?

Die Entwicklung einer Cloud-Infrastruktur ist Teamarbeit und wird besonders von drei zentralen Rollen gesteuert: Platform Engineers schaffen die technische Grundlage, Site Reliability Engineers sorgen für Stabilität und Performance und DevOps Engineers ermöglichen reibungslose Entwicklungs- und Deployment-Prozesse. Jeder Bereich bringt zwar spezifisches Know-how mit, die Grenzen verschwimmen aber immer stärker. Wichtig ist vor allem, dass alle Bereiche ineinandergreifen, damit eine Infrastruktur entsteht, die innovativ und zeitgleich zuverlässig ist.

Grafik Cloud-Infrastruktur Bereiche

Platform Engineering

Platform Engineers legen das Fundament für die gesamte Cloud-Infrastruktur. Sie entwickeln und pflegen die Plattformen, auf denen Anwendungen betrieben werden und schaffen damit die technische Basis für alle anderen Teams.

  • Skalierung: Platform Engineers implementieren Mechanismen, die es ermöglichen, Ressourcen automatisch an die aktuelle Last anzupassen und Lastspitzen problemlos zu bewältigen.
  • Cloud-Infrastruktur: Sie definieren und verwalten die grundlegende Architektur in der Cloud, von Netzwerken über Storage bis hin zu Compute-Ressourcen.
  • Application Lifecycle Management: Die Verwaltung des gesamten Lebenszyklus aller Anwendungen, von der Entwicklung über den Betrieb bis zur Ablösung, liegt in ihrem Verantwortungsbereich.
  • Containerisierung: Platform Engineers setzen Container-Technologien ein, um Anwendungen portabel, konsistent und ressourceneffizient zu betreiben.
  • Service Orchestrierung: Sie koordinieren verschiedene Services und sorgen dafür, dass sie automatisiert zusammenspielen und effizient verwaltet werden können.

SRE

Site Reliability Engineers (SRE) verbinden Software Engineering mit Systemadministration. Ihr Fokus liegt auf der Zuverlässigkeit und Performance der Infrastruktur. Sie stellen sicher, dass Systeme laufen, wenn sie gebraucht werden.

 

  • Monitoring: SREs implementieren umfassende Überwachungssysteme, die den Zustand der Infrastruktur dauerhaft im Blick behalten und frühzeitig auf Anomalien hinweisen.
  • Zuverlässigkeit: Sie entwickeln Strategien und technische Lösungen, um Ausfallzeiten zu minimieren und die Stabilität der Systeme zu verbessern.
  • Verfügbarkeit: Sie sorgen dafür, dass Services rund um die Uhr erreichbar sind. Dafür kommen Redundanzen und Failover-Mechanismen zum Einsatz.
  • Incident Response: Bei Störungen reagieren SREs schnell und strukturiert, analysieren die Ursachen und implementieren Maßnahmen, die ähnliche Vorfälle zukünftig vermeiden.
  • Service Level Objectives: Sie definieren messbare Ziele für die Servicequalität und stellen sicher, dass sie kontinuierlich eingehalten und überwacht werden.

DevOps Engineering

DevOps Engineers bilden die Schnittstelle zwischen Entwicklung und Betrieb der Cloud-Infrastruktur. Sie schaffen die Prozesse und Tools, die es Teams ermöglichen, Software schneller und sicherer auszuliefern.

 

  • Kollaboration: DevOps Engineers fördern die Zusammenarbeit zwischen Entwicklungs- und Operations-Teams und brechen mit Hierarchien und festgefahrenen Strukturen.
  • Automatisierung: Sie automatisieren wiederkehrende Aufgaben im Entwicklungs- und Deployment-Prozess, um Fehler zu reduzieren und die Geschwindigkeit zu erhöhen.
  • Deployment: Die Verantwortung für eine reibungslose und zuverlässige Bereitstellung von Software in verschiedenen Umgebungen liegt beim DevOps Team.
  • CI & CD: DevOps Engineers implementieren CI/CD Pipelines, die automatisierte Tests und Auslieferungen ermöglichen und so die Time-to-Market verkürzen.

Welche Schnittmengen haben die verschiedenen Bereiche und wie wirken sie zusammen?

Die drei Bereiche ergänzen sich in verschiedenen Situationen.

 

Platform Engineers und DevOps Engineers teilen die Verantwortung für Cloud-Infrastruktur-Management und Deployment-Automatisierung: Platform Engineers stellen die grundlegende Plattform bereit, DevOps Engineers nutzen sie für effiziente Auslieferungsprozesse.

 

DevOps Engineers und SREs arbeiten eng bei kontinuierlicher Verbesserung, Monitoring und Alerting zusammen: DevOps-Prozesse liefern die Basis für schnelle Iterationen, SREs sorgen dafür, dass dabei die Stabilität nicht leidet.

 

Platform Engineers und SREs wiederum legen gemeinsam den Fokus auf Performance-Optimierung und Kapazitätsplanung: Sie stellen sicher, dass die Infrastruktur funktioniert und effizient dimensioniert ist.

 

Im Idealfall entsteht so ein Kreislauf: Platform Engineers schaffen die technische Grundlage, DevOps Engineers ermöglichen schnelle Deployments, und SREs gewährleisten, dass alles zuverlässig läuft. Feedback aus dem Betrieb fließt zurück in die Plattform-Entwicklung, sodass sich die Infrastruktur kontinuierlich verbessert.

Fazit: Zusammenspiel zwischen allen Bereichen als Basis für eine funktionale Cloud-Infrastruktur

Eine effiziente Cloud-Infrastruktur entsteht durch das koordinierte Zusammenwirken mehrerer Spezialisten. Platform Engineers, SREs und DevOps Engineers bringen jeweils eigene Perspektiven und Fähigkeiten ein, die sich gegenseitig ergänzen und verstärken. Die Rollen setzen zwar unterschiedliche Schwerpunkte, verfolgen aber alle ein Ziel: eine stabile, skalierbare und zukunftssichere Cloud-Infrastruktur. Unternehmen können durch dieses Zusammenspiel von kürzeren Entwicklungszyklen und höherer Systemzuverlässigkeit profitieren und sind zeitgleich fähig, schnell auf Marktveränderungen zu reagieren.

Die sichere Verwaltung von Zugangsdaten ist eine zentrale Voraussetzung für stabile und revisionssichere RPA-Lösungen. Wer den Credential Vault nutzen möchte, schafft in Automation Anywhere eine klare Trennung zwischen Bot-Logik und sensiblen Zugangsinformationen. Genau hier setzt der Credential Vault an: Er stellt eine standardisierte, zentral verwaltete und sichere Möglichkeit bereit, Credentials zu speichern, zu verwenden und zu kontrollieren – sowohl innerhalb der Plattform als auch in Kombination mit externen Systemen. Dieser Artikel richtet sich an IT-Administratoren und technische Entscheider, die Automation Anywhere in produktiven Umgebungen betreiben oder einführen.

Grundlagen des Credential Vaults in Automation Anywhere

Der Credential Vault ist ein fester Bestandteil der Automation-Anywhere-Cloud-Plattform und dient der sicheren Speicherung von sensiblen Informationen wie Benutzernamen, Passwörtern, Tokens oder Schlüsseln. Diese Daten werden verschlüsselt abgelegt und sind weder für Bot-Entwickler noch für Laufzeitprozesse im Klartext sichtbar. Bots greifen ausschließlich über definierte Referenzen auf die Credentials zu. Dadurch lassen sich Sicherheitsrichtlinien umsetzen, ohne die Automatisierung einzuschränken.

Der Zugriff auf den Vault erfolgt über den Control Room, der als zentrale Verwaltungsinstanz fungiert. Alle administrativen Aufgaben, von der Erstellung bis zur Berechtigungssteuerung, werden hier durchgeführt.

Credential Vault nutzen im Automation Anywhere Control Room

Locker als Strukturierungsprinzip

Credentials werden in sogenannten Lockern organisiert. Ein Locker ist ein logisch abgeschlossener Container, der mehrere Credentials enthalten kann und über Berechtigungen gesteuert wird. Administratoren legen fest, welche Benutzer oder Bots auf einen Locker zugreifen dürfen. Dadurch lassen sich technische Zugänge, Fachbereichszugänge und Systemzugänge klar voneinander trennen.

Erstellung und Pflege von Lockern

Lockers werden im Control Room angelegt und können jederzeit angepasst werden. Änderungen an Berechtigungen wirken sich sofort auf alle Bots aus, die diesen Locker verwenden. Das erleichtert die Administration erheblich, da keine Anpassung an einzelnen Bots notwendig ist, wenn sich Zugriffsrechte ändern.

Credentials erstellen, ändern und übertragen

Innerhalb eines Lockers können einzelne Credentials angelegt werden. Dabei definiert der Administrator, welche Felder gespeichert werden, zum Beispiel Benutzername und Passwort oder API-Key und Secret. Diese Daten lassen sich jederzeit ändern, ohne den Bot anzupassen. Besonders im produktiven Betrieb ist das ein entscheidender Vorteil, da Passwortwechsel oder Systemmigrationen ohne Stillstand erfolgen können.

Die Ownership von Credentials kann zudem zwischen Benutzern übertragen werden. Das ist wichtig für Vertretungsregelungen, Teamwechsel oder organisatorische Änderungen und verhindert, dass produktive Bots von einzelnen Personen abhängig sind.

Credential Vault nutzen beim Erstellen von Credentials

Credential Vault nutzen in Bots und Automatisierungen

Sobald ein Bot ausgeführt wird, ruft er die benötigten Zugangsdaten zur Laufzeit aus dem Credential Vault ab. Die Werte werden nur temporär im Arbeitsspeicher gehalten und nicht geloggt oder persistiert. Entwickler müssen daher keine sensiblen Informationen in Variablen oder Skripten hinterlegen. Wer den Credential Vault nutzen möchte, erhöht damit unmittelbar die Sicherheit und Wartbarkeit seiner Automatisierungen.

Credential Vault nutzen in Bots zur Laufzeit

Praxisbeispiele aus dem Betrieb

In der Praxis wird der Vault häufig für Web-Logins, Datenbankzugriffe oder den Zugriff auf File-Server genutzt. Ein typisches Szenario ist ein Bot, der sich täglich in einem Fachsystem anmeldet, Berichte exportiert und die Daten weiterverarbeitet. Das Passwort liegt dabei ausschließlich im Vault. Wird es geändert, läuft der Bot ohne Anpassung weiter. Ein weiteres Beispiel ist die Nutzung von Service-Accounts für Datenbankabfragen, die zentral verwaltet und regelmäßig rotiert werden.

Benutzerbezogene Credentials und Benachrichtigungen

Automation Anywhere ermöglicht auch benutzerbezogene Credentials. Diese sind an einen bestimmten User gebunden und können für persönliche Zugriffe verwendet werden, etwa bei attended Bots. Zusätzlich lassen sich E-Mail-Benachrichtigungen konfigurieren, wenn Credentials ablaufen oder geändert werden. Das unterstützt IT-Teams dabei, Sicherheitsanforderungen einzuhalten und Ausfälle zu vermeiden.

Credential Vault nutzen mit externen Key Vaults

Neben dem internen Vault unterstützt Automation Anywhere auch externe Credential-Speicher. Dazu gehören unter anderem Azure Key Vault, AWS Secrets Manager oder HashiCorp Vault. Die Integration erfolgt über eine definierte Schnittstelle, sodass Bots auch hier zur Laufzeit auf externe Secrets zugreifen können.

Diese Variante wird häufig in regulierten Umgebungen eingesetzt, in denen zentrale Sicherheitsplattformen bereits etabliert sind. Der Vorteil liegt in der durchgängigen Nutzung bestehender Sicherheitsrichtlinien, Logging-Mechanismen und Compliance-Vorgaben. Gleichzeitig bleiben die Bots in Automation Anywhere unverändert, da sie weiterhin mit Referenzen arbeiten.

Credential Vault nutzen für sichere Skalierung

Gerade bei wachsender Bot-Landschaft wird deutlich, wie wichtig eine zentrale Credential-Verwaltung ist. Ohne Vault entstehen schnell Sicherheitsrisiken durch Hardcoding, unklare Zuständigkeiten oder fehlende Transparenz. Wer den Credential Vault nutzen will, schafft eine saubere Grundlage für Skalierung, Betrieb und Auditierbarkeit von RPA-Plattformen.

Fazit

Der Credential Vault von Automation Anywhere ist inzwischen ein essenzieller Bestandteil für den sicheren Betrieb von Automatisierungen. Er ermöglicht eine klare Trennung von Logik und sensiblen Daten, reduziert Betriebsrisiken und vereinfacht administrative Prozesse. Durch die Unterstützung externer Key Vaults lässt sich die Plattform zudem nahtlos in bestehende Sicherheitsarchitekturen integrieren. Für IT-Administratoren und Entscheider ist der konsequente Einsatz des Vaults ein zentraler Baustein für stabile, sichere und wartbare RPA-Umgebungen. Wer den Credential Vault nutzen möchte, legt damit die Basis für nachhaltige Automatisierung.

Mobile Geräte sind aus dem Arbeitsalltag nicht mehr wegzudenken. Gleichzeitig wachsen allerdings die Anforderungen an Sicherheit, Compliance und den Schutz persönlicher Daten. Deshalb treffen Mobile Device Management (MDM) und Datenschutz aufeinander. Unternehmen müssen geschäftliche Informationen zuverlässig absichern, dürfen dabei aber nicht in die Privatsphäre ihrer Mitarbeitenden eingreifen. Besonders bei BYOD und hybriden Arbeitsmodellen entstehen so schnell Unsicherheiten und Vorbehalte. Ein durchdachtes Mobile Device Management hilft dabei, diese Herausforderungen zu meistern, indem Datenschutz von Anfang an berücksichtigt wird. Wir zeigen in diesem Artikel, wo die größten Bedenken liegen und wie Unternehmen geschäftliche und private Daten sinnvoll trennen.

Welche Bedenken gibt es rund um MDM und den Datenschutz?

MDM und Datenschutz werden häufig als Gegensätze wahrgenommen. Auf der einen Seite steht die berechtigte Notwendigkeit, sensible Unternehmensdaten zu schützen. Auf der anderen Seite stehen wiederum Mitarbeitende, die Sorge haben, durch MDM-Lösungen überwacht oder in ihrer Privatsphäre eingeschränkt zu werden. Diese Sorge ist einer der Hauptgründe, aus denen MDM-Projekte intern immer wieder auf Widerstand stoßen.

 

Datenschutzbedenken im Team entstehen vor allem dann, wenn nicht klar ist, welche Daten tatsächlich erfasst werden und wo genau die Grenzen der Verwaltung liegen. Besonders kritisch sehen viele Mitarbeitende:

  • die mögliche Einsicht in private E-Mails, Fotos oder Nachrichten
  • die Ortung von Geräten außerhalb der Arbeitszeit
  • pauschale Fernlöschungen, bei denen auch private Inhalte verloren gehen
  • unklare Zuständigkeiten und fehlende Transparenz

 

Die DSGVO als wichtiger rechtlicher Rahmen

Die DSGVO gibt hier eine klare Richtung vor. Unternehmen dürfen Daten nur nutzen und verarbeiten, solange sie einem konkreten Zweck dienen, die Nutzung verhältnismäßig ist und transparent kommuniziert wird. Für MDM bedeutet das: versteckten Funktionen, unnötige Datenerhebung und pauschale Eingriffe in private Bereiche sind durch die DSGVO untersagt. Unternehmen haben selbst die Verantwortung, nachzuweisen, dass MDM und Datenschutz sowohl technisch als auch organisatorisch miteinander vereinbar sind. Maßnahmen können dafür verschiedene zum Einsatz kommen.

 

Grafik MDM und Datenschutz

Organisatorische Maßnahmen für Datenschutz im MDM: Vertrauen durch klare Regeln

Um Mobile Device Management und Datenschutz sinnvoll umzusetzen, braucht es mehr als die richtige technische Lösung. Klare organisatorische Rahmenbedingungen sind mindestens genauso wichtig, da sie die Grundlage dafür bilden, dass MDM-Lösungen akzeptiert und korrekt eingesetzt werden. Dabei braucht es vor allem verbindliche Richtlinien für die Nutzung, die verschiedene Aspekte regeln:

 

  • ob und in welchem Umfang private Nutzung der Geräte erlaubt ist
  • welche Daten durch das Unternehmen verwaltet werden
  • welche Maßnahmen bei Verlust oder Diebstahl gelten
  • welche Rechte und Pflichten beide Seiten haben

 

Wichtig ist, dass diese Regeln klar an alle Mitarbeitenden kommuniziert werden. So ist für alle Seiten von Beginn an klar, was MDM darf und was ausdrücklich untersagt ist, sodass die Vorbehalte deutlich geringer ausfallen.

 

Transparenz ist wichtig für Vertrauen
Der Einsatz einer MDM-Lösung im Unternehmen steht und fällt mit der Offenheit des Unternehmens. Sie müssen nachvollziehbar erklären, welche Funktionen zum Einsatz kommen und was definitiv nicht passiert. Aussagen wie „Wir sehen keine privaten Inhalte“ oder „Standortdaten werden nicht dauerhaft gespeichert“ sorgen für Sicherheit im Team.

 

Einbindung relevanter Stellen
Außerdem sinnvoll ist es, Datenschutzbeauftragte frühzeitig einzubinden, um Risiken zu bewerten und Maßnahmen transparent zu dokumentieren. In mitbestimmungspflichtigen Umfeldern ist auch die Einbindung des Betriebsrats nötig. Um nach der Einführung Unsicherheiten abzubauen, eignen sich Schulungen und kurze Leitfäden, an denen Mitarbeitende sich orientieren können.

Technische Umsetzung von MDM mit sauberer Datentrennung

Neben organisatorischen Aspekten geht es außerdem um die technische Umsetzung der klaren Trennung geschäftlicher und privater Daten. Dafür bieten MDM-Lösungen verschiedene Wege in der Umsetzung.

 

  • Geschützte Bereiche: Ein grundlegendes Prinzip ist die logische Trennung von Daten. Geschäftliche Apps und Informationen werden in einem geschützten Bereich verwaltet, sodass private Inhalte unberührt bleiben. So kann die IT Unternehmensdaten absichern, ohne das gesamte Gerät zu kontrollieren, beispielsweise können private Apps so nicht auf die geschäftlichen Daten zugreifen, berufliche Apps aber auch nicht auf die privaten Daten.

 

  • Selektive Maßnahmen: Statt ein Gerät komplett zurückzusetzen, können bei Bedarf gezielt nur geschäftliche Daten entfernt werden. Das ist besonders relevant bei Gerätewechseln oder nach Ausstieg von Mitarbeitenden aus dem Unternehmen. Private Inhalte bleiben erhalten, geschäftliche Daten können restlos gelöscht werden.

 

  • Restriktive Einsicht: Datenschutzfreundliche MDM-Konzepte setzen auf Einschränkung der Einsichtsmöglichkeiten. Administratoren verwalten Einstellungen und Anwendungen, erhalten aber keinen Zugriff auf persönliche Inhalte. Zugriffe werden dokumentiert und auf das notwendige Minimum begrenzt.

Diese Form der Trennung reduziert datenschutzrechtliche Risiken und vereinfacht zeitgleich den Betrieb. Klare Trennung und Regelungen sorgen für Transparenz und Sicherheit für Admins und Mitarbeitende und machen Mobile Device Management so zu einem stabilen Fundament für mobiles Arbeiten.

Fazit: Vertrauen und Transparenz als Grundlage mit datenschutzkonformem MDM

Mobile Device Management und Datenschutz schließen sich keinesfalls aus. Vielmehr ergänzen die beiden Themen sich und sorgen für Transparenz und Sicherheit für Mitarbeitende und Unternehmen. Wer Datenschutz frühzeitig berücksichtigt, schafft Rechtssicherheit, Akzeptanz und nachhaltige Strukturen. Wichtig dabei ist vor allem die Kombination aus klaren Regeln, transparenter Kommunikation und einer technischen Umsetzung, die private Daten respektiert und geschäftliche schützt. Unternehmen profitieren von besser geschützten Informationen, während Mitarbeitende die Kontrolle über ihre persönlichen Inhalte behalten. So kann MDM als sinnvolles Werkzeug für einen sicheren und modernen Arbeitsalltag in das Unternehmen integriert werden, das Vertrauen schafft und langfristig tragfähig bleibt.

Ein Strategieprozess entscheidet darüber, ob eine IT-Strategie Orientierung gibt oder wirkungslos bleibt. Nicht das Dokument ist kritisch, sondern der Weg dorthin.

Dieser Artikel zeigt, wie ein strukturierter Strategieprozess in der IT aussieht, welche Schritte zwingend sind und wo Organisationen typischerweise scheitern.

Was ist ein Strategieprozess?

Der Strategieprozess beschreibt die systematische Vorgehensweise zur Entwicklung einer Strategie. Im IT-Kontext stellt er sicher, dass strategische Entscheidungen nachvollziehbar, abgestimmt und umsetzbar sind.

Ein guter Strategieprozess verbindet drei Ebenen:

  • Unternehmensziele

  • IT-Fähigkeiten und -Limitationen

  • Umsetzung in Initiativen und Budget

Ohne klaren Prozess entsteht Strategie zufällig oder politisch.

Warum der Prozess entscheidend ist

Viele IT-Organisationen haben strategische Inhalte, aber keinen sauberen Prozess. Die Folgen sind bekannt:

  • Fehlende Priorisierung

  • Widersprüchliche Initiativen

  • Strategien ohne Umsetzungskraft

Ein klar definierter Strategieprozess schafft:

  • Transparenz in Entscheidungen

  • Verbindlichkeit bei Prioritäten

  • Akzeptanz bei Stakeholdern

Der typische Strategieprozess in der IT

Bewährt hat sich ein mehrstufiges Vorgehen mit klaren Übergaben.

  1. Klärung des strategischen Rahmens
    Ableitung aus Unternehmensstrategie, Zielen und Rahmenbedingungen. Ohne diesen Schritt ist jede IT-Strategie isoliert.
  2. Analysephase
    Erhebung der relevanten Treiber, qualitative Standortbestimmung, Analyse von Stärken, Schwächen, Chancen und Risiken (SWOT-Analyse).
  3. Strategische Ausrichtung
    Definition von Mission und Vision der IT als Leitplanken für alle weiteren Entscheidungen.
  4. Ableitung von Handlungsfeldern
    Festlegung weniger, klar abgegrenzter strategischer Schwerpunkte. Fokus statt Vollständigkeit.
  5. Zieldefinition und Messbarkeit
    Übersetzung der Handlungsfelder in messbare Ziele, häufig über OKRs oder strategische KPIs.
  6. Umsetzungsplanung
    Erarbeitung einer Roadmap inklusive zeitlicher Priorisierung und Abhängigkeiten.
  7. Finanzielle Einordnung
    Abgleich von Ambition und finanziellen Ressourcen. Ohne Budget keine Strategie.

Typische Fehler im Strategieprozess

In der Praxis zeigen sich immer wieder dieselben Schwachstellen:

  • Analyse ohne klare Schlussfolgerungen

  • Zu viele Handlungsfelder ohne Priorität

  • Strategieentwicklung ohne Beteiligung relevanter Stakeholder

  • Kein formalisierter Übergang in Umsetzung und Steuerung

Ein häufiger Fehler ist, den Strategieprozess als einmaliges Projekt zu verstehen. Strategie ist zyklisch.

Wie oft sollte ein Strategieprozess durchgeführt werden?

Ein vollständiger Strategieprozess ist kein Jahresritual.

  • Grundlegende Überarbeitung alle 3 bis 4 Jahre

  • Jährliche Überprüfung und Anpassung

  • Regelmäßige Fortschrittskontrolle über KPIs und Reviews

Der Prozess endet nicht mit der Freigabe der Strategie, sondern mit deren Umsetzung.

Fazit

Ein wirksamer Strategieprozess macht IT führbar. Er schafft Klarheit über Richtung, Prioritäten und Investitionen.

Ohne klaren Prozess bleibt IT reaktiv.
Mit klarem Prozess wird IT zum strategischen Partner.

Ein Strategiepapier ist kein formales Pflichtdokument. Richtig eingesetzt ist es das zentrale Führungsinstrument einer IT-Organisation. Falsch eingesetzt ist es ein PDF, das niemand liest.

Dieser Artikel erklärt, was ein gutes IT-Strategiepapier ausmacht, wie es aufgebaut sein sollte und warum viele Strategiepapiere in der Praxis wirkungslos bleiben.

Was ist ein Strategiepapier?

Ein Strategiepapier beschreibt die mittelfristige Ausrichtung einer Organisation oder Funktion. Im IT-Kontext beantwortet es strukturiert drei Fragen:

  • Warum braucht es eine strategische Neuausrichtung der IT?

  • Was sind die priorisierten strategischen Schwerpunkte?

  • Wie werden diese Schwerpunkte umgesetzt und gesteuert?

Entscheidend ist nicht die Existenz des Dokuments, sondern seine Anschlussfähigkeit für Entscheidungen.

Wozu dient ein Strategiepapier in der IT?

Eine wirksame IT-Strategie erfüllt vier Funktionen:

  • Orientierung für Geschäftsleitung und IT-Führung

  • Priorisierung von Initiativen und Investitionen

  • Entscheidungsgrundlage bei Zielkonflikten

  • Gemeinsames Verständnis über Richtung und Fokus

Ohne das Dokument wird IT primär operativ gesteuert. Mit einem Strategiepapier wird IT führbar.

Typischer Aufbau einer IT-Strategie

Bewährt hat sich eine klare, stringente Struktur. Nicht umfangreich, sondern vollständig.

  1. Ausgangslage und strategische Treiber
    Beschreibung der relevanten internen und externen Treiber. Geschäftsstrategie, Markt, Technologie, Regulierung.
  2. Mission und Vision der IT
    Kurz, klar, anschlussfähig. Kein Marketingtext, sondern ein Führungsanker.
  3. Qualitative Standortbestimmung
    SWOT oder vergleichbare Analyse zur Einordnung von Stärken, Schwächen, Chancen und Risiken.
  4. Strategische Handlungsfelder
    Begrenzte Anzahl klar abgegrenzter Themenfelder. MECE-Prinzip, kein Sammelbecken.
  5. Ziele und Messgrössen
    Ableitung messbarer Ziele, häufig über OKRs oder strategische KPIs.
  6. Roadmap
    Zeitliche Einordnung der wesentlichen Initiativen, grob priorisiert.
  7. Finanzierungsrahmen
    Grobschätzung der notwendigen Mittel und Abgleich mit verfügbaren Ressourcen.

Alles darüber hinaus ist Detailarbeit für die Umsetzung, nicht Teil des Kernpapiers.

Häufige Fehler bei Strategiepapieren

In der Praxis scheitern IT-Strategien selten an der Methode, häufiger aber an drei typischen Fehlern:

  • Zu allgemein formuliert, ohne echte Prioritäten

  • Keine Verbindung zwischen Strategie und Budget

  • Keine klare Verantwortung für Umsetzung und Steuerung

Ein weiteres Problem ist die Vermischung von Strategie und Massnahmen. Ein Strategiepapier definiert den Rahmen, nicht jedes Projekt.

Wie umfangreich sollte ein Strategiepapier sein?

Weniger als viele erwarten.

  • 20 bis 30 Seiten reichen in der Regel

  • Entscheidend ist Klarheit, nicht Detailtiefe

  • Jedes Kapitel muss entscheidungsrelevant sein

Wenn ein Strategiepapier nicht in einem Executive-Meeting diskutierbar ist, ist es zu komplex.

Fazit

Ein gutes Strategiepapier ist kein Selbstzweck. Es schafft Fokus, ermöglicht Entscheidungen und verbindet IT und Business auf strategischer Ebene.

Wer ein Strategiepapier schreibt, sollte sich eine einfache Frage stellen:
Hilft dieses Dokument, bessere Entscheidungen zu treffen?

Wenn die Antwort nein ist, gehört es überarbeitet.

Der Automation Anywhere Document Automation Testmodus hilft, eine Lerninstanz kontrolliert mit Beispieldokumenten zu prüfen, bevor Änderungen nach UAT oder Produktion überführt werden. Reale Beispieldokumente lassen sich testen, die Extraktion überprüfen und schnell erkennen, ob eine Anpassung tatsächlich einen Mehrwert bringt. Testmodus-Lerninstanz-Versionen unterstützen diesen Prozess, indem Änderungen automatisch als Versionen festgehalten werden.

 

Im Fokus dieses Beitrags steht daher der praktische Testablauf: Testmodus aktivieren, Dokumente verarbeiten, Ergebnisse validieren und so lange feinjustieren, bis die Extraktion stabil ist. Versionen und Vergleichsfunktionen ergänzen diesen Ablauf sinnvoll. Die Zielgruppe sind Document-Automation-Entwickler, RPA-Teams und Fachverantwortliche, die Tests strukturiert durchführen und Änderungen sicher freigeben möchten.

Was der Testmodus konkret leistet

Der Testmodus ist dafür gedacht, Lerninstanzen vor dem produktiven Einsatz zu prüfen – mit Blick auf Performance, Qualität und Zuverlässigkeit der extrahierten Daten. Ab der v.36-Release-Linie lassen sich im Testmodus gezielt Einstellungen variieren, etwa unterschiedliche OCR-Provider, Generative-AI-Provider und Prompts oder das Ein- und Ausschalten von Validierungsfeedback.

 

Entscheidend ist dabei die Praxisperspektive: Der Testmodus beschleunigt den Entwicklungszyklus, weil Änderungen direkt gegen echte Dokumente geprüft und ihre Auswirkungen sofort sichtbar werden. Zusätzlich profitieren Teams beim erneuten Verarbeiten bereits getesteter Dokumente häufig von deutlich kürzeren Laufzeiten; die Dokumentation nennt hier eine Verbesserung von 30 % oder mehr beim Reprocess, sofern der Automation Anywhere Provider genutzt wird.

Document Automation Testmodus aktivieren: Voraussetzungen und häufige Stolpersteine

Der Testmodus wird im Control Room unter AI > Document Automation über den Test-mode-Schalter auf der Lerninstanzseite aktiviert. Dabei gibt es eine zentrale Voraussetzung, die in Projekten häufig übersehen wird: Die Lerninstanz muss sich im privaten Modus befinden. Bei Lerninstanzen im öffentlichen Modus zeigt die Plattform beim Aktivieren des Testmodus einen Fehler an.

Auch Rollen und Zuständigkeiten sollten früh geklärt sein, da die Dokumentation für die relevanten Schritte die Rollen Learning instance creator und Validator nennt. Wenn Tests ins Stocken geraten, liegt das in der Praxis oft nicht am Feature selbst, sondern an fehlenden Berechtigungen oder nicht zugeordneten Validierungsteams.

Dokumente im Testmodus verarbeiten: So testen Sie reproduzierbar

Sobald der Testmodus aktiv ist, werden Beispieldokumente über Process verarbeitet. Für saubere Tests ist entscheidend, dass Dokumente immer für eine konkret ausgewählte Lerninstanz-Version verarbeitet werden, damit Ergebnisse später vergleichbar bleiben. Dazu wird im Drop-down neben dem Lerninstanznamen die gewünschte Version ausgewählt und anschließend der Prozess gestartet.

Beim Upload sollte eine technische Begrenzung berücksichtigt werden: Dateinamen mit mehr als 149 Zeichen führen beim Verarbeiten zu einem Fehler. Gerade bei automatisch generierten Testdaten oder Importen aus Drittsystemen lohnt es sich daher, Namenskonventionen frühzeitig einzuschränken.

Validierung im Testmodus: Warum alles in der Queue landet

Im Normalbetrieb landen Dokumente nur dann in der Validierungsqueue, wenn Regeln greifen, Pflichtfelder fehlen oder die Konfidenz zu niedrig ist. Im Testmodus verhält es sich anders: Dokumente werden immer in die Validierungsqueue verschoben – unabhängig davon, ob Felder eigentlich validiert werden müssten oder ob die Extraktion erfolgreich war. Ziel ist es, Ergebnisse systematisch analysieren und Versionen sauber miteinander vergleichen zu können.

Der Einstieg in die Validierung erfolgt entweder über View status bei der Lerninstanz bzw. einem Request oder über Validate documents (inklusive Zähler, wenn Aufgaben warten). Anschließend öffnet sich der Automation Co-Pilot Validator in einem neuen Tab. Falls dort nur eine leere Seite mit Hinweis erscheint, nennt die Dokumentation typische Ursachen wie fehlende Teamzuordnung, keine Validierungsfälle in zugänglichen Lerninstanzen oder eine parallele Bearbeitung durch eine andere Person.

In der Validierung werden Feldwerte und Datentypen (z. B. Text, Zahl, Datum, Adresse, Checkbox) geprüft, fehlerhafte Extraktionen korrigiert und anschließend mit Submit & Reprocess erneut verarbeitet. So wird direkt sichtbar, ob die Korrektur und das aktuelle Setup der Lerninstanz zu stabileren Ergebnissen führen.

Document Automation Testmodus Lerninstanz-Versionen: Versionierung als Unterstützung

Damit der Testmodus zuverlässig funktioniert, müssen Änderungen nachvollziehbar gespeichert werden. Genau hier setzen die Testmodus-Lerninstanz-Versionen an: Ist der Testmodus aktiv, speichert Automation Anywhere Änderungen an der Lerninstanz – etwa OCR-Wechsel, Auswahl eines anderen Generative-AI-Providers, Anpassungen an Prompts, das Aktivieren/Deaktivieren von Validierungsfeedback oder das Hinzufügen bzw. Entfernen von Feldern – automatisch als Versionen.

Für die Einordnung ist wichtig: Versionen dienen im Testmodus nicht der formalen Versionsverwaltung, sondern der Reproduzierbarkeit von Tests. Die Versionierung ermöglicht es, später klar zu sagen: „Diese Einstellung hat mit Dokument X bessere Extraktion geliefert als die vorherige.“

Versionsverlauf: Änderungen im Kontext verstehen

Bei mehreren Anpassungen hilft der Versionsverlauf bei Analyse und Fehlerbehebung. Er zeigt eine detaillierte Aufzeichnung der Änderungen über die Zeit und erleichtert es, zu einer Version zurückzukehren, die die gewünschten Ergebnisse liefert.

Hilfreich ist zudem, dass der Versionsverlauf nicht nur „Version 1/2/3“ anzeigt, sondern konkrete Inhalte, die in Tests relevant sind: Feldlabel, Datentyp, Konfidenz, Muster-/Regex-Einstellungen, Pflichtfeld-Status, aktivierte Felder, Aliase sowie Angaben zu Generative-AI-Suchanfrage und Prompt oder Formatoptionen bei Datumsfeldern. Dadurch lassen sich Änderungen im Testmodus gezielt auf ihre Wirkung hin analysieren.

Ergebnisse vergleichen: Testentscheidungen auf Basis von Daten treffen

Nach mehreren Testläufen sollen Entscheidungen idealerweise nicht aus dem Bauchgefühl heraus getroffen werden, sondern auf Basis messbarer Ergebnisse. Hierfür steht die Vergleichsfunktion für Versionen zur Verfügung. Sie hilft dabei zu ermitteln, welche Konfiguration bei OCR-Optionen, Generative-AI-Providern/Prompts, Feld- und Formularregeln oder Validierungsfeedback die besten Extraktionsergebnisse liefert. Voraussetzung ist, dass die Lerninstanz mindestens zwei Versionen besitzt.

Ein wichtiges Detail für die Praxis: Extraktionsdaten stehen im Vergleich nur dann zur Verfügung, wenn das jeweilige Dokument zuvor mit jeder zu vergleichenden Version verarbeitet wurde. Die Dokumentation beschreibt hierfür den Ablauf über die Versionauswahl im Validator, Process now und anschließend Compare versions über das Menü.

Wiederherstellen: Wenn ein Testschritt die Qualität verschlechtert

Nicht jede Änderung führt zu besseren Ergebnissen. Deshalb dient Restore im Testmodus als Sicherheitsnetz: Frühere Versionen lassen sich wiederherstellen, wenn diese eine bessere Extraktionsqualität geliefert haben. Die wiederhergestellte Version wird dabei als neue Version erzeugt und zur aktuellen Version der Lerninstanz – die Historie bleibt vollständig nachvollziehbar.

Dev nach UAT und Prod: Testmodus richtig in den Release‑Prozess einbauen

Der Testmodus ist primär für die Dev-Phase gedacht: Anpassungen werden getestet und iteriert, bis die Ergebnisse stabil sind, anschließend erfolgt der Export der Lerninstanz in Richtung UAT. Dabei ist zu beachten, dass die Versionshistorie beim Export/Import nicht mit übernommen wird. Wenn Validierungsfeedback produktiv genutzt und in Dev/UAT für weitere Tests benötigt wird, empfiehlt die Dokumentation eine Synchronisation von Prod nach UAT/Dev, bevor neue Entwicklung beginnt.

Fazit: Der Document Automation Testmodus ist der sichere Weg zur besseren Extraktion

Der Testmodus ermöglicht einen kontrollierten Verbesserungsprozess: Test mode aktivieren, Beispieldokumente verarbeiten, Ergebnisse validieren und iterativ optimieren, bis Qualität und Stabilität erreicht sind. Versionierung, Vergleich und Restore sind unterstützende Funktionen, die dabei helfen, Testergebnisse reproduzierbar zu machen und Entscheidungen nachvollziehbar zu begründen.

Die macOS-Unterstützung in Automation Anywhere verändert, wie Unternehmen plattformübergreifende Automatisierung denken. Da macOS in vielen Bereichen der Unternehmens-IT etabliert ist, wird eine flexible RPA‑Lösung zunehmend essenziell.

Mit der erweiterten macOS-Unterstützung geht Automation Anywhere deshalb einen konsequenten Schritt in Richtung echter Plattformoffenheit. Doch was bedeutet das für Unternehmen und ihre Automatisierungsstrategie?

Warum macOS-Unterstützung in Automation Anywhere für Unternehmen wichtig ist

Die Realität in Unternehmen hat sich verändert: Prozesse enden nicht mehr an Betriebssystemgrenzen. Mitarbeitende arbeiten auf Windows, macOS, mobilen Geräten und webbasierten Plattformen oft innerhalb derselben Prozesskette.

Daraus folgt:

  • Prozessschritte entstehen verteilt über unterschiedliche Endgeräte
  • manuelle Übergaben wachsen an Systemgrenzen
  • rein Windows-basierte RPA stößt an natürliche Limitierungen

Wenn ein kritischer Prozessschritt ausschließlich auf macOS stattfindet, kann der Automatisierungsgrad des Gesamtprozesses drastisch sinken. Genau hier setzt plattformübergreifende Automatisierung an.

Plattformstrategie: macOS-Unterstützung als RPA‑Erweiterung

Die Unterstützung von macOS ist nicht nur eine technologische Ergänzung, sondern Teil einer größeren architektonischen Entwicklung: Automatisierung soll überall dort funktionieren, wo Mitarbeitende tatsächlich arbeiten.

Die Erweiterung ermöglicht:

  • Ausführung von Bots direkt auf macOS-Geräten
  • Einbindung nativer macOS-Anwendungen in automatisierte Prozessketten
  • zentrale Orchestrierung aller Bots unabhängig vom Betriebssystem

Damit wird Automatisierung nicht länger an die Infrastruktur gebunden, sondern zu einer universellen Fähigkeit innerhalb der IT-Architektur.

End-to-End-Automatisierung mit macOS und Automation Anywhere

Viele Unternehmensprozesse verlaufen heute über mehrere Ebenen:

  • Backend-Systeme
  • Cloud- und Webplattformen
  • Desktopanwendungen
  • mobile oder plattformabhängige Clients

Die Einbindung von macOS sorgt dafür, dass diese Prozessketten nicht an Betriebssystemgrenzen auseinanderfallen.

Vorteile:

  • weniger manuelle Übergaben
  • weniger Medienbrüche
  • höhere Prozessstabilität
  • bessere Nachvollziehbarkeit

Insbesondere in hybriden Umgebungen kann der Automatisierungsgrad dadurch signifikant steigen.

Technische Rahmenbedingungen nicht unterschätzen

Trotz aller neuen Möglichkeiten bringt macOS im Vergleich zu Windows andere technische und sicherheitsrelevante Rahmenbedingungen mit, darunter:

  • restriktivere Berechtigungs- und Sicherheitsmechanismen
  • Unterschiede in der Automatisierbarkeit einzelner Anwendungen
  • höheren Aufwand bei Betrieb und Governance heterogener Plattformen

Damit macOS-Automatisierung nachhaltig funktioniert, muss sie in bestehende Sicherheits-, Betriebs- und Architekturmodelle eingebettet werden.

Fazit

Die macOS-Unterstützung bei Automation Anywhere ist ein logisch konsequenter Schritt, da Arbeitsumgebungen zunehmend heterogen werden. Sie schafft die Grundlage für wirklich plattformübergreifende End-to-End-Automatisierung und adressiert damit eine der größten praktischen Hürden moderner Prozesslandschaften.

Der Mehrwert entsteht jedoch erst dann, wenn Unternehmen diese Fähigkeit strategisch, architektonisch und organisatorisch einbetten. In diesem Kontext kann macOS-Automatisierung ein wichtiger Hebel für Stabilität, Effizienz und durchgängige Automatisierungserlebnisse sein.

IT-Beratung auf höchstem Niveau

Hinter jeder schnellen Lösung steht ein echter Mensch, der genau weiß, was er tut. Unsere zertifizierten IT-Experten sind da, um Ihre Probleme schnell, freundlich und stressfrei zu lösen.

Markus Rill
Jacob Hetzer

REWION Imagefilm: Das sind WIR

Unsere Partner
Logo Flughafenregion Zürich

Unser 60-minütiges Webinar „Zurück zu den Basics – RPA richtig implementieren und mit Lichtgeschwindigkeit Richtung Agentic AI“ bietet Ihnen einen kompakten und strukturierten Einblick in die Grundlagen einer skalierbaren Automatisierungsarchitektur.

Viele Unternehmen sprechen aktuell über Agentic AI und intelligente Automatisierung. Doch ohne ein stabiles RPA-Fundament fehlt die Grundlage für nachhaltige Skalierung. In diesem Webinar zeigen wir, warum RPA weiterhin das Handwerk in der Automatisierungsfabrik bleibt, welche typischen Fehler bei der Implementierung auftreten und wie eine strukturierte Architektur den Übergang zu Agentic AI ermöglicht.

Sie erhalten einen Überblick über zentrale Erfolgsfaktoren, Governance-Aspekte und Architekturprinzipien. Darüber hinaus zeigen wir auf, wie deterministische Automatisierung (RPA) sinnvoll mit KI-gestützten Komponenten kombiniert werden kann.

Das Webinar vermittelt Orientierung, zeigt strategische Eckpunkte auf und gibt Impulse, wie Sie das Thema in Ihrem eigenen Umfeld strukturiert angehen können – ohne dabei zu tief in technische Details einzusteigen.

Digitale Souveränität ist in zahlreichen Unternehmen in den Fokus gerückt. Ob Cloud, KI oder Datensicherheit: Für Expert:innen entstehen konkrete technische und regulatorische Herausforderungen, die verschiedenste Fragen aufwerfen. Wie können wir Cloud-Infrastrukturen gestalten, die Unabhängigkeit und Performance verbinden? Welche Governance-Modelle brauchen wir, um KI-Systeme unter verschärften Compliance-Anforderungen zu betreiben? Wie können wir Datenschutz und Verfügbarkeit in einem unsicheren geopolitischen Umfeld gewährleisten? In unserem Networking-Event (unterstützt durch STACKIT) gehen wir diesen Fragen auf den Grund.

 

Unsere Veranstaltung „Digitale Souveränität: Cloud, KI & Datensicherheit im Fokus“ bringt Spezialist:innen aus den Bereichen Cloud Computing, Artificial Intelligence und Cyber sowie Data Security zusammen und möchte den Raum für Austausch öffnen. Wir diskutieren digitale Souveränitätsstrategien aus der Praxis, geben Beispiele zur Einführung deutscher Cloud Technologien mit STACKIT, diskutieren Best Practices und kommen so in Vorträgen, Diskussionen und beim abendlichen BBQ über den Dächern Stuttgarts ins Gespräch.

Datum & Zeit

Donnerstag, 7. Mai 2026, 14:00 Uhr

Ort

Skyloft Stuttgart

Büchsenstraße 20

70174 Stuttgart

Verpflegung

BBQ und Getränke inklusive

Souveränität ist ein zentraler Baustein für digitale Unabhängigkeit, Datenschutz und Compliance in Europa. In diesem kompakten Webinar erfahren Sie, wie Unternehmen mit STACKIT eine sichere und leistungsfähige Cloud Infrastruktur aufbauen und betreiben können. Sie lernen die wichtigsten Funktionen kennen, erfahren, wie sich STACKIT von anderen Anbietern unterscheidet und erhalten praxisnahe Hinweise für die technische Umsetzung im eigenen Unternehmen. 

In 60 Minuten zeigen wir, wie Sie mit Conditional Access, sinnvollen Baseline-Policies und praxiserprobten Tipps Ihr Zugriffsmodell schnell und sicher weiterentwickeln. Kompakt, verständlich und direkt umsetzbar: kurze Zero-Trust-Einführung, konkrete Beispiele aus Microsoft 365 sowie klare Empfehlungen für Rollout, Governance und Notfallzugriffe. Ideal für IT- und Security-Verantwortliche, die ohne Buzzwords zu belastbaren Ergebnissen kommen wollen. Jetzt anmelden und Platz sichern.

  • Praxisnahe Demos zu Conditional Access, MFA-Strategien und sicheren Break-Glass-Accounts
  • Klarer Stufenplan mit Report-only, Pilotgruppen und kontrolliertem Rollout ohne Unterbrechungen
  • Checkliste, Quick Wins und Vorlagen für Governance, Monitoring und Dokumentation in Microsoft 365

Digitale Souveränität ist längst mehr als ein Schlagwort. Sie wird zum ernsthaften Treiber für Unternehmen und öffentliche Institutionen in der Schweiz. Zwischen Cloud-Abhängigkeiten, Datenschutz, KI-Regulierung und geopolitischen Spannungen stellt sich die Frage: Wie bleibt die Schweiz handlungsfähig, sicher und unabhängig in einer zunehmend digitalen Welt? In unserem Networking-Event „Digitale Souveränität in der Schweiz“ diskutieren Expertinnen und Experten aus Wirtschaft, Verwaltung und Technologie über aktuelle Herausforderungen und Lösungsansätze. Ziel ist es, einen realistischen Blick auf die Optionen und Risiken der digitalen Selbstbestimmung zu werfen und konkrete Handlungsmöglichkeiten aufzuzeigen.

Datum & Zeit

Donnerstag, 19. März 2026, 18:00 Uhr

Ort

Signature by Regus

Bahnhofquai 11

Zürich

Verpflegung

Apéro Riche und Getränke inklusive

Wenn die IT führen will, braucht sie ein Governance-Modell, das nicht nur kontrolliert, sondern aktiv lenkt. In diesem 30-minütigen Webinar lernen Sie ein praxiserprobtes Framework kennen, das durch zwei ineinandergreifende Regelkreise effektive Steuerung, Compliance und Performance ermöglicht.

Sie erfahren konkret:

  • Wie Sie Risiken, Budgets und Entscheidungen durch klare Steuermechanismen kontrollieren
  • Warum viele Governance-Modelle scheitern – und wie Sie es besser machen
  • Welche Rollen und Prozesse Sie benötigen, um Kontrolle ohne Overhead zu ermöglichen
  • Wie Performance- und Kontrollkreise zusammenarbeiten, um Transparenz und Verbindlichkeit zu schaffen
  • Wie Sie mit klaren Eskalationspfaden und KPIs Ihre Governance zukunftsfähig aufstellen

Wie schaffen es erfolgreiche IT-Leiter, eine klare Linie zwischen Business-Zielen und IT-Initiativen zu ziehen? In diesem kompakten Webinar erhalten Sie ein erprobtes Framework, das Ihnen hilft, Ihre IT-Strategie strukturiert und wirksam aufzubauen – oder bestehende Strategien kritisch zu hinterfragen.

Sie erfahren konkret:

  • Wie Sie strategische Treiber erkennen – bevor sie zur Herausforderung werden
  • Wie Mission und Vision greifbar und handlungsleitend formuliert werden
  • Warum SWOT-Analysen in IT-Organisationen oft falsch angewendet werden – und wie es richtig geht
  • Wie Sie Handlungsfelder sauber definieren und mit OKRs zum Erfolg führen
  • Wie Roadmap und Budgetrahmen miteinander verzahnt werden – für maximale Wirkung

Unser 60-minütiges Webinar „M365 – Exchange Migration zu Exchange Online“ bietet Ihnen einen kompakten Einblick in das Thema Migration von Exchange in die Cloud. Sie erhalten einen Überblick über zentrale Aspekte, erfahren, welche Überlegungen in diesem Zusammenhang eine Rolle spielen und bekommen Anregungen, worauf es bei der Planung und Umsetzung grundsätzlich ankommt.
Das Webinar vermittelt Ihnen eine Orientierung, zeigt wichtige Eckpunkte auf und gibt Impulse, wie Sie das Thema in Ihrem eigenen Umfeld angehen können, ohne dabei zu sehr ins Detail zu gehen.

Unsere Technologiepartner
Als Bereichsleiter SAP Logistik und Produktion bei Rewion trägst du die volle Verantwortung für den Aufbau, die Weiterentwicklung und die Positionierung des Bereichs innerhalb unserer Organisation.
Als (Senior) Technology Consultant SAP BTP (m/w/d) der Rewion führst du Projekte für unsere Kunden rund um die Business Technology Platform zum Erfolg.
Du analysierst Daten, entwickelst KI-Modelle, erstellst Dashboards und Schulungen und trägst mit hoher Eigenmotivation dazu bei, datengetriebene Prozesse bei unseren Kunden strategisch und technisch weiterzuentwickeln.
Du willst in einem modernen, jungen und zukunftsorientierten, IT-Unternehmen mitarbeiten? Wir suchen einen motivierten Werkstudenten (m/w/d) im Bereich IT Sales
Als Developer RPA setzt du dein technisches Know-how und deine Leidenschaft für Automatisierung ein, um innovative RPA-Lösungen zu entwickeln, die den Erfolg unserer Kunden sicherstellen.
Als Generative AI Consultant berätst du Konzerne und mittelständische Unternehmen im Bereich KI-Strategie und in KI-Projekten.
Als Bereichsleiter SAP BTP (m/w/d) bei Rewion trägst du die volle Verantwortung für alle Themen rund um die Business Technology Platform. Mit hoher Leistungsbereitschaft und einem starken Wachstumsdrang förderst und lenkst du das Wachstum in allen Facetten deines Bereichs, einschließlich Personalentwicklung, Marketing und Vertrieb.
Als (Senior) Consultant SAP Logistics setzt du deine Begeisterung für Logistikprozesse ein und führst Projekte unserer Kunden zum Erfolg. Durch dein Engagement und Verantwortungsbewusstsein leistest du einen entscheidenden Beitrag zum Erfolg des Unternehmens und schaffst dir hervorragende Perspektiven für deine Karriere bei uns.

Technischer Support

Willkommen bei unserem exklusiven Support für Bestandskunden. Hier finden Sie alle nötigen Informationen, um schnell und unkompliziert Hilfe bei technischen Anfragen zu erhalten.

Support-Hotline

Für dringende Anfragen erreichen Sie uns telefonisch unter:

Support E-Mail

Senden Sie uns Ihr Anliegen mit allen relevanten Details an:

Fernwartung via TeamViewer

Für eine direkte Unterstützung per Fernwartung, laden Sie bitte unser TeamViewer-Modul herunter:

Bitte beachten Sie: Dieser Kanal ist speziell für technische Anfragen unserer Bestandskunden vorgesehen. Für allgemeine Anfragen, Informationen zu unseren Dienstleistungen oder eine Erstberatung nutzen Sie bitte unser Kontaktformular oder schreiben Sie eine E-Mail an info@rewion.com.