Erfolgreiche Projekte mit Rewion als Trusted Advisor
Eine starke Unternehmenskultur entsteht nicht über Nacht. Vielmehr wächst sie mit gelebten Werten und Wertschätzung sowie durch ein Arbeitsumfeld, in dem Menschen sich gesehen und gehört fühlen. Umso mehr freut es uns, dass Rewion auch im Jahr 2026 erneut mit dem kununu Top Company-Siegel ausgezeichnet wurde. Nach der Auszeichnung im Jahr 2025 zählt Rewion damit ein weiteres Mal zu den attraktivsten Arbeitgebern Deutschlands. Wer sagt das? Die wichtigsten Stimmen: unsere Mitarbeitenden selbst. Diese Auszeichnung zeigt uns, dass unser Anspruch an ein modernes, vertrauensvolles und gemeinschaftliches Arbeitsumfeld wirklich gelebt wird.
Der kununu Top Company-Award wird jährlich auf Basis unabhängiger Bewertungen von aktuellen und ehemaligen Mitarbeitenden vergeben. Anders als viele andere Arbeitgebersiegel ist er damit nicht käuflich und basiert nicht auf Informationen von Unternehmen selbst. Für uns heißt das: Er ist besonders glaubwürdig.
Jährlich erhalten nur rund fünf Prozent aller auf kununu gelisteten Unternehmen diese Auszeichnung. Voraussetzung dafür ist eine überdurchschnittlich hohe Zufriedenheit der Mitarbeitenden sowie kontinuierlich positives Feedback. Dass Rewion diese Kriterien 2026 erneut erfüllt, ist für uns ein starkes Zeichen und vor allem ein großes Kompliment an unser gesamtes Team.
kununu CEO Nina Zimmermann fasst die Bedeutung des Awards perfekt zusammen:
„Ein starkes Zeichen an Talente, die nach ihrem idealen Arbeitgeber suchen.“ Genau dieses Signal möchten wir senden. Rewion schafft einen Arbeitsplatz, an dem Menschen gerne arbeiten, sich entwickeln können und gemeinsam erfolgreich sind.
Die kununu-Auszeichnung zeigt uns, dass wir als Arbeitgeber den richtigen Weg gehen. Ein wertschätzender Umgang, Vertrauen in unsere Mitarbeitenden und ein starkes Gemeinschaftsgefühl machen unseren Arbeitsalltag aus. Wir sind der Meinung, dass gute Arbeit dort entsteht, wo Menschen sich wohlfühlen, Verantwortung übernehmen dürfen und ihre Ideen einbringen können. Grundsätzlich finden aber auch feste Standorte langweilig und haben deshalb drei Standorte in Stuttgart, Köln und Zürich aufgebaut. Genauso gerne arbeitet unser Team aber auch beim Kunden oder im eigenen Wohnzimmer.
Zusammengefasst gibt es mehrere Punkte, die unser Arbeitsverständnis ausmachen:
Dass unsere Mitarbeitenden dieses Modell so positiv bewerten, macht uns stolz und motiviert uns zeitgleich, diesen Weg auch in Zukunft weiterzugehen.
Die kununu Top Company-Auszeichnung 2026 ist für uns auch ein Ansporn. Wir möchten gemeinsam mit Menschen weiter wachsen, die unsere Werte teilen und Lust haben, die IT-Welt aktiv mitzugestalten. Du suchst einen Arbeitgeber, bei dem Unternehmenskultur mehr ist als ein Versprechen? Dann lerne uns bei Rewion kennen. Schau dich in unseren offenen Stellen um und werde Teil eines Teams, das zu den besten Arbeitsumfeldern Deutschlands zählt.
Die Cloud-Infrastruktur bildet die Grundlage einer modernen Unternehmens-IT. Wer sorgt aber eigentlich dafür, dass Anwendungen zuverlässig laufen, schnell skalieren und rund um die Uhr verfügbar sind? Hinter jeder erfolgreichen Cloud-Lösung steht ein komplexes Zusammenspiel verschiedener Fachbereiche. Platform Engineers, Site Reliability Engineers und DevOps Engineers arbeiten zusammen, um stabile, effiziente und zukunftssichere Infrastrukturen aufzubauen. Wir gehen in diesem Artikel auf die einzelnen Bereiche und ihre spezifischen Aufgaben ein. Außerdem zeigen wir, wie sie gemeinsam zur erfolgreichen Entwicklung einer Cloud-Infrastruktur beitragen und im Anschluss ihren Betrieb sicherstellen und optimieren.
Eine Cloud-Infrastruktur besteht aus weit mehr als nur Servern in einem Rechenzentrum. Sie umfasst virtuelle Maschinen, Container, Speicherlösungen, Netzwerkkomponenten und Datenbanken, die flexibel über das Internet bereitgestellt werden. Hinzu kommen Orchestrierungstools, die den Betrieb automatisieren, Monitoring-Systeme für die Überwachung und Sicherheitsmechanismen zum Schutz der Daten. All diese Komponenten müssen nahtlos zusammenarbeiten und sich dynamisch an wechselnde Anforderungen anpassen können.
Komplexität entsteht einerseits natürlich durch die Technik selbst, andererseits aber auch durch die Verwaltung, Aktualisierung und Optimierung der einzelnen Elemente. Moderne Cloud-Infrastrukturen stellen Automatisierung, Skalierbarkeit und hohe Verfügbarkeit in den Mittelpunkt. Um diese Eigenschaften zu erreichen, braucht es spezialisierte Fachkräfte und durchdachte Prozesse.
Die Entwicklung einer Cloud-Infrastruktur ist Teamarbeit und wird besonders von drei zentralen Rollen gesteuert: Platform Engineers schaffen die technische Grundlage, Site Reliability Engineers sorgen für Stabilität und Performance und DevOps Engineers ermöglichen reibungslose Entwicklungs- und Deployment-Prozesse. Jeder Bereich bringt zwar spezifisches Know-how mit, die Grenzen verschwimmen aber immer stärker. Wichtig ist vor allem, dass alle Bereiche ineinandergreifen, damit eine Infrastruktur entsteht, die innovativ und zeitgleich zuverlässig ist.

Platform Engineers legen das Fundament für die gesamte Cloud-Infrastruktur. Sie entwickeln und pflegen die Plattformen, auf denen Anwendungen betrieben werden und schaffen damit die technische Basis für alle anderen Teams.
Site Reliability Engineers (SRE) verbinden Software Engineering mit Systemadministration. Ihr Fokus liegt auf der Zuverlässigkeit und Performance der Infrastruktur. Sie stellen sicher, dass Systeme laufen, wenn sie gebraucht werden.
DevOps Engineers bilden die Schnittstelle zwischen Entwicklung und Betrieb der Cloud-Infrastruktur. Sie schaffen die Prozesse und Tools, die es Teams ermöglichen, Software schneller und sicherer auszuliefern.
Die drei Bereiche ergänzen sich in verschiedenen Situationen.
Platform Engineers und DevOps Engineers teilen die Verantwortung für Cloud-Infrastruktur-Management und Deployment-Automatisierung: Platform Engineers stellen die grundlegende Plattform bereit, DevOps Engineers nutzen sie für effiziente Auslieferungsprozesse.
DevOps Engineers und SREs arbeiten eng bei kontinuierlicher Verbesserung, Monitoring und Alerting zusammen: DevOps-Prozesse liefern die Basis für schnelle Iterationen, SREs sorgen dafür, dass dabei die Stabilität nicht leidet.
Platform Engineers und SREs wiederum legen gemeinsam den Fokus auf Performance-Optimierung und Kapazitätsplanung: Sie stellen sicher, dass die Infrastruktur funktioniert und effizient dimensioniert ist.
Im Idealfall entsteht so ein Kreislauf: Platform Engineers schaffen die technische Grundlage, DevOps Engineers ermöglichen schnelle Deployments, und SREs gewährleisten, dass alles zuverlässig läuft. Feedback aus dem Betrieb fließt zurück in die Plattform-Entwicklung, sodass sich die Infrastruktur kontinuierlich verbessert.
Eine effiziente Cloud-Infrastruktur entsteht durch das koordinierte Zusammenwirken mehrerer Spezialisten. Platform Engineers, SREs und DevOps Engineers bringen jeweils eigene Perspektiven und Fähigkeiten ein, die sich gegenseitig ergänzen und verstärken. Die Rollen setzen zwar unterschiedliche Schwerpunkte, verfolgen aber alle ein Ziel: eine stabile, skalierbare und zukunftssichere Cloud-Infrastruktur. Unternehmen können durch dieses Zusammenspiel von kürzeren Entwicklungszyklen und höherer Systemzuverlässigkeit profitieren und sind zeitgleich fähig, schnell auf Marktveränderungen zu reagieren.
Die sichere Verwaltung von Zugangsdaten ist eine zentrale Voraussetzung für stabile und revisionssichere RPA-Lösungen. Wer den Credential Vault nutzen möchte, schafft in Automation Anywhere eine klare Trennung zwischen Bot-Logik und sensiblen Zugangsinformationen. Genau hier setzt der Credential Vault an: Er stellt eine standardisierte, zentral verwaltete und sichere Möglichkeit bereit, Credentials zu speichern, zu verwenden und zu kontrollieren – sowohl innerhalb der Plattform als auch in Kombination mit externen Systemen. Dieser Artikel richtet sich an IT-Administratoren und technische Entscheider, die Automation Anywhere in produktiven Umgebungen betreiben oder einführen.
Der Credential Vault ist ein fester Bestandteil der Automation-Anywhere-Cloud-Plattform und dient der sicheren Speicherung von sensiblen Informationen wie Benutzernamen, Passwörtern, Tokens oder Schlüsseln. Diese Daten werden verschlüsselt abgelegt und sind weder für Bot-Entwickler noch für Laufzeitprozesse im Klartext sichtbar. Bots greifen ausschließlich über definierte Referenzen auf die Credentials zu. Dadurch lassen sich Sicherheitsrichtlinien umsetzen, ohne die Automatisierung einzuschränken.
Der Zugriff auf den Vault erfolgt über den Control Room, der als zentrale Verwaltungsinstanz fungiert. Alle administrativen Aufgaben, von der Erstellung bis zur Berechtigungssteuerung, werden hier durchgeführt.

Credentials werden in sogenannten Lockern organisiert. Ein Locker ist ein logisch abgeschlossener Container, der mehrere Credentials enthalten kann und über Berechtigungen gesteuert wird. Administratoren legen fest, welche Benutzer oder Bots auf einen Locker zugreifen dürfen. Dadurch lassen sich technische Zugänge, Fachbereichszugänge und Systemzugänge klar voneinander trennen.
Lockers werden im Control Room angelegt und können jederzeit angepasst werden. Änderungen an Berechtigungen wirken sich sofort auf alle Bots aus, die diesen Locker verwenden. Das erleichtert die Administration erheblich, da keine Anpassung an einzelnen Bots notwendig ist, wenn sich Zugriffsrechte ändern.
Innerhalb eines Lockers können einzelne Credentials angelegt werden. Dabei definiert der Administrator, welche Felder gespeichert werden, zum Beispiel Benutzername und Passwort oder API-Key und Secret. Diese Daten lassen sich jederzeit ändern, ohne den Bot anzupassen. Besonders im produktiven Betrieb ist das ein entscheidender Vorteil, da Passwortwechsel oder Systemmigrationen ohne Stillstand erfolgen können.
Die Ownership von Credentials kann zudem zwischen Benutzern übertragen werden. Das ist wichtig für Vertretungsregelungen, Teamwechsel oder organisatorische Änderungen und verhindert, dass produktive Bots von einzelnen Personen abhängig sind.

Sobald ein Bot ausgeführt wird, ruft er die benötigten Zugangsdaten zur Laufzeit aus dem Credential Vault ab. Die Werte werden nur temporär im Arbeitsspeicher gehalten und nicht geloggt oder persistiert. Entwickler müssen daher keine sensiblen Informationen in Variablen oder Skripten hinterlegen. Wer den Credential Vault nutzen möchte, erhöht damit unmittelbar die Sicherheit und Wartbarkeit seiner Automatisierungen.

In der Praxis wird der Vault häufig für Web-Logins, Datenbankzugriffe oder den Zugriff auf File-Server genutzt. Ein typisches Szenario ist ein Bot, der sich täglich in einem Fachsystem anmeldet, Berichte exportiert und die Daten weiterverarbeitet. Das Passwort liegt dabei ausschließlich im Vault. Wird es geändert, läuft der Bot ohne Anpassung weiter. Ein weiteres Beispiel ist die Nutzung von Service-Accounts für Datenbankabfragen, die zentral verwaltet und regelmäßig rotiert werden.
Automation Anywhere ermöglicht auch benutzerbezogene Credentials. Diese sind an einen bestimmten User gebunden und können für persönliche Zugriffe verwendet werden, etwa bei attended Bots. Zusätzlich lassen sich E-Mail-Benachrichtigungen konfigurieren, wenn Credentials ablaufen oder geändert werden. Das unterstützt IT-Teams dabei, Sicherheitsanforderungen einzuhalten und Ausfälle zu vermeiden.
Neben dem internen Vault unterstützt Automation Anywhere auch externe Credential-Speicher. Dazu gehören unter anderem Azure Key Vault, AWS Secrets Manager oder HashiCorp Vault. Die Integration erfolgt über eine definierte Schnittstelle, sodass Bots auch hier zur Laufzeit auf externe Secrets zugreifen können.
Diese Variante wird häufig in regulierten Umgebungen eingesetzt, in denen zentrale Sicherheitsplattformen bereits etabliert sind. Der Vorteil liegt in der durchgängigen Nutzung bestehender Sicherheitsrichtlinien, Logging-Mechanismen und Compliance-Vorgaben. Gleichzeitig bleiben die Bots in Automation Anywhere unverändert, da sie weiterhin mit Referenzen arbeiten.
Gerade bei wachsender Bot-Landschaft wird deutlich, wie wichtig eine zentrale Credential-Verwaltung ist. Ohne Vault entstehen schnell Sicherheitsrisiken durch Hardcoding, unklare Zuständigkeiten oder fehlende Transparenz. Wer den Credential Vault nutzen will, schafft eine saubere Grundlage für Skalierung, Betrieb und Auditierbarkeit von RPA-Plattformen.
Der Credential Vault von Automation Anywhere ist inzwischen ein essenzieller Bestandteil für den sicheren Betrieb von Automatisierungen. Er ermöglicht eine klare Trennung von Logik und sensiblen Daten, reduziert Betriebsrisiken und vereinfacht administrative Prozesse. Durch die Unterstützung externer Key Vaults lässt sich die Plattform zudem nahtlos in bestehende Sicherheitsarchitekturen integrieren. Für IT-Administratoren und Entscheider ist der konsequente Einsatz des Vaults ein zentraler Baustein für stabile, sichere und wartbare RPA-Umgebungen. Wer den Credential Vault nutzen möchte, legt damit die Basis für nachhaltige Automatisierung.
Mobile Geräte sind aus dem Arbeitsalltag nicht mehr wegzudenken. Gleichzeitig wachsen allerdings die Anforderungen an Sicherheit, Compliance und den Schutz persönlicher Daten. Deshalb treffen Mobile Device Management (MDM) und Datenschutz aufeinander. Unternehmen müssen geschäftliche Informationen zuverlässig absichern, dürfen dabei aber nicht in die Privatsphäre ihrer Mitarbeitenden eingreifen. Besonders bei BYOD und hybriden Arbeitsmodellen entstehen so schnell Unsicherheiten und Vorbehalte. Ein durchdachtes Mobile Device Management hilft dabei, diese Herausforderungen zu meistern, indem Datenschutz von Anfang an berücksichtigt wird. Wir zeigen in diesem Artikel, wo die größten Bedenken liegen und wie Unternehmen geschäftliche und private Daten sinnvoll trennen.
MDM und Datenschutz werden häufig als Gegensätze wahrgenommen. Auf der einen Seite steht die berechtigte Notwendigkeit, sensible Unternehmensdaten zu schützen. Auf der anderen Seite stehen wiederum Mitarbeitende, die Sorge haben, durch MDM-Lösungen überwacht oder in ihrer Privatsphäre eingeschränkt zu werden. Diese Sorge ist einer der Hauptgründe, aus denen MDM-Projekte intern immer wieder auf Widerstand stoßen.
Datenschutzbedenken im Team entstehen vor allem dann, wenn nicht klar ist, welche Daten tatsächlich erfasst werden und wo genau die Grenzen der Verwaltung liegen. Besonders kritisch sehen viele Mitarbeitende:
Die DSGVO als wichtiger rechtlicher Rahmen
Die DSGVO gibt hier eine klare Richtung vor. Unternehmen dürfen Daten nur nutzen und verarbeiten, solange sie einem konkreten Zweck dienen, die Nutzung verhältnismäßig ist und transparent kommuniziert wird. Für MDM bedeutet das: versteckten Funktionen, unnötige Datenerhebung und pauschale Eingriffe in private Bereiche sind durch die DSGVO untersagt. Unternehmen haben selbst die Verantwortung, nachzuweisen, dass MDM und Datenschutz sowohl technisch als auch organisatorisch miteinander vereinbar sind. Maßnahmen können dafür verschiedene zum Einsatz kommen.

Um Mobile Device Management und Datenschutz sinnvoll umzusetzen, braucht es mehr als die richtige technische Lösung. Klare organisatorische Rahmenbedingungen sind mindestens genauso wichtig, da sie die Grundlage dafür bilden, dass MDM-Lösungen akzeptiert und korrekt eingesetzt werden. Dabei braucht es vor allem verbindliche Richtlinien für die Nutzung, die verschiedene Aspekte regeln:
Wichtig ist, dass diese Regeln klar an alle Mitarbeitenden kommuniziert werden. So ist für alle Seiten von Beginn an klar, was MDM darf und was ausdrücklich untersagt ist, sodass die Vorbehalte deutlich geringer ausfallen.
Transparenz ist wichtig für Vertrauen
Der Einsatz einer MDM-Lösung im Unternehmen steht und fällt mit der Offenheit des Unternehmens. Sie müssen nachvollziehbar erklären, welche Funktionen zum Einsatz kommen und was definitiv nicht passiert. Aussagen wie „Wir sehen keine privaten Inhalte“ oder „Standortdaten werden nicht dauerhaft gespeichert“ sorgen für Sicherheit im Team.
Einbindung relevanter Stellen
Außerdem sinnvoll ist es, Datenschutzbeauftragte frühzeitig einzubinden, um Risiken zu bewerten und Maßnahmen transparent zu dokumentieren. In mitbestimmungspflichtigen Umfeldern ist auch die Einbindung des Betriebsrats nötig. Um nach der Einführung Unsicherheiten abzubauen, eignen sich Schulungen und kurze Leitfäden, an denen Mitarbeitende sich orientieren können.
Neben organisatorischen Aspekten geht es außerdem um die technische Umsetzung der klaren Trennung geschäftlicher und privater Daten. Dafür bieten MDM-Lösungen verschiedene Wege in der Umsetzung.
Diese Form der Trennung reduziert datenschutzrechtliche Risiken und vereinfacht zeitgleich den Betrieb. Klare Trennung und Regelungen sorgen für Transparenz und Sicherheit für Admins und Mitarbeitende und machen Mobile Device Management so zu einem stabilen Fundament für mobiles Arbeiten.
Mobile Device Management und Datenschutz schließen sich keinesfalls aus. Vielmehr ergänzen die beiden Themen sich und sorgen für Transparenz und Sicherheit für Mitarbeitende und Unternehmen. Wer Datenschutz frühzeitig berücksichtigt, schafft Rechtssicherheit, Akzeptanz und nachhaltige Strukturen. Wichtig dabei ist vor allem die Kombination aus klaren Regeln, transparenter Kommunikation und einer technischen Umsetzung, die private Daten respektiert und geschäftliche schützt. Unternehmen profitieren von besser geschützten Informationen, während Mitarbeitende die Kontrolle über ihre persönlichen Inhalte behalten. So kann MDM als sinnvolles Werkzeug für einen sicheren und modernen Arbeitsalltag in das Unternehmen integriert werden, das Vertrauen schafft und langfristig tragfähig bleibt.
Ein Strategieprozess entscheidet darüber, ob eine IT-Strategie Orientierung gibt oder wirkungslos bleibt. Nicht das Dokument ist kritisch, sondern der Weg dorthin.
Dieser Artikel zeigt, wie ein strukturierter Strategieprozess in der IT aussieht, welche Schritte zwingend sind und wo Organisationen typischerweise scheitern.
Der Strategieprozess beschreibt die systematische Vorgehensweise zur Entwicklung einer Strategie. Im IT-Kontext stellt er sicher, dass strategische Entscheidungen nachvollziehbar, abgestimmt und umsetzbar sind.
Ein guter Strategieprozess verbindet drei Ebenen:
Unternehmensziele
IT-Fähigkeiten und -Limitationen
Umsetzung in Initiativen und Budget
Ohne klaren Prozess entsteht Strategie zufällig oder politisch.
Viele IT-Organisationen haben strategische Inhalte, aber keinen sauberen Prozess. Die Folgen sind bekannt:
Fehlende Priorisierung
Widersprüchliche Initiativen
Strategien ohne Umsetzungskraft
Ein klar definierter Strategieprozess schafft:
Transparenz in Entscheidungen
Verbindlichkeit bei Prioritäten
Akzeptanz bei Stakeholdern
Bewährt hat sich ein mehrstufiges Vorgehen mit klaren Übergaben.
In der Praxis zeigen sich immer wieder dieselben Schwachstellen:
Analyse ohne klare Schlussfolgerungen
Zu viele Handlungsfelder ohne Priorität
Strategieentwicklung ohne Beteiligung relevanter Stakeholder
Kein formalisierter Übergang in Umsetzung und Steuerung
Ein häufiger Fehler ist, den Strategieprozess als einmaliges Projekt zu verstehen. Strategie ist zyklisch.
Ein vollständiger Strategieprozess ist kein Jahresritual.
Grundlegende Überarbeitung alle 3 bis 4 Jahre
Jährliche Überprüfung und Anpassung
Regelmäßige Fortschrittskontrolle über KPIs und Reviews
Der Prozess endet nicht mit der Freigabe der Strategie, sondern mit deren Umsetzung.
Ein wirksamer Strategieprozess macht IT führbar. Er schafft Klarheit über Richtung, Prioritäten und Investitionen.
Ohne klaren Prozess bleibt IT reaktiv.
Mit klarem Prozess wird IT zum strategischen Partner.
Ein Strategiepapier ist kein formales Pflichtdokument. Richtig eingesetzt ist es das zentrale Führungsinstrument einer IT-Organisation. Falsch eingesetzt ist es ein PDF, das niemand liest.
Dieser Artikel erklärt, was ein gutes IT-Strategiepapier ausmacht, wie es aufgebaut sein sollte und warum viele Strategiepapiere in der Praxis wirkungslos bleiben.
Ein Strategiepapier beschreibt die mittelfristige Ausrichtung einer Organisation oder Funktion. Im IT-Kontext beantwortet es strukturiert drei Fragen:
Warum braucht es eine strategische Neuausrichtung der IT?
Was sind die priorisierten strategischen Schwerpunkte?
Wie werden diese Schwerpunkte umgesetzt und gesteuert?
Entscheidend ist nicht die Existenz des Dokuments, sondern seine Anschlussfähigkeit für Entscheidungen.
Eine wirksame IT-Strategie erfüllt vier Funktionen:
Orientierung für Geschäftsleitung und IT-Führung
Priorisierung von Initiativen und Investitionen
Entscheidungsgrundlage bei Zielkonflikten
Gemeinsames Verständnis über Richtung und Fokus
Ohne das Dokument wird IT primär operativ gesteuert. Mit einem Strategiepapier wird IT führbar.
Bewährt hat sich eine klare, stringente Struktur. Nicht umfangreich, sondern vollständig.
Alles darüber hinaus ist Detailarbeit für die Umsetzung, nicht Teil des Kernpapiers.
In der Praxis scheitern IT-Strategien selten an der Methode, häufiger aber an drei typischen Fehlern:
Zu allgemein formuliert, ohne echte Prioritäten
Keine Verbindung zwischen Strategie und Budget
Keine klare Verantwortung für Umsetzung und Steuerung
Ein weiteres Problem ist die Vermischung von Strategie und Massnahmen. Ein Strategiepapier definiert den Rahmen, nicht jedes Projekt.
Weniger als viele erwarten.
20 bis 30 Seiten reichen in der Regel
Entscheidend ist Klarheit, nicht Detailtiefe
Jedes Kapitel muss entscheidungsrelevant sein
Wenn ein Strategiepapier nicht in einem Executive-Meeting diskutierbar ist, ist es zu komplex.
Ein gutes Strategiepapier ist kein Selbstzweck. Es schafft Fokus, ermöglicht Entscheidungen und verbindet IT und Business auf strategischer Ebene.
Wer ein Strategiepapier schreibt, sollte sich eine einfache Frage stellen:
Hilft dieses Dokument, bessere Entscheidungen zu treffen?
Wenn die Antwort nein ist, gehört es überarbeitet.
Der Automation Anywhere Document Automation Testmodus hilft, eine Lerninstanz kontrolliert mit Beispieldokumenten zu prüfen, bevor Änderungen nach UAT oder Produktion überführt werden. Reale Beispieldokumente lassen sich testen, die Extraktion überprüfen und schnell erkennen, ob eine Anpassung tatsächlich einen Mehrwert bringt. Testmodus-Lerninstanz-Versionen unterstützen diesen Prozess, indem Änderungen automatisch als Versionen festgehalten werden.
Im Fokus dieses Beitrags steht daher der praktische Testablauf: Testmodus aktivieren, Dokumente verarbeiten, Ergebnisse validieren und so lange feinjustieren, bis die Extraktion stabil ist. Versionen und Vergleichsfunktionen ergänzen diesen Ablauf sinnvoll. Die Zielgruppe sind Document-Automation-Entwickler, RPA-Teams und Fachverantwortliche, die Tests strukturiert durchführen und Änderungen sicher freigeben möchten.
Der Testmodus ist dafür gedacht, Lerninstanzen vor dem produktiven Einsatz zu prüfen – mit Blick auf Performance, Qualität und Zuverlässigkeit der extrahierten Daten. Ab der v.36-Release-Linie lassen sich im Testmodus gezielt Einstellungen variieren, etwa unterschiedliche OCR-Provider, Generative-AI-Provider und Prompts oder das Ein- und Ausschalten von Validierungsfeedback.
Entscheidend ist dabei die Praxisperspektive: Der Testmodus beschleunigt den Entwicklungszyklus, weil Änderungen direkt gegen echte Dokumente geprüft und ihre Auswirkungen sofort sichtbar werden. Zusätzlich profitieren Teams beim erneuten Verarbeiten bereits getesteter Dokumente häufig von deutlich kürzeren Laufzeiten; die Dokumentation nennt hier eine Verbesserung von 30 % oder mehr beim Reprocess, sofern der Automation Anywhere Provider genutzt wird.
Der Testmodus wird im Control Room unter AI > Document Automation über den Test-mode-Schalter auf der Lerninstanzseite aktiviert. Dabei gibt es eine zentrale Voraussetzung, die in Projekten häufig übersehen wird: Die Lerninstanz muss sich im privaten Modus befinden. Bei Lerninstanzen im öffentlichen Modus zeigt die Plattform beim Aktivieren des Testmodus einen Fehler an.

Auch Rollen und Zuständigkeiten sollten früh geklärt sein, da die Dokumentation für die relevanten Schritte die Rollen Learning instance creator und Validator nennt. Wenn Tests ins Stocken geraten, liegt das in der Praxis oft nicht am Feature selbst, sondern an fehlenden Berechtigungen oder nicht zugeordneten Validierungsteams.
Sobald der Testmodus aktiv ist, werden Beispieldokumente über Process verarbeitet. Für saubere Tests ist entscheidend, dass Dokumente immer für eine konkret ausgewählte Lerninstanz-Version verarbeitet werden, damit Ergebnisse später vergleichbar bleiben. Dazu wird im Drop-down neben dem Lerninstanznamen die gewünschte Version ausgewählt und anschließend der Prozess gestartet.
Beim Upload sollte eine technische Begrenzung berücksichtigt werden: Dateinamen mit mehr als 149 Zeichen führen beim Verarbeiten zu einem Fehler. Gerade bei automatisch generierten Testdaten oder Importen aus Drittsystemen lohnt es sich daher, Namenskonventionen frühzeitig einzuschränken.
Im Normalbetrieb landen Dokumente nur dann in der Validierungsqueue, wenn Regeln greifen, Pflichtfelder fehlen oder die Konfidenz zu niedrig ist. Im Testmodus verhält es sich anders: Dokumente werden immer in die Validierungsqueue verschoben – unabhängig davon, ob Felder eigentlich validiert werden müssten oder ob die Extraktion erfolgreich war. Ziel ist es, Ergebnisse systematisch analysieren und Versionen sauber miteinander vergleichen zu können.
Der Einstieg in die Validierung erfolgt entweder über View status bei der Lerninstanz bzw. einem Request oder über Validate documents (inklusive Zähler, wenn Aufgaben warten). Anschließend öffnet sich der Automation Co-Pilot Validator in einem neuen Tab. Falls dort nur eine leere Seite mit Hinweis erscheint, nennt die Dokumentation typische Ursachen wie fehlende Teamzuordnung, keine Validierungsfälle in zugänglichen Lerninstanzen oder eine parallele Bearbeitung durch eine andere Person.
In der Validierung werden Feldwerte und Datentypen (z. B. Text, Zahl, Datum, Adresse, Checkbox) geprüft, fehlerhafte Extraktionen korrigiert und anschließend mit Submit & Reprocess erneut verarbeitet. So wird direkt sichtbar, ob die Korrektur und das aktuelle Setup der Lerninstanz zu stabileren Ergebnissen führen.
Damit der Testmodus zuverlässig funktioniert, müssen Änderungen nachvollziehbar gespeichert werden. Genau hier setzen die Testmodus-Lerninstanz-Versionen an: Ist der Testmodus aktiv, speichert Automation Anywhere Änderungen an der Lerninstanz – etwa OCR-Wechsel, Auswahl eines anderen Generative-AI-Providers, Anpassungen an Prompts, das Aktivieren/Deaktivieren von Validierungsfeedback oder das Hinzufügen bzw. Entfernen von Feldern – automatisch als Versionen.
Für die Einordnung ist wichtig: Versionen dienen im Testmodus nicht der formalen Versionsverwaltung, sondern der Reproduzierbarkeit von Tests. Die Versionierung ermöglicht es, später klar zu sagen: „Diese Einstellung hat mit Dokument X bessere Extraktion geliefert als die vorherige.“
Bei mehreren Anpassungen hilft der Versionsverlauf bei Analyse und Fehlerbehebung. Er zeigt eine detaillierte Aufzeichnung der Änderungen über die Zeit und erleichtert es, zu einer Version zurückzukehren, die die gewünschten Ergebnisse liefert.
Hilfreich ist zudem, dass der Versionsverlauf nicht nur „Version 1/2/3“ anzeigt, sondern konkrete Inhalte, die in Tests relevant sind: Feldlabel, Datentyp, Konfidenz, Muster-/Regex-Einstellungen, Pflichtfeld-Status, aktivierte Felder, Aliase sowie Angaben zu Generative-AI-Suchanfrage und Prompt oder Formatoptionen bei Datumsfeldern. Dadurch lassen sich Änderungen im Testmodus gezielt auf ihre Wirkung hin analysieren.

Nach mehreren Testläufen sollen Entscheidungen idealerweise nicht aus dem Bauchgefühl heraus getroffen werden, sondern auf Basis messbarer Ergebnisse. Hierfür steht die Vergleichsfunktion für Versionen zur Verfügung. Sie hilft dabei zu ermitteln, welche Konfiguration bei OCR-Optionen, Generative-AI-Providern/Prompts, Feld- und Formularregeln oder Validierungsfeedback die besten Extraktionsergebnisse liefert. Voraussetzung ist, dass die Lerninstanz mindestens zwei Versionen besitzt.
Ein wichtiges Detail für die Praxis: Extraktionsdaten stehen im Vergleich nur dann zur Verfügung, wenn das jeweilige Dokument zuvor mit jeder zu vergleichenden Version verarbeitet wurde. Die Dokumentation beschreibt hierfür den Ablauf über die Versionauswahl im Validator, Process now und anschließend Compare versions über das Menü.
Nicht jede Änderung führt zu besseren Ergebnissen. Deshalb dient Restore im Testmodus als Sicherheitsnetz: Frühere Versionen lassen sich wiederherstellen, wenn diese eine bessere Extraktionsqualität geliefert haben. Die wiederhergestellte Version wird dabei als neue Version erzeugt und zur aktuellen Version der Lerninstanz – die Historie bleibt vollständig nachvollziehbar.
Der Testmodus ist primär für die Dev-Phase gedacht: Anpassungen werden getestet und iteriert, bis die Ergebnisse stabil sind, anschließend erfolgt der Export der Lerninstanz in Richtung UAT. Dabei ist zu beachten, dass die Versionshistorie beim Export/Import nicht mit übernommen wird. Wenn Validierungsfeedback produktiv genutzt und in Dev/UAT für weitere Tests benötigt wird, empfiehlt die Dokumentation eine Synchronisation von Prod nach UAT/Dev, bevor neue Entwicklung beginnt.
Der Testmodus ermöglicht einen kontrollierten Verbesserungsprozess: Test mode aktivieren, Beispieldokumente verarbeiten, Ergebnisse validieren und iterativ optimieren, bis Qualität und Stabilität erreicht sind. Versionierung, Vergleich und Restore sind unterstützende Funktionen, die dabei helfen, Testergebnisse reproduzierbar zu machen und Entscheidungen nachvollziehbar zu begründen.
Mit der erweiterten macOS-Unterstützung geht Automation Anywhere deshalb einen konsequenten Schritt in Richtung echter Plattformoffenheit. Doch was bedeutet das für Unternehmen und ihre Automatisierungsstrategie?
Die Realität in Unternehmen hat sich verändert: Prozesse enden nicht mehr an Betriebssystemgrenzen. Mitarbeitende arbeiten auf Windows, macOS, mobilen Geräten und webbasierten Plattformen oft innerhalb derselben Prozesskette.
Daraus folgt:
Wenn ein kritischer Prozessschritt ausschließlich auf macOS stattfindet, kann der Automatisierungsgrad des Gesamtprozesses drastisch sinken. Genau hier setzt plattformübergreifende Automatisierung an.
Die Unterstützung von macOS ist nicht nur eine technologische Ergänzung, sondern Teil einer größeren architektonischen Entwicklung: Automatisierung soll überall dort funktionieren, wo Mitarbeitende tatsächlich arbeiten.
Die Erweiterung ermöglicht:
Damit wird Automatisierung nicht länger an die Infrastruktur gebunden, sondern zu einer universellen Fähigkeit innerhalb der IT-Architektur.
Viele Unternehmensprozesse verlaufen heute über mehrere Ebenen:
Die Einbindung von macOS sorgt dafür, dass diese Prozessketten nicht an Betriebssystemgrenzen auseinanderfallen.
Vorteile:
Insbesondere in hybriden Umgebungen kann der Automatisierungsgrad dadurch signifikant steigen.
Trotz aller neuen Möglichkeiten bringt macOS im Vergleich zu Windows andere technische und sicherheitsrelevante Rahmenbedingungen mit, darunter:
Damit macOS-Automatisierung nachhaltig funktioniert, muss sie in bestehende Sicherheits-, Betriebs- und Architekturmodelle eingebettet werden.
Die macOS-Unterstützung bei Automation Anywhere ist ein logisch konsequenter Schritt, da Arbeitsumgebungen zunehmend heterogen werden. Sie schafft die Grundlage für wirklich plattformübergreifende End-to-End-Automatisierung und adressiert damit eine der größten praktischen Hürden moderner Prozesslandschaften.
Der Mehrwert entsteht jedoch erst dann, wenn Unternehmen diese Fähigkeit strategisch, architektonisch und organisatorisch einbetten. In diesem Kontext kann macOS-Automatisierung ein wichtiger Hebel für Stabilität, Effizienz und durchgängige Automatisierungserlebnisse sein.
There are no results matching your search
Hinter jeder schnellen Lösung steht ein echter Mensch, der genau weiß, was er tut. Unsere zertifizierten IT-Experten sind da, um Ihre Probleme schnell, freundlich und stressfrei zu lösen.
There are no results matching your search
Aktuell gibt es keine Ergebnisse in dieser Kategorie
Unser 60-minütiges Webinar „Zurück zu den Basics – RPA richtig implementieren und mit Lichtgeschwindigkeit Richtung Agentic AI“ bietet Ihnen einen kompakten und strukturierten Einblick in die Grundlagen einer skalierbaren Automatisierungsarchitektur.
Viele Unternehmen sprechen aktuell über Agentic AI und intelligente Automatisierung. Doch ohne ein stabiles RPA-Fundament fehlt die Grundlage für nachhaltige Skalierung. In diesem Webinar zeigen wir, warum RPA weiterhin das Handwerk in der Automatisierungsfabrik bleibt, welche typischen Fehler bei der Implementierung auftreten und wie eine strukturierte Architektur den Übergang zu Agentic AI ermöglicht.
Sie erhalten einen Überblick über zentrale Erfolgsfaktoren, Governance-Aspekte und Architekturprinzipien. Darüber hinaus zeigen wir auf, wie deterministische Automatisierung (RPA) sinnvoll mit KI-gestützten Komponenten kombiniert werden kann.
Das Webinar vermittelt Orientierung, zeigt strategische Eckpunkte auf und gibt Impulse, wie Sie das Thema in Ihrem eigenen Umfeld strukturiert angehen können – ohne dabei zu tief in technische Details einzusteigen.
Digitale Souveränität ist in zahlreichen Unternehmen in den Fokus gerückt. Ob Cloud, KI oder Datensicherheit: Für Expert:innen entstehen konkrete technische und regulatorische Herausforderungen, die verschiedenste Fragen aufwerfen. Wie können wir Cloud-Infrastrukturen gestalten, die Unabhängigkeit und Performance verbinden? Welche Governance-Modelle brauchen wir, um KI-Systeme unter verschärften Compliance-Anforderungen zu betreiben? Wie können wir Datenschutz und Verfügbarkeit in einem unsicheren geopolitischen Umfeld gewährleisten? In unserem Networking-Event (unterstützt durch STACKIT) gehen wir diesen Fragen auf den Grund.
Unsere Veranstaltung „Digitale Souveränität: Cloud, KI & Datensicherheit im Fokus“ bringt Spezialist:innen aus den Bereichen Cloud Computing, Artificial Intelligence und Cyber sowie Data Security zusammen und möchte den Raum für Austausch öffnen. Wir diskutieren digitale Souveränitätsstrategien aus der Praxis, geben Beispiele zur Einführung deutscher Cloud Technologien mit STACKIT, diskutieren Best Practices und kommen so in Vorträgen, Diskussionen und beim abendlichen BBQ über den Dächern Stuttgarts ins Gespräch.
Donnerstag, 7. Mai 2026, 14:00 Uhr
Skyloft Stuttgart
Büchsenstraße 20
70174 Stuttgart
BBQ und Getränke inklusive
Souveränität ist ein zentraler Baustein für digitale Unabhängigkeit, Datenschutz und Compliance in Europa. In diesem kompakten Webinar erfahren Sie, wie Unternehmen mit STACKIT eine sichere und leistungsfähige Cloud Infrastruktur aufbauen und betreiben können. Sie lernen die wichtigsten Funktionen kennen, erfahren, wie sich STACKIT von anderen Anbietern unterscheidet und erhalten praxisnahe Hinweise für die technische Umsetzung im eigenen Unternehmen.
In 60 Minuten zeigen wir, wie Sie mit Conditional Access, sinnvollen Baseline-Policies und praxiserprobten Tipps Ihr Zugriffsmodell schnell und sicher weiterentwickeln. Kompakt, verständlich und direkt umsetzbar: kurze Zero-Trust-Einführung, konkrete Beispiele aus Microsoft 365 sowie klare Empfehlungen für Rollout, Governance und Notfallzugriffe. Ideal für IT- und Security-Verantwortliche, die ohne Buzzwords zu belastbaren Ergebnissen kommen wollen. Jetzt anmelden und Platz sichern.
Digitale Souveränität ist längst mehr als ein Schlagwort. Sie wird zum ernsthaften Treiber für Unternehmen und öffentliche Institutionen in der Schweiz. Zwischen Cloud-Abhängigkeiten, Datenschutz, KI-Regulierung und geopolitischen Spannungen stellt sich die Frage: Wie bleibt die Schweiz handlungsfähig, sicher und unabhängig in einer zunehmend digitalen Welt? In unserem Networking-Event „Digitale Souveränität in der Schweiz“ diskutieren Expertinnen und Experten aus Wirtschaft, Verwaltung und Technologie über aktuelle Herausforderungen und Lösungsansätze. Ziel ist es, einen realistischen Blick auf die Optionen und Risiken der digitalen Selbstbestimmung zu werfen und konkrete Handlungsmöglichkeiten aufzuzeigen.
Donnerstag, 19. März 2026, 18:00 Uhr
Signature by Regus
Bahnhofquai 11
Zürich
Apéro Riche und Getränke inklusive
Wenn die IT führen will, braucht sie ein Governance-Modell, das nicht nur kontrolliert, sondern aktiv lenkt. In diesem 30-minütigen Webinar lernen Sie ein praxiserprobtes Framework kennen, das durch zwei ineinandergreifende Regelkreise effektive Steuerung, Compliance und Performance ermöglicht.
Wie schaffen es erfolgreiche IT-Leiter, eine klare Linie zwischen Business-Zielen und IT-Initiativen zu ziehen? In diesem kompakten Webinar erhalten Sie ein erprobtes Framework, das Ihnen hilft, Ihre IT-Strategie strukturiert und wirksam aufzubauen – oder bestehende Strategien kritisch zu hinterfragen.
Unser 60-minütiges Webinar „M365 – Exchange Migration zu Exchange Online“ bietet Ihnen einen kompakten Einblick in das Thema Migration von Exchange in die Cloud. Sie erhalten einen Überblick über zentrale Aspekte, erfahren, welche Überlegungen in diesem Zusammenhang eine Rolle spielen und bekommen Anregungen, worauf es bei der Planung und Umsetzung grundsätzlich ankommt.
Das Webinar vermittelt Ihnen eine Orientierung, zeigt wichtige Eckpunkte auf und gibt Impulse, wie Sie das Thema in Ihrem eigenen Umfeld angehen können, ohne dabei zu sehr ins Detail zu gehen.
There are no results matching your search
Aktuell gibt es keine Ergebnisse in dieser Kategorie
There are no results matching your search
Willkommen bei unserem exklusiven Support für Bestandskunden. Hier finden Sie alle nötigen Informationen, um schnell und unkompliziert Hilfe bei technischen Anfragen zu erhalten.
Senden Sie uns Ihr Anliegen mit allen relevanten Details an:
Für eine direkte Unterstützung per Fernwartung, laden Sie bitte unser TeamViewer-Modul herunter:
Bitte beachten Sie: Dieser Kanal ist speziell für technische Anfragen unserer Bestandskunden vorgesehen. Für allgemeine Anfragen, Informationen zu unseren Dienstleistungen oder eine Erstberatung nutzen Sie bitte unser Kontaktformular oder schreiben Sie eine E-Mail an info@rewion.com.