Erfolgreiche Projekte mit Rewion als Trusted Advisor
Die Absicherung von E-Mails gehört zu den wichtigsten Sicherheitsmaßnahmen in jeder Organisation. Angriffe über Phishing, Spoofing oder kompromittierte Accounts gehören nach wie vor zu den größten Bedrohungen für Unternehmen – unabhängig von deren Größe. Ein zentraler Baustein zum Schutz vor solchen Angriffen ist DomainKeys Identified Mail (DKIM). DKIM stellt sicher, dass ausgehende E-Mails kryptografisch signiert werden und der Empfänger prüfen kann, ob die Nachricht tatsächlich von Ihrer Domain stammt und auf dem Transportweg nicht verändert wurde.
Allerdings reicht es nicht aus, DKIM einmalig zu aktivieren. Viele Organisationen richten DKIM ein und lassen die Konfiguration anschließend über Jahre unverändert. Das führt dazu, dass die kryptografischen Schlüssel veralten oder die Schlüssellänge nicht mehr den aktuellen Empfehlungen entspricht. Genau hier kommt die DKIM Key Rotation ins Spiel. Die regelmäßige Rotation sorgt dafür, dass die dahinterliegende Kryptografie robust bleibt, Angriffsflächen minimiert werden und Ihre Domain-Reputation geschützt wird.
Ein häufiger Grund, weshalb Unternehmen sich mit ihrem DKIM-Eintrag auseinandersetzen müssen, ist die zu kurze Schlüssellänge. Ältere DKIM-Konfigurationen verwenden oft noch 1024-Bit-Schlüssel. Diese Länge galt einst als ausreichend, wird heute aber als nicht mehr zeitgemäß betrachtet. Moderne Sicherheitsrichtlinien empfehlen durchgängig 2048-Bit-Schlüssel, da diese kryptografisch deutlich stärker sind und besser gegen mögliche Angriffe schützen. Auch viele E-Mail-Anbieter und Spamfilter bewerten zu kurze DKIM-Schlüssel zunehmend negativ, was letztlich die Zustellbarkeit beeinträchtigen kann. Daher ist es sinnvoll, regelmäßig zu prüfen, welche Schlüssellänge in Ihrer DKIM-Konfiguration hinterlegt ist. Schon die einfache Abfrage eines TXT-Records im DNS zeigt Ihnen, ob Ihr Schlüssel veraltet ist und dringend rotiert werden sollte.
Ansonsten geht es natürlich auch direkt über Powershell. Dazu muss sich zunächst mit Exchange Online verbunden werden und danach über DkimSigningConfig die aktuelle Schlüssellänge für alle Domänen, bei den aktuell DKIM konfiguriert ist, ausgelesen werden.
Get-DkimSigningConfig | Format-Table Identity, Selector1KeySize, Selector2KeySize
Wenn bei Selector1KeySize und Selector2KeySize jeweils anstelle von 2048 noch 1024 steht, sind die Gründe für eine zeitige DKIM Key Rotation noch größer.
Wenn Sie DKIM-Schlüssel in Microsoft 365 rotieren möchten, bietet das Security-Portal einen klar strukturierten Prozess. Sie finden die entsprechenden Einstellungen im Microsoft 365 Defender Portal unter „E-Mail & Kollaboration“ und dann unter den „Bedrohungsrichtlinien“. Dort können Sie unter „E-Mail authentication setting“ die DKIM-Konfigurationen Ihrer Domains verwalten.
Für jede Domain stellt Microsoft zwei Selektoren bereit, typischerweise selector1 und selector2. Über die Funktion zur Rotation generiert Microsoft automatisch einen neuen DKIM-Schlüssel. Allerdings immer nur für einen der beiden Selectoren. Die zweite Rotation muss vier Tage später erfolgen! Dieser Ablauf stellt sicher, dass der alte Schlüssel so lange gültig bleibt, bis der neue ohne Unterbrechung übernommen werden kann. Auf diese Weise wird die Signierung nicht unterbrochen, und die E-Mail-Kommunikation bleibt jederzeit abgesichert. Problematisch es nur, wenn ich gleichzeitig auch die Key-Size ändern möchte, denn das kann ich nur über Powershell machen.
Neben der Änderung der Schlüssellänge ist die Nutzung der Powershell besonders praktisch, wenn Sie mehrere Domains verwalten oder Vorgänge automatisieren möchten. Über den Befehl Connect-ExchangeOnline stellen Sie zunächst die Verbindung her. Nachdem wir bereits, wie zuvor beschrieben, die Keys ausgelesen haben, können wir anschließend mit Rotate-DkimSigningConfig -Identity „Rewion.com“ -KeySize „2048“ („Rewion.com“ hier nur als Beispiel), den ersten DKIM-Schlüssel rotieren lassen und gleichzeitig dessen Schlüssellänge auf 2048-Bit festlegen. Um zu überprüfen, ob die Anpassung der Schlüssellänge erfolgreich war, können Sie erneut Get-DkimSigningConfig | Format-Table Identity, Selector1KeySize, Selector2KeySize verwenden. Auch hier bitte daran denken, dass die zweite Rotation vier Tage später erfolgen muss und der zweite 1024-Bit Wert so lange bestehen bleiben würde, bzw. der zweite 2024-Bit Key weiterhin denselben öffentlichen Schlüssel behält.
Ob der eine Schlüssel erfolgreich rotiert wurde, ist daraufhin öffentlich abfragbar. Dazu gibt es diverse Websites, die es anbieten, den eignen DKIM-Eintrag abzufragen. Beispielsweise können Sie Mxtoolbox.com oder DMARCadvisor.com nutzen.
Die regelmäßige DKIM Key Rotation sorgt also dafür, dass Ihre Organisation langfristig geschützt bleibt. Angesichts der zunehmenden Zahl an Angriffen, die auf schwache oder veraltete Kryptografie abzielen, ist dieses Thema keinesfalls optional. Eine saubere DKIM-Konfiguration stärkt die Vertrauenswürdigkeit Ihrer E-Mails, verbessert die Zustellbarkeit und stellt die Einhaltung moderner Sicherheitsstandards sicher. Es lohnt sich daher, Ihre bestehenden DKIM-Einträge zu überprüfen und – falls notwendig – unverzüglich auf 2048-Bit-Schlüssel umzustellen. Durch die angebotenen Werkzeuge im Security Portal oder in PowerShell lässt sich dieser Prozess effizient und mit überschaubarem Aufwand umsetzen. Wenn Sie möchten, unterstützen wir Sie gerne bei der Umsetzung.
Bei Fragen oder Anregungen zum Thema New Work, zur Microsoft Welt oder zu Collaboration Tools stehen wir Ihnen gerne beratend zur Seite. Wir freuen uns auf Ihre Kontaktaufnahme.
Weitere Blogartikel aus Bereichen, die von New Work, über Microsoft 365 bis hin zu Sustainable IT reichen, finden Sie auf unserer Blogseite. Bleiben Sie des Weiteren auf dem aktuellen Stand und folgen Sie uns auf LinkedIn.
In den letzten Jahren hat Künstliche Intelligenz (KI) enorme Fortschritte gemacht und findet Eingang in immer mehr Lebensbereiche. Allerdings tritt damit ein zentrales Problem zutage: Viele KI-Systeme agieren als undurchsichtige „Black Boxes“. Das bedeutet, dass sie Entscheidungen treffen oder Ergebnisse liefern, ohne dass Menschen nachvollziehen können, wie diese zustande gekommen sind. Die internen Prozesse, die gerade bei komplexen Deep-Learning-Modellen mit Millionen von Parametern kompliziert sind, bleiben verborgen. Auch immer mehr Krankenhäuser setzen Künstliche Intelligenz für verschiedene Zwecke ein, aber diese Intransparenz kann erhebliche Probleme für Medizin, Management und IT in Krankenhäusern bedeuten. Dieses Black-Box-Problem führt zu mehreren schwerwiegenden Konsequenzen:
Neben den ethischen und praktischen Gründen gibt es auch einen starken regulatorischen Druck hin zu erklärbarer KI. Die Europäische Union hat mit dem EU AI Act an einem weltweit ersten umfassenden KI-Gesetzesrahmen gearbeitet. Dieser klassifiziert KI-Systeme nach Risiko und legt strenge Auflagen für sogenannte Hochrisiko-KI fest. Transparenz und Nachvollziehbarkeit sind dabei Kernforderungen. Viele KI-Systeme müssen künftig erklärbare Ergebnisse liefern, umfangreich dokumentiert sein und kontinuierlich auf Risiken überwacht werden. Eine Black-Box-KI gerät hier unmittelbar in Konflikt mit dem AI Act. Denn ein intransparentes System kann die Transparenzpflicht nicht erfüllen, es kann nicht nachweisen, dass es auf qualitativ hochwertigen, nicht diskriminierenden Daten beruht, und es lässt keine effektive Auditierung oder Überwachung zu. Entwickler, die keine Einsicht in die Funktionsweise ihres Modells geben können, würden außerdem gegen die Dokumentationspflichten verstoßen. Die Konsequenz: Solche Black-Box-Modelle wären nicht konform mit dem Gesetz und dürften in Hochrisiko-Bereichen nicht eingesetzt werden! Ein Krankenhaus etwa, das ein KI-Diagnosesystem verwendet, das seine Entscheidungen nicht erklären kann, würde gegen die Vorgaben verstoßen und müsste mit Konsequenzen rechnen.
Um das Black-Box-Problem zu lösen, rückt Explainable AI (XAI), also erklärbare KI, in den Fokus. Darunter versteht man eine Sammlung von Methoden und Prozessen, die darauf abzielen, die Funktionsweise und Entscheidungslogik von KI-Modellen für Menschen verständlich zu machen. Statt undurchsichtiger Algorithmen erhalten Anwender nachvollziehbare Erklärungen dafür, wie ein Ergebnis zustande kam. Das ist nicht nur ein akademisches Nice-to-have, sondern aus mehreren Gründen von hoher praktischer Relevanz:
Explainable AI soll KI-Systeme transparenter, vertrauenswürdiger und verantwortungsvoller machen. Sie ist der Schlüssel, um die Black-Box-Falle zu vermeiden und KI-Entscheidungen verständlich zu machen.
Die XAI-Forschung hat zahlreiche Methoden hervorgebracht, um Blick in die „Black Box“ zu gewähren. Je nach Modelltyp und Anwendungsfall kommen verschiedene Ansätze zum Einsatz. Einige wichtige Techniken sind:
Lokale Surrogatmodelle (LIME): Local Interpretable Model-agnostic Explanations (LIME) ist eine beliebte Technik, um individuelle Vorhersagen zu erklären. LIME erzeugt um die jeweilige Vorhersage herum ein einfaches, interpretierbares Modell (z. B. ein kleines Entscheidungsbaum- oder Linearmodell), das das Verhalten der komplexen KI in diesem lokalen Bereich nachahmt. So kann man vereinfacht sehen, warum das große Modell in genau diesem Fall zu seiner Entscheidung kam.
SHAP-Werte: SHapley Additive exPlanations (SHAP) basieren auf spieltheoretischen Konzepten. Für jedes Merkmal wird ein Beitragswert berechnet, der angibt, wie stark dieses Feature die Vorhersage beeinflusst – positiv oder negativ.
Aufmerksamkeits-Maps: In neuronalen Netzen mit Attention-Mechanismen lässt sich visualisieren, auf welche Eingabeteile das Modell seine Aufmerksamkeit fokussiert hat. Bei Texten können so die Worte hervorgehoben werden, die für die Vorhersage maßgeblich waren. Diese Visualisierungen machen die internen Fokus-Punkte der KI greifbar.
Regel- und Entscheidungsbäume: Einige Methoden versuchen, aus komplexen Modellen Wenn-Dann-Regeln oder Entscheidungsbäume abzuleiten. Entscheidungsbäume sind an sich schon gut interpretierbar. Bei unübersichtlichen Modellen kann man mittels Rule Extraction einen Satz nachvollziehbarer Regeln gewinnen, der das Verhalten des Black-Box-Modells näherungsweise beschreibt.
Kontrafaktische Erklärungen: Ein zunehmend populärer Ansatz sind Counterfactual Explanations. Hierbei wird aufgezeigt, wie eine Entscheidung anders ausfallen würde, wenn bestimmte Eingabedaten geändert würden. Eine kontrafaktische Aussage erklärt, was minimal anders sein müsste, um ein anderes Resultat zu erhalten, was sehr intuitiv verständlich ist.
So vielversprechend Explainable AI ist, in der Praxis gibt es auch Hürden und Zielkonflikte. Die wichtigsten Herausforderungen bei der Entwicklung erklärbarer KI sind:
Genauigkeit vs. Interpretierbarkeit: Häufig besteht ein Trade-off zwischen der Leistungsfähigkeit eines KI-Modells und seiner Erklärbarkeit. Die genauesten Modelle (z. B. tiefe neuronale Netze oder riesige Sprachmodelle) sind oft extrem komplex und schwer zu erklären. Umgekehrt sind einfachere, erklärbare Modelle manchmal weniger präzise.
Komplexität der Erklärungen: Eine Erklärung nützt nur, wenn die Adressatengruppe sie versteht. Technische Details, die für Data Scientists sinnvoll sind, können Endanwender überfordern. XAI muss also die Sprachebene anpassen. Von formalen, mathematischen Erklärungen bis hin zu verständlichen Alltagsmetaphern. Dieses Kommunikationsproblem ist anspruchsvoll, denn die gleiche KI-Ausgabe muss je nach Publikum unterschiedlich erläutert werden, ohne falsch oder trivial zu werden.
Rechenaufwand: Viele Erklärungsverfahren bringen zusätzlichen Overhead mit sich. Beispielsweise erfordert LIME das mehrfache Durchlaufen des Modells mit leicht veränderten Eingaben, SHAP berechnet vielfache Kombinationen von Features. Hier müssen XAI-Methoden noch effizienter werden, um das System nicht auszubremsen.
Angriffe auf Erklärsysteme: Ein oft übersehener Aspekt ist die Sicherheit von XAI-Systemen. Ironischerweise können zusätzliche Informationen, die eine Erklärung liefern, von Angreifern genutzt werden, um das KI-Modell anzugreifen oder zu manipulieren. So wäre es möglich, Erklärungen so zu beeinflussen, dass sie gezielt falsche Sicherheit vermitteln oder die KI zu fehlerhaften Schlussfolgerungen leiten. XAI-Methoden müssen daher selbst robust gegen Manipulation und derartige Eingaben sein.
Explainable AI ist ein entscheidender Schritt, um KI-Systeme vertrauenswürdig, sicher und gesellschaftlich akzeptiert zu gestalten. Erklärbare KI verbindet technologische Innovation mit Transparenz und Verantwortlichkeit. Sie ermöglicht es, dass wir die Vorteile leistungsfähiger KI nutzen können, ohne im Unklaren darüber zu bleiben, wie und warum Entscheidungen getroffen wurden. In Zukunft wird XAI vermutlich noch an Bedeutung gewinnen. Regulierungen wie der EU AI Act machen Erklärbarkeit zur Pflicht für viele Anwendungen. Gleichzeitig erwarten Nutzer und die Gesellschaft zu Recht, dass KI fair und nachvollziehbar handelt. Dadurch erhöhen wir das Vertrauen in Künstliche Intelligenz, erfüllen gesetzliche Auflagen und sorgen dafür, dass KI letztlich dem Menschen rechenschaftspflichtig bleibt. Erklärbare KI ist somit der Schlüssel, um KI vollwertig zu nutzen, ohne dabei die Kontrolle aus der Hand zu geben.
Für Krankenhäuser ist der Weg zur KI neben einer technischen Entscheidung auch ein strategischer Schritt, der weitreichende Konsequenzen für die gesamte Organisation mit sich bringt. Wer heute KI-Systeme einkauft, muss morgen auch deren Entscheidungen vertreten können. Gegenüber Patienten, Mitarbeitenden und Behörden. Mit dem EU AI Act wird deutlich, dass sich Beschaffungsprozesse nicht allein an Funktionen und Preisen orientieren können. Erklärbarkeit, Transparenz und Dokumentation werden zu zentralen Kriterien. Daher ist wichtig, vor der Einführung von KI genau zu prüfen, ob die jeweilige KI-Lösung diese Kriterien erfüllt.
Die Verantwortung endet auch nicht mit der Einführung des Systems. Schulung und Kommunikation werden unabdingbar in der KI-Nutzung. Mitarbeitende müssen nicht nur die Funktionsweise der Systeme verstehen, sondern auch deren Grenzen in der ärztlichen Versorgung, in der Pflege, im Controlling und in der IT kennen. Dabei erhöht eine frühzeitige Einbindung aller beteiligten Berufsgruppen nicht nur die Akzeptanz, sondern schafft auch ein gemeinsames Verständnis für Chancen und Risiken.
Ebenso wichtig ist ein klares Governance-Modell. Kliniken sollten festlegen, wer für die Auswahl, Prüfung, Integration und laufende Überwachung von KI-Systemen zuständig ist.
Letztendlich ist es nicht einfach, KI im Krankenhaus einzuführen und es muss auf einige Aspekte geachtet werden. Wer dabei aber gezielt und strukturiert vorgeht, kann langfristig von den Vorteilen von KI profitieren und seinem Krankenhaus einen deutlichen Mehrwert und Wettbewerbsvorteil verschaffen.
Viele Unternehmen nutzen heute Cloud-Dienste. Oft bedeutet das aber nur, Server bei Amazon, Microsoft oder Google zu mieten, statt im eigenen Rechenzentrum zu betreiben. Cloud Platform Engineering geht einen entscheidenden Schritt weiter: Es verwandelt diese gemieteten Ressourcen in eine maßgeschneiderte, selbstverwaltete Arbeitsumgebung für Teams. In diesem Artikel erklären wir, was genau dahintersteckt, wie Cloud Platform Engineering Teams aussehen und für welche Unternehmen sich dieser Ansatz lohnt.
Bei Cloud Platform Engineering geht es um den systematischen Aufbau und die Verwaltung von Cloud-Infrastrukturen als wiederverwendbare, selbstverwaltete Plattformen. Konkret bedeutet das: Viele Unternehmen setzen Cloud-Dienste einzeln und unabhängig voneinander ein, sodass jeder User sich mit allen Bestandteilen auseinandersetzen, sie verstehen und zusammenbauen muss. Cloud Platform Engineering funktioniert wie eine Art Bausatz-System und verwandelt die komplexen Einzelteile in standardisierte, einfach nutzbare Werkzeuge, die jeder im Team sofort verwenden kann. So wird die Cloud-Infrastruktur als Produkt behandelt, das kontinuierlich verbessert und an die Bedürfnisse der internen Nutzer angepasst wird.
Der Unterschied zur reinen Cloud-Administration ist dabei grundlegend. Cloud-Admins kümmern sich darum, dass Server laufen, Updates installiert werden und alles funktioniert. Cloud Platform Engineering hingegen gestaltet eine komplette Arbeitsumgebung, in der Teams selbstständig agieren können. Dabei verfolgt Platform Engineering drei zentrale Ziele:
Damit Cloud Platform Engineering funktioniert, braucht es klar definierte Aufgaben und Verantwortlichkeiten. Ein Platform Engineering Team besteht dabei aus verschiedenen Rollen:

Die Verantwortlichkeiten sind jedoch klar getrennt: Das Platform Team stellt die Infrastruktur bereit, DevOps optimiert Prozesse und Teams nutzen die Plattform für verschiedene Zwecke. Diese klare Aufgabenteilung schafft Effizienz und ermöglicht es jedem Team, sich auf seine Kernkompetenzen zu konzentrieren. Grundsätzlich geht es darum, eine funktionale Plattform für alle Nutzergruppen zu schaffen: Das kann beispielsweise ein lockeres Zusammenklicken von Services in einer Sandbox-Umgebung sein, aber auch das Enablement von Teams zum compliance-gerechten Deployment eines Workloads.
Cloud Platform Engineering ist kein Muss für jedes Unternehmen. Die Investition in eine umfassende Platform-Strategie lohnt sich vor allem unter bestimmten Kriterien:
Mehrere Nutzergruppen in einem Unternehmen
Unternehmen mit mehreren potenziellen Nutzergruppen profitieren am meisten. Wenn zehn oder mehr Mitarbeitende regelmäßig Cloud-Ressourcen nutzen, zahlt sich die Investition schnell aus. So bastelt nicht mehr jedes Team einzelne Lösungen, sondern alle nutzen dieselbe optimierte Plattform. Die Standardisierung reduziert Reibungsverluste und beschleunigt die Entwicklung über alle Teams hinweg.
Compliance im Mittelpunkt
Organisationen mit hohen Compliance-Anforderungen wie Banken, Versicherungen oder das Gesundheitswesen finden in Platform Engineering einen Verbündeten. Sie müssen nachweisen, dass ihre Systeme bestimmte Sicherheitsstandards erfüllen. Eine gut aufgebaute Plattform stellt automatisch sicher, dass jede Anwendung diese Anforderungen erfüllt, ohne dass Nutzer an unzählige Details denken müssen.
Wachstumsorientierung
Skalierungsorientierte Unternehmen, die schnelles Wachstum erwarten oder erleben, benötigen flexible Infrastrukturen. Wer in kurzer Zeit deutlich mehr Kunden erwartet, kann nicht auf manuelle Prozesse setzen. Cloud Platform Engineering ermöglicht es, neue Märkte schnell zu erschließen und Lastspitzen problemlos zu bewältigen.
Zu Beginn der Cloud-Migration
Unternehmen, die eine Cloud-Migration planen, sollten Platform Engineering von Beginn an berücksichtigen. Statt verschiedene Cloud-Services einzeln zu nutzen, schafft eine durchdachte Plattform-Strategie von Anfang an Struktur und vermeidet späteren Refactoring-Aufwand.
Weniger geeignet ist der Ansatz für sehr kleine Teams, Start-ups in frühen Phasen mit begrenzten Ressourcen oder Projekte mit einfachen Anforderungen, die sich kaum ändern. Hier ist der Aufwand oft größer als der Nutzen.
Cloud Platform Engineering geht weit über traditionelles Cloud Hosting hinaus und entwickelt sich zur wichtigen Grundlage für moderne Cloud-Infrastrukturen in Unternehmen. Statt einfach nur Server zu mieten, schaffen Unternehmen eine maßgeschneiderte Arbeitsumgebung, die Teams in der Anwendung das Leben erleichtert und gleichzeitig Sicherheit, Skalierbarkeit und Effizienz garantiert. Die verschiedenen Rollen arbeiten dabei Hand in Hand: Platform Engineers bauen die Grundlage, DevOps optimiert die Prozesse und Endnutzer können sich auf ihre jeweiligen Stärken konzentrieren. Für Unternehmen mit mehreren Nutzergruppen, hohen Sicherheitsanforderungen oder Wachstumsambitionen ist Cloud Platform Engineering eine strategische Investition, die sich langfristig auszahlt und den entscheidenden Wettbewerbsvorteil bringen kann.
Die Krankenhausreform 2025 markiert einen der größten Umbrüche im deutschen Kliniksektor seit Einführung der DRGs. Sie soll eine „Entökonomisierung“ bewirken und die Qualität der Versorgung erhöhen. Kern des Reformpakets – verankert im Krankenhausversorgungsverbesserungsgesetz (KHVVG) – ist der Übergang weg vom reinen DRG-Fallpauschalensystem hin zu einem hybriden Vergütungssystem mit Vorhaltefinanzierung und Leistungsgruppen. Laut dem Bundesministerium für Gesundheit erhalten notwendige Krankenhäuser künftig eine Art Existenzgrundlage durch Vorhaltepauschalen, sodass auch Kliniken mit weniger Fällen weiterbestehen können. Gleichzeitig werden rund 60–65 Leistungsgruppen (LGs) eingeführt. Das sind klar definierte Bündel medizinischer Leistungen mit bundesweiten Qualitäts- und Strukturkriterien. Bis Ende 2026 müssen die Bundesländer jedem Krankenhaus bestimmte LGs zuteilen, was die zugelassenen Tätigkeitsfelder der Klinik festlegt. Nur Kliniken, die die anspruchsvollen Mindestanforderungen (z.B. Personal, Fallzahlen, Ausstattung) der jeweiligen Leistungsgruppe erfüllen, dürfen diese Leistungen anbieten. Dieses Qualitätsprinzip soll komplexe Behandlungen an spezialisierten Zentren konzentrieren und die Versorgungssicherheit heben, birgt aber die Gefahr, dass kleinere Häuser Leistungen verlieren und sogar schließen müssen, wenn sie Kriterien nicht erfüllen. Insgesamt sollen Qualität und bedarfsgerechte Struktur klar vor Wachstum um jeden Preis stehen. Der ehemalige Gesundheitsminister Lauterbach warnte, ohne Reform müssten sonst bis 2030 ~25% der Kliniken insolvenzbedingt schließen.
Die Reform begreift die digitale Transformation als Herzstück und Motor ihrer Ziele und anders als das KHZG (Krankenhauszukunftsgesetz), das befristete Einzelförderungen für z.B. Patientenportale oder digitale Geräte bot, fordert das KHVVG nun ganzheitliche Digitalisierungskonzepte als Voraussetzung für Fördermittel. Krankenhäuser müssen ihre IT-Infrastruktur modernisieren und interoperabel ausrichten, um Effizienzsteigerung, bessere Vernetzung und Entlastung des Personals zu erreichen. Künftig verlangt die sektorenübergreifende Versorgung einen reibungslosen Datenaustausch zwischen Kliniken und Ambulanten z.B. via elektronischer Patientenakte (ePA), Telemedizin-Plattformen und Cloud-Lösungen. Eine leistungsfähige IT-Infrastruktur ist dafür das Fundament und Insellösungen müssen abgebaut werden. Entsprechend sind umfassende Investitionen in Netzwerke, Hardware und Software unumgänglich. Cloud-Services und SaaS gewinnen an Bedeutung, da sie standortübergreifende Kollaboration erleichtern und skalierbar sowie sicher betrieben werden können.
Außerdem steigen mit der Vernetzung die Anforderungen an die Cybersicherheit erheblich, da Vorgaben aus IT-Sicherheitsgesetz, DSGVO und NIS2 eingehalten werden müssen. Ausfälle durch Cyberangriffe können im schlimmsten Fall sogar lebensbedrohlich für Patienten sein, weshalb IT-Security in Kliniken immer wichtiger wird. Kurz: Die Reform zwingt Kliniken, digitale Schwachstellen proaktiv anzugehen. IT-Leitungen sind gefordert, Resilienz-Checks durchzuführen und Strategien zu entwickeln, wie sie Förderprogramme gezielt nutzen, um Lücken zu schließen. Digitalprojekte müssen in ein holistisches Digitalisierungskonzept eingebettet werden. Das betrifft auch die Personalentwicklung, denn Mitarbeiter brauchen Schulungen im Umgang mit neuen Systemen, damit die Akzeptanz steigt und digitale Tools im Alltag wirklich genutzt werden.
Die ~60 Leistungsgruppen (z.B. Allgemeine Innere Medizin, Geburtshilfe, Herzchirurgie etc.) bringen ein völlig neues Planungsinstrument in die Krankenhauslandschaft. Sie ersetzen die bisherigen Fachabteilungsbegriffe durch bundesweit einheitliche Kategorien mit klaren Qualitätskriterien und Mindestmengen. Ein vom BMG eingesetzter Leistungsgruppen-Ausschuss erarbeitet laufend Empfehlungen zu diesen Kriterien. Die Länder müssen jedem Krankenhaus genau definieren, für welche Leistungsgruppen es autorisiert ist. In der Praxis erfordert das von jedem Haus eine kritische Portfolio-Analyse: Wo erfüllen wir die Voraussetzungen (z.B. genügend Fachpersonal, 24/7-Bereitschaften, Mindestfallzahlen) und wo nicht? Viele Krankenhäuser müssen ihr Leistungsspektrum anpassen, ggf. freiwillig auf bestimmte Leistungen verzichten oder Kooperationen eingehen, um Qualitätsvorgaben zu erfüllen. Solche Entscheidungen zwingen Häuser dazu, entsprechende Abteilungen zu schließen oder Patienten in andere Kliniken zu verweisen.
Im Gegenzug sollen spezialisierte Zentren gestärkt werden, indem komplexe Eingriffe dort gebündelt bessere Ergebnisse erzielen. Das erfordert allerdings ein fein abgestimmtes regionales Netzwerk, damit Patienten trotzdem wohnortnah versorgt werden. Die Reform fördert deshalb neue sektorenübergreifende Versorgungszentren (SüV), in denen z.B. ein Grundversorger Krankenhaus zusätzlich ambulante OPs, Kurzzeit- und Übergangspflege anbietet. Solche Umwandlungen entscheiden die Bundesländer. Sie können Kliniken zu Hybridstrukturen weiterentwickeln, um die Basisversorgung vor Ort zu sichern. Dieser Aspekt kommt vor allem ländlichen Regionen zugute, wo viele kleine Häuser existieren.
Mit der Reform steigt der bürokratische Aufwand in puncto Datenlieferungen deutlich, denn Krankenhäuser müssen künftig noch mehr Daten erfassen und melden, oft ohne erkennbaren Nutzen im Klinikalltag, wie der Geschäftsbereichsleiter Digitalisierung & eHealth der DKG kritisiert. So wurde z.B. entschieden, für den neuen Bundes-Klinik-Atlas quartalsweise zusätzliche Leistungs- und Qualitätsdaten jedes Krankenhauses an das InEK zu übermitteln. Dieser “Krankenhausatlas” (online seit Mai 2024) veröffentlicht für Patienten verständlich, welche Klinik welche Leistungen in welcher Qualität anbietet, inklusive Indikatoren wie personelle Ausstattung. Zwar stärkt das die Transparenz für die Öffentlichkeit, bedeutet für die IT-Abteilungen aber, neue Datenströme aufzusetzen und Datensätze aufzubereiten. Viele Infos (z.B. Zuordnung von Personal zu Fachabteilung je Standort, Zuordnung von Personal zu Leistungsgruppen) müssen außerdem Quartalsweise ans InEK übermittelt werden, was Krankenhäuser zum Teil vor erhebliche Herausforderungen stellt. Die Reform hat somit eine paradoxe Doppelwirkung: Einerseits will sie Bürokratie abbauen, andererseits entstehen neue Bürokratiepflichten im Datenmanagement. Markus Holzbrecher-Morys von der DKG bemängelt, es sei versäumt worden zu schauen, wo Digitalisierung wirklich entlasten könnte, statt immer neue Meldewege aufzubauen. Für die Kliniken bedeutet das, dass IT- und Controlling-Teams noch enger zusammenarbeiten müssen, um die wachsenden Reporting-Anforderungen (Qualitätsberichte, Personalnachweise pro LG etc.) fristgerecht und korrekt zu bedienen.
Finanziell wird die Reform durch einen Transformationsfonds von beispiellosem Umfang gestützt. Bund und Länder stellen über 10 Jahre insgesamt 50 Mrd. € bereit. Dieser Fonds fördert Reformprojekte in acht Kategorien (sog. Fördertatbestände). Dazu zählen z.B. die Konzentration akutstationärer Versorgungskapazitäten, Umstrukturierung zu sektorenübergreifenden Gesundheitszentren, Aufbau telemedizinischer Netzwerke und Telechirurgie, Einrichtung spezialisierter Zentren an Unikliniken für komplexe Erkrankungen, oder integrierte Notfallversorgungsstrukturen. Sogar förderfähig ist die dauerhafte Schließung von Krankenhäusern, inkl. Rückbau- und Personalmaßnahmen, wenn dies regional sinnvoll ist. Ebenso der Ausbau von Pflegeschulen zur Fachkräftesicherung. Wichtig hier ist, dass Fördergelder nur für nachhaltige Transformationsprojekte fließen, nicht für laufende Betriebskosten. Kliniken müssen belastbar darlegen, wie ein Projekt die Versorgungsstrukturen im Sinne der Reform verbessert.
Gleichzeitig setzt die Reform mit der Vorhaltefinanzierung ab 2026 auf eine neue Vergütungslogik: 40% der Klinikvergütung sollen als Sockelbetrag für vorgehaltene Kapazitäten fließen, unabhängig von Fallzahlen. Innerhalb eines Korridors von ±20% Fallzahländerung bleibt dieser Anteil konstant, was Planbarkeit schaffen soll. Vorteile des Modells sind geringerer ökonomischer Mengendruck und Förderung von Spezialisierung, Nachteile könnten mehr Verwaltungsaufwand und das Risiko einer Leistungsrationierung (falls Fälle die Korridor-Obergrenze überschreiten und unbezahlte Mehrleistungen erbracht werden) sein. Zusätzlich plant die Reform Hybrid-DRGs auszuweiten, um ambulante Fälle zu fördern: Ab 2026 müssen mindestens 1 Mio. Fälle ambulant abgerechnet werden, steigend auf 2 Mio. bis 2030. Dies soll die Ambulantisierung voranbringen, wird aber für Kliniken eine Umstellung bedeuten. Überdies sind ab 2027 weitere 800 Mio. € jährlich für gezielte Förderungen von bestimmten Einrichtungen, bestimmten Fachbereichen, Notfallstufen-Aufstockung und Anpassungen der Landesbasisfallwerte vorgesehen.
Die Reform wird schrittweise Realität und einige Elemente sind bereits in Kraft: Das KHVVG trat am 1.1.2025 in Kraft, ebenso das Krankenhaustransparenzgesetz und die KHTFV (Förder-Verordnung für den Transformationsfonds). Der Leistungsgruppen-Ausschuss arbeitet seit Januar 2025. Seit 1.7.2025 können Förderanträge für Strukturprojekte gestellt werden. Die entscheidende Phase wird aber ab 2026/27 beginnen: Dann greift die Vorhaltefinanzierung (40% Budgetumstellung), die Bundesländer müssen bis Ende 2026 die LG-Zuweisungen abschließen, und ab 2027 gelten neue Finanzierungs- und Notfallregeln. Die Notfallversorgung selbst wird durch ein geplantes Notfallzentren-Gesetz NotfallG neu geordnet (Einführung Integrierter Notfallzentren an Kliniken).
Für Kliniken bedeutet die Krankenhausreform strategische Planung, Antragstellung, Umbau und ggf. Zusammenschlüsse müssen parallel zum laufenden Betrieb gestemmt werden. Bereits jetzt zeigt sich, dass weitere Anpassungen nötig sind, um Praxisprobleme zu lösen. Die neue Bundesgesundheitsministerin Nina Warken spricht davon, an der Reform nachzusteuern, wo es nötig ist. Trotz allem Zeitdruck ist eine sorgfältige Umsetzung entscheidend. Übereilte Schließungen oder unkoordinierte Veränderungen könnten sonst die Versorgung gefährden.
Für große Maximalversorger und Spezialkliniken bietet die Reform erhebliche Chancen. Sie können ihre Rolle als Zentren ausbauen, von der Konzentration komplexer Fälle profitieren und über den Transformationsfonds großzügige Mittel erhalten. Durch Kooperationen mit umliegenden Häusern können sie zum Anker regionaler Netzwerke werden. Allerdings stehen auch sie vor Herausforderungen: Die neuen Qualitätsvorgaben erfordern mehr Fachpersonal und Investitionen in Prozesse, was in Zeiten des Fachkräftemangels nicht trivial ist. Zudem erhöht die Transparenz (z.B. Vergleichsportale) den Wettbewerb um Patienten und Personal.
Mittelgroße Krankenhäuser müssen strategisch klug navigieren. Viele werden sich spezialisieren oder Leistungsportfolio reduzieren müssen, um die Anforderungen ihrer Kern-LGs zu erfüllen. Sie könnten vermehrt Schwerpunkte bilden (etwa ein Haus fokussiert sich auf Orthopädie, ein anderes Kardiologie in der Region). Kooperationen und Verbünde werden für diese Häuser essenziell – gemeinsam lässt sich etwa ein 24/7-Bereitschaftsdienst eher absichern als allein. Das stellt neue Anforderungen an IT (Verbundsysteme, gemeinsame Telekonsile etc.) und Governance. Ein Risiko ist, dass mittlere Häuser im Übergang Einnahmen verlieren, wenn bestimmte lukrative Leistungen wegfallen.
Kleine Grund- und Regelversorger in ländlichen Gebieten sollen durch die Reform eigentlich geschützt werden (Stichwort flächendeckende Versorgung). Sie erhalten über Vorhaltebudgets eine Grundfinanzierung, auch wenn Fallzahlen sinken. Zudem können sie sich zu Gesundheitszentren wandeln, die etwa Notfallversorgung, interne Medizin und ambulante Angebote bündeln. Doch es bleiben Risiken. Wenn die Vorhaltefinanzierung keine zusätzlichen Gelder bringt, könnten auch kleine Häuser finanziell weiter unter Druck stehen. Müssen sie Leistungen wie Geburtshilfe oder Chirurgie aufgeben, weil sie die Kriterien nicht erfüllen, könnte das Image leiden und Patienten abwandern. Offene Fragen sind, wie die Bevölkerung solche Veränderungen annimmt. Schließt „das kleine Krankenhaus nebenan“, kann das zunächst Widerstand erzeugen. Außerdem muss politisch begleitet werden, dass Notfall- und Grundversorgung überall erreichbar bleiben. Auch steht zur Diskussion, wie Haftung und Verantwortung verteilt werden, wenn mehrere Häuser im Verbund Versorgung leisten. Hier könnten neue Modelle nötig sein.
Die Krankenhausreform 2025 bringt für Klinik-Entscheider eine Fülle strategischer Implikationen. Sie erzwingt Modernisierung insbesondere in Digitalisierung und IT, die als Enabler für Vernetzung, Qualitätstransparenz und Effizienz dienen. Sie eröffnet Chancen auf Fördermittel in nie dagewesener Höhe, verlangt aber vorausschauende Planung und Kooperation. Gerade hier muss identifiziert werden, wo aktuelle Schwachstellen liegen und wie der Fonds für das eigene Haus genutzt werden kann. Gleichzeitig erhöht sie den Regulierungsdruck, denn starre Qualitätsvorgaben und Meldepflichten fordern den Einrichtungen organisatorisch viel ab. Große Häuser können gestärkt hervorgehen, während kleinere kreativ ihre Rolle neu definieren müssen, um im neuen System zu bestehen. Erfolgreich wird die Reform aus Sicht der Krankenhäuser nur sein, wenn neben Struktur und Qualität auch die Finanzierung nachhaltig gesichert wird und digitale Innovation tatsächlich Bürokratie abbaut statt erzeugt.
Mobile Endgeräte wie Laptops, Smartphones und Tablets sind aus dem Unternehmensalltag längst nicht mehr wegzudenken. Sie ermöglichen flexibles Arbeiten, müssen aber auch durchdacht eingesetzt werden. Mobile Device Management macht die zentrale Verwaltung und Absicherung der Geräte möglich. Wie lässt sich eine solche MDM-Lösung aber einführen, ohne dabei den laufenden Alltag zu stören? Schließlich können die Geräte nicht einfach für mehrere Tage oder Wochen außer Betrieb genommen werden. Wir geben einen Überblick über mögliche Wege für die Mobile Device Management Integration in Unternehmen und geben Tipps für die Praxis.
Die Einführung eines Mobile Device Management Systems ist für viele Unternehmen ein Balanceakt: Einerseits müssen mobile Endgeräte zentral erfasst, verwaltet und abgesichert werden, andererseits darf der laufende Geschäftsbetrieb nicht beeinträchtigt werden. Es entstehen also verschiedene Herausforderungen:
Unternehmen haben also die Aufgabe, zuerst umfassend zu planen, schrittweise vorzugehen und vor allem transparent zu kommunizieren, um Mitarbeitende von den Veränderungen zu überzeugen.
Für eine erfolgreiche MDM-Integration sind drei große Schritte nötig: eine gründliche Vorbereitung, die schrittweise Implementierung und die dauerhafte Optimierung. Insbesondere die schrittweise Einführung sorgt dafür, dass die Implementierung nicht zu Schwierigkeiten im Arbeitsalltag führt.

Eine umfassende Vorbereitung ist die Grundlage für die erfolgreiche Einführung einer MDM-Lösung. In dieser Phase werden alle technischen, organisatorischen und kommunikativen Vorbereitungen getroffen, damit die spätere Implementierung reibungslos und nach klarem Plan ablaufen kann.
Für die tatsächliche Integration ist ein kontrolliertes und schrittweises Vorgehen der Weg der Wahl. Insbesondere, wenn es darum geht, den laufenden Betrieb nicht zu stören, sorgt ein durchdachter Prozess für Sicherheit und Akzeptanz.
Nach dem Rollout steht die wichtige Phase der Überwachung und Weiterentwicklung auf dem Plan. Kontinuierliche Evaluation und Anpassung sorgen dafür, dass das MDM-System langfristig funktioniert und akzeptiert wird.
Die Integration von Mobile Device Management im laufenden Betrieb ist zwar komplex, aber mit strukturiertem Vorgehen erfolgreich umsetzbar. Grundlage für eine erfolgreiche Einführung sind eine detaillierte Vorbereitung mit klarer Bestandsaufnahme, schrittweise Implementierung über Pilotphasen bis zum vollständigen Rollout und eine kontinuierliche Erfolgskontrolle und Optimierung. Auch transparente Kommunikation mit den Mitarbeitenden, Support und das Angebot von Schulungen spielen eine wichtige Rolle. Wichtig ist letztendlich, dass MDM im Detail geplant wird, bevor es in die Umsetzung geht. So entsteht am Ende ein stabiler Betrieb mit reduzierten Sicherheitsrisiken und hoher Produktivität, der flexible Arbeit sicher ermöglicht.
Die Europäische Union stellt die Cloud-Souveränität immer weiter in den Mittelpunkt: In aktuellen Ausschreibungen kommt erstmals ein umfassendes Cloud Sovereignty Framework zum Einsatz, das digitale Souveränität einerseits definiert und sie andererseits messbar macht. Unternehmen können dieses Framework damit als praktischen Leitfaden für ihre eigene Cloud-Strategie einsetzen. Denn die Frage nach Kontrolle, Unabhängigkeit und Rechtssicherheit in der Cloud betrifft längst nicht mehr nur öffentliche Organisationen, sondern alle Unternehmen, die kritische Daten und Workloads in die Cloud verlagern. Erfahren Sie in diesem Artikel, was das Cloud Sovereignty Framework beinhaltet und wie Sie es in der Praxis einsetzen können.
Das von der EU-Kommission entwickelte Cloud Sovereignty Framework basiert auf acht klar definierten Souveränitätszielen. Sie decken verschiedene Aspekte digitaler Unabhängigkeit ab und schaffen so einen ganzheitlichen Rahmen:
Einer der wichtigsten Faktoren des Cloud Sovereignty Frameworks ist die Möglichkeit zur praktischen Anwendung als Bewertungsinstrument in Unternehmen. Die EU nutzt ein zweistufiges Bewertungssystem, das Mindestanforderungen definiert und Differenzierung ermöglicht. Darauf können sich auch Unternehmen in ihrer eigenen Bewertung rund um die souveräne Cloud stützen.
Eine fünfstufige Skala (SEAL-Level: Sovereignty Effectiveness Assurance Levels) von SEAL-0 bis SEAL-4 definiert den Grad der Souveränität.

Ergänzend zum SEAL-Level berechnet die EU einen gewichteten Sovereignty Score. Die Gewichtung ist strategisch durchdacht: Operative Souveränität und Supply Chain Souveränität erhalten jeweils 20 %, da sie die praktische Unabhängigkeit und Resilienz am stärksten beeinflussen. Strategische und Technologie-Souveränität werden mit je 15 % gewichtet. Daten- und KI-, Rechts- und Sicherheitssouveränität erhalten je 10 %, da diese Bereiche bereits durch andere Regularien wie DSGVO, NIS2 oder DORA abgesichert sind. Nachhaltigkeit fließt mit 5 % ein.
Die anschließende Bewertung erfolgt durch offene und geschlossene Fragen an Cloud-Anbieter und wird ergänzt durch Nachweise und öffentliche Dokumentation. Gibt es Schwächen in einzelnen Bereichen, wird der Provider im Gesamtlevel heruntergestuft. Durch diesen Ansatz stellt die EU sicher, dass die Gesamtbewertung nicht durch gute Werte in einzelnen Bereichen beeinflusst werden kann.
Das Cloud Sovereignty Framework ist nicht nur für EU-Ausschreibungen relevant. Vielmehr können auch Unternehmen es als Grundlage für ihre eigene Cloud-Souveränitätsstrategie nutzen. Möglichkeiten zur Anpassung gibt es verschiedene:
Einerseits kann dieser Ansatz Unternehmen dabei helfen, die passenden Cloud Provider auszuwählen, andererseits kann auch die ganze Cloud-Strategie daran ausgerichtet werden. Das Cloud Sovereignty Framework schafft in jedem Fall einen sachlichen Rahmen, der Kriterien messbar und mit den individuellen Geschäftsanforderungen verknüpfbar macht.
Sowohl im öffentlichen Sektor als auch in der freien Wirtschaft hat das Cloud Sovereignty Framework die Chance, zum neutralen Standard für die Bewertung souveräner Cloud-Lösungen zu werden. Die Kombination aus acht klar definierten Dimensionen, einem abgestuften Bewertungssystem und einer transparenten Scoring-Methode schafft einen objektiven und vergleichbaren Rahmen für ein bisher oft individuell und subjektiv diskutiertes Thema. Unternehmen können das Framework als strategischen Leitfaden für ihre eigene Cloud-Strategie einsetzen und die einzelnen Kriterien an individuelle Bedürfnisse anpassen. Statt auf schwammige Souveränitätsversprechen zu vertrauen, können CIOs und IT-Verantwortliche jetzt konkrete Anforderungen definieren und ihren Fortschritt nachvollziehbar bewerten.
Wenn in Krankenhäusern über Künstliche Intelligenz (KI) gesprochen wird, denken viele zuerst an technische Fragen: Welches System eignet sich? Welche Daten braucht es? Wie funktioniert die Integration in bestehende IT-Systeme? Aber ebenso wichtig ist es, KI im Krankenhaus zu organisieren. Technische Fragen sind zweifellos zentrale Themen, aber sie greifen zu kurz. Denn jedes KI-Projekt ist immer auch ein Organisationsprojekt.
Ein KI-System kann noch so leistungsfähig sein, aber wenn niemand festgelegt hat, wer es betreut, wer die Ergebnisse prüft oder wie es in die täglichen Abläufe eingebunden wird, bleibt der Nutzen gering. Mit einem vielversprechenden Tool zu starten, nur um dann festzustellen, dass es nicht konsequent genutzt wird oder dass Unklarheit darüber herrscht, wie mit den Ergebnissen umzugehen ist, ist ineffizient.
Beispiel: Eine KI, die Rechnungen automatisch prüft, entlastet nur dann, wenn klar geregelt ist, wer bei Abweichungen entscheidet und wie die Ergebnisse dokumentiert werden. Fehlt diese Abstimmung, kommt es schnell zu Doppelarbeit oder die KI bleibt ungenutzt.
Eine weitere zentrale Frage lautet: Wer trägt Verantwortung? In Krankenhäusern sind oft verschiedene Akteure beteiligt, von der IT, Verwaltung, Datenschutz, bis zu Fachabteilungen. Ohne klare Zuweisung von Zuständigkeiten entstehen Reibungsverluste, deshalb ist Transparenz hier entscheidend. Ein möglicher Ansatz sind KI-Gremien oder Steuerkreise, die regelmäßig über Projekte beraten, Entscheidungen bündeln und für Verbindlichkeit sorgen.
Das macht nicht nur Abläufe klarer, sondern gibt auch den Mitarbeitenden Sicherheit. Denn wenn nachvollziehbar ist, wer entscheidet und welche Prozesse gelten, steigt die Akzeptanz und gerade in sensiblen Bereichen schafft das Vertrauen.
Die Einführung einer KI-Lösung bedeutet: Routinen werden automatisiert, Aufgaben verschieben sich, Rollen werden neu verteilt. Das sorgt zwar für Effizienz, kann aber auch Unsicherheiten auslösen, da sich der Arbeitsalltag verändert. „Macht die KI meinen Job überflüssig?“ oder „Verändert sich meine tägliche Arbeit?“ sind Fragen, die immer wieder auftauchen.
Hier ist Changemanagement gefragt. Mitarbeitende müssen verstehen, warum KI eingeführt wird, welchen Nutzen sie bringt und wie sich ihre Arbeit dadurch verändert. Dabei können Schulungen, Workshops und offene Kommunikation unterstützen. Denn nur wenn Akzeptanz entsteht, lässt sich die Technologie nachhaltig nutzen.
KI-Projekte sind komplex, aber sie lassen sich vereinfachen, wenn einheitliche Vorgehensweisen etabliert werden. Das beginnt bei Vorlagen für Projektpläne, reicht über klare Dokumentationspflichten bis hin zu standardisierten Prüfprozessen für Ergebnisse.
Gerade in großen Häusern laufen oft mehrere Digitalisierungsprojekte parallel. Wenn jedes Team eigene Wege geht, entstehen Ineffizienzen und Doppelarbeit. Standardisierte Strukturen dagegen ermöglichen Synergien, machen Erfolge vergleichbar und sichern Qualität.
Neben der Organisation müssen auch Abläufe im Veränderungsprozess berücksichtigt werden. Bestehende Prozesse müssen analysiert und, wenn nötig, verändert werden. Ein klassisches Beispiel: Eine KI-Lösung zur Dienstplanerstellung bringt wenig, wenn die dafür notwendigen Daten zu Personalverfügbarkeiten oder Qualifikationen gar nicht digital vorliegen oder an verschiedenen Stellen erfasst werden.
Das bedeutet: Schnittstellen zu Systemen und Daten sind ebenso wichtig wie klare Regeln für die Zusammenarbeit. Fehlen sie, entstehen Insellösungen und die Wirkung von KI bleibt begrenzt.
Unter organisatorische Hürden fallen beispielsweise Ressourcenknappheit, unklare Verantwortlichkeiten oder Unsicherheit bei der Bewertung von Ergebnissen. Sensibilisierung und transparente Kommunikation helfen, potenzielle Stolpersteine zu erkennen, bevor sie zum Problem werden.
Hier könnte eine frühzeitige Analyse unterstützen, die nicht nur technische Voraussetzungen, sondern auch organisatorische Rahmenbedingungen prüft. Dabei wird klar: Wo stehen wir? Welche Rollen sind schon definiert? Wo braucht es zusätzliche Abstimmungen?
KI im Krankenhaus einzuführen, ist kein Thema, das nur die IT betrifft. Es ist ein Organisationsprojekt, das klare Strukturen, Verantwortlichkeiten und Kommunikation erfordert. Technik liefert zwar die Basis, aber erst die organisatorische Verankerung entscheidet über den Erfolg und den langfristigen Nutzen.
Oder anders gesagt: Wer KI einführt, ohne die Organisation und Veränderung von Beginn an zu berücksichtigen, riskiert Fehlinvestitionen und die Vorteile, die KI mit sich bringen soll, bleiben aus. Wer dagegen Strukturen schafft und Mitarbeitende einbindet, legt die Grundlage dafür, dass KI nicht nur Pilot bleibt, sondern fester Bestandteil des Klinikalltags wird.
KI im Krankenhaus erfolgreich einzuführen, bedeutet mehr als nur zu kaufen und zu installieren. Vielmehr entscheidend ist ein strukturierter Prozess, der sicherstellt, dass die Technologie echten Mehrwert schafft. Die Einführung von KI lässt sich in fünf zentrale Schritte gliedern, die wie eine Roadmap funktionieren und Orientierung geben.
Am Anfang steht eine Bestandsaufnahme. Dabei gilt es zu definieren: Welche Prozesse gibt es bereits, wie laufen sie ab, welche Systeme und Daten werden genutzt? Eine solche Analyse schafft Transparenz darüber, wo die größten Herausforderungen liegen. Ohne dieses Verständnis ist es kaum möglich, passende Lösungen zu entwickeln oder im Krankenhaus zu implementieren. Typische Fragen sind: Wo entstehen Engpässe? Welche Tätigkeiten sind zeitaufwändig oder fehleranfällig? Und welche Daten liegen überhaupt vor, in welcher Qualität und in welchem Format?
Gerade im Krankenhaus ist diese Phase besonders wichtig, weil IT-Systeme häufig historisch gewachsen und entsprechend komplex sind. Wer hier gleich zu Anfang sauber analysiert, schafft die Basis für fundierte Entscheidungen im weiteren Projektverlauf.
Auf die Analyse folgt die konzeptionelle Arbeit, wobei eine Problemstellung oder ein Verbesserungspotenzial beschrieben und eine erste Nutzenhypothese formuliert wird. Es reicht nicht zu sagen „Wir wollen KI nutzen“. Es braucht eine klare Hypothese: Welches konkrete Problem soll im Krankenhaus durch KI gelöst werden und welchen Mehrwert bringt das? Das macht ein gutes Konzept aus.
Beispiel: Statt allgemein „Wir wollen den Dokumentationsaufwand reduzieren“ zu sagen, könnte die Hypothese lauten: „Durch eine KI-gestützte Spracherkennung lässt sich die Zeit für Arztbriefe um 30 % verkürzen.“ Solche Hypothesen machen das Projekt greifbar und ermöglichen es, später den tatsächlichen Nutzen zu überprüfen.
Im nächsten Schritt werden erste Lösungsansätze geprüft und konkretisiert. Das heißt: Welche Technologien gibt es am Markt? Welche Anbieter kommen infrage? Wie ließe sich die Lösung technisch und organisatorisch umsetzen?
Wichtig ist hier auch die Abstimmung mit IT, Datenschutz und Rechtsabteilung. Gerade bei KI spielen Fragen des Datenschutzes, der Datenqualität und der Anschlussfähigkeit an bestehende Systeme eine zentrale Rolle. Je früher diese Themen berücksichtigt werden, desto reibungsloser lässt sich das Projekt später umsetzen.
Kein KI-Projekt funktioniert langfristig, wenn es nur „von oben“ beschlossen wird. Mitarbeitende müssen verstehen, warum Veränderungen notwendig sind, welchen Beitrag KI leisten soll und wie sich ihre Arbeit dadurch verändert. Deshalb ist es wichtig, schon frühzeitig Beteiligte einzubinden, zu schulen und eine offene Kommunikation zu führen.
Changemanagement bedeutet dabei auch, Widerstände gegen die Veränderung ernst zu nehmen und aktiv mit Unsicherheiten umzugehen. Nur so lassen sich Akzeptanz schaffen und die Chancen nutzen, die in der Technologie stecken.
Am Ende steht die konkrete Umsetzung: der Start eines Piloten oder die Einführung einer Lösung im Alltag. Hier ist wichtig, mit klar umrissenen Projekten zu beginnen, die schnell sichtbaren Nutzen bringen. Pilotprojekte reduzieren Risiken, sammeln Erfahrungen und schaffen Vertrauen. Erst wenn hier positive Ergebnisse erzielt werden, lohnt es sich, die Lösung auszurollen und auf weitere Bereiche auszuweiten.

KI-Projekte sollten einer klaren Struktur folgen, denn jeder Schritt baut auf dem vorherigen auf – von der Analyse über das Konzept bis hin zur Umsetzung. Für Krankenhäuser bedeutet das: Wer diesen Weg strukturiert geht, verringert die Gefahr von Fehlinvestitionen und erhöht die Chance, dass KI nicht nur Pilotprojekt bleibt, sondern dauerhaft in den Alltag integriert wird.
Am Ende geht es neben der Technologie an sich auch darum, Vertrauen bei den Mitarbeitenden, bei den Verantwortlichen und letztlich auch bei den Patienten zu schaffen. Damit KI wirklich helfen kann, braucht es eine solide Grundlage, klare Strukturen und den Mut, den Weg Schritt für Schritt zu gehen.
There are no results matching your search
Hinter jeder schnellen Lösung steht ein echter Mensch, der genau weiß, was er tut. Unsere zertifizierten IT-Experten sind da, um Ihre Probleme schnell, freundlich und stressfrei zu lösen.
There are no results matching your search
Aktuell gibt es keine Ergebnisse in dieser Kategorie
Digitale Souveränität ist in zahlreichen Unternehmen in den Fokus gerückt. Ob Cloud, KI oder Datensicherheit: Für Expert:innen entstehen konkrete technische und regulatorische Herausforderungen, die verschiedenste Fragen aufwerfen. Wie können wir Cloud-Infrastrukturen gestalten, die Unabhängigkeit und Performance verbinden? Welche Governance-Modelle brauchen wir, um KI-Systeme unter verschärften Compliance-Anforderungen zu betreiben? Wie können wir Datenschutz und Verfügbarkeit in einem unsicheren geopolitischen Umfeld gewährleisten?
Unser Networking-Event „Digitale Souveränität: Cloud, KI & Datensicherheit im Fokus“ bringt Spezialist:innen aus den Bereichen Cloud Computing, Artificial Intelligence und Cyber sowie Data Security zusammen und möchte den Raum für Austausch öffnen. Wir analysieren technische Architekturansätze, diskutieren Best Practices und kommen so in Vorträgen, Diskussionen und beim abendlichen BBQ über den Dächern Stuttgarts ins Gespräch.
Donnerstag, 7. Mai 2026, 16:00 Uhr
Skyloft Stuttgart
Büchsenstraße 20
70174 Stuttgart
BBQ und Getränke inklusive
Dieses Webinar zeigt, wie Marketing Mix Modellierung und Next Best Offers (NBOs) gemeinsam genutzt werden können, um Marketingbudgets effizient zu steuern und gleichzeitig personalisierte Angebote auszuspielen. Durch die Verbindung von strategischer Wirkungsmessung mit datengetriebener Kundeninteraktion entsteht ein ganzheitlicher Ansatz, der sowohl den ROI als auch die Kundenzufriedenheit steigert.
Souveränität ist ein zentraler Baustein für digitale Unabhängigkeit, Datenschutz und Compliance in Europa. In diesem kompakten Webinar erfahren Sie, wie Unternehmen mit STACKIT eine sichere und leistungsfähige Cloud Infrastruktur aufbauen und betreiben können. Sie lernen die wichtigsten Funktionen kennen, erfahren, wie sich STACKIT von anderen Anbietern unterscheidet und erhalten praxisnahe Hinweise für die technische Umsetzung im eigenen Unternehmen.
In 60 Minuten zeigen wir, wie Sie mit Conditional Access, sinnvollen Baseline-Policies und praxiserprobten Tipps Ihr Zugriffsmodell schnell und sicher weiterentwickeln. Kompakt, verständlich und direkt umsetzbar: kurze Zero-Trust-Einführung, konkrete Beispiele aus Microsoft 365 sowie klare Empfehlungen für Rollout, Governance und Notfallzugriffe. Ideal für IT- und Security-Verantwortliche, die ohne Buzzwords zu belastbaren Ergebnissen kommen wollen. Jetzt anmelden und Platz sichern.
Digitale Souveränität ist längst mehr als ein Schlagwort. Sie wird zum ernsthaften Treiber für Unternehmen und öffentliche Institutionen in der Schweiz. Zwischen Cloud-Abhängigkeiten, Datenschutz, KI-Regulierung und geopolitischen Spannungen stellt sich die Frage: Wie bleibt die Schweiz handlungsfähig, sicher und unabhängig in einer zunehmend digitalen Welt? In unserem Networking-Event „Digitale Souveränität in der Schweiz“ diskutieren Expertinnen und Experten aus Wirtschaft, Verwaltung und Technologie über aktuelle Herausforderungen und Lösungsansätze. Ziel ist es, einen realistischen Blick auf die Optionen und Risiken der digitalen Selbstbestimmung zu werfen und konkrete Handlungsmöglichkeiten aufzuzeigen.
Donnerstag, 5. Februar 2026, 18:00 Uhr
Signature by Regus
Bahnhofquai 11
Zürich
Apéro Riche und Getränke inklusive
Wie schaffen es erfolgreiche IT-Leiter, eine klare Linie zwischen Business-Zielen und IT-Initiativen zu ziehen? In diesem kompakten Webinar erhalten Sie ein erprobtes Framework, das Ihnen hilft, Ihre IT-Strategie strukturiert und wirksam aufzubauen – oder bestehende Strategien kritisch zu hinterfragen.
In unserem Webinar „Entra Connect“ lernen Sie die verschiedenen Authentifizierungsoptionen von Entra ID kennen. Sie erhalten eine Übersicht für einen Best Practice Ansatz zum Aufbau einer Entra Connect Bereitstellung. Nach dem Webinar haben Sie einen ersten Überblick, welche Schritte notwendig sind und kennen die wesentlichen Voraussetzungen, die dafür erfüllt sein müssen.
Unser 60-minütiges Webinar „M365 – Exchange Migration zu Exchange Online“ bietet Ihnen einen kompakten Einblick in das Thema Migration von Exchange in die Cloud. Sie erhalten einen Überblick über zentrale Aspekte, erfahren, welche Überlegungen in diesem Zusammenhang eine Rolle spielen und bekommen Anregungen, worauf es bei der Planung und Umsetzung grundsätzlich ankommt.
Das Webinar vermittelt Ihnen eine Orientierung, zeigt wichtige Eckpunkte auf und gibt Impulse, wie Sie das Thema in Ihrem eigenen Umfeld angehen können, ohne dabei zu sehr ins Detail zu gehen.
There are no results matching your search
Aktuell gibt es keine Ergebnisse in dieser Kategorie
There are no results matching your search
Willkommen bei unserem exklusiven Support für Bestandskunden. Hier finden Sie alle nötigen Informationen, um schnell und unkompliziert Hilfe bei technischen Anfragen zu erhalten.
Senden Sie uns Ihr Anliegen mit allen relevanten Details an:
Für eine direkte Unterstützung per Fernwartung, laden Sie bitte unser TeamViewer-Modul herunter:
Bitte beachten Sie: Dieser Kanal ist speziell für technische Anfragen unserer Bestandskunden vorgesehen. Für allgemeine Anfragen, Informationen zu unseren Dienstleistungen oder eine Erstberatung nutzen Sie bitte unser Kontaktformular oder schreiben Sie eine E-Mail an info@rewion.com.