Mit Version 38 bringt Automation Anywhere eine Reihe von bedeutenden Neuerungen, die den Einsatz von Künstlicher Intelligenz, Governance und Nutzerfreundlichkeit in der Prozessautomatisierung stark verbessern.
Von erweiterten AI-Agent-Funktionen bis hin zu intelligenteren Aufnahme-Tools und verbesserter Governance – v38 ist ein Meilenstein für Unternehmen, die ihre Automatisierungsstrategie zukunftssicher gestalten wollen.
Das neue AI Agent Studio eröffnet völlig neue Möglichkeiten zur Erstellung, Verwaltung und Integration von AI Skills. Dank Templates können Entwickler jetzt schneller eigene KI-Komponenten aufbauen und anpassen.
Besonders spannend: die Integration sogenannter Grounded Models, darunter Amazon Bedrock, Azure OpenAI und Google Vertex AI. Damit lassen sich sowohl generische als auch domänenspezifische Modelle nutzen, die auf Unternehmensdaten „geerdet“ sind und dadurch zuverlässiger agieren.
Ein weiterer wichtiger Schritt: AI Guardrails und AI Governance. Neue Funktionen wie Datenmaskierung, Prompt-Monitoring und Audit-Trails sorgen dafür, dass KI-Anwendungen sicher und regelkonform eingesetzt werden können – ein entscheidender Faktor für den produktiven Einsatz in regulierten Umgebungen.
Tipp:
Bestehende KI-Komponenten lassen sich oft auf Grounded Models migrieren, um Stabilität und Sicherheit zu erhöhen. Templates erleichtern zudem das schnelle Prototyping neuer AI Skills.
Mit dem Co-Pilot for Automators wird die Bot-Entwicklung noch intuitiver. Über Prompt-basiertes Generieren, Vorschläge für „Next Actions“ und intelligente Erweiterungsfunktionen können Automatisierer ihre Workflows deutlich beschleunigen.
Ein Highlight ist der Generative Recorder mit „Vision Fallback“: Er erkennt UI-Interaktionen auch dann, wenn sich Oberflächen ändern – ein echter Fortschritt bei der Stabilität von Bots.
Zudem wurde die Verbindung zwischen Process Discovery, CoE Manager und Automatisierungen ausgebaut. Dadurch können neue Automatisierungspotenziale direkt aus Prozessanalysen abgeleitet und mit Genehmigungs- und Zuweisungsmechanismen umgesetzt werden.
Tipp:
Besonders lohnend für Teams mit vielen UI-basierten Prozessen: Der Recorder spart Zeit, und Discovery-Integration deckt neue Automatisierungsmöglichkeiten auf.
Der Bot Editor im Automation Workspace wurde spürbar verbessert. Neue Such- und Filterfunktionen, Search & Replace in Logs und Code sowie persistente Layouts über Sitzungen hinweg machen das Arbeiten effizienter.
Ein praktisches Feature ist das neue Picture-in-Picture (PiP)-Fenster: Entwickler können damit Referenzen, Dokumente oder UI-Elemente parallel anzeigen – ideal für komplexe Bot-Projekte.
Tipp:
Besonders hilfreich beim Debugging oder wenn mehrere Tasks parallel bearbeitet werden. Die persistente Oberfläche spart Setup-Zeit zwischen Sessions.
Die Document Automation erhält in v38 umfangreiche Upgrades:
Neue OCR-Engines, bessere Vorverarbeitung und flexiblere Trainingsoptionen erhöhen die Genauigkeit der Datenerkennung erheblich.
Zusätzlich wurden Validierungs-Workflows verbessert, um manuelle Korrekturen und Feedbackschleifen einfacher zu gestalten.
Tipp:
Für dokumentenintensive Prozesse – etwa in Finance, HR oder Supply Chain – kann der Wechsel auf die neuen OCR- und Klassifizierungsfunktionen zu deutlichen Qualitätsgewinnen führen.
Zahlreiche Standardpakete wie Browser, Excel, Microsoft 365, Google, PDF und OCR wurden überarbeitet. Neue Aktionen bieten bessere Performance, stabilere Verbindungen und mehr Optionen für Trigger und Authentifizierung.
Auch die KI-Servicepakete wurden modernisiert: etwa im Umgang mit API-Limits und bei der Authentifizierung.
Tipp:
Bestehende Bots sollten auf Kompatibilität geprüft werden. Oft können neue Aktionen alte Workarounds ersetzen und Abläufe vereinfachen.
Für Business User und Citizen Developer bietet v38 ein verbessertes Co-Pilot-Erlebnis.
Automatisierungen können jetzt einfacher über Assistenten und Formulare erstellt werden, begleitet von erweiterten Governance-Mechanismen – inklusive Genehmigungsprozessen und Aktivitätsübersicht.
Tipp:
Ideal für Organisationen, die Fachbereiche stärker in die Automatisierung einbinden möchten – ohne die Kontrolle über Qualität und Sicherheit zu verlieren.
Neben den Funktionsverbesserungen bringt v38 auch strategische Aspekte mit sich:
Sicherheit & Compliance: Verbesserte Authentifizierung, Credential Vault Updates und KI-Guardrails – besonders wichtig für regulierte Branchen
Governance & Rollenmodelle: Feingranulare Zugriffssteuerung auf Bots und KI-Funktionen
Migration & Kompatibilität: Alte Bots auf Kompatibilität prüfen und ggf. refaktorieren
Performance & Skalierung: KI-Funktionen benötigen mehr Ressourcen – Lasttests sind Pflicht
Monitoring & Nachvollziehbarkeit: Prompt Logs, Audit Trails und Governance-Berichte gewinnen an Bedeutung
Automation Anywhere v38 bringt entscheidende Fortschritte in KI-Integration, Entwicklererlebnis und Governance.
Für Entwickler eröffnen sich neue Wege, Bots robuster und intelligenter zu gestalten. Unternehmen profitieren von höherer Effizienz, Transparenz und Sicherheit.
Wer Automation Anywhere 360 cloud benutzt, hat bereits Zugriff auf die version v38, kann die neuen Funktionen gezielt evaluieren und so die Grundlage für eine nachhaltige, KI-gestützte Automatisierungsstrategie schaffen.
Zahlreiche Unternehmen arbeiten bereits mit einem IT-Dienstleister zusammen oder denken darüber nach, einzelne Leistungen oder das gesamte Management der IT auszulagern. Spätestens bei der Recherche nach geeigneten Anbietern für eine neue Zusammenarbeit oder einen Wechsel kommen jedoch Fragen auf: Was muss ein IT-Dienstleister eigentlich leisten? Und lohnt es sich überhaupt, mit einem externen Dienstleister zusammenzuarbeiten oder ist die interne IT der bessere Weg? Wir geben heute einen Überblick über Kriterien, an denen Sie sich bei der Auswahl orientieren können und erklären, wann sich ein externer Partner gegenüber der internen IT lohnt.
Bei der Wahl des passenden IT-Dienstleisters kommt es natürlich vor allem auf die angebotenen Leistungen an. Haben Sie einige Anbieter gefunden, die zu Ihren Anforderungen passen, können Sie aber den nächsten Schritt gehen und einige Fragen stellen. An diesen Fragen können Sie unter anderem festmachen, ob es sich um einen professionellen und proaktiven IT-Dienstleister handelt, der Ihr Unternehmen aktiv begleiten kann.

Wie schnell reagiert Ihr IT-Dienstleister auf dringende Störungen?
Fällt die Kommunikation aus oder hat ein wichtiger Server eine Störung, muss unmittelbar gehandelt werden. Bei vielen Unternehmen sorgen Ausfallzeiten für Betriebsunterbrechungen und Verluste, weshalb sie so kurz wie möglich bleiben müssen. Eine schnelle Reaktion Ihres IT-Dienstleisters ist deshalb ein wichtiges Auswahlkriterium. Bei Rewion können Sie sich auf eine Reaktion innerhalb von zwei Stunden verlassen, auch außerhalb der üblichen Bürozeiten.
Erhalten Sie proaktive Empfehlungen?
Die IT ist einer der Unternehmensbereiche, die sich am häufigsten und schnellsten weiterentwickeln. Nahezu täglich gibt es Updates, neue Services, Tools und Möglichkeiten zur Verbesserung. Hier den Überblick zu behalten, ist nahezu unmöglich. Umso wichtiger ist es, dass auch Ihr IT-Dienstleister die Optimierung Ihrer IT im Blick hat und proaktiv Empfehlungen gibt. Bei Rewion versorgen wir unsere Kunden immer mit den aktuellen Entwicklungen, die für sie relevant sein können.
Wie sieht die Dokumentation aus?
Ob es um Updates, um Backups oder um Sicherheitsprüfungen geht – übernimmt Ihr IT-Dienstleister diese Aufgaben für Sie, müssen die Ergebnisse, Ausführungszeiten und mögliche Probleme immer dokumentiert sein. Arbeiten Sie mit Rewion zusammen, erhalten Sie regelmäßig Berichte und Dokumentationen über die vorgenommenen Arbeiten, damit Sie den Überblick behalten und jederzeit einsehen können, was unser Team macht.
Wer ist Ihr Ansprechpartner?
Je komplexer die IT eines Unternehmens ist, desto individueller gestalten sich auch die Leistungen eines IT-Dienstleisters. Um den individuellen Anforderungen gerecht zu werden, sollten Sie immer einen festen Ansprechpartner oder zumindest ein festes Team haben, an das Sie sich wenden können. Bei Rewion haben Sie immer einen Kontakt, der Ihre IT, die Systeme, Ihr Geschäft und Ihre Anforderungen im Detail kennt.
Wie sieht es im Notfall aus?
Durch stetig steigende Bedrohungen durch Cyberkriminelle ist die IT-Sicherheit zu einem der wichtigsten Bestandteile der IT geworden. Unternehmen müssen auf den Ernstfall in Form von Cyberangriffen, Systemausfällen oder Datenverlusten vorbereitet sein. Wir erarbeiten mit unseren Kunden einen individuellen Notfallplan für den Ernstfall, auf den sowohl wir als IT-Dienstleister als auch unsere Kunden zugreifen können und entsprechend geschult sind.
Welche Kosten fallen an?
Lagern Sie Aufgaben an einen IT-Dienstleister aus, ist das mit entsprechenden Kosten verbunden. Wichtig ist, dass diese Kosten klar planbar sind und Leistungen ohne Überraschungen in Rechnung gestellt werden. Achten Sie darauf, dass Sie die jährlichen IT-Kosten im Voraus kennen und grundsätzlich Transparenz herrscht. Bei Rewion erhalten Sie eine jährliche Kosten- und Leistungsübersicht, die Leistungen können Sie bei Bedarf jederzeit anpassen.
Nach wie vor sind viele Unternehmen sich unsicher, ob sich die Zusammenarbeit mit einem IT-Dienstleister überhaupt lohnt oder ob es sinnvoller ist, intern die Expertise aufzubauen. Ein internes IT-Team bringt die Vorteile mit, dass eine ständige Präsenz vor Ort gegeben ist und es tief ins Unternehmen, in die Prozesse und Strukturen integriert ist. Auch eine direktere Kommunikation mit kurzen Wegen ins Büro nebenan können für die interne Abteilung sprechen. Da Remote-Modelle mit schneller und direkter Erreichbarkeit inzwischen zum Standard geworden sind und bei intensivem Onboarding auch ein externer IT-Partner tief in die Unternehmensstrukturen integriert sein kann, kann diese Punkte auch ein guter Dienstleister abdecken. Außerdem gibt es noch einige weitere Faktoren, die Einfluss auf die Entscheidung für oder gegen einen externen Dienstleister nehmen.
Ein externer IT-Dienstleister kann weit mehr sein als nur ein Problemlöser. Er kann zum strategischen Partner werden, der Ihre IT verwaltet und gleichzeitig entsprechend Ihrer Unternehmensziele aktiv weiterentwickelt. Wichtig ist vor allem, dass er flexibel, transparent und proaktiv arbeitet und im Ernstfall schnell und zuverlässig reagiert. Beachten Unternehmen diese Kriterien bei ihrer Auswahl, gewinnen sie statt einfacher technischer Unterstützung einen langfristigen Partner, der die IT voranbringt. Sind Sie auf der Suche nach einem IT-Partner, nehmen Sie gerne Kontakt zu uns auf. Wir stellen Ihnen unverbindlich unsere Leistungen vor und zeigen Ihnen, wie wir arbeiten.
Was haben Banken, Krankenkassen und Online-Shops gemeinsam? Alle verlangen einen Identitätsnachweis bisher oft umständlich, langsam und fehleranfällig. Mit der neuen Schweizer e-ID könnte sich das grundlegend ändern. Doch sie ist nicht nur ein technisches Tool, sondern ein strategischer Wendepunkt für die Digitalisierung in der Schweiz. Wer jetzt in der IT-Strategie nur auf Cloud und KI setzt, verpasst einen zentralen Gamechanger. Die vom Schweizer Stimmvolk knapp angenommene Gesetzgebung bringt eine staatlich kontrollierte, freiwillige und datenschutzkonforme digitale Identität. Für CIOs und IT-Manager ergibt sich daraus eine ganze Reihe strategischer Chancen und Herausforderungen.
„Mehr KI“ oder „alles in die Cloud“ sind keine Strategie. 2026 werden CIOs erfolgreich sein, die klare Prioritäten setzen: Sicherheit wird zum Leitprinzip, Künstliche Intelligenz (KI) zum Business-Treiber, und Cloud zur souverän gesteuerten Infrastruktur. Die Umsetzung liegt beim IT-Management: mit eindeutigen Verantwortlichkeiten, KPIs und einem Portfolio-Ansatz, der Ressourcen gezielt auf Wertbeitrag lenkt.
CIOs müssen Security als Designprinzip und nicht als Projekt denken. In der Finanzbranche gelingt dies, wenn Zero Trust, Identitätsmanagement und durchgängige Protokollierung standardisiert sind. Ein Schweizer Zahlungsdienstleister verkürzte dadurch seine Release-Zyklen, da Sicherheitsanforderungen nicht mehr diskutiert, sondern automatisiert umgesetzt wurden. CIOs sollten Security-Kontrollen wie MFA-Quoten, Patch-SLAs oder Security Scores fest in ihre Governance verankern. Mit klaren Eskalationspfaden in die „Towers“ bleibt Security steuerbar – und wird zum Produktivitätsbooster.
KI ohne konkreten Business-Nutzen ist Ressourcenverschwendung. Im Gesundheitswesen zeigt sich der Mehrwert bei der klinischen Dokumentation mit GenAI, die deutlich Zeit pro Fall spart. In der Industrie bedeutet KI: prädiktive Instandhaltung mit Edge-Integration. CIOs brauchen eine zweigleisige Strategie: produktionsnahe Anwendungen mit ROI < 12 Monaten und zentrale Plattformen mit klarer KI-Governance. Ein dediziertes KI-Board, ein freigegebener Use-Case-Katalog und definierte Modell-Standards sind Pflicht.
„Lift & Shift“ ist 2026 keine Option mehr. Erfolgreiche CIOs kombinieren Cloud-Migration mit Portfolio-Bereinigung und FinOps-Mechanismen. Ein Industrieunternehmen senkte seine Cloud-Kosten zweistellig durch zentrale Steuerung reservierter Kapazitäten und Architektur-Guardrails gegen teure Datenbewegungen. Parallel steigt die Bedeutung der Souveränität: Datenklassifikation, Exit-Strategien – all das muss vertraglich und technisch abgesichert sein.
Strategie ohne Umsetzung bleibt Theorie. 2026 bewährt sich ein Tower-/Control-Tower-Modell: Architektur, Betrieb, Risiko, Finanzen und Strategie-Bereiche definieren Regeln, KPIs und Eskalationen. Notwendig sind Skills in drei Clustern: Cloud/FinOps, Data/AI Engineering, Cyber Risk & Identity. Upskilling muss Teil jeder Roadmap sein.
Starten Sie mit Entscheidungen, nicht mit Tools. Ihre IT-Strategie 2026 sollte folgende Punkte umfassen: Treiber, Mission, Vision, Handlungsfelder, OKRs, Roadmap und Finanzierungsrahmen. Alles andere sind Anhänge.
Qualitätsmeldungen (auch Q-Meldungen genannt) sind eine der Kernfunktionen im SAP-Qualitätsmanagement (QM), um Abweichungen in der Materialqualität, Logistik oder auch im Verhalten von Lieferanten systematisch zu dokumentieren. Über die Transaktion QM01 lassen sich Meldungen erstellen, die sowohl operativ als auch strategisch im Rahmen der Lieferantenbewertung genutzt werden können. Der Fokus liegt dabei auf der Erfassung, Nachverfolgung und Analyse qualitätsbezogener Probleme, die mit Lieferanten in Verbindung stehen.
Der typische Anwendungsfall einer Q-Meldung ergibt sich im Wareneingang: Wird ein Material geliefert, das von den spezifizierten Anforderungen abweicht – sei es aufgrund von Beschädigungen, falscher Spezifikation, Verunreinigungen oder unzureichender Dokumentation – kann direkt eine Meldung erfasst werden. Diese enthält neben dem betroffenen Material und der Bestellnummer auch Angaben zum Schaden, zur Ursache, zu Sofortmaßnahmen sowie zu geplanten Korrekturmaßnahmen. Die Meldung kann einem konkreten Lieferanten zugeordnet werden, wodurch die Verbindung zur Lieferantenbeurteilung hergestellt wird.
Anders als die klassische Lieferantenbewertung konzentriert sich die Q-Meldung nicht auf Durchschnittswerte über einen längeren Zeitraum, sondern auf einzelne konkrete Vorfälle. Dadurch entsteht eine qualitative Dimension der Bewertung, die in traditionellen Punktesystemen nicht abgebildet wird. Über Auswertungen wie die Anzahl Q-Meldungen je Lieferant, deren Schweregrad oder Wiederholungshäufigkeit lassen sich problematische Lieferanten identifizieren, auch wenn diese in der quantitativen Bewertung zunächst unauffällig erscheinen.
Ein weiterer Vorteil liegt in der Prozessintegration: Q-Meldungen können automatisch Sperren für Materialien auslösen, Eskalationen initiieren oder zur Anforderung eines 8D-Reports durch den Lieferanten führen. So wird die Bewertung unmittelbar in operative Maßnahmen überführt, was zur Qualitätsverbesserung beiträgt. Auch lassen sich Q-Meldungen mit Prüfplänen oder Prüflose aus der Wareneingangskontrolle verknüpfen, wodurch eine vollständige Rückverfolgbarkeit gewährleistet wird.
Gleichzeitig bringt der Einsatz von Qualitätsmeldungen einige Herausforderungen mit sich. Die Erfassung und Bearbeitung erfordert disziplinierte Prozesse, geschultes Personal und eine klare Zuständigkeit. In der Praxis zeigt sich, dass viele Q-Meldungen unvollständig bleiben oder nicht systematisch nachverfolgt werden, was ihren Nutzen erheblich schmälert. Zudem ist die Interpretation der Meldungen oft subjektiv, da die Klassifikation der Ursachen oder Maßnahmen individuell erfolgt.
Trotz dieser Einschränkungen bieten Q-Meldungen eine wertvolle Ergänzung zur klassischen Lieferantenbewertung. Sie ermöglichen eine tiefere Einsicht in die Ursachen von Abweichungen und liefern handfeste Argumente für Lieferantengespräche, Reklamationen oder sogar für die Sperrung eines Lieferanten. Besonders in qualitätskritischen Branchen – etwa im Automobil-, Medizin- oder Elektronikbereich – sind sie unverzichtbar für ein effektives Lieferantenmanagement.
Falls Sie einen mehr über die verschiedenen Möglichkeiten der Lieferantenbewertung erfahren, dann schauen Sie auf unserem Beitrag über 3 bewährte Methoden zur Lieferantenbewertung vorbei.
SAP Supplier Lifecycle Management (SLC) und SAP Ariba bieten moderne, umfassende Ansätze zur Lieferantenbewertung, die weit über die traditionellen SAP-MM-Funktionen hinausgehen. Diese Systeme ermöglichen es, den gesamten Lebenszyklus eines Lieferanten – von der Qualifikation über die Performancebewertung bis zur potenziellen Ausphasung – strukturiert zu steuern. Damit eignen sie sich insbesondere für global agierende Unternehmen mit komplexen Lieferketten und hohen Anforderungen an Transparenz und Governance.
Im Zentrum der erweiterten Bewertung stehen sogenannte Scorecards, die sowohl quantitative als auch qualitative Kriterien abbilden. Diese Kriterien können vielfältig sein: Neben klassischen Leistungsindikatoren wie Preisverhalten, Lieferzuverlässigkeit oder Qualität lassen sich auch strategische Aspekte wie Innovationsfähigkeit, Nachhaltigkeit, Compliance oder Risiko mit einbeziehen. Die Kriterien können gewichtet und individuell pro Warengruppe, Region oder Lieferantentyp angepasst werden.
Ein entscheidender Unterschied zu klassischen Bewertungsmethoden liegt in der Datenquelle. Während MM-basierte Bewertungen vor allem SAP-interne Bewegungsdaten nutzen, integrieren Ariba und SLC auch externe Quellen: Lieferanten können über Webportale eigene Informationen bereitstellen, beispielsweise durch das Ausfüllen von Self-Assessments, Zertifikatsnachweisen oder Nachhaltigkeitsberichten. Ebenso können Drittanbieter-Daten (z. B. Risikoindikatoren, Finanzkennzahlen, CSR-Ratings) eingebunden werden. Die Datenaggregation erfolgt automatisiert, wodurch Scorecards nahezu in Echtzeit aktualisiert werden können.
Die Ergebnisse dieser Bewertungen werden über Dashboards und Reports visualisiert. Dabei lassen sich Abweichungen, Trends und Risikopositionen klar identifizieren. Eine besonders wichtige Funktion ist das „360° Supplier View“-Konzept: Einkaufsleiter erhalten eine vollständige Sicht auf den Lieferanten – inklusive Performanceverlauf, Auditergebnissen, Reklamationen, Preisentwicklung und Compliance-Status.
Die erweiterte Bewertung ist eng mit anderen Prozessen im SAP-Umfeld verknüpft. So können Ergebnisse direkt in die Lieferantenklassifizierung einfließen, Freigabeprozesse auslösen oder bei der Vergabe neuer Aufträge berücksichtigt werden. Auch lassen sich Maßnahmen wie Entwicklungspläne, Verbesserungsgespräche oder Sperrungen aus der Bewertung ableiten. Auf diese Weise wird aus einer reinen Analyse eine aktive Steuerung der Lieferantenbasis.
Natürlich ist der Einsatz dieser Systeme mit Aufwand verbunden. Die Einführung von SAP Ariba oder SLC erfordert Projektkapazitäten, Schulungen und eine saubere Datenstruktur. Zudem müssen Bewertungsprozesse unternehmensweit abgestimmt und gepflegt werden. Doch der Mehrwert liegt auf der Hand: Unternehmen gewinnen an Transparenz, reagieren schneller auf Risiken und können Lieferanten gezielt entwickeln.
In der Praxis haben sich diese Systeme besonders in Branchen mit hohen regulatorischen Anforderungen oder Nachhaltigkeitszielen bewährt. Sie ermöglichen nicht nur eine objektive, mehrdimensionale Beurteilung, sondern fördern auch die aktive Zusammenarbeit mit Lieferanten. Durch die Einbindung in eine übergreifende Plattform wird die Lieferantenbewertung zu einem strategischen Instrument, das nicht nur Rückblick, sondern auch Ausblick ermöglicht.
Falls Sie einen mehr über die verschiedenen Möglichkeiten der Lieferantenbewertung erfahren, dann schauen Sie auf unserem Beitrag über drei bewährte Methoden zur Lieferantenbewertung vorbei.
Die klassische Lieferantenbewertung im SAP-Modul Materials Management (MM) stellt eine bewährte Methode dar, um die Leistung von Lieferanten anhand klar definierter Kriterien systematisch zu beurteilen. Diese Funktion, zugänglich über die Transaktion ME61, ist seit vielen Jahren integraler Bestandteil des SAP-Einkaufsprozesses. Ziel ist es, eine objektive Entscheidungsgrundlage für künftige Einkaufsentscheidungen zu schaffen
Die Lieferantenbewertung basiert auf einem Punktesystem, das sich aus mehreren Kriterien zusammensetzt, beispielsweise Preisverhalten, Termintreue, Mengentreue, Qualität und Service. Jedem dieser Kriterien wird ein Gewicht zugewiesen, das die Bedeutung für den Einkaufsprozess widerspiegelt. So kann beispielsweise die Termintreue mit 40 %, der Preis mit 30 %, die Qualität mit 20 % und der Service mit 10 % gewichtet werden. Innerhalb eines festgelegten Bewertungszeitraums – meist monatlich, quartalsweise oder jährlich – werden die Kennzahlen erfasst und in eine Punktbewertung übersetzt. Diese Punktewerte fließen schließlich in eine Gesamtnote ein, die eine transparente, vergleichbare Bewertung der Lieferantenleistung ermöglicht.
Ein wesentlicher Vorteil der klassischen Lieferantenbewertung liegt in der Möglichkeit, Daten automatisiert aus dem System zu erheben. So können beispielsweise die Anzahl pünktlicher Lieferungen aus den Wareneingangsdaten extrahiert und mit den geplanten Lieferterminen verglichen werden. Ebenso lassen sich Preisabweichungen zwischen Bestellung und Rechnung oder die Häufigkeit von Nacharbeiten bei der Qualitätserfassung auswerten. Ergänzt wird die automatische Bewertung durch manuelle Einschätzungen, beispielsweise zur Kommunikation oder Flexibilität des Lieferanten.
Die klassische Lieferantenbewertung bietet damit eine standardisierte Lösung für das operative Lieferantenmanagement. Ihre Ergebnisse können in Einkaufsinfosätzen verwendet werden, um Lieferanten bei neuen Bestellungen automatisch zu bevorzugen oder auszuschließen. Ebenso lassen sich kritische Lieferanten frühzeitig identifizieren, sodass rechtzeitig Maßnahmen wie Lieferantengespräche, Audits oder Eskalationen eingeleitet werden können.
Gleichwohl hat das Verfahren auch Einschränkungen. Es fokussiert sich primär auf quantitative Kennzahlen und bildet strategische Aspekte wie Nachhaltigkeit oder Innovationsfähigkeit nicht ab. Zudem erfordert die Bewertung eine konsequente Pflege der Stammdaten und eine regelmäßige Durchführung, um valide und vergleichbare Ergebnisse zu erhalten. In der Praxis zeigt sich, dass viele Unternehmen diese Bewertungen unregelmäßig oder nicht konsequent durchführen, wodurch der Nutzen erheblich geschmälert wird.
Die klassische Lieferantenbewertung eignet sich besonders für Unternehmen mit standardisierten Beschaffungsprozessen, wiederkehrenden Lieferantenbeziehungen und hohem Bestellvolumen. Sie lässt sich schnell implementieren, benötigt keine zusätzliche Infrastruktur und liefert verlässliche Entscheidungsdaten, sofern sie diszipliniert angewendet wird. Wer jedoch eine umfassendere, strategischere Lieferantenbeurteilung anstrebt, sollte ergänzende Verfahren wie Qualitätsmeldungen oder Plattformlösungen wie SAP Ariba in Betracht ziehen.
Unternehmen, die das FinOps Framework in ihren Arbeitsalltag integrieren, möchten damit die Kosten für die Nutzung von Cloud und Technologie verstehen und optimieren. Die einzelnen Fähigkeiten aus den vier FinOps Domänen helfen dabei, die Kosten zu kontrollieren, Transparenz zu schaffen und den Geschäftswert zu maximieren. Worum es bei den einzelnen Fähigkeiten geht und wie Unternehmen sie im Arbeitsalltag einsetzen können, erklären wir mit diesem Artikel.
Einsortiert in ihre zugehörigen FinOps Domänen haben wir die verschiedenen FinOps Fähigkeiten zusammengefasst und erklären, wie sie eingesetzt werden können.

Quelle: FinOps Framework der FinOps Foundation, adaptiert an das Rewion Corporate Design
Bei FinOps geht es nicht darum, alle Fähigkeiten bis zum maximalen Reifegrad zu entwickeln. Vielmehr haben Unternehmen die Aufgabe, die Fähigkeiten zu wählen, die die jeweiligen Teams benötigen. Dabei können einige Tipps helfen.
An der Reife der FinOps Praxis orientieren
Zuerst ist es sinnvoll den aktuellen Fortschritt von FinOps im Unternehmen zu bewerten. Wird FinOps gerade erst implementiert, sind vor allem grundlegende Fähigkeiten wie Kostenzuordnung, Datenerfassung und die Erstellung erster Dashboards sinnvoll. Wer bereits fortgeschritten ist, profitiert eher von Forecasting, Benchmarking oder Ratenoptimierung. Grundsätzlich ist es sinnvoll, die passenden Fähigkeiten systematisch in jedem Team aufzubauen, statt alles gleichzeitig umzusetzen.
Geschäftliche Ziele in den Mittelpunkt stellen
Wichtigste Grundlage für die Wahl der FinOps Fähigkeiten schaffen immer die strategischen Ziele des Unternehmens. Wächst ein Unternehmen beispielsweise schnell und möchte die Cloud-Kosten unter Kontrolle halten, sind Forecasting und Budgetierung zentrale Fähigkeiten. Steht Nachhaltigkeit im Mittelpunkt, sind Cloud-Nachhaltigkeit und die Architekturgestaltung entsprechend wichtig. FinOps Fähigkeiten haben immer dann den größten Nutzen, wenn sie eine konkrete Herausforderung im geschäftlichen Bereich adressieren.
Mit Stakeholdern aus allen Bereichen abstimmen
Der Erfolg von FinOps basiert stark auf der Zusammenarbeit zwischen IT, Finanzen und Business. Wichtig ist also, dass die relevanten Stakeholder in die Auswahl der Fähigkeiten einbezogen werden. Durch ihre unterschiedlichen Perspektiven kann eine ausgewogene Priorisierung entstehen. Ziel ist ein breit aufgestellter Plan, der technische Effizienz ebenso wie die wirtschaftliche Steuerbarkeit berücksichtigt und gleichzeitig für interne Akzeptanz sorgt.
Die erfolgreiche Umsetzung von FinOps im Unternehmen basiert nicht einfach auf der Aneinanderreihung und Weiterentwicklung einzelner Fähigkeiten. Vielmehr haben Unternehmen die Aufgabe, die Fähigkeiten zu finden, die den größten Beitrag zu den aktuellen Herausforderungen und Zielen leisten können. Durch ein systematisches Vorgehen, das Einbinden von Stakeholdern und die Berücksichtigung der Reife der eigenen FinOps Praxis können Unternehmen FinOps nachhaltig und erfolgreich in ihren Alltag integrieren.
Daten wachsen rasant, Teams kollaborieren über mehrere Clouds und Standorte hinweg – Data Security Posture Management in Microsoft Purview bringt Transparenz, Ordnung und Steuerbarkeit in diese Landschaft. Mit Data Security Posture Management (kurz DSPM) erkennen Unternehmen, wo sensible Informationen liegen, wer darauf zugreift und welche Risiken bestehen, um gezielt zu handeln, statt nur zu reagieren. Für moderne Arbeitsumgebungen erweitert Purview diese Sicht gezielt um AI‑Kontexte wie Copilot und andere AI-Anwendungen, sodass DSPM auch neue Datenpfade absichert.
DSPM kombiniert Datenerkennung, Klassifizierung, Zugriffsanalyse, Überwachung und Abhilfemaßnahmen zu einem durchgängigen Programm für Datensicherheit. Der Ansatz priorisiert den Schutz der Daten selbst – unabhängig davon, ob sie on‑premises, in SaaS oder in Cloud‑Speichern liegen.
Daten inventarisieren und klassifizieren: Tools scannen strukturierte und unstrukturierte Quellen, identifizieren sensible Typen und ordnen geschäftliche Relevanz zu.
Risiken bewerten und remediieren: DSPM findet Fehlkonfigurationen, übermäßige Berechtigungen und offene Freigaben und schlägt konkrete Korrekturen vor.
Schutz durchsetzen: Maßnahmen umfassen DLP, Verschlüsselung, Zugriffskontrollen und Monitoring mit nachvollziehbaren Berichten.
CSPM härtet primär Cloud‑Infrastruktur, während DLP Abflüsse an Senken verhindert; DSPM fokussiert sich auf die Datenebene selbst. In der Praxis ergänzen sich die Disziplinen und schließen gemeinsam Sichtbarkeits‑ und Schutzlücken im Lebenszyklus der Daten.
Microsoft Purview bündelt DSPM‑Analysen, Empfehlungen und Richtlinien, sodass Transparenz und Abhilfe aus einem Portal steuerbar sind. Für AI‑Kontexte liefert Purview zusätzlich ein DSPM‑Dashboard mit One‑click‑Policies, Activity Explorer und wöchentlichen Data‑Risk‑Assessments für stark genutzte SharePoint‑Sites. Folgende Kernfunktionen beinhaltet das DSPM in MS Purview:
Analysen und Trends: Dynamische Reports zu Datenrisiken, Sensitivity‑Label‑Nutzung, DLP‑Abdeckung und Verhaltensänderungen liefern eine fortlaufende Sicht auf die Sicherheitslage.
Empfehlungen zu Richtlinien: Geführte Vorschläge erstellen mit wenigen Klicks passende DLP‑ und Insider‑Risk‑Policies, um identifizierte Lücken sofort zu schließen.
Workflow „Erkennen‑Handeln‑Nachverfolgen“: Opt‑in zu Analytics, Einsichten bewerten, Maßnahmen anstoßen und Fortschritt über Trendberichte nachvollziehen
One‑click‑Policies für AI: Mit einem Klick aktivierte Standardrichtlinien erfassen AI‑Interaktionen, schützen sensible Inhalte in Prompts und liefern erste Ergebnisse nach ~24 Stunden.
Mit Microsoft Purview DSPM entsteht ein zentraler, durchgängiger Sicherheits‑Workflow, der sensible Daten sichtbar macht, Risiken priorisiert und Abhilfemaßnahmen direkt auslöst. Deshalb reduzieren Unternehmen Oversharing und Datenabflüsse messbar, beschleunigen Audits und skalieren moderne Zusammenarbeit und Copilot‑Szenarien sicher und regelkonform. Kurz: DSPM verbindet Transparenz, Schutz und Compliance zu einem kontinuierlichen Programm statt einmaligen Projekten.
Sie möchten für Ihr Unternehmen MS Purview mit DSPM einführen? Sprechen Sie uns gerne an. Ebenfalls auch interessant, der MS Blogartikel zu diesem Thema.
Geräteverwaltung wird in Unternehmen zum immer zentraleren Thema. Je häufiger Mitarbeiter mobile Geräte wie Laptops, Smartphones und Tablets im Büro oder unterwegs einsetzen, desto wichtiger wird das Mobile Device Management. Ob die mitarbeitereigenen Geräte im BYOD-Modell auch beruflich zum Einsatz kommen oder ob Unternehmen ihre Mitarbeiter mit mobilen Geräten ausstatten – es braucht eine passende MDM-Lösung, in der die Geräte verwaltet werden können. Wie Sie die MDM-Lösung finden, die zu Ihren Anforderungen passt und worauf es bei der Auswahl ankommt, erfahren Sie in diesem Artikel.
Der Bedarf an Lösungen zur Geräteverwaltung ist mittlerweile hoch. Arbeit wird immer mobiler und auch als Teil der Sicherheitskette nimmt MDM eine wichtige Rolle ein. In Verbindung mit Conditional Access Regeln sorgt es dafür, dass ausschließlich verwaltete Endgeräte verwendet werden, um Sicherheitsrisiken durch unbekannte Geräte zu vermeiden. Entsprechend viele verschiedene Anbieter gibt es inzwischen am Markt. Damit Sie die passende MDM-Lösung für Ihre Anforderungen finden, sollten Sie deshalb auf einige Kriterien achten.
Den Weg zur richtigen MDM-Lösung können Unternehmen sowohl eigenständig als auch in Zusammenarbeit mit einem IT-Dienstleister gehen. Um den internen Aufwand zu sparen und von der Erfahrung sowie möglicherweise einem größeren Funktionsumfang für die Verwaltung zu profitieren, lohnt sich ein externer Managed Partner. Ob eigenständig oder mit Partner – diese vier Schritte gehen Sie auf dem Weg zur passenden MDM-Lösung.

Zuerst sollten Sie den Bedarf Ihres Unternehmens definieren. Das bedeutet konkret: Listen Sie zu allen Faktoren, vom gewünschten Funktionsumfang über Betriebssysteme bis zu den Sicherheitsanforderungen, alle relevanten Punkte auf und priorisieren Sie sie. Können aufgrund fehlender Angebote oder eines zu niedrigen Budgets einige Bausteine nicht umgesetzt werden, wissen Sie direkt, auf welche Punkte Sie bei der Recherche besonders achten müssen und welche Features eher Nice-to-Have sind.
Im nächsten Schritt können Sie in die Anbieterrecherche gehen. Schauen Sie sich sowohl bekannte Anbieter wie Microsoft und IBM an als auch spezialisierte Anbieter wie Jamf und erstellen Sie zunächst eine Liste mit den verschiedenen Angeboten. So erhalten Sie einen detaillierten Überblick über den Markt. Außerdem sehen Sie schnell, ob und wie Ihre Wünsche an den Funktionsumfang erfüllt werden können. Arbeiten Sie mit einem Dienstleister zusammen, kann dieser entsprechende Empfehlungen aussprechen, die Ihren Anforderungen entsprechen und sich nahtlos in Ihre Umgebung und Sicherheitsstrategie integrieren lassen. Zusätzlich können Sie Testversionen und Demos der Anbieter nutzen, um Einblicke in die MDM-Lösung zu erhalten.
Jetzt können Sie die konkreten Angebote der einzelnen Anbieter vergleichen. Wie unterscheiden sich Funktionen und Preise voneinander? Welche Lösung passt am besten zu Ihren Vorstellungen? Bei welchen Lösungen sagt Ihnen das User Interface zu? Möchten Sie die Geräteverwaltung selbst übernehmen, prüfen Sie auch die Schulungs- und Support-Angebote, um bei Bedarf Unterstützung erhalten zu können.
Auf Basis Ihrer Bedarfsanalyse und der Anbieter- und Angebotsrecherche können Sie schlussendlich eine Entscheidung für die passende MDM-Lösung treffen. Im Anschluss daran geht es in die Umsetzung. Am besten starten Sie mit einem Pilotprojekt und binden einige erste Geräte in die Software ein, um die Funktionen zu testen. Erst dann erfolgt der vollständige Rollout im Unternehmen sowie die Schulung der Mitarbeiter.
Wie so oft gibt es auch für das Mobile Device Management nicht die eine perfekte Lösung. Vielmehr haben Unternehmen die Aufgabe, ihren Bedarf und ihre Anforderungen an die Software für die Geräteverwaltung zu definieren. Anhand dessen können sie wiederum in die Recherche nach passenden Anbietern und Lösungen gehen. Abhängig von Unternehmensgröße, MDM-Modell, Sicherheitsanforderungen und Budget kommen verschiedene Anbieter in Frage, um eine optimale Geräteverwaltung im Unternehmen zu ermöglichen. Bei Rewion begleiten wir Unternehmen professionell beim Aufbau ihrer MDM-Strukturen sowie der Integration in Ihre IT-Sicherheitsstrategie und beraten Sie gerne zu der zu Ihnen passenden Lösungen. Nehmen Sie einfach Kontakt zu uns auf und lassen Sie sich unverbindlich beraten!
Künstliche Intelligenz wird im Krankenhaus häufig mit Diagnostik und Therapie verbunden und mit Bildanalyse, Entscheidungsunterstützung oder personalisierter Medizin verknüpft. Doch ein mindestens ebenso relevantes Feld liegt in administrativen und organisatorischen Prozessen. Hier entstehen täglich immense Aufwände für Dokumentation, Planung, Abrechnung und Logistik. Wer die Realität in deutschen Krankenhäusern kennt, weiß: Ärzte und Pflegekräfte verbringen mehrere Stunden am Tag mit administrativen Tätigkeiten und füllen beispielsweise Formulare aus statt Zeit am Patienten zu haben. Gleichzeitig stehen Krankenhäuser unter steigendem Kostendruck bei gleichzeitig knappen Ressourcen. Genau hier kann KI einen entscheidenden Unterschied machen.
Betriebliche Prozesse sind geprägt von Routinen, sich wiederholenden Entscheidungen und der Verarbeitung großer Datenmengen. Dienstpläne müssen erstellt, Material bestellt, Abrechnungen geprüft und Dokumentationen verfasst werden. All das sind Aufgaben, die sich hervorragend für intelligente Automatisierung eignen, denn KI kann hier Daten analysieren, Muster erkennen und Abläufe so steuern, dass Personal entlastet und Fehler reduziert werden. Das ist ein Bereich, in dem Krankenhäuser vergleichsweise schnell starten können. Denn während KI in der Diagnostik oder Therapie strengeren regulatorischen Anforderungen wie der Medizinprodukteverordnung (MDR) unterliegen, gilt das für Verwaltungsanwendungen in der Regel nicht. Systeme für Abrechnung, Personalplanung oder Logistik sind normalerweise keine Medizinprodukte. Das macht sie einfacher, schneller und mit weniger Risiko einsetzbar. Für Krankenhäuser bietet sich hier die Chance, mit KI für Entlastung und Effizienzsteigerung im Alltag zu sorgen.
Die Potenziale und Einsatzfelder von KI für nicht-medizinische Prozesse im Krankenhaus sind ebenso vielfältig wie die betrieblichen Prozesse im Krankenhaus.
In der Personalplanung können KI-Systeme Schichtpläne automatisch erstellen und dabei Verfügbarkeiten, Qualifikationen und gesetzliche Vorgaben berücksichtigen. Damit werden nicht nur Führungskräfte entlastet, sondern auch Konflikte im Team reduziert, weil die Planung transparenter und fairer abläuft. Im Einkauf analysieren Algorithmen Verbrauchsdaten, prognostizieren Bedarfe und schlagen automatisch Alternativen vor. So lassen sich Lieferketten stabilisieren, Kosten senken und Engpässe vermeiden. In der Finanzbuchhaltung wiederum reduzieren KI-Systeme Fehler, beschleunigen Prozesse und liefern Entscheidungsgrundlagen für die Geschäftsführung.
Auch im Medizincontrolling unterstützen KI-Lösungen die automatisierte Codierung und Abrechnung. Sie erkennen Fehler frühzeitig, reduzieren Erlösausfälle und beschleunigen den gesamten Prozess. Das entlastet Fachkräfte, die sich bislang mühsam durch komplexe Kodierregeln arbeiten mussten. Projekte wie die „Eingabefreie Station“ des Fraunhofer IML zeigen zudem, wie Pflegetätigkeiten mithilfe von Sensorik und KI automatisch erfasst und dokumentiert werden können. Das ist ein Ansatz, der Pflegepersonal massiv entlastet und die Qualität der Dokumentation verbessert.
Auch die Logistik ist ein Paradebeispiel für den Einsatz von KI. In vielen Kliniken verbringen Pflegekräfte immer noch Zeit damit, Materialbestände zu kontrollieren oder Transporte zu organisieren. Intelligente Systeme wie KI-gestützte Materialschränke oder Transportroboter nehmen diese Aufgaben ab. Dabei überwachen sie Bestände, lösen automatisch Bestellungen aus oder übernehmen interne Fahrten zwischen Stationen und Funktionsbereichen. Fraunhofer IML zeigt eindrücklich, wie groß hier das Potenzial ist.
Auch im Bereich der Dokumentation eröffnen sich spürbare Chancen. Sprach- und Texterkennung können Arzt-Patienten-Gespräche mitschneiden, strukturieren und direkt in die elektronische Patientenakte übertragen. Generative KI liefert Formulierungsvorschläge für Entlassungsberichte oder Pflegeprotokolle. Das spart Zeit, erhöht die Konsistenz und sorgt dafür, dass Dokumentationen vollständiger werden. Ergänzend können Chatbots in der Patientenaufnahme oder im Service einfache Anfragen übernehmen, Termine koordinieren und Informationen bereitstellen.
Natürlich bringt auch die Einführung von KI für nicht-medizinische Prozesse im Krankenhaus Herausforderungen mit sich, auch wenn sie nicht als Medizinprodukte gelten. Datenschutz und IT-Sicherheit muss gewährleistet sein und Systeme müssen so konzipiert sein, dass sensible Daten geschützt bleiben und nur autorisierte Zugriffe möglich sind. Ebenso entscheidend ist die Akzeptanz des Personals. Empfehlenswert ist hier, auf transparente Kommunikation, frühe Einbindung und gezielte Schulungen zu setzen. Schließlich ist auch die technische Integration eine Hürde, da viele Kliniken mit heterogenen IT-Landschaften arbeiten, in denen Schnittstellen und Interoperabilität fehlen. Ob eine KI-Lösung funktioniert, entscheidet sich daher oft weniger an ihrer Leistungsfähigkeit als an ihrer Anschlussfähigkeit an bestehende Systeme.
Und natürlich macht die Vielfalt an Einsatzmöglichkeiten in nicht-medizinischen Prozessen es nicht gerade leicht, sich für einige wenige KI-Anwendungen zu entscheiden. Klar ist, dass nicht gleich in allen betrieblichen Prozessen KI eingesetzt werden kann. Die Einführung von KI muss Sinn machen und ist individuell. Hier ist wichtig, nicht nur nach Interesse an einer bestimmten Anwendung zu agieren, sondern im Vorfeld sinnvolle Use Cases zu identifizieren, die wirklichen Mehrwert haben. Eine übergeordnete KI-Strategie eines Krankenhauses hilft dabei, Orientierung zu geben und Prioritäten zu setzen.
Grundsätzlich sind diese Herausforderungen machbar und die Chancen überwiegen. KI in administrativen und organisatorischen Abläufen entlastet Fachkräfte von Routinen, senkt Kosten, beschleunigt Abläufe und schafft neue Freiräume für die Versorgung. Vor allem aber ist sie schneller und unkomplizierter einzuführen als klinische KI-Systeme, weil sie nicht den regulatorischen Hürden eines Medizinprodukts unterliegt. Gerade dieser Unterschied macht sie zu einem idealen Einstiegsfeld, denn sie ermöglicht schnell sichtbare Erfolge, ist vergleichsweise risikoarm und schafft Vertrauen in die Technologie.
Wer jetzt in „Verwaltungs-KI“ investiert, gewinnt doppelt. Denn einerseits reduziert sich die tägliche Belastung durch Bürokratie und ineffiziente Prozesse. Andererseits schaffen Krankenhäuser eine Basis, auf der sie später auch komplexere KI-Anwendungen im medizinischen Bereich erfolgreich einführen können.
Wem gehört die Entscheidung, ob ein KI-System diskriminiert? Und wer trägt die Verantwortung, wenn es das tut? Solche Fragen klingen zunächst philosophisch, sind aber längst operative Realität für CIOs und IT-Manager. Mit dem EU AI Act steigt der regulatorische Druck rapide, auch für Schweizer Unternehmen. Die ethische, rechtliche und technische Steuerung von Künstlicher Intelligenz ist nicht mehr Kür, sondern Pflicht. Doch wie sieht wirksame KI-Governance in der Schweizer Unternehmenspraxis konkret aus?
Während regulatorische Anforderungen wie der EU AI Act, ISO/IEC 42001 oder der kommende Schweizer Datenschutzrahmen zunehmen, steigen auch die Erwartungen der Kunden und der Öffentlichkeit an verantwortungsvolle KI. CIOs und IT-Manager müssen nicht nur rechtliche Compliance sicherstellen, sondern auch ethische Leitplanken setzen. Ohne klare Governance-Strukturen entsteht ein gefährlicher Blindflug mit Reputationsrisiken, diskriminierenden Modellen und ungeklärten Haftungsfragen.
Basierend auf Erfahrungen mit Schweizer Unternehmen aus Industrie, Versicherungen und Gesundheitswesen empfehlen sich folgende Schritte:
Schritt 1: Governance-Ziele definieren
Welche Risiken will das Unternehmen mit KI adressieren: Fairness, Datenschutz, Sicherheit? Diese Ziele müssen auf Unternehmensstrategie und IT-Strategie abgestimmt sein.
Schritt 2: Verantwortlichkeiten festlegen
Analog zur Domänen-/Tower-Struktur in der klassischen IT-Governance sollten KI-Governance-Rollen etabliert werden (z. B. „KI-Tower Lead“). Weitere Rollen wie „KI Owner“ schaffen ebenfalls klare Verantwortungen.
Schritt 3: Regelwerke und Kontrollen definieren
Beispiel: „Alle KI-Modelle mit Einfluss auf Kreditentscheide müssen durch eine Bias-Analyse mit dokumentierter Freigabe durch das KI Board gehen.“ Technische und manuelle Kontrollen sichern die Einhaltung.
Schritt 4: Eskalationspfade und Monitoring etablieren
Abweichungen (z. B. fehlerhafte Entscheidungen oder Bedenken) müssen über definierte Gremien behandelt werden. Beispielsweise ein monatliches KI-Board.
Schritt 5: Integration in bestehende IT-Governance
KI-Governance darf kein paralleles System sein. Erfolgreiche Unternehmen integrieren Governance von KI in ihre bestehende IT-Management- und Risikostruktur.
Fehlende Klarheit in der Verantwortung: In einem Finanzdienstleister führte die unklare Rollenverteilung dazu, dass niemand ein fehlerhaftes Modell stoppen konnte. Lösung: Tower-Struktur mit klaren Eskalationswegen (z. B. KI-Tower → CIO).
Technik ohne Ethik: Ein Industrieunternehmen implementierte KI zur Personalrekrutierung ohne Bias-Analyse. Erst nach einem PR-Vorfall wurde ein KI-Review-Prozess eingeführt.
Überschätzte Selbstregulierung: Einige Unternehmen verlassen sich auf ihre Data Scientists. Erfolgreiche Organisationen hingegen koppeln jede Modellfreigabe an ein unabhängiges Kontrollgremium.
3 Fragen zur Optimierung Ihrer KI-Governance:
Gibt es in Ihrer Organisation eine definierte Stelle, die Risiken von KI bewertet und behandelt?
Sind Ihre KI-Kontrollen in die bestehende IT-Governance integriert oder leben sie in Silos?
Wissen Sie, welches Ihrer Systeme aktuell KI nutzt und ob es DSG-konform ist?
Die 3 wichtigsten nächsten Schritte:
Aufbau eines interdisziplinären KI-Governance-Teams (IT, Recht, Business, Ethik)
Definition von Regelwerken und Kontrollprozessen (integriert in bestehende IT-Governance)
Einführung eines laufenden Performance- und Risiko-Monitorings für KI-Anwendungen
Der STACKIT Object Storage ist ein skalierbarer, verteilter Objektspeicher für Backups, Medien, Logs und beliebige Blob-Daten. Er ist auf hohe Verfügbarkeit und Kostenoptimierung ausgelegt und lässt sich in bestehende Anwendungen integrieren, ohne dass deren Grundarchitektur angepasst werden muss.
Für Betreiber und Entwickler bedeutet das: stabile Speicherung großer Datenmengen bei freier Wahl der Werkzeuge zur Verwaltung und Nutzung.
Der Dienst ist S3-kompatibel und speichert Daten automatisch zonenredundant in europäischen Rechenzentren, was ein Plus für Verfügbarkeit und Datenhoheit ist. Zudem punktet STACKIT mit transparenten Kosten: Für den Ingress und Egress von Daten innerhalb der STACKIT Cloud fallen keine Netzwerkkosten an. Alle gespeicherten Daten und Daten im Transit sind standardmäßig mit AES-256 verschlüsselt.
„S3-kompatibel“ heißt, dass API-Schnittstelle, Authentifizierungsmechanismen und die grundlegenden Operationen (Put/Get/List/Delete, Multipart Uploads, Presigned URLs etc.) dem De-facto-Standard von Amazon S3 folgen.
Das ermöglicht Ihnen, bewährte Tools und SDKs direkt einzusetzen. Achten Sie jedoch auf Details, wie:
Path-Style vs. Virtual-Host-Style
Signatur-Versionen (v2/v4)
mögliche Feature-Unterschiede
Diese Feinheiten testen Sie am besten in einem kurzen Proof-of-Concept.
Dienst aktivieren:

Bucket erstellen:


Zugangsdaten anlegen:




Weitere technische Details und Endpoint-Infos finden Sie in der STACKIT-Dokumentation.
Eine Bucket Policy ist eine Zugriffsrichtlinie in Form eines JSON-Dokuments, das direkt an einen Bucket angehängt wird. Sie legt fest:
Wer (Principal) auf den Bucket oder Objekte zugreifen darf
Welche Aktionen (z. B. s3:GetObject, s3:PutObject) erlaubt sind
Auf welche Ressourcen sich die Rechte beziehen
Neue Buckets sind in STACKIT standardmäßig privat. Mit Policies können Sie dieses Verhalten erweitern oder anpassen.
Typische Anwendungsfälle:
Zugriff für Nutzer aus anderen Portal-Projekten
Öffentliche Inhalte (z. B. Bilder oder Dateien für Websites)
Beispiel: Alle Objekte im Bucket öffentlich lesbar machen:
{
"Statement": [
{
"Sid": "Public GET",
"Effect": "Allow",
"Principal": "*",
"Action": "s3:GetObject",
"Resource": "arn:aws:s3:::BUCKETNAME/*"
}
]
}
Weitere Konfigurationsbeispiele finden Sie in der STACKIT-Dokumentation.
Neben den Basisfunktionen unterstützt STACKIT Object Storage auch erweiterte Features:
S3 Lifecycle Configurations: Regeln für automatische Übergänge oder Löschungen nach definierten Zeiträumen
Pre-Signed URLs: Temporäre, signierte Links für den sicheren, zeitlich begrenzten Zugriff auf private Objekte
Server-Side Encryption (SSE/SSE-C): Verschlüsselung direkt im Storage, mit STACKIT-Schlüsseln oder eigenen Kundenschlüsseln
CORS (Cross-Origin Resource Sharing): Kontrolle, von welchen Domains Browser-Apps direkt auf Buckets zugreifen dürfen
Bucket Versioning: Mehrere Versionen desselben Objekts speichern, um versehentliche Löschungen oder Überschreibungen rückgängig zu machen
Da das STACKIT-Portal aktuell keine integrierte Objekt-Browser-Ansicht bietet, empfiehlt sich für die Verwaltung ein externer Client. Besonders S3 Browser (Windows) ist leichtgewichtig, einfach einzurichten und speziell auf S3-Workflows ausgerichtet, was ideal für Nutzer ist, die Buckets und Dateien per Drag & Drop verwalten möchten.


Alternativ können Sie auch Cyberduck (Windows/macOS) verwenden. Eine Schritt-für-Schritt-Anleitung zur Einrichtung finden Sie direkt in der STACKIT-Dokumentation.
Für Automatisierungen und Skripte eignen sich ergänzend Tools wie s3cli oder rclone.
Bei der Verwendung von Infrastructure-as-Code (IaC) mit STACKIT Object Storage ergeben sich spezielle Abhängigkeiten zwischen Ressourcen und Providern, die bei der Planung berücksichtigt werden müssen. Ressourcen wie Buckets, Credential-Gruppen und Secrets werden zunächst über den STACKIT Provider erstellt. Nachfolgend am Beispiel von Terraform dargestellt:
resource "stackit_objectstorage_bucket" "bucket" {
project_id = var.project_id
name = "example-bucket"
}
resource "stackit_objectstorage_credentials_group" "credentials_group" {
project_id = var.project_id
name = "example-bucket"
}
resource "stackit_objectstorage_credential" "bucket_credentials" {
project_id = var.project_id
credentials_group_id = stackit_objectstorage_credentials_group.credentials_group.credentials_group_id
}
Erst danach können diese Informationen genutzt werden, um mit dem AWS Provider auf die S3-kompatible Schnittstelle von STACKIT zuzugreifen, z. B. beim Setzen einer Bucket Policy:
resource "aws_s3_bucket_policy" "public_read_access" {
bucket = stackit_objectstorage_bucket.bucket.name
policy = <<POLICY
{
"Statement": [
{
"Sid": "Public GET",
"Effect":"Allow",
"Principal":"*",
"Action":"s3:GetObject",
"Resource": "arn:aws:s3:::${stackit_objectstorage_bucket.bucket.name}/*"
}
]
}
POLICY
}
Damit dies funktioniert, müssen jedoch alle für den AWS Provider Block benötigten Informationen bereits existieren, bevor dieser initialisiert wird. Anders als Resource-Blöcke unterstützen Provider-Blöcke keine depends_on-Angaben. Der AWS Provider Block muss daher direkt auf die bereits erstellten Credentials zugreifen und den Endpoint korrekt gesetzt bekommen:
provider "aws" {
region = "eu01"
skip_credentials_validation = true
skip_region_validation = true
skip_requesting_account_id = true
access_key = stackit_objectstorage_credential.bucket_credentials.access_key
secret_key = stackit_objectstorage_credential.bucket_credentials.secret_access_key
endpoints {
s3 = "https://object.storage.eu01.onstackit.cloud"
}
}
Take-Away: Um Fehler zu vermeiden, dass der Provider auf nicht vorhandene Credentials zugreifen möchte, empfiehlt es sich, die STACKIT-Ressourcen in einem ersten Apply-Schritt zu erstellen und den AWS Provider erst im zweiten Schritt zu verwenden. So wird sichergestellt, dass alle Informationen bei der Initialisierung der Providerblöcke bereits vorhanden sind.
Der STACKIT Object Storage bietet eine leistungsfähige, S3-kompatible Lösung für Unternehmen, die Wert auf Datenhoheit, Sicherheit und Kostentransparenz legen. Dank der API-Kompatibilität lassen sich bestehende Tools und Workflows nahezu nahtlos weiterverwenden.
Ob für Backups, Medien-Assets oder Logs: Mit Features wie Lifecycle-Regeln, Pre-Signed URLs und Bucket Policies behalten Sie jederzeit Kontrolle über Datenzugriff und Speicheroptimierung. Externe Clients wie Cyberduck oder S3 Browser ergänzen die Verwaltung sinnvoll.
Kurz gesagt: ein flexibler, sicherer und zukunftsfähiger Object Storage „Made in Europe“.
Künstliche Intelligenz (KI) gilt als Schlüsseltechnologie für die Zukunft der Gesundheitsversorgung, denn sie unterstützt Diagnostik, Prognosen und Patientenmanagement. Und sie hat das Potenzial, die Effizienz von Arbeitsprozessen zu erhöhen. Mittlerweile gibt es eine Vielzahl an KI-Modellen, aber im Vergleich dazu sind bisher nur wenige KI-Anwendungen in Krankenhäusern im Einsatz. Das ist mitunter dem fehlenden Vertrauen in diese „neue“ Technologie geschuldet. Bias in den Daten, intransparente Algorithmen, offene Datenschutz-Fragen und unklare Verantwortlichkeiten sind Gründe dafür, wieso der Großteil noch nicht auf KI-Einsatz vertraut. Und das mit Recht, denn eine fehlerhafte Empfehlung einer KI oder ein Datenleck könnte ernsthafte Konsequenzen nach sich ziehen und das Vertrauen von Klinikpersonal und Patienten dauerhaft beeinträchtigen. Hier kommt das Thema Governance ins Spiel. Denn durch die richtige Governance wird KI im Krankenhaus nachhaltig und sicher.
Künstliche Intelligenz kann für Krankenhäuser enorme Chancen eröffnen, gleichzeitig aber auch erhebliche Gefahren mit sich bringen, wenn sie ohne klare Regeln eingesetzt wird. Selbst Systeme, die in Studien beeindruckende Ergebnisse zeigen, können sich im klinischen Alltag anders auswirken. Daten verändern sich, Modelle verlieren an Genauigkeit, und wenn sie niemand systematisch überprüft, können Fehler unbemerkt bleiben und sich in die Routine einschleichen. Die Folge können falsche Diagnosen oder Behandlungsempfehlungen sein, die zu einem Risiko werden.
Noch gravierender sind die Risiken, die aus verzerrten Daten entstehen. Wenn eine KI auf einer nicht repräsentativen Basis trainiert wird, spiegelt sie bestehende Ungleichheiten wider und verstärkt diese sogar. Für ein Krankenhaus bedeutet das, dass bestimmte Patientengruppen schlechtere Chancen auf eine richtige Diagnose oder eine passende Behandlung haben. Solche systematischen Verzerrungen sind nicht nur ein ethisches Problem, sie bedrohen auch unmittelbar die Qualität und Fairness der Versorgung.
Ein weiteres Feld, in dem fehlende Governance gefährlich wird, ist der Umgang mit Patientendaten. Denn gesundheitliche Informationen gehören zu den sensibelsten Daten überhaupt, und wenn unklar bleibt, wie sie erhoben, verarbeitet und weitergegeben werden, geht das Vertrauen der Patienten schnell verloren. Schon einzelne Vorfälle reichen aus, um das Arzt-Patienten-Verhältnis dauerhaft zu beschädigen.
Und schließlich stellt sich die Frage der Nachvollziehbarkeit, denn wie KI-Systeme zu ihren Ergebnissen kommen, ist manchmal selbst für Fachleute schwer zu durchschauen. Wenn Ärzte nicht erklären können, wie eine Empfehlung zustande kommt, wird das Arzt-Patienten-Verhältnis wiederum geschwächt. Zugleich bleibt unklar, ob im Schadensfall die Klinik, die IT-Abteilung, der Hersteller oder die Behandelnden selbst dafür haften. Diese Unklarheit ist gefährlich, weil sie Sicherheit und Verlässlichkeit der gesamten Organisation untergräbt.
Fehlt eine solide Governance, drohen Krankenhäusern also nicht nur Fehler und Datenschutzprobleme, sondern auch Vertrauensverluste und Reputationsschäden. Governance ist daher nicht optional, sondern Voraussetzung.
Wenn Krankenhäuser Künstliche Intelligenz einführen, reicht es nicht aus, ein neues System technisch zu installieren und auf das Personal zu übertragen. Damit KI nicht zum Risiko wird, sind klare Regeln nötig, die auf mehreren Ebenen greifen. Governance beschreibt dieses Zusammenspiel aus Verantwortung, Kontrolle und Transparenz und macht den Unterschied zwischen einem Pilotprojekt und einem nachhaltig funktionierenden Einsatz. Eine erfolgreiche KI-Governance umfasst verschiedene zentrale Elemente:
Ein erster Kernbereich ist die Frage der Fairness. Dabei müssen Kliniken sicherstellen, dass die Daten, mit denen Algorithmen arbeiten, die Vielfalt ihrer Patienten widerspiegelt. Wird ein System beispielsweise mit Daten entwickelt, die bestimmte Gruppen unterrepräsentieren, dann spiegelt es diese Verzerrungen in seinen Empfehlungen wider. Governance verlangt deshalb, dass Krankenhäuser bereits bei der Einführung klären, wie Daten geprüft, ergänzt und überwacht werden. Hier kann helfen, Gremien einzurichten, in denen nicht nur IT und Medizin vertreten sind, sondern auch Ethik, Recht und im Idealfall Patientenvertretungen. Auf diese Weise wird Fairness aktiv überprüft und abgesichert.
Ärzte können KI nur dann sinnvoll in ihre Entscheidungen einbeziehen, wenn sie verstehen, wie Ergebnisse zustande kommen. Governance bedeutet daher, dass Hersteller verpflichtet werden, Erklärbarkeit bereitzustellen, und dass Krankenhäuser diese Informationen so in ihre Prozesse einbetten, dass sie für das Personal nutzbar sind. Transparenz richtet sich aber nicht nur nach innen, denn auch Patienten haben das Recht zu erfahren, wann und wie eine KI in ihrer Behandlung eingesetzt wird. Governance bedeutet in diesem Zusammenhang eine Kommunikationsaufgabe: Kliniken müssen verständlich erklären, was KI leistet, wo ihre Grenzen liegen und dass die Verantwortung am Ende bei Menschen bleibt.
Vertrauenswürdigkeit entsteht, wenn KI-Anwendungen nicht isoliert laufen, sondern Teil von klinischen Qualitäts- und Sicherheitsstandards sind. Governance sorgt dafür, dass es Audits, Reviews und Fortbildungen gibt, die regelmäßig prüfen, ob Systeme so arbeiten wie vorgesehen. Das bedeutet, dass KI-Anwendungen nicht nur zu Beginn freigegeben, sondern über ihren gesamten Lebenszyklus hinweg überwacht werden. Für Kliniken ist es entscheidend, diese Aufsicht in bestehende Qualitätsmanagementsysteme zu integrieren.
In Krankenhäusern darf nie unklar bleiben, wer für den Einsatz einer KI verantwortlich ist. Auch wenn Algorithmen Empfehlungen geben, liegt die letzte Entscheidung bei den behandelnden Ärzten. Governance sorgt dafür, dass diese Rollen klar dokumentiert sind und dass zugleich Hersteller, IT-Abteilungen und Klinikleitungen ihre jeweilige Verantwortung für die technische Sicherheit, die rechtliche Konformität oder die klinische Anwendung tragen. So ist im Schadensfall die Verantwortungsfrage und Zuständigkeit geklärt.
Schließlich gehört zu einer soliden Governance auch die kontinuierliche Überwachung über den gesamten Lebenszyklus einer Anwendung hinweg. KI verändert ihre Leistung mit den Daten, die ihr zur Verfügung stehen. Daher muss es feste Prozesse geben, um Systeme regelmäßig zu überprüfen und Abweichungen frühzeitig zu erkennen. So können im Zweifel Anpassungen gemacht oder ein Modell außer Betrieb genommen werden. Externe Audits und Benchmarks können diese Aufsicht ergänzen und zusätzliche Sicherheit schaffen.
Governance ist ein fortlaufender Prozess und verbindet die Perspektiven von Medizin, IT, Pflege, Ethik, Recht und Patienten. Sie schafft Strukturen, die Innovation ermöglichen, ohne Sicherheit und Vertrauen aufs Spiel zu setzen. Letztendlich schafft sie klare Regeln, Verantwortung und Transparenz und verhindert, dass Fehler oder Vertrauensverluste den erfolgreichen Einsatz von KI im Krankenhaus gefährden. Für Krankenhäuser bedeutet das: keine KI ohne Governance.
„Unsere Kernsysteme laufen seit 20 Jahren stabil, warum sollten wir etwas an unseren Legacy-Systemen ändern?“
Diese Haltung höre ich als IT-Berater noch immer oft. Doch die Realität ist: Legacy-Systeme sind wie alte Maschinen in der Produktion. Sie funktionieren, aber sie bremsen Innovation, verursachen hohe Kosten und bergen erhebliche Risiken für Sicherheit und Compliance. Für CIOs und IT-Manager ist die Frage nicht mehr, ob, sondern wie man diese Systeme modernisiert, ohne den laufenden Betrieb zu gefährden.
Legacy-Systeme sind deshalb so kritisch, weil sie meist geschäftskritische Prozesse abbilden, aber kaum noch wartbar sind. Entwicklerkenntnisse fehlen, Schnittstellen sind proprietär, und Sicherheits-Updates gibt es oft nicht mehr. In der Schweiz sah sich etwa ein führendes Industrieunternehmen gezwungen, eine millionenschwere Notmigration durchzuführen, weil ein alter Unix-Server nach einem Hardware-Ausfall nicht mehr gestartet werden konnte. Die Folgen: Produktionsstillstand, Reputationsschaden und ein hoher ungeplanter Investitionsbedarf. CIOs, die zu lange zögern, gehen damit ein Risiko ein, das weit über IT hinausgeht. Es betrifft unmittelbar die Geschäftskontinuität.
Der Weg in eine moderne, flexible Enterprise-Architektur muss jedoch nicht im Big Bang erfolgen. Erfolgreiche Unternehmen setzen zunehmend auf schrittweise Modernisierung. Drei Ansätze haben sich bewährt:
API-Strategien für mehr Anschlussfähigkeit
Anstatt Legacy-Systeme sofort abzulösen, werden sie mit modernen API-Schichten „gekapselt“. So lassen sich bestehende Daten und Funktionen in neue Anwendungen einbinden. Ein Schweizer Versicherer hat sein altes Policen-System nicht abgeschaltet, sondern über APIs geöffnet und konnte so schnell digitale Services für Kunden entwickeln, ohne das Risiko einer Komplettmigration.
Modulare Architekturen als Zukunftsbasis
CIOs, die erfolgreich modernisieren, denken nicht in monolithischen Ablösungen, sondern in Services. Microservices-Architekturen oder modulare Plattformen erlauben es, alte Komponenten Schritt für Schritt auszutauschen. Ein Beispiel aus der Finanzbranche: Eine Bank löste ihre alte Kreditplattform modular auf, indem sie zuerst das Kundendatenmanagement modernisierte und später die Kernprozesse schrittweise umstellte. So blieb das Geschäft stabil, während die IT flexibler und günstiger wurde.
Hybride Szenarien statt radikaler Schnitte
Der Mittelweg ist oft der realistischste: Legacy bleibt in Kernbereichen bestehen, während neue Cloud-Lösungen parallel integriert werden. Ein Gesundheitsdienstleister in Zürich etwa nutzt weiterhin sein altes Patientenverwaltungssystem, hat aber für die Arztkommunikation eine moderne Cloud-Lösung integriert. Das Resultat: höhere Effizienz ohne sofortige Großinvestitionen.
Die entscheidende Rolle der CIOs liegt darin, das Spannungsfeld zwischen Stabilität und Innovation zu managen. IT-Manager sind für die operative Umsetzung verantwortlich, also für Schnittstellen, Testprozesse und sichere Migration. CIOs dagegen müssen die IT-Strategie mit der Geschäftsstrategie verzahnen und sicherstellen, dass Investitionen in Modernisierung nicht nur technische Probleme lösen, sondern auch neue Geschäftschancen eröffnen.
Wer handelt, kann den Spagat meistern: bestehende Systeme stabil betreiben, gleichzeitig neue digitale Services ermöglichen und die IT-Organisation nachhaltig aufstellen. Wer wartet, riskiert hingegen, dass die IT zum Flaschenhals der Unternehmensstrategie wird.
Welche unserer Legacy-Systeme sind geschäftskritisch und wo liegen die größten Risiken?
Können wir diese Systeme über APIs oder modulare Architekturen schrittweise öffnen, statt alles auf einmal zu migrieren?
Wie stellen wir sicher, dass jede Modernisierungsmaßnahme sowohl die IT-Strategie als auch die Geschäftsstrategie unterstützt?
Aktuell gibt es keine Ergebnisse in dieser Kategorie Reset filters?
Willkommen bei unserem exklusiven Support für Bestandskunden. Hier finden Sie alle nötigen Informationen, um schnell und unkompliziert Hilfe bei technischen Anfragen zu erhalten.
Senden Sie uns Ihr Anliegen mit allen relevanten Details an:
Für eine direkte Unterstützung per Fernwartung, laden Sie bitte unser TeamViewer-Modul herunter:
Bitte beachten Sie: Dieser Kanal ist speziell für technische Anfragen unserer Bestandskunden vorgesehen. Für allgemeine Anfragen, Informationen zu unseren Dienstleistungen oder eine Erstberatung nutzen Sie bitte unser Kontaktformular oder schreiben Sie eine E-Mail an info@rewion.ucepts.de.