Transkripte
1. Einführung: Willkommen bei Mainframe
MIT Modernization. Beherrschung des Hybrid-Cloud-Designs. Mein Name ist Ricardo Nuke und ich bin Ihr Dozent
für Kurses. dieses Kurses „
Mainframe-MIT-Modernisierung, Beherrschung des
Hybrid-Cloud-Designs“ besteht darin, Ihnen grundlegende
Fähigkeiten, Kenntnisse
und Fähigkeiten zu vermitteln, die Sie benötigen, um
Hybrid-Cloud-Architekturen, die Mainframe-Systeme
in eine moderne Cloud-Umgebung
integrieren,
effektiv zu entwerfen und zu
implementieren Hybrid-Cloud-Architekturen, die Mainframe-Systeme
in eine moderne Cloud-Umgebung
integrieren, Das Ziel
dieses Kurses „
Mainframe-MIT-Modernisierung,
Beherrschung des
Hybrid-Cloud-Designs“ besteht darin, Ihnen grundlegende
Fähigkeiten, Kenntnisse
und Fähigkeiten zu
vermitteln, die Sie benötigen, um
Hybrid-Cloud-Architekturen, die Mainframe-Systeme
in eine moderne Cloud-Umgebung
integrieren,
effektiv zu entwerfen und zu
implementieren. Zum Beispiel AWS. A Die wichtigsten Ergebnisse. Am Ende dieses Kurses werden
Sie sicher sein, Hybrid-Cloud-Architekturen zu entwerfen
und zu implementieren, die Mainframes
in Hybrid-Cloud-Architekturen zu entwerfen
und zu implementieren moderne
Cloud-Plattformen
integrieren moderne
Cloud-Plattformen Sie werden über
das technische
Know-how verfügen , um Sicherheit,
Compliance und
betriebliche Effizienz
während des gesamten
Modernisierungsprozesses aufrechtzuerhalten ,
Compliance und
betriebliche Effizienz während des gesamten
Modernisierungsprozesses Sie verfügen über praktische Kenntnisse
in der Nutzung von Automatisierung, Devov-Tools und
Cloud-nativen Diensten zur Verbesserung ihrer
Hybridumgebung Sie werden
mit Strategien ausgestattet , um organisatorische
Herausforderungen
zu bewältigen Teamausrichtung
und den Projekterfolg
sicherzustellen Sieben spezifische Phasen
der Transformation. Hier sind die sieben
spezifischen Schritte oder Phasen, die Sie befolgen müssen,
um von
einem älteren
Mainframe-Mainframe-System
zu einem hybriden
Mainframe-Cloud-Computing-System umzusteigen einem älteren
Mainframe-Mainframe-System
zu einem hybriden
Mainframe-Cloud-Computing-System zu einem hybriden
Mainframe-Cloud-Computing-System Die erste besteht darin, die aktuelle
Mainframe-Umgebung zu bewerten und aktuelle
Mainframe-Umgebung zu bewerten Definieren Sie anschließend eine
Hybrid-Cloud-Strategie und -Architektur. Anschließend werden Sie
cloudfähige Anwendungen
und Workloads
pilotieren und testen cloudfähige Anwendungen
und Workloads
pilotieren und Anschließend migrieren Sie Daten
und Workloads in die Cloud. Anschließend implementieren Sie
Hybrid Cloud-Management und Orchestrierungstools Anschließend optimieren Sie
die Sicherheit, Einhaltung und Leistung und treiben schließlich kontinuierliche
Verbesserungen und Innovationen voran Gliederung des Kurses mit sieben Modulen. Dieser Kurs ist
in sieben Module unterteilt. Die Module sind die folgenden. Zunächst die Grundlagen der
Hybrid Cloud-Architektur. Anschließend werden wir uns mit der Evaluierung älterer Systeme
für die Cloud-Integration befassen. Die dritte ist die Entwicklung einer Hybrid-Cloud-Strategie
und -Architektur. Viertens, die Migration von Daten und
Anwendungen in die Cloud. Fünftens, Implementierung von
Automatisierung und DevOps in hybriden Umgebungen Sechstens, Gewährleistung von Sicherheit, Compliance und Governance
in Hybridsystemen Sieben, Optimierung und Verwaltung von Hybrid-Cloud-Systemen im Hinblick
auf die Leistung. Also innerhalb des Kurses.
2. Lektion 1: Einführung in Hybrid-Cloud-Konzepte: Willkommen zu Modul
eins, Grundlagen der Hybrid-Cloud-Architektur. Dieses Modul stellt
die Kernkonzepte der Hybrid-Cloud-Architektur vor und konzentriert sich dabei auf die Bedeutung
hybrider Systeme in der
heutigen IT-Landschaft. Es behandelt die grundlegenden
Unterschiede zwischen Mainframe- und
Cloud-Infrastruktur sowie die Vorteile der Integration
beider Systeme im Hinblick auf Skalierbarkeit, Kosteneffizienz und Innovation Lektion eins, Einführung in
Hybrid-Cloud-Konzepte. Willkommen zur ersten
Lektion unseres Kurses „
Mainframe trifft Modernisierung, Mainframe trifft Modernisierung, Mastering Hybrid Heute werden wir uns Hybrid-Cloud-Architektur befassen und erklären, warum sie in
modernen IT-Umgebungen unverzichtbar geworden ist,
insbesondere für
Unternehmen, die auf ältere
Mainframe-Systeme angewiesen sind Wenn Sie ein
Mainframe-Modernisierungsprojekt abwickeln ,
wie William, der Direktor für IT-Infrastruktur, geschäftskritische Systeme in einem Finanzinstitut verwaltet, dann sind Sie hier genau richtig Wir werden diese
Lektion in zwei Teile unterteilen. Zunächst die Definition der
Hybrid-Cloud-Architektur. Zweitens die Untersuchung der Entwicklung von Cloud- und Legacy-Systemen. Lass uns anfangen. Was ist eine Hybrid-Cloud-Architektur? Eine Hybrid-Cloud-Architektur kombiniert lokale
Infrastrukturen
wie Mainframes oder
private Rechenzentren mit öffentlichen
Cloud-Diensten wie AWS, Microsoft Azure
oder Google Cloud Diese Umgebungen
sind durch eine
Technologie miteinander verbunden , die es ermöglicht, Daten, Anwendungen oder Workloads nahtlos zwischen ihnen zu übertragen Im Wesentlichen erhalten Sie das
Beste aus beiden Welten die Zuverlässigkeit und Kontrolle von Mainframes und die Flexibilität, Skalierbarkeit und Innovation, die die
Cloud bietet Warum ist Hybrid Cloud
so wichtig? Für jemanden wie Sie, der
mit der Modernisierung eines
Finanzsystems beauftragt ist, ein hybrider Ansatz nicht
nur eine nette Sache,
er ist auch geschäftsentscheidend, und hier erfahren Sie, Erstens werden veraltete Systeme
nicht verschwinden. Mainframes sind
tief in Branchen wie Finanzen,
Gesundheitswesen und Regierung Ein vollständiger Ersatz dieser
Systeme ist aufgrund der
enormen Kosten
und des Risikos von Störungen nicht realistisch und des Risikos von Störungen Zweitens bietet die Cloud Flexibilität. Sie können bestimmte
Aufgaben wie Batch-Verarbeitung,
Datenanalyse oder
kundenorientierte Anwendungen in
die Cloud auslagern Datenanalyse oder
kundenorientierte Anwendungen in
die Cloud auslagern und gleichzeitig sensible Kernoperationen
auf dem Mainframe beibehalten Drittens
sind Sicherheit und Compliance nicht verhandelbar, insbesondere in regulierten
Branchen Ein Hybridmodell ermöglicht es Ihnen ,
Cloud-Funktionen zu nutzen und
gleichzeitig die strenge Kontrolle über Ihre sensibelsten Daten und
Anwendungen vor Ort zu Nehmen wir ein Beispiel.
Stellen Sie sich vor betreiben ein
Kreditkartenverarbeitungssystem auf Ihrem Mainframe Die Transaktionsdaten müssen auf dem Mainframe
verbleiben Aber die Analyse des
Kundenverhaltens kann in
die Cloud verlagert werden, wo es einfacher ist, große Datenmengen in Echtzeit zu skalieren und zu analysieren Dieses Hybrid-Setup stellt sicher, dass Ihre sensiblen Abläufe sicher und funktionsfähig
bleiben Die Cloud verarbeitet
dynamischere, skalierbarere Workloads. Die Entwicklung von Cloud
- und Legacy-Systemen. Lassen Sie uns eine kurze Reise Vergangenheit unternehmen und herausfinden,
wie wir hierher gekommen sind. Die Ära der Mainframes. Mainframes sind seit
den 1960er Jahren das Rückgrat der Datenverarbeitung
in
Unternehmen Banken, Regierungen und
Gesundheitssysteme
verlassen sich alle auf Mainframes, weil sie eine unübertroffene
Zuverlässigkeit,
Sicherheit und Rechenleistung bieten ,
Sicherheit und Wenn Sie jemals
mit dem Backend-System einer Bank interagiert haben, einen Geldautomaten
benutzen oder Ihre Steuern einreichen, ist die
Wahrscheinlichkeit groß, dass
irgendwo auf der Strecke ein Mainframe involviert
war Mainframes sind
darauf ausgelegt, Transaktionen
mit hohem Volumen Aus diesem Grund ist diese Lösung für Branchen von
entscheidender Bedeutung, in denen jede Störung Verluste in
Millionenhöhe oder
sogar rechtliche Konsequenzen bedeuten würde Verluste in
Millionenhöhe oder
sogar rechtliche Konsequenzen Die größte Herausforderung besteht jedoch
darin, dass Mainframes in einer Zeit
gebaut wurden , in der es kein
Cloud-Computing gab Sie sind zwar
leistungsstark, wurden aber nicht mit Blick auf die
Cloud-Integration
entwickelt Hier kommt das
Hybridmodell ins Spiel. Der Aufstieg von Cloud Computing. Cloud Computing entstand Anfang 2000 und hat
die Arbeitsweise von Unternehmen
grundlegend verändert. Die Cloud bietet
Ressourcen, Rechenleistung,
Speicher und Netzwerke auf Abruf , ohne dass physische Server vorhanden und verwaltet
werden müssen Zu den wichtigsten Vorteilen der Cloud
gehört die Skalierbarkeit. Sie können Ihre Anwendungen
und Ressourcen je nach Bedarf nach oben und unten, nach
oben oder unten skalieren und Ressourcen je nach Bedarf nach oben und unten, . Kosteneffizienz. Sie
zahlen nur für das, was Sie nutzen. Schluss mit der Bereitstellung
physischer Hardware. Cloud-Plattformen beherbergen neue Technologien wie
KI, maschinelles Lernen und Big-Data-Analysen, die Unternehmen dabei helfen können Einblicke
zu gewinnen und Abläufe
zu optimieren. Viele
Unternehmen stellten jedoch fest, dass die Cloud zwar ein entscheidender
Faktor war, es jedoch nicht praktikabel
war, vollständig aufzugeben ihre
Mainframe-Systeme An dieser Stelle
begann das Cloud-Modell an Bedeutung zu gewinnen. Warum
werden Hybrid-Cloud-Modelle immer beliebter? In den letzten Jahren
haben
Hybrid-Cloud-Modelle an Popularität gewonnen, insbesondere in Branchen, in
denen Sicherheit, Compliance und Leistung nicht verhandelbar
sind Hier erfahren Sie, warum. Erstens,
das Gleichgewicht zwischen Risiko und Innovation. Mainframes eignen sich hervorragend
für den Kernbetrieb, aber die Cloud ist
ideal, um mit
neuen Technologien zu experimentieren , ohne Ihre
Altsysteme zu gefährden Zweitens: optimierte Arbeitslast. Einige Aufgaben wie die
Stapelverarbeitung
eignen sich besser für Mainframes, während
andere, wie Datenanalysen, von der
Skalierbarkeit der Cloud
profitieren Drittens, Kostenkontrolle. Sie können Ihre
Mainframe-Investitionen dort platzieren, wo sie am sinnvollsten sind, und
vermeiden, dass zu viele
Ressourcen in
die Cloud verlagert werden, wo die Kosten schnell steigen
können Nehmen wir ein Beispiel.
Denken Sie an William, unseren Direktor für IT-Infrastruktur. Sein Finanzinstitut
möchte mithilfe von Modellen für maschinelles Lernen die Betrugserkennung in
Echtzeit
nutzen . Die vollständige Verlagerung des
Betrugserkennungssystems in die Cloud würde
erhebliche Ressourcen
und Konformitätsprüfungen erfordern . Stattdessen entscheidet sich William
für ein Hybridmodell. Der Mainframe wickelt weiterhin wichtige Finanztransaktionen ab, während das
Betrugserkennungsmodell auf AWS basiert Datenfluss zwischen
den beiden Umgebungen erfolgt reibungslos und ausgewogenes Verhältnis zwischen Sicherheit
und Innovation den wichtigsten Erkenntnissen aus
dieser Lektion gehört zum einen:
Hybrid-Cloud-Architekturen
ermöglichen es Ihnen, die Zuverlässigkeit von Mainframes
mit der Flexibilität
von mit der Flexibilität
von Zweitens haben veraltete Systeme wie Mainframes immer noch
einen immensen Wert,
insbesondere in
Branchen wie
dem Bankwesen, in denen Verfügbarkeit Drittens
ermöglicht Ihnen das Aufkommen von
Cloud-Computing ,
unsensible Workloads in die Cloud auszulagern , die Leistung
zu
optimieren
und die Kosten zu senken, während Sie gleichzeitig die strikte Kontrolle über
geschäftskritische Abläufe behalten . Lernaktivität. Denken Sie über Ihre aktuelle Infrastruktur nach. Welche Workloads
auf Ihrem Mainframe könnten von einer
Cloud-Integration profitieren? Welche Herausforderungen erwarten Sie Umstellung auf eine
Hybrid-Cloud Forschung. Schauen Sie sich eine Fallstudie einer Hybrid-Cloud-Architektur
in der Finanzbranche an. Wie haben sie mit der
Verteilung der Arbeitslast zwischen Mainframe- und Cloud-Umgebungen umgegangen?
Frage zur Diskussion Pan Gedanken im Diskussionsforum zum
Kurs. Was wäre der
größte Vorteil für Ihr Unternehmen, wenn Sie
eine Hybrid-Cloud-Architektur anpassen würden? Nächste Lektion: Mainframe
versus Cloud-Infrastruktur. In der nächsten Lektion werden wir uns
eingehender mit den
technischen Unterschieden zwischen Mainframes und
Cloud-Umgebungen Sie lernen
die Kernstärken
beider Systeme kennen und erfahren , warum Mainframes weiterhin
eine wichtige Rolle bei
unternehmenskritischen Abläufen spielen eine wichtige Rolle bei
unternehmenskritischen Wir werden auch die
wichtigsten Unterschiede in Bezug auf
Rechenspeicher und Netzwerke
zwischen lokalen und
Cloud-nativen Systemen untersuchen Rechenspeicher und Netzwerke auf
Rechenspeicher und Netzwerke
zwischen lokalen und
Cloud-nativen Systemen Wir freuen uns darauf,
mehr zu erfahren. Lassen Sie uns
Ihren Weg zur
Hybrid-Cloud-Beherrschung fortsetzen Ihren Weg zur
Hybrid-Cloud-Beherrschung
3. Lektion 2: Mainframes vs. Cloud-Infrastruktur: Lektion zwei, Mainframes
versus Cloud-Infrastruktur. Willkommen zu Lektion zwei
unserer Reise zur
Hybrid-Cloud-Architektur. In unserer vorherigen Lektion haben wir uns mit den Grundlagen
von Hybrid-Cloud-Systemen befasst und erklärt, warum sie in modernen
IT-Umgebungen so
unverzichtbar werden . Heute werden
wir uns eingehender den technischen
Unterschieden zwischen Mainframes und
Cloud-Infrastruktur Für jemanden wie William, Direktor für
IT-Infrastruktur, geschäftskritische Systeme in der Finanzbranche verwaltet, ist es entscheidend, die wichtigsten Stärken
und Unterschiede zwischen
Prem-Mainframes und
Cloud-nativer
Infrastruktur zu
verstehen Prem-Mainframes und Cloud-nativer
Infrastruktur Sie stehen wahrscheinlich vor
der Herausforderung, die Systemleistung und
-sicherheit aufrechtzuerhalten und gleichzeitig
die Skalierbarkeit und
Innovation zu nutzen , die die In dieser Lektion konzentrieren wir uns auf die technischen Unterschiede
zwischen Mainframes und Cloud-Umgebungen in Bezug Rechenspeicher und Netzwerke
und warum Mainframes in Branchen,
in denen
Zuverlässigkeit nicht verhandelbar ist,
weiterhin einen Wert haben Branchen,
in denen
Zuverlässigkeit nicht verhandelbar ist Lassen Sie uns das aufschlüsseln.
Rechnen Sie die Leistung von Mainframes mit der
Flexibilität der Cloud ab Mainframes, die Titanen der Transaktionsverarbeitung. Mainframes sind auf maximale Rechenleistung und Transaction
Trooper ausgelegt Trooper Wenn Ihr Unternehmen
Tausende von
Transaktionen pro Sekunde abwickelt , z. B. die Verarbeitung von
Kreditkartenzahlungen, die Gehaltsabrechnung
oder die Inventarverwaltung
in Echtzeit, sind
Mainframes darauf ausgelegt, dies zu
bewältigen, ohne dabei ins Stocken zu geraten Vertikale Skalierung.
Mainframes erzielen ihre Leistung durch
vertikale Skalierung,
was bedeutet, dass sie einem einzelnen System
mehr Rechenleistung
verleihen einem einzelnen System
mehr Rechenleistung Dadurch können sie auch
bei extremer Auslastung
eine hohe Zuverlässigkeit aufrechterhalten auch
bei extremer Auslastung
eine hohe Zuverlässigkeit Zuverlässigkeit und Verfügbarkeit. Mainframes sind legendär
für ihre Verfügbarkeit weisen
oft eine Verfügbarkeit von 99 Prozentpunkten auf bis
zu 9% auf, einer Ausfallzeit von etwa 5 Minuten pro Für Branchen
wie das Bankwesen, in denen selbst Sekunden Ausfallzeiten Millionen kosten
können, ist
dies ein entscheidender Faktor. Nehmen wir ein Beispiel. Stellen Sie ein ATM-Netzwerk vor, das Transaktionen
an Hunderten von
Standorten gleichzeitig
verarbeitet . Wenn das System ausfällt, kann
dies zum Verlust von
Transaktionen und zum Verlust des Kundenvertrauens führen. Mainframes sind so konzipiert, dass sie
sicherstellen, dass dies nicht passiert, und sorgen für eine gleichbleibende
Leistung in großem Maßstab. Cloud, die Meister der
Flexibilität und Skalierbarkeit. Auf der anderen Seite zeichnet sich Cloud Computing durch
horizontale Skalierung aus, bei der Sie mehr Server hinzufügen,
um höhere Lasten zu bewältigen Cloud-Umgebungen sind
so konzipiert, dass sie dynamisch skalieren,
indem sie Ressourcen hinzufügen, wenn die Nachfrage steigt, und
sie reduzieren, wenn sie Dies ist besonders
vorteilhaft für Workloads
unterschiedlicher Art, wie
z. B.
Webanwendungen, bei denen zu bestimmten
Zeiten ein
Anstieg der Benutzerzahlen auftreten kann Zeiten ein
Anstieg der Benutzerzahlen Elastizität. Cloud-Plattformen wie AWS bieten flexible Rechenleistung, sodass Sie bei Bedarf nach
oben oder unten skalieren können. Das bedeutet, dass Sie nur für das
zahlen, was Sie tatsächlich nutzen, sodass Sie keine kostspielige, nicht
ausgelastete Infrastruktur benötigen ausgelastete Infrastruktur Kosteneffizienz. Cloud-Systeme bieten ein
Pay-as-you-go-Modell, das die Kostenverwaltung erleichtert
, insbesondere für
unkritische Workloads oder Entwicklungsumgebungen Nehmen wir ein Beispiel. Stellen Sie sich vor, Sie führen eine
kundenorientierte Anwendung für die Onlinedienste Ihrer Bank aus. Während einer großen Produkteinführung oder Marketingkampagne kann der
Traffic stark ansteigen. In einer Cloud-Umgebung können
Sie schnell
zusätzliche Server einrichten, können
Sie schnell
zusätzliche Server einrichten, um der Nachfrage gerecht
zu werden und
so sicherzustellen, dass es bei Kunden nicht zu kurzen Reaktionszeiten oder Abstürzen kommt Die wichtigste Erkenntnis dabei ist
, dass Mainframes ideal für die
konsistente Verarbeitung großer
Transaktionsvolumen sind , während sich die
Cloud durch Flexibilität
und die Verarbeitung variabler Workloads auszeichnet . Speicher, zentralisierter
Mainframe-Speicher versus verteilter Cloud-Speicher. Mainframe-Speicher,
zentralisiert und mit hoher Geschwindigkeit. Mainframes verwenden
traditionell zentralisierte
Hochleistungsspeichersysteme Dieser Speicher ist häufig direkt
an den Mainframe angeschlossen bietet so Zugriff mit geringer Latenz auf kritische Daten für Systeme, die Echtzeitzugriff auf
riesige Datenbanken
benötigen Mainframes bieten Mainframes bieten auch hierarchisches
Speichermanagement oder HSM, bei dem Daten je nach Nutzungshäufigkeit
automatisch zwischen
Hochleistungsfestplatten und
kostengünstigerem Bandspeicher migriert werden können Hochleistungsfestplatten und
kostengünstigerem Bandspeicher kostengünstigerem Bandspeicher Nehmen wir ein Beispiel. In
einem Finanzinstitut alle Bankdaten wie muss
auf
alle Bankdaten wie
Kundenkontoinformationen sofort zugegriffen werden, unabhängig von der Zeit oder dem
Volumen der Transaktionen. Mainframe-Speichersysteme sind für diese Art
von geschäftskritischen Daten
optimiert Cloud-Speicher, skalierbar
und verteilt. Cloud-Umgebungen
verwenden dagegen verteilte Speichersysteme. Dienste wie die
drei von AWS speichern Daten mehrfach bieten so integrierte
Redundanz und Das bedeutet, dass Sie riesige
Datenmengen
speichern können , ohne sich Sorgen machen zu müssen, dass Ihnen der Speicherplatz
ausgeht Cloud-Speicher
bietet auch günstige Preise,
sodass Sie
Daten, auf die Sie
seltener zugreifen, zu geringeren Kosten speichern auf die Sie
seltener zugreifen, zu geringeren Kosten Objektspeicher versus
Blockspeicher. Cloud-Dienste bieten
verschiedene Speicheroptionen wie Objektspeicher
, der sich ideal für
große Mengen
unstrukturierter Daten eignet,
und blockierten Speicher, der unstrukturierter Daten eignet,
und blockierten Speicher, eher herkömmlichem
Festplattenspeicher ähnelt sich ideal für Datenbanken
oder virtuelle Maschinen Georedundanz.
Cloud-Speicher kann Daten
automatisch
über mehrere
geografische Regionen hinweg replizieren über mehrere
geografische Regionen hinweg Beständigkeit
und Verfügbarkeit der Daten
auch bei Ausfällen
sicherstellen der Daten
auch bei Ausfällen Nehmen wir ein Beispiel. Stellen Sie sich vor, Sie speichern
historische Transaktionsdaten, die Compliance-Gründen aufbewahrt werden müssen aus
Compliance-Gründen aufbewahrt werden müssen, auf die aber
nicht regelmäßig zugegriffen wird. In einer Cloud-Umgebung könnten
Sie diese Daten auf
kostengünstigen Archivspeicher
wie AWS Glacier verschieben , wodurch Speicherplatz frei wird und die
Kosten für Ihre aktiven Daten gesenkt Die wichtigste Erkenntnis
daraus ist, dass Mainframe-Speicher für schnellen
Echtzeitzugriff auf kritische
Daten
optimiert ist, während Cloud-Speicher Skalierbarkeit
und Georedundanz
für riesige Datenmengen bietet Mainframe-Speicher für schnellen
Echtzeitzugriff auf kritische
Daten
optimiert ist, während Cloud-Speicher Skalierbarkeit
und Georedundanz
für riesige Datenmengen
bietet. Funktionierende Mainframe-Netzwerke versus Cloud-Konnektivität
. Mainframe-Netzwerke, hohe
Bandbreite, geringe Latenz. Mainframes sind in der Regel
mit Netzwerken mit hoher Bandbreite und
niedriger Legitimität verbunden, oft über private Glasfaser Diese Systeme sind
darauf ausgelegt,
große Datenmengen
mit minimaler Verzögerung zu verarbeiten , was für
Transaktionssysteme
, bei
denen jede Millisekunde zählt, von entscheidender Bedeutung ist . Mainframes sind auch Teil älterer Netzwerke, die über Jahrzehnte aufgebaut
wurden tiefe Integration mit
anderen Unternehmenssystemen wie
internen Datenbanken und Zahlungsgateways
gewährleisten anderen Unternehmenssystemen wie älterer Netzwerke, die über Jahrzehnte aufgebaut
wurden und eine tiefe Integration mit
anderen Unternehmenssystemen wie
internen Datenbanken und Zahlungsgateways
gewährleisten. Nehmen wir ein Beispiel. Stellen Sie sich ein
Echtzeit-Zahlungsabwicklungssystem für eine große Bank vor. Das
Hochgeschwindigkeitsnetzwerk des Mainframes stellt sicher, dass Transaktionen sofort verarbeitet
werden, sodass Kunden
ohne Verzögerung Geld überweisen, Zahlungen
tätigen oder
Salden überprüfen Cloud-Networking, flexibel, aber abhängig von der
Internetverbindung Cloud-Plattformen sind
für die Konnektivität in der Regel
auf das öffentliche Internet angewiesen . Private
dedizierte Verbindungen
wie AWS Direct Connect
sind jedoch wie AWS Direct Connect
sind jedoch auch für
Unternehmen verfügbar , die
eine schnelle und
sichere Kommunikation mit
ihren Cloud-Diensten benötigen . Virtuelle Netzwerke. In
Cloud-Umgebungen ist das
Netzwerk virtualisiert,
was bedeutet, dass Sie bei Bedarf
benutzerdefinierte Netzwerke erstellen, den Verkehr
kontrollieren und
Sicherheitsrichtlinien anwenden Diese Flexibilität ermöglicht es Ihnen, Netzwerke zu entwerfen, die auf
Ihre spezifischen
Anwendungsanforderungen zugeschnitten
sind . Globale Reichweite. Einer der größten Vorteile von Cloud-Netzwerken
ist die Möglichkeit, Anwendungen weltweit
bereitzustellen und Benutzer zu Anwendungen weltweit
bereitzustellen und erreichen, wo auch immer sie sich befinden, Content
Delivery Network
oder CDNs für einen schnelleren Zugriff
genutzt oder CDNs für einen schnelleren Nehmen wir ein Beispiel. Ihre Bank könnte eine
Mobile-Banking-Anwendung in der Cloud hosten, mit der Kunden aus
der ganzen Welt auf
ihre Konten zugreifen können. Mithilfe von CDNs und
regionalen Rechenzentren stellt
die Cloud sicher, dass
Benutzer schnell und
sicher auf ihre Daten zugreifen können, egal wo sie sich befinden Die wichtigste Erkenntnis
daraus ist, dass Mainframe-Netzwerke für Transaktionen mit hoher Geschwindigkeit und
geringer Latenz in einer
zentralisierten Umgebung
konzipiert sind, während Cloud-Netzwerke globale Reichweite
und virtuelle Flexibilität für
verteilte Anwendungen
bieten und virtuelle Flexibilität für Warum sind Mainframes in unternehmenskritischen
Systemen immer noch wertvoll Trotz des Aufschwungs von
Cloud-Technologien sind
Mainframes
in Branchen wie dem Bankwesen, dem
Gesundheitswesen und der Regierung nach wie vor von unschätzbarem Wert .
Hier erfahren Sie, warum Erstens: Zuverlässigkeit. Mainframes sind auf kontinuierliche Verfügbarkeit
ausgelegt und
stellen sicher, dass kritische
Abläufe niemals unterbrochen stellen sicher, dass kritische
Abläufe niemals Zweitens, Sicherheit Mainframes bieten robuste
Sicherheitsfunktionen die
in Cloud-Umgebungen nur schwer zu erreichen sind,
insbesondere für Daten, die vor Ort verbleiben
müssen Drittens: Leistung. Für die Verarbeitung großer Mengen an
Echtzeit-Transaktionen bieten
Mainframes immer noch eine
unübertroffene Geschwindigkeit und Effizienz Ein Beispiel: Für
Finanzinstitute sind
Zahlungsabwicklungssysteme der Lebensnerv des Unternehmens. Das Bedürfnis nach
absoluter Zuverlässigkeit und sicherem Umgang mit
sensiblen Finanzdaten macht Mainframes zu einem
unverzichtbaren Bestandteil der Infrastruktur, auch wenn
andere Workloads
in
die Cloud andere Workloads wichtigsten Erkenntnissen aus
dieser Lektion gehören zum
einen, dass Mainframes eine hohe
Zuverlässigkeit, Leistung
und Sicherheit für
Transaktionssysteme bieten, und Sicherheit für
Transaktionssysteme bieten, während Cloud-Umgebungen
Skalierbarkeit und Flexibilität für unkritische Workloads bieten Skalierbarkeit und Flexibilität für unkritische Workloads Zweitens ist der Mainframe-Speicher
zentralisiert und für den
Echtzeitzugriff optimiert , während
Cloud-Speicher
verteilt und auf Skalierbarkeit und Redundanz ausgelegt ist verteilt und auf Skalierbarkeit und Redundanz ausgelegt Drittens
konzentrieren sich Netzwerke auf Mainframes auf Kommunikation mit hoher Bandbreite und
geringer Latenz, wohingegen
Cloud-Netzwerke sich durch
globale Reichweite und virtuelle globale Reichweite Lernaktivität, Reflexion. Überprüfen Sie Ihre aktuelle
Infrastruktur. Welche Aspekte Ihres
Systems hängen stark von der Mainframe-Leistung ab
und welche Bereiche könnten von der
Cloud-Skalierbarkeit profitieren Diskussionsfrage, Beitrag im Diskussionsforum
des Kurses. Welche Komponente, welcher
Rechenspeicher oder welches Netzwerk stellt für
Ihr Unternehmen die größte
Herausforderung dar , wenn es
um Cloud-Integration geht. Nächste Lektion, Schlüsselkomponenten
der Hybrid-Cloud-Architektur. In der nächsten Lektion werden
wir
die wichtigsten Komponenten der
Hybrid-Cloud-Architektur untersuchen , darunter Rechenleistung, Speicher,
Netzwerke und Sicherheit. Sie erfahren, wie
diese Komponenten interagieren und wie Sie
eine Hybridumgebung entwerfen , die
die Stärken von
Mainframe- und Cloud-Systemen nutzt die Stärken von
Mainframe- und Cloud-Systemen Lassen Sie uns gespannt sein, was als Nächstes
kommt, und
lassen Sie uns in die
technischen Einzelheiten der
Hybrid-Cloud-Architektur eintauchen der
Hybrid-Cloud-Architektur
4. Lektion 3: Schlüsselkomponenten einer hybriden Cloud-Architektur: Lektion drei, Schlüsselkomponenten einer Hybrid-Cloud-Architektur. Willkommen zu Lektion drei
Ihrer Reise durch die
Hybrid-Cloud-Architektur. Bisher haben wir
die Grundlagen von
Hybrid-Cloud-Systemen behandelt die Grundlagen von
Hybrid-Cloud-Systemen und die
technischen Unterschiede
zwischen Mainframes und
Cloud-Infrastrukturen untersucht zwischen Mainframes und
Cloud-Infrastrukturen Jetzt ist es an der Zeit, einen genaueren Blick auf die
wichtigsten Komponenten einer
Hybrid-Cloud-Architektur
zu und zu untersuchen, wie diese
Komponenten interagieren, um eine nahtlose
Integration zwischen
Mainframe-Umgebungen
und Cloud-Diensten zu gewährleisten Mainframe-Umgebungen
und Für jemanden wie William, einen Direktor für ID-Infrastruktur ein komplexes
Mainframe-Modernisierungsprojekt
beaufsichtigt, ist es entscheidend
zu verstehen, wie
diese Komponenten zusammenpassen Ganz gleich, ob Sie
sich um
transaktionsintensive Mainframe-Operationen kümmern oder Cloud-Flexibilität
für unkritische Workloads nutzen , die richtige Abstimmung dieser Komponenten ist die Grundlage In dieser Lektion werden wir
die wesentlichen Komponenten
eines Hybrid-Cloud-Systems —
Rechenleistung, Speicher,
Netzwerk und Sicherheit — identifizieren die wesentlichen Komponenten
eines Hybrid-Cloud-Systems —
Rechenleistung, Speicher, und auch
die Interaktion
zwischen Cloud-Diensten
und Mainframe-Umgebungen erläutern die Interaktion
zwischen Cloud-Diensten .
Lassen Sie uns eintauchen Datenverarbeitung, Ausgleich von
Workloads, Mainframes
und Cloud . Mainframe-Datenverarbeitung In einem Hybridsystem Mainframes weiterhin verarbeiten
Mainframes weiterhin die wichtigsten
transaktionalen Diese Systeme sind für die
Verarbeitung großer
Datenmengen in Echtzeit optimiert , z. B. für Banktransaktionen Mainframes bieten
vertikale Skalierung,
was bedeutet, dass sie
wachsende Workloads bewältigen können , indem sie einer
einzelnen Maschine mehr Rechenleistung
hinzufügen einer
einzelnen Maschine mehr Rechenleistung
hinzufügen Die wichtigste Stärke ist die Verarbeitung
einer riesigen Anzahl von Transaktionen pro Sekunde
mit nahezu keiner Ausfallzeit Anwendungsfall: Ein
Kreditkartentransaktionssystem, bei dem Tausende von Transaktionen
gleichzeitig mit sofortiger
Überprüfung und Sicherheit verarbeitet werden müssen . Cloud-Computing. Cloud-Umgebungen wie AWS, Microsoft Azure oder bieten
Cloud-Umgebungen wie AWS,
Microsoft Azure oder
Google Cloud
horizontale Skalierung. Auf diese Weise können Sie
Workloads auf
mehrere Server verteilen Workloads auf
mehrere Server je nach Bedarf hoch- und
herunterskalieren Die Cloud ist ideal für
Workloads, die
dynamisch sind oder
Rechenleistung bei Bedarf benötigen Entscheidende Stärke, Flexibilität
und Elastizität, sodass Ressourcen sofort
hinzugefügt oder reduziert werden Anwendungsfall: Durchführung von
Datenanalysen zum
Kaufverhalten von
Computern, bei denen die Nachfrage
schwanken kann , der Bedarf jedoch bei Bedarf
schnell skaliert werden Wie sie interagieren.
In einem Hybridsystem werden die
Rechenressourcen auf der
Grundlage der
Workload-Merkmale aufgeteilt . Mainframe wickelt kritische Transaktionen mit
hohem Volumen ab gewährleistet so Zuverlässigkeit
und Sicherheit Cloud verwaltet flexible, nicht
zeitkritische Workloads
wie Analysen, Stapelverarbeitung
oder Webdienste Nehmen wir ein Beispiel. Stellen Sie sich ein
Finanzinstitut vor, bei dem Transaktionsverarbeitung in
Echtzeit auf
dem Mainframe verbleibt , während Modelle zur
Betrugserkennung Algorithmen für maschinelles Lernen
verwenden, in der Cloud ausgeführt werden Der Mainframe verarbeitet
Transaktionen, während Daten
zur Echtzeitanalyse in die Cloud gesendet werden, um potenzielle
Betrugsmuster zu erkennen Speicher, Integration zentralisierter und verteilter
Speichersysteme Mainframe-Speicher. Mainframe-Umgebungen
sind für
zentralisierten
Hochgeschwindigkeitsspeicher konzipiert , Zugriff auf kritische Daten mit geringer Latenz
bietet In einem Hybridmodell wird
Ihr Mainframe-Speicher weiterhin
geschäftskritische Datenbanken beherbergen , die
sofortigen Zugriff und
hohe Zuverlässigkeit erfordern sofortigen Zugriff und
hohe Es ist eine starke, zentrale
Steuerung mit hohem Datenaufkommen. Anwendungsfall:
Kundenkontodaten in Banksystemen, wo Aufzeichnungen sofort und ohne Ausfallzeiten
zugänglich sein müssen ohne Ausfallzeiten
zugänglich Cloud-Speicher. Cloud-Speicher
ist dagegen verteilt. Dienste wie AWS S Three
oder Azure Blob Storage ermöglichen es Ihnen, große
Datenmengen an
mehreren Standorten mit
integrierter Redundanz zu speichern mehreren Standorten mit
integrierter Redundanz Dies gewährleistet die Beständigkeit und
Verfügbarkeit der Daten auch
bei Ausfällen Cloud-Speicher ist
hochgradig skalierbar eignet sich
daher perfekt für Archivierung, Backup und Disaster Recovery Entscheidende Stärke, Skalierbarkeit und Redundanz mit einem
Pay-as-you-go-Modell. Anwendungsfall: Speicherung von
Transaktionsprotokollen oder historischen Kundendaten, auf die nicht in Echtzeit
zugegriffen werden muss, sondern für
regulatorische Zwecke aufbewahrt werden müssen Wie sie interagieren. In einer
Hybrid-Cloud-Architektur wird der
Speicher häufig
zwischen
Hochleistungs-Mainframe-Speicher mit
niedriger Latenz für kritische Daten
und skalierbarem Cloud-Speicher
für Archivierungs- und
Backup-Zwecke aufgeteilt Hochleistungs-Mainframe-Speicher mit
niedriger Latenz für kritische Daten und skalierbarem Cloud-Speicher für Archivierungs- und
Backup-Zwecke Mainframes können
aktive Kundendaten speichern während alle Datensätze zur Aufbewahrung in der Cloud gespeichert
werden langfristigen Aufbewahrung in der Cloud gespeichert
werden.
Nehmen wir ein Beispiel einem Bankensystem Kundenprofile und
Transaktionshistorien können
Kundenprofile und
Transaktionshistorien
für den Echtzeitzugriff auf dem Mainframe gespeichert werden. Ältere, weniger Zugangsdaten können
jedoch zur Archivierung in den
Cloud-Speicher verschoben werden Dadurch werden die Kosten gesenkt und Daten, auf die
häufig zugegriffen wird, dort aufbewahrt , wo sie am dringendsten benötigt werden Netzwerke, die
Mainframes und die Cloud verbinden. Mainframe-Netzwerke. Mainframes sind traditionell
über private Netzwerke mit hoher Bandbreite und
niedriger Latenz verbunden ,
die sicherstellen, dass
Datenübertragungen und Transaktionen
mit minimaler Verzögerung verarbeitet werden Diese Netzwerke sind äußerst
zuverlässig und sicher, weshalb sie für
Systeme, bei denen Verfügbarkeit und
Geschwindigkeit nicht verhandelbar sind,
so wichtig sind. Herausragende Stärke, schnelle Verbindungen mit
niedriger Latenz, die schnelle Transaktionszeiten
gewährleisten Anwendungsfall für
umfangreiche Finanztransaktionen , die sofort
bearbeitet werden müssen. Cloud-Netzwerke. In
Cloud-Umgebungen ist das
Netzwerk sehr flexibel. Cloud-Anbieter bieten virtuelle
Netzwerke, die Sie nach Bedarf entwerfen, konfigurieren und
steuern können. Cloud-Netzwerklösungen
wie AWS VPC oder Virtual Private Cloud ermöglichen es Unternehmen, isolierte
Netzwerkumgebungen zu erstellen und
so sicherzustellen, dass Daten und
Anwendungen sicher bleiben Robust, anpassbar,
skalierbar und hochgradig verteilt
und weltweit verbreitet Anwendungsfall: Ausführung
kundenorientierter Anwendungen wie
Mobile-Banking-Plattformen, die weltweit mit
schnellen Reaktionszeiten
bearbeitet werden müssen weltweit mit
schnellen Reaktionszeiten
bearbeitet .
Wie interagieren sie? In einem Hybridsystem fungiert
das Netzwerk als
Brücke zwischen Ihrem
Mainframe vor Ort und der Cloud Tools wie AWS Direct
Connect oder VPNs werden verwendet, um sichere
Hochgeschwindigkeitsverbindungen
zwischen Mainframes und
Cloud-Infrastruktur herzustellen und so
einen Datenaustausch in Echtzeit zu
ermöglichen, Datenaustausch in Echtzeit zu
ermöglichen ohne Nehmen wir ein Beispiel. Stellen Sie sich ein Szenario vor, in dem Ihr Mainframe Transaktionen
verarbeitet, Ihre kundenorientierte
Banking-App
jedoch in der Cloud
gehostet wird Netzwerkkomponenten
stellen sicher, dass die App
effizient mit dem Mainframe kommuniziert, sodass Kunden Salden und
Transaktionsdaten in
Echtzeit sofort einsehen Salden und
Transaktionsdaten in
Echtzeit sofort Sicherheit, Schutz von Daten
in einer hybriden Umgebung. Mainframe-Sicherheit. Mainframes sind bekannt für ihre robusten Sicherheitsfunktionen , die in
ihre Architektur integriert sind Sie unterstützen
mehrschichtige Verschlüsselung, strenge Zugriffskontrolle
und Auditfunktionen, wodurch sie sich gut für
Branchen mit hohen
regulatorischen Anforderungen
wie Finanzen und Gesundheitswesen eignen Branchen mit hohen
regulatorischen Anforderungen wie Finanzen und Gesundheitswesen E-Stärke, integrierte Sicherheit, die für stark
regulierte Umgebungen konzipiert wurde. Anwendungsfall: Schutz
sensibler Finanzdaten,
Sicherstellung, dass Transaktionen und Kundeninformationen
vertraulich und sicher bleiben. Cloud-Sicherheit. Cloud-Anbieter bieten auch erweiterte
Sicherheitsfunktionen, darunter
Verschlüsselungsadressen und während der Übertragung, Identitäts- und
Zugriffsmanagement oder IAM-Tools sowie kontinuierliche
Compliance-Überwachung Sicherung von Daten in
der Cloud erfordert jedoch ein Modell der gemeinsamen
Verantwortung. Der Cloud-Anbieter sichert
die Infrastruktur, während das Unternehmen seine
eigenen Anwendungen und Daten sichern muss Stärke, fortschrittliche,
skalierbare Sicherheitstools mit Georedundanz Anwendungsfall: Sicherung von
Datenanalyseplattformen oder kundenorientierten Anwendungen bei gleichzeitiger
Einhaltung Industriestandards
wie PCIDSS oder GDPR Wie sie interagieren. In
einer hybriden Umgebung muss die
Sicherheit ganzheitlich sein. Daten, die zwischen
Ihrem Mainframe und der Cloud übertragen werden, müssen verschlüsselt werden, und Zugriffskontrolle muss in
beiden Umgebungen
konsistent sein in
beiden Umgebungen
konsistent Die Verwendung von Cloud-nativen
Sicherheitstools wie AWS Key Management
Service oder KMS oder Verschlüsselungs- oder IAM-Regeln oder Zugriffskontrolle stellt sicher, dass die
Daten sicher bleiben Nehmen wir ein Beispiel. Stellen Sie sich vor, Ihr Mainframe verarbeitet Kundendaten für
regulatorische Zwecke während Ihre Cloud-Umgebung Datenanalysen
für Transaktionsdaten durchführt Sie müssen sicherstellen, dass die zwischen den
beiden Umgebungen
übertragenen Daten verschlüsselt sind und dass
nur autorisierte Benutzer Zugriff auf
vertrauliche Informationen
haben wichtigsten Erkenntnissen aus
dieser Lektion gehört zum
einen, dass die Rechenressourcen in
Hybridsystemen aufgeteilt sind Mainframes verarbeiten Transaktionen mit hohem
Volumen, während Cloud-Umgebungen
Flexibilität für
variable Workloads bieten Flexibilität für
variable Zweitens ist der Speicher in zwei
Höhen aufgeteilt: Mainframe-Speicher für kritische Daten und
skalierbarer Cloud-Speicher für langfristige
Aufbewahrung Drittens dient
das Netzwerk als Brücke zwischen
Mainframes und der Cloud und gewährleistet eine sichere und
effiziente Kommunikation Gleichzeitig muss die Sicherheit
in beiden Umgebungen
mit einer einheitlichen Strategie durchgesetzt werden in beiden Umgebungen
mit einer Erwerbstätigkeit, Reflexion. Schauen Sie sich Ihre aktuelle
Infrastruktur an. Welche Komponenten,
seien es Computer, Speicher, Netzwerke
oder Sicherheit, sind für den Erfolg Ihres
Unternehmens am
wichtigsten . Wie stellen Sie sich vor, dass sie in einer
Hybrid-Cloud-Umgebung
funktionieren Diskussionsfrage,
Beitrag im Kursformular. Wie verwalten Sie in Ihrem Unternehmen derzeit die
Sicherheit in Mainframe- und
Cloud-Umgebungen? Mit welchen Herausforderungen
rechnen Sie bei der Sicherung
einer Hybridarchitektur Nächste Lektion: Vorteile der
Hybrid-Cloud-Integration. In der nächsten Lektion werden
wir uns mit
den wichtigsten Vorteilen der Integration von
Mainframes in Cloud-Plattformen befassen den wichtigsten Vorteilen der Integration von mit
den wichtigsten Vorteilen der Integration von
Mainframes in Cloud-Plattformen Sie erfahren, wie
Hybrid-Cloud-Modelle Skalierbarkeit,
Kostenoptimierung
und Flexibilität
bieten , und wir werden Beispiele aus der Praxis
hervorheben, insbesondere aus der
Finanzdienstleistungsbranche bereit, die
Vorteile der Hybrid Cloud zu erkunden, gehen
wir zu Lektion
vier über und erfahren, wie Sie das Potenzial Ihrer
Infrastruktur maximieren
können.
5. Lektion 4: Vorteile der Hybrid-Cloud-Integration: Lektion vier, Vorteile der
Hybrid-Cloud-Integration. Willkommen zurück zu Lektion vier
unseres Kurses zur
Hybrid-Cloud-Architektur. Bisher haben Sie
die Grundlagen behandelt, Mainframes mit der
Cloud-Infrastruktur
verglichen und die wichtigsten
Komponenten eines Hybridsystems identifiziert Jetzt ist es an der Zeit,
die realen Vorteile der
Integration von Mainframes
mit Cloud-Plattformen zu erkunden die realen Vorteile der
Integration von Mainframes
mit Jemand wie William, unser Direktor für
IT-Infrastruktur, hat die
Aufgabe, die Mainframe-Systeme
eines Finanzinstituts zu modernisieren eines Finanzinstituts Es ist entscheidend, den Wert der
Hybrid-Cloud-Integration zu verstehen Hybrid-Cloud-Integration Warum sollten Sie von einer veralteten, zentrischen Infrastruktur
zu einem Hybridmodell wechseln? Was ist für Ihr Unternehmen drin? In dieser Lektion werden wir einen
der drei Vorteile der
Integration von Mainframes
mit Cloud-Plattformen,
Skalierbarkeit,
Kostenoptimierung und Flexibilität behandeln der drei Vorteile der
Integration von Mainframes
mit Cloud-Plattformen, Skalierbarkeit,
Kostenoptimierung und Flexibilität Zwei Beispiele
aus der Praxis aus der
Finanzdienstleistungsbranche, die
zeigen, dass Hybrid-Cloud-Architekturen bereits
messbare Ergebnisse liefern Am Ende dieser Lektion werden
Sie genau verstehen, warum ein hybrider Ansatz
nicht nur eine Lösung,
sondern auch ein Wettbewerbsvorteil ist sondern auch ein Wettbewerbsvorteil Skalierbarkeit, Erfüllung der Nachfrage
ohne ins Schwitzen zu geraten. Mainframes, auf Stabilität
ausgelegt, aber in ihrer Skalierbarkeit begrenzt Mainframes sind darauf ausgelegt, riesige Transaktionsvolumen
zu bewältigen, tun dies
jedoch mit begrenzter Flexibilität
in Bezug auf die Skalierung Skalierung eines Mainframes erfordert das Hinzufügen teurer, hochspezialisierter
Hardware, was einige
Zeit in Anspruch nehmen kann und sich nicht einfach
an unerwartete
Nachfragespitzen anpassen lässt an unerwartete
Nachfragespitzen anpassen Nehmen wir ein Beispiel. Stellen Sie sich ein Szenario vor, in dem Ihr
Finanzinstitut ein neues Produkt wie
ein Sparkonto mit
Sonderzinsen auf den
Markt bringt . Da der Starttermin näher rückt, erwarten
Sie mehr Traffic haben
aber keine
genaue Prognose Mainframes allein könnten
Schwierigkeiten haben,
den plötzlichen Zustrom
neuer Konten,
Anmeldungen oder Transaktionsvolumen
ohne vorherige Kapazitätsplanung zu bewältigen den plötzlichen Zustrom
neuer Konten, Anmeldungen oder Transaktionsvolumen ohne Cloud, Skalierung nach Bedarf. In einer Cloud-Umgebung erfolgt die Skalierung praktisch
sofort. Cloud-Plattformen wie AWS
oder Azure ermöglichen Ihnen eine horizontale
Skalierung, indem steigender Nachfrage
weitere virtuelle Maschinen oder
Ressourcen Mit anderen Skalierungsfunktionen kann
die Cloud
Datenverkehrsspitzen und
saisonale Spitzen bewältigen , ohne
dass zusätzliche
Hardwareinvestitionen erforderlich sind Das bedeutet, dass Sie Ressourcen dynamisch auf der Grundlage von Echtzeitanforderungen
zuweisen Vorteil für William. Die Fähigkeit,
Anwendungen nach Bedarf zu skalieren und
so sicherzustellen, dass unerwartete
Workload-Spitzen Leistung
nicht beeinträchtigen, ganz
gleich, ob es sich um einen Anstieg Online-Banking-Transaktionen oder eine Werbeaktion handelt, die zu
mehr Kundenaktivität führt Cloud kann den Überfluss bewältigen So funktioniert Hybrid. Mit einer
Hybrid-Cloud-Architektur können
Ihre wichtigsten
Transaktionssysteme auf dem Mainframe stabil bleiben , während
die Cloud zusätzliche
Workloads
übernimmt diesem Modell können Sie
das Beste aus beiden Welten nutzen: der Stabilität des Mainframes
und der Elastizität der Cloud Kostenoptimierung: Zahlen Sie für
das, was Sie nutzen, wenn Sie es nutzen. Mainframes, zuverlässig,
aber teuer in der Skalierung. Mainframes bieten zwar eine
unglaubliche Zuverlässigkeit, sind aber mit
erheblichen Fixkosten Diese Systeme erfordern
kontinuierliche Wartung, spezialisiertes Personal
und kostspielige Upgrades Jedes Mal, wenn Sie Kapazität hinzufügen
müssen, Sie mit hohen
Investitionsausgaben rechnen Dies macht es
schwierig,
schwankende Anforderungen zu bewältigen , ohne Ihre Infrastruktur übermäßig bereitzustellen. Nehmen wir ein Beispiel. Denken Sie an die Bank, die fast das ganze Jahr über eine
vorhersehbare Nachfrage hat , aber
während
der Steuersaison oder bei
Feiertagsaktionen Spitzenwerte während
der Steuersaison oder bei
Feiertagsaktionen Sie Ihren Mainframe übermäßig bereitstellen , um diese seltenen Leistungsspitzen
zu bewältigen, müssen Sie für zusätzliche Kapazität zahlen ganze Jahr über für zusätzliche Kapazität zahlen, Cloud-basierte Preisgestaltung, nutzungsabhängig. Einer der größten Vorteile der Cloud-Plattform ist das
Pay-as-you-go-Modell. Sie zahlen nur für die
Ressourcen, die Sie tatsächlich nutzen. In Zeiten geringer Nachfrage bleiben
Ihre Kosten niedrig. Wenn die Nachfrage steigt, passt sich die
Cloud automatisch an und stellt
so sicher, dass Sie über
die Ressourcen verfügen, die Sie benötigen, ohne zu viel
in die Infrastruktur zu investieren Davon profitiert William.
Durch die Kostenoptimierung können Sie Ihr
Budget effektiver verwalten. Anstatt
Ressourcen für Spitzenzeiten zu beanspruchen, ermöglicht Ihnen
die Cloud, Ressourcen nach oben oder unten zu
skalieren Hardware- und
Betriebskosten zu
sparen Wie Hybrid hilft. Indem Sie wichtige
Anwendungen auf dem Mainframe belassen und die Cloud für
saisonale oder temporäre Workloads nutzen , können
Sie Sie reduzieren Ihre
Investitionskosten und wechseln
für bestimmte Workloads zu einem Betriebskostenmodell, was Flexibilität, Innovation und
Anpassung ohne Einschränkungen. Mainframes, Stabilität vor Flexibilität
. Mainframes sind auf
Stabilität und Zuverlässigkeit ausgelegt, aber sie sind nicht immer flexibel Wenn Sie
neue Anwendungen entwickeln oder mit innovativen
Technologien wie KI,
maschinellem Lernen oder
Big-Data-Analysen
experimentieren möchten, Mainframes normalerweise nicht
die ideale Plattform dafür Ein Beispiel: Ein
Finanzinstitut möchte
ein KI-gestütztes
Betrugserkennungssystem entwickeln ein KI-gestütztes
Betrugserkennungssystem , das
Transaktionsmuster in Echtzeit analysiert Mainframes eignen sich hervorragend die
Abwicklung von
Echtzeittransaktionen, aber die Ausführung komplexer KI-Modelle auf einem Mainframe ist
weniger effizient Die Cloud, ein Spielplatz
für Innovationen. Cloud-Plattformen zeichnen sich die Unterstützung
modernster Technologien aus. Mit Zugriff auf
Cloud-native Dienste wie AWS Lambda oder
Serverless Computing, Google Big Query
oder Datenanalyse oder Azure Machine Learning
oder KI und maschinelles Sie können ohne Einschränkungen experimentieren
und Innovationen entwickeln. Vorteil für William Die Cloud bietet Ihnen
die Flexibilität , schnell mit
neuen Anwendungen
und Diensten zu experimentieren , ohne den Aufwand für die
Hardwareverwaltung. So kann Ihr
Unternehmen agil bleiben, schneller
innovieren und effektiver auf
Marktveränderungen reagieren effektiver auf
Marktveränderungen Wie Hybrid hilft. Eine Hybrid-Cloud-Architektur
ermöglicht es Ihnen, Ihre stabilen unternehmenskritischen Anwendungen reibungslos auf
dem Mainframe laufen zu lassen und gleichzeitig
die Cloud als Innovationsplattform
zu nutzen die Cloud als Innovationsplattform
zu Während
Ihr Mainframe beispielsweise Transaktionen in Echtzeit
abwickelt, kann
die Cloud Algorithmen
zur Betrugserkennung ausführen, das Kundenverhalten
analysieren oder neue kundenorientierte Apps
entwickeln Nehmen wir ein
Beispiel. Viele Banken führen ihre
Kernbankgeschäfte
heute auf Mainframes aus, nutzen
aber die Cloud, um
Mobile-Banking-Apps zu entwickeln, personalisierte
Kundenerlebnisse zu bieten oder mit neuen Funktionen zu
experimentieren ohne die
Mainframe-Umgebung zu stören wichtigsten Erkenntnissen aus
dieser Lektion gehören Skalierbarkeit und Hybrid Cloud, mit der Sie
Anwendungen nahtlos skalieren können
und
so sicherstellen, Sie
Anwendungen nahtlos skalieren können
und
so sicherstellen, dass Ihre Systeme
schwankende Arbeitslasten ohne Leistungsengpässe bewältigen können schwankende Zweitens: Kostenoptimierung. Durch die Verlagerung bestimmter
Workloads in die Cloud können
Sie die Kapitalkosten senken und nur für die
Ressourcen zahlen, die Sie tatsächlich nutzen, wodurch die Budgetierung
vorhersehbarer wird Drittens: Flexibilität:
Hybridumgebungen ermöglichen es
Ihnen, schnell innovativ zu sein indem Sie Cloud-Plattformen
für neue Dienste nutzen und gleichzeitig Stabilität
kritischer Anwendungen
auf Ihrem Mainframe
aufrechterhalten kritischer Anwendungen
auf Lernaktivität, Reflexion. Betrachten Sie die
aktuelle Infrastruktur Ihres Unternehmens. Gibt es Bereiche, in denen
die Skalierbarkeit der Cloud für mehr Flexibilität sorgen
oder zur Kostensenkung beitragen
könnte? Welche Workloads lassen sich am
besten auf dem Mainframe speichern und welche würden in die
Cloud verlagert? Diskussionsfrage,
Beitrag im Formular. Welchen Vorteil Skalierbarkeit,
Kostenoptimierung oder Flexibilität
sehen Sie als den
wertvollsten für Ihr
Unternehmen an, und warum? Nächste Lektion: Evaluierung älterer Systeme für die
Cloud-Integration. In der nächsten Lektion werden wir uns
eingehender damit befassen, wie Sie Ihre
Mainframe-Systeme im Hinblick auf die Cloud-Integration
bewerten erste Lektion des
zweiten Moduls konzentriert sich auf die Bewertung Ihrer aktuellen
Mainframe-Infrastruktur und zeigt Ihnen, wie Sie Legacy-Systeme
prüfen und kritische
Anwendungen
identifizieren, von denen die Cloud-Migration profitieren könnte bereit, den nächsten Schritt zu tun.
Lassen Sie uns weitermachen und damit beginnen, Lassen Sie uns weitermachen und damit beginnen Ihre
Infrastruktur im Hinblick auf eine erfolgreiche
Hybrid-Cloud zu
evaluieren .
6. Lektion 1: Bewertung der aktuellen Mainframe-Infrastruktur: Modul zwei, Evaluierung älterer Systeme für die
Cloud-Integration Die Studierenden
lernen,
ihre bestehenden
Mainframe-Systeme zu bewerten , um die besten Kandidaten
für die Cloud-Integration zu identifizieren Dieses Modul behandelt die technischen und betrieblichen
Überlegungen zur Migration
älterer Anwendungen
und Workloads die Cloud unter Beibehaltung von
Leistung Lektion eins, Bewertung
der aktuellen
Mainframe-Infrastruktur Willkommen zu Modul zwei, in dem wir mit
der Bewertung
Ihrer bestehenden
Mainframe-Infrastruktur beginnen , um zu
ermitteln, wie sie durch
Cloud-Integration
modernisiert werden kann durch
Cloud-Integration
modernisiert In dieser ersten
Lektion konzentrieren wir uns auf die Bewertung Ihrer aktuellen
Mainframe-Systeme ein wesentlicher Schritt
bei der Vorbereitung einer erfolgreichen Umstellung auf eine
Hybrid-Cloud-Architektur Für jemanden wie William, den
Leiter der IT-Infrastruktur, der für die
Wartung der
Altsysteme eines komplexen
Finanzinstituts verantwortlich Wartung der
Altsysteme eines komplexen ist, ist es wichtig zu
verstehen, wie
Sie Ihre Infrastruktur prüfen Dieser Prozess hilft Ihnen dabei kritische Anwendungen zu
lokalisieren, Datenflüsse
zu identifizieren und zu
erkennen, welche Teile
Ihres Systems sich am besten für
eine Cloud-Migration eignen In dieser Lektion behandeln wir unter anderem, wie Sie Ihre älteren
Mainframe-Systeme prüfen können um einen klaren Überblick über
Ihre aktuelle Umgebung zu erhalten Zweitens, wie Sie
kritische Anwendungen und
Datenflüsse innerhalb
Ihrer Infrastruktur identifizieren kritische Anwendungen und Datenflüsse innerhalb
Ihrer Infrastruktur Drittens, welche Teile
Ihrer Infrastruktur können für die Cloud-Migration
optimiert werden? Am Ende dieser Lektion haben
Sie einen Plan
, mit dem Sie bestimmen können, wo die
Cloud-Integration für Ihr Unternehmen
am sinnvollsten Prüfung Ihrer älteren
Mainframe-Systeme. Bevor Sie Entscheidungen
darüber treffen , was in die Cloud migriert werden
soll, ist
es wichtig, eine
umfassende Bestandsaufnahme Ihrer aktuellen
Mainframe-Umgebung Stellen Sie sich das so vor, als
würden Sie das Fundament eines Hauses inspizieren, bevor Sie
mit einer Renovierung beginnen Eine gründliche Prüfung
ermöglicht es Ihnen ,
fundierte Entscheidungen zu treffen, Risiken zu minimieren und
jegliche technische Tiefe
oder Einschränkungen zu ermitteln jegliche technische Tiefe
oder Einschränkungen Warum Audits so wichtig sind. Mainframe-Systeme
sind in der Regel sehr kundenspezifisch und haben
sich im Laufe der Jahrzehnte weiterentwickelt Die Herausforderung besteht darin, dass sie
zwar unglaublich zuverlässig waren, aber nicht auf
Cloud-Kompatibilität ausgelegt verstehen, was Sie
sowohl in Bezug auf Hardware als auch
Software haben erste
Schritt zur Cloud-Integration besteht darin, zu verstehen, was Sie
sowohl in Bezug auf Hardware als auch
Software haben. Darauf sollten Sie sich bei Ihrem Audit
konzentrieren. Schritte zur Prüfung
Ihres Mainframes. Erstens: Inventarisierung von Anwendungen
und Workloads. Dokumentieren Sie jede Anwendung, die auf dem Mainframe
ausgeführt wird, von kritischen Systemen
wie der
Transaktionsverarbeitung bis hin zu weniger
wichtigen Workloads Notieren Sie
sich für jede Anwendung, Geschäftsfunktion
sie unterstützt, wie oft sie verwendet wird und wer
die wichtigsten Beteiligten Zweitens: Evaluieren Sie die
Hardwareressourcen bewerten Sie die Rechenleistung
und Speicherkapazität derzeit genutzt werden. Wie viel Prozent Ihrer
Mainframe-Ressourcen sind für
verschiedene Workloads Haben Sie irgendwelche
Kapazitätsprobleme? Haben Sie ungenutzte Ressourcen , die in die Cloud ausgelagert
werden könnten Drittens: Beurteilen Sie Software
und Lizenzierung. Notieren Sie sich die gesamte Software und Middleware in
Ihrer Umgebung Viele Mainframes setzen auf ältere proprietäre Software, die möglicherweise nicht Cloud-kompatibel ist Evaluieren Sie Lizenzvereinbarungen. Manche Software kann
bei der Migration in die
Cloud Einschränkungen
aufweisen oder
bestimmte
Cloud-kompatible Versionen erfordern bestimmte
Cloud-kompatible Versionen oder technische Details angeben. Gibt es Teile
Ihres Systems, die veraltet oder zu komplex
sind? Technische Tiefe bezieht sich auf Abkürzungen oder
Behelfslösungen, die sich im Laufe der Jahre angesammelt haben und die Modernisierung erschweren
können Möglicherweise stellen Sie fest, dass bestimmte Anwendungen in CBO geschrieben
sind, was es schwieriger
macht, sie für eine Cloud-Umgebung umzugestalten oder
neu zu plattformieren Identifizierung kritischer
Anwendungen und Datenflüsse. Sobald Sie
Ihr Audit abgeschlossen haben, der nächste Schritt darin, Ihre Anwendungen zu
priorisieren und die Datenflüsse zu identifizieren
, die für Ihr Unternehmen von zentraler Bedeutung
sind Nicht jede Anwendung
muss oder sollte in die Cloud
verschoben werden Ziel ist es, festzustellen
, welche Teile Ihres Systems kritisch
sind und welche
Teile modernisiert werden können Klassifizierung von Anwendungen,
unternehmenskritische Anwendungen. diese Anwendungen Ohne diese Anwendungen kann
Ihr Unternehmen nicht
funktionieren In einem Finanzinstitut kann
dies die
Transaktionsverarbeitung in Echtzeit,
Zahlungssysteme oder
Kontoverwaltung umfassen . Diese Anwendungen
erfordern ein
Höchstmaß an Verfügbarkeit,
Leistung und Sicherheit. In vielen Fällen sollten sie am besten auf
dem Mainframe aufbewahrt
werden , sofern keine
hochsichere Cloud-Alternative verfügbar
ist Zwei, unkritische Anwendungen. Diese Anwendungen sind
zwar wichtig, erfordern jedoch
nicht das gleiche
Maß an Echtzeitverarbeitung. Beispiele hierfür können die
Berichtsgenerierung, Stapelverarbeitung oder
interne Mitarbeitersysteme sein. Nicht kritische Workloads eignen sich oft gut für eine
Cloud-Migration, da sie die Vorteile
der Cloud-Skalierbarkeit
und Kosteneffizienz nutzen können der Cloud-Skalierbarkeit
und Kosteneffizienz Datenflüsse abbilden. Datenflüsse beziehen sich
darauf, wie
Informationen zwischen verschiedenen
Teilen Ihres Systems übertragen werden, sei es zwischen Anwendungen, Datenbanken oder externen Systemen. Erstens: Identifizieren Sie wichtige
Dateninteraktionen. Stellen Sie fest, wie Daten zwischen
Ihren Kernanwendungen
übertragen werden. Interagiert
Ihr kundenorientiertes
Webportal beispielsweise mit
Ihrem Transaktionssystem? Sie diese Abhängigkeiten verstehen, können Sie leichter entscheiden ,
was in die Cloud migriert werden kann und was vor Ort bleiben
muss. Zweitens: Bewerten Sie die Datensensitivität. Datensicherheit ist ein
wichtiges Anliegen, insbesondere in regulierten
Branchen wie dem Bankwesen. Identifizieren Sie, welche Daten am
sensibelsten sind, z. B.
Kundendaten oder
Finanztransaktionen, Kundendaten oder und stellen Sie sicher, dass sie sowohl während der Migration
als auch in ihrer
Cloud-Umgebung
geschützt sind. Bei Transaktionsdaten,
bei denen es sich um
personenbezogene Daten handelt, muss
BII möglicherweise
vor Ort bleiben , um
regulatorische Anforderungen zu erfüllen während nicht sensible Daten wie Protokolldateien oder Analysen in die Cloud verlagert
werden könnten Optimieren Sie Ihre Infrastruktur
für die Cloud-Migration. Nachdem Sie Ihr System geprüft
und
wichtige Komponenten identifiziert haben , ist
es an der Zeit, festzustellen,
welche Teile
Ihrer Mainframe-Infrastruktur für die Cloud optimiert
werden können für die Cloud optimiert
werden Ziel ist es, Workloads, die von
Cloud-Diensten profitieren
,
strategisch zu verlagern und gleichzeitig
geschäftskritische Abläufe
auf dem Mainframe aufrechtzuerhalten geschäftskritische Abläufe
auf dem Schlüsselfaktoren für die
Cloud-Optimierung. Erstens: Flexibilität bei der Arbeitslast. Anwendungen, die eine
dynamische Skalierung erfordern, wie Websites
mit Kundenkontakt oder mobile Apps eignen sich ideal für
Cloud-Umgebungen. Diese können je nach Bedarf nach oben
oder unten skaliert werden,
wodurch die Kosten und die
Komplexität vermieden werden, die mit der
Kapazitätserweiterung Ihres Mainframes verbunden Zweitens: Stapelverarbeitung
und Datenanalyse. Workloads wie
Batch-Verarbeitung oder Datenanalyse eignen sich oft gut
für Cloud-Plattformen Diese Prozesse können
außerhalb der Spitzenzeiten
in der Cloud ausgeführt werden , Mainframe-Ressourcen
für kritischere Drittens: DevOps und
Testumgebungen. Entwicklungs- und
Testumgebungen können in
die Cloud verlagert werden , wo Teams
schnell
neue Umgebungen einrichten, Tests
durchführen und herunterfahren können Teams
schnell
neue Umgebungen einrichten, , ohne
den Mainframe zu belasten Diese bieten mehr
Flexibilität und reduzieren den Bedarf an teuren Ressourcen .
Nehmen wir ein Beispiel. In einem Finanzdienstleistungsunternehmen Erstellung von
Berichten
und die Datenanalyse können die Erstellung von
Berichten
und die Datenanalyse in die Cloud verlagert werden, sodass Rechenleistung außerhalb der
Spitzenzeiten
genutzt wird, um den Mainframe zu
entlasten In der Zwischenzeit läuft die
Transaktionsverarbeitung in Echtzeit
weiterhin auf dem Mainframe, um Stabilität
und Leistung zu gewährleisten wichtigsten Erkenntnissen aus
dieser Lektion gehört zum
einen, dass die Prüfung Ihres Mainframes der erste Schritt
zur Modernisierung
ist Dazu gehören die Dokumentation von
Anwendungen, Bewertung der Hardware und die Bewertung von Softwareabhängigkeiten Zweitens hilft
Ihnen die Identifizierung kritischer
Anwendungen und die
Zuordnung von Datenströmen dabei, Prioritäten zu setzen, was vor Ort
verbleiben sollte und was in die Cloud verlagert werden
kann Drittens können bestimmte Workloads
wie Batch-Verarbeitung,
Datenanalyse und unkritische Anwendungen für die
Cloud-Migration optimiert
werden, wodurch Skalierbarkeit
und Kosteneffizienz verbessert Lernaktivität, Reflexion, Durchführung einer vorläufigen Bewertung Ihrer aktuellen Infrastruktur Welche Anwendungen
oder Datenflüsse sind den Betrieb Ihres
Unternehmens am wichtigsten? Welche Teile Ihres Systems scheinen ideale Kandidaten
für die Cloud-Migration zu sein? Eine Frage zur Störung
wurde im Forum gestellt. Welche Herausforderungen erwarten Sie Prüfung
Ihrer
Mainframe-Systeme Gibt es bestimmte
Anwendungen oder Workloads, von denen Sie glauben, dass sie schwer zu
migrieren wären In der nächsten Lektion geht es um die
Eignung von Workloads für die Cloud-Migration. In der nächsten Lektion werden wir uns
eingehender damit befassen, wie ermittelt werden kann, welche Workloads für die
Cloud-Migration
am besten geeignet sind für die
Cloud-Migration
am besten geeignet Sie lernen,
Anwendungsabhängigkeiten zu analysieren, Leistungsanforderungen zu
bewerten und
Sicherheitsauswirkungen zu berücksichtigen, bevor Sie
die Umstellung vornehmen . Ich freue mich darauf, fortzufahren. Machen wir uns bereit,
Ihre Workloads zu bewerten und
herauszufinden , was
sich am besten für die Cloud eignet
7. Lektion 2: Workload-Eignung für die Cloud-Migration: Lektion zwei, Eignung von Workloads
für die Cloud-Migration. Willkommen zurück zu Modul zwei
unseres Kurses zur
Hybrid-Cloud-Architektur In der vorherigen
Lektion haben wir besprochen, wie Sie Ihre aktuelle
Mainframe-Infrastruktur bewerten können In Lektion zwei helfen
wir Ihnen nun dabei, kluge Entscheidungen
darüber zu
treffen , welche Workloads für die Cloud-Migration
am besten geeignet sind für die Cloud-Migration
am besten geeignet Als William, Direktor für
IT-Infrastruktur, haben
Sie wahrscheinlich von
den Vorteilen der Cloud gehört,
aber alles in die Cloud zu verlagern ist immer der richtige Ansatz Nicht alle Workloads
eignen sich gleichermaßen für die Cloud-Migration. Einige gedeihen in der Cloud,
während andere fest in
Ihrem Mainframe oder
Ihren lokalen Systemen verwurzelt
bleiben sollten fest in
Ihrem Mainframe oder
Ihren lokalen Systemen verwurzelt
bleiben Ihrem Mainframe oder
Ihren Ziel ist es,
Anwendungsabhängigkeiten,
Leistungsanforderungen
und Sicherheitsaspekte zu bewerten , um sicherzustellen, dass Sie fundierte, effektive
Migrationsentscheidungen
treffen Am Ende dieser Lektion werden
Sie in der Lage sein, die Abhängigkeiten
Ihrer Anwendungen zu
analysieren und zu analysieren, die Abhängigkeiten
Ihrer Anwendungen zu
analysieren wie sie
sich auf die Cloud-Integration auswirken. Zweitens: Evaluieren Sie die
Leistungsanforderungen , die
für Ihre Workloads entscheidend sind Drittens sollten Sie sich mit den
Sicherheitsüberlegungen vertraut , die sich darauf auswirken könnten, welche
Workloads Sie in die Cloud verlagern F: Ermitteln Sie, welche Arten von Workloads besser für die Cloud
geeignet sind, eine Batch-Verarbeitung
oder Datenanalyse Lass uns anfangen. Analyse von
Anwendungsabhängigkeiten Was muss bei der Analyse von
Anwendungsabhängigkeiten zusammenbleiben? Warum sind
Anwendungsabhängigkeiten wichtig? Bei der Migration in die Cloud
ist es
einer der wichtigsten Faktoren, einer der wichtigsten Faktoren Ihre
Anwendungsabhängigkeiten zu verstehen Dies sind die miteinander verbundenen
Beziehungen zwischen verschiedenen Anwendungen, Datenbanken oder Systemen, die
zusammenarbeiten, um
einen reibungslosen Betrieb zu gewährleisten Die Migration einer
Anwendung ohne zugehörigen abhängigen Systeme kann zu Leistungsproblemen,
Datenlatenz oder sogar
Systemausfällen
führen Datenlatenz oder sogar
Systemausfällen In einer
Bankumgebung könnte
Ihr
Kundenkontosystem beispielsweise auf die
Echtzeitkommunikation mit
einem Zahlungsabwicklungssystem angewiesen sein Echtzeitkommunikation mit
einem Zahlungsabwicklungssystem Die Migration nur eines dieser Systeme in die
Cloud ohne das
andere würde zu Verzögerungen
oder
Integrationsherausforderungen führen oder
Integrationsherausforderungen Schritte zur Identifizierung von Abhängigkeiten. Erstens, die
Interaktionen zwischen den Anwendungen abbilden. Erstellen Sie zunächst
eine visuelle Übersicht darüber, wie Ihre Anwendungen miteinander
interagieren. Auf diese Weise können Sie
die Datenflüsse und
Kommunikationspunkte zwischen Systemen identifizieren . Beispielsweise
kann Ihr
Mainframe-Transaktionsverarbeitungssystem mehrfach älteren Datenspeichersystemen, Kundenportalen und APIs von
Drittanbietern abhängig Zweitens: Beurteilen Sie den Datenfluss
und die Kommunikationsanforderungen. Erfordert Ihre Anwendung einen Datenaustausch in
Echtzeit? diesem Fall
würde die Migration nur eines
Teils des Systems die Transaktionen verlangsamen oder zu
Leistungsengpässen führen Stellen Sie sicher, dass alle
voneinander abhängigen Systeme zusammen betrachtet werden . Drittens: Gruppieren Sie Anwendungen
nach Abhängigkeitsstufen. Unterteilen Sie Ihre
Anwendungen in zwei Kategorien. Erstens, eng gekoppelte Systeme,
die eine
Hochgeschwindigkeitsinteraktion
in Echtzeit erfordern , oder zwei lose gekoppelte
Systeme, die
zwar interagieren, aber keine
Echtzeitkommunikation benötigen und gewissen latenten Schlaf tolerieren
können Eng gekoppelte
Systeme
sollten oft besser zusammengehalten werden ,
entweder auf dem Mainframe oder zusammen in die
Cloud migriert.
Nehmen wir ein In einem Finanzinstitut Transaktionsverarbeitungs- und
Betrugserkennungssysteme eng miteinander verknüpft
sein. Transaktionsverarbeitung in Echtzeit
sollte zwar auf dem Mainframe verbleiben, die Betrugserkennung kann jedoch in der Cloud
ausgeführt
werden, sofern eine Verbindung
mit dem Mainframe mit geringer Latenz Durch das Verständnis
dieser Abhängigkeiten kann
William einen
reibungslosen Betrieb sicherstellen, kann
William einen
reibungslosen Betrieb sicherstellen ohne dass es bei der Migration zu neuen
Problemen kommt Leistungsanforderungen. Kann die Cloud
Ihre Arbeitslast bewältigen? Definition von Leistungsanforderungen. Leistung ist oft
der entscheidende Faktor dafür ob ein Workload
in die Cloud verlagert werden
sollte. Cloud-Plattformen eignen sich zwar hervorragend für viele
Arten von Workloads, einige Anwendungen erfordern jedoch
spezifische Leistungskennzahlen wie hohen Durchsatz, geringe Latenz oder
konstante Verfügbarkeit die von Ihrem Mainframe möglicherweise effektiver
verarbeitet werden können Fragen, die Sie
zur Leistung stellen sollten. Erstens, wie ist die
aktuelle Reaktionszeit der Anwendung? Einige Anwendungen, wie z. B. Handelsplattformen in
Echtzeit oder Systeme zur
Transaktionsverarbeitung erfordern sofortige
Reaktionszeiten Verlagerung dieser Workloads in
die Cloud kann zu Latenz
führen, wenn die Cloud-Infrastruktur nicht für dieses
Leistungsniveau
optimiert Zweitens, welches Maß an
Verfügbarkeit ist erforderlich? Bei geschäftskritischen
Anwendungen kann
jede Ausfallzeit zu Umsatzeinbußen, Unzufriedenheit der
Kunden oder
sogar zu behördlichen Sanktionen
führen Unzufriedenheit der
Kunden oder
sogar zu behördlichen Sanktionen Mainframes sind bekannt für ihre Verfügbarkeit von
90 bis 9,39 Prozent, was sich in einer Public-Cloud-Umgebung nur schwer
replizieren lässt replizieren Drittens, benötigt die Anwendung intensive Rechenleistung? Einige Workloads wie
Datenanalysen profitieren von
der Skalierbarkeit von Cloud-Plattformen denen Sie die Rechenleistung problemlos
erhöhen können Für Systeme mit intensiven
Transaktionen ist
die reine Rechenleistung
eines Mainframes jedoch die reine Rechenleistung
eines möglicherweise immer noch die beste Option Workloads, die in der
Cloud gedeihen. Stapelverarbeitung Aufgaben, die kein
sofortiges Feedback erfordern und in bestimmten Intervallen
ausgeführt werden können bestimmten Intervallen
ausgeführt eignen sich ideal für
Cloud-Umgebungen. Diese Workloads können
während der Verarbeitung nach oben und dann
wieder herunterskaliert werden, was
Kosten spart. Datenanalyse Große Datenanalyseaufgaben profitieren von der Cloud-Skalierbarkeit. In der Cloud können Sie fortschrittliche Tools
wie Amazon Redshift oder
Google BigQuery für die schnelle und
effiziente Analyse
großer Datensätze
nutzen wie Amazon Redshift oder
Google BigQuery für die schnelle effiziente Analyse
großer Nehmen wir ein Beispiel. In einer Bank
würden die täglichen Transaktionsabstimmungen in
die Cloud verlagert, da sie nicht in
Echtzeit verarbeitet werden müssen und für Zeiten außerhalb der Hauptverkehrszeiten geplant
werden können für Zeiten außerhalb der Hauptverkehrszeiten geplant
werden In der Zwischenzeit
sollte die
Betrugserkennung in Echtzeit auf dem
Mainframe verbleiben, wo sie in
Transaktionsverarbeitungssysteme integriert
werden kann Transaktionsverarbeitungssysteme integriert
werden , um sofortige
Benachrichtigungen und Entscheidungen bereitzustellen Sicherheitsüberlegungen,
um Ihre Daten zu schützen. Das Modell der geteilten Verantwortung. Wenn Sie Workloads in
die Cloud verlagern, treten
Sie in das sogenannte Modell
der gemeinsamen Verantwortung Das bedeutet, dass der
Cloud-Anbieter, beispielsweise
AWS oder Azure, für die Sicherung der Infrastruktur
verantwortlich ist , Sie
jedoch
dafür verantwortlich sind, Ihre Daten zu sichern und sicherzustellen, dass die Zugriffskontrollen
ordnungsgemäß konfiguriert sind Sicherheit ist besonders wichtig beim Umgang mit
sensiblen Daten wie Finanztransaktionen oder personenbezogenen
Daten oder PII Schauen wir uns einige
wichtige Überlegungen an. Wichtige Sicherheitsfragen
, die es zu berücksichtigen gilt. Erstens, wie sensibel sind die Daten? Verarbeitet die Anwendung personenbezogene Daten, Finanzdaten oder andere
gesetzlich vorgeschriebene Informationen Workloads, die
Bankinformationen von Kunden
verwalten,
können beispielsweise Bankinformationen von Kunden
verwalten Compliance-Anforderungen
wie PCI DSS oder GDPR unterliegen , die strenge Kontrollen darüber vorschreiben, wie und wo Daten Ist Verschlüsselung verfügbar
und erforderlich,
stellen Sie sicher, dass Ihre Daten sowohl adressiert
als auch
während der Übertragung verschlüsselt werden können sowohl adressiert
als auch
während der Übertragung verschlüsselt Laute Anbieter bieten häufig
Verschlüsselungsdienste an, aber Sie müssen
sie richtig konfigurieren und wissen, welche Daten verschlüsselt werden
sollen. Drittens, welche
Zugriffskontrollen gibt es? Cloud-Umgebungen bieten Ihnen die Flexibilität, gründliche Zugangskontrollen zu implementieren
. Sie müssen sicherstellen
, dass nur autorisierte Benutzer und Systeme
auf sensible Workloads zugreifen können Verwenden Sie
Multifaktor-Authentifizierung und Identitäts- und
Zugriffsmanagement oder Best Practices für
IAM, um
Ihre Cloud-Umgebung zu schützen Nehmen wir ein Beispiel. Für die
Williams-Organisation müssen
sensible Transaktionsdaten
möglicherweise auf dem Mainframe verbleiben, um den Gesetzen zur
Datenspeicherung und den regulatorischen Anforderungen zu entsprechen Gesetzen zur
Datenspeicherung Weniger sensible Daten, wie
z. B. Analysen von
Marketingkampagnen,
würden jedoch wie
z. B. Analysen von
Marketingkampagnen, sicher in die Cloud migriert
, wo
Verschlüsselung und Zugriffskontrollen den Verschlüsselung und Zugriffskontrollen Feststellen, welche Workloads
am besten für die Cloud geeignet sind am besten für die Cloud geeignet Sie nun verstanden haben,
wie
Abhängigkeiten, Leistung
und Sicherheit bewertet werden, lassen Sie uns
einige Workload-Typen zusammenfassen lassen Sie uns
einige Workload-Typen zusammenfassen
, die sich üblicherweise
für die Cloud-Migration eignen Workloads,
die sich am besten für eine Cloud-Migration eignen ,
gehört die Stapelverarbeitung Dabei handelt es sich nicht um
Echtzeitaufgaben wie Generierung von
Berichten oder den
Datenabgleich , die nach
einem Zeitplan ausgeführt
und bei Bedarf skaliert werden können und bei Bedarf skaliert Zweitens: Datenanalyse
und Big Data. Workloads, die eine
intensive Datenverarbeitung erfordern, aber keine Echtzeitergebnisse benötigen wie z. B. Analysen des
Kundenverhaltens, Algorithmen zur
Betrugserkennung oder Business
Intelligence-Dashboards Drei, Entwicklungs- und
Testumgebungen. Cloud-Plattformen bieten
die Flexibilität ,
Entwicklungsumgebungen schnell
hochzufahren, Tests durchzuführen und sie dann
herunterzufahren. Dies reduziert die
Belastung Ihres Mainframes und bietet eine agile,
kostengünstige Lösung für Ihre Entwicklungsteams oder kundenorientierte
Webanwendungen Frontend-Anwendungen wie Mobile-Banking-Plattformen können von der Cloud-Skalierbarkeit
profitieren, sodass Sie
hohen Datenverkehr bewältigen können, ohne den Mainframe zu beeinträchtigen Workloads werden am besten
auf dem Mainframe aufbewahrt. Dazu gehört eine
Transaktionsverarbeitung in Echtzeit. Hochgeschwindigkeits-Transaktionslasten wie ATM-Transaktionen oder Verarbeitung von
Kreditkartenzahlungen lassen
sich am besten über
den Mainframe abwickeln , um eine geringe
Latenz und hohe Zuverlässigkeit zu gewährleisten Zwei, oder Bankanwendungen. Anwendungen, die eine Verfügbarkeit von
99 bis 39 Prozent erfordern
und geschäftskritische Daten verarbeiten, sollten aus
Stabilitätsgründen auf dem Mainframe
verbleiben Zu den wichtigsten Erkenntnissen aus
dieser Lektion gehört zum einen die
Analyse von
Anwendungsabhängigkeiten, um eine
reibungslose Integration zwischen
Mainframe und Cloud sicherzustellen , insbesondere bei Zweitens bestimmen die
Leistungsanforderungen,
wo die Arbeitslast ausgeführt werden soll Workloads, die nicht in Echtzeit ablaufen, wie Batch-Verarbeitung
oder Datenanalyse eignen sich ideal für die Cloud, während die
Transaktionsverarbeitung in Echtzeit am besten für
den Mainframe geeignet
ist Drittens sind
Sicherheitsaspekte bei Migration von Workloads von
entscheidender Bedeutung Prüfen Sie stets die
Datensensibilität und die
Compliance-Anforderungen bevor Sie Entscheidungen treffen Lernaktivität, Reflexion. Schauen Sie sich Ihre bestehenden Workloads an. Welche Workloads sind eng mit anderen
verknüpft? Welche könnten
entkoppelt und in die Cloud verlagert werden , ohne
dass es zu Leistungseinbußen
kommt. Im Forum
gestellte Diskussionsfrage. Welche Arten von Workloads in Ihrem Unternehmen
sind Ihrer Meinung nach ideale Kandidaten
für die Cloud-Migration Gibt es Sicherheitsbedenken Sie
davon abhalten,
bestimmte Anwendungen zu migrieren? Nächste Lektion,
Kosten-Nutzen-Analyse der Cloud-Migration. In der nächsten Lektion werden
wir die Kostenauswirkungen untersuchen, die sich aus der
Verlagerung von Workloads vom
Mainframe in die Cloud Wir werden erörtern, wie
betriebliche Einsparungen
mit den Kosten für die
Wartung kritischer
Systeme vor Ort in Einklang betriebliche Einsparungen
mit den Kosten für die
Wartung kritischer
Systeme vor Ort Wartung kritischer
Systeme bereit zu lernen, wie Sie bei der Umstellung auf die Cloud
finanziell fundierte Entscheidungen treffen Lassen Sie uns nun in Lektion
drei
die Kosten-Nutzen-Analyse
der Cloud-Migration untersuchen .
8. Lektion 3: Kosten-Nutzen-Analyse der Cloud-Migration: Lektion drei,
Kosten-Nutzen-Analyse der Cloud-Migration. Willkommen zu Lektion
drei von Modul zwei, in der wir uns mit
der finanziellen Seite der
Migration von Workloads von
Ihrem Mainframe in die Cloud befassen Migration von Workloads von
Ihrem Mainframe in die Als
Leiter der IT-Infrastruktur, ein
Mainframe-Modernisierungsprojekt
leitet, kennt
William die betrieblichen
Vorteile der Cloud. Er muss
aber auch abwägen, ob die finanziellen Kosten
mit den Zielen der Organisation
in Einklang mit den Zielen der Organisation In dieser Lektion helfen wir
Ihnen bei der Beantwortung einer wichtigen Frage. Ist die Migration bestimmter Workloads in die Cloud die Kosten wert? Die Cloud
verspricht zwar Skalierbarkeit, Flexibilität und Kosteneinsparungen, es gibt wichtige
Vorabkosten, versteckte Ausgaben und
langfristige Investitionen, die Wartung
kritischer Systeme auf
Ihrem Mainframe zu verstehen es wichtig,
das
Gleichgewicht zwischen
den betrieblichen
Einsparungen durch die Cloud und den laufenden Kosten Wartung
kritischer Systeme auf die Wartung
kritischer Systeme auf
Ihrem Mainframe fundierte
Geschäftsentscheidungen treffen zu können, ist es wichtig,
das
Gleichgewicht zwischen
den betrieblichen
Einsparungen durch die Cloud und den laufenden Kosten
für Am Ende dieser Lektion werden
Sie in der Lage sein, die Kostenauswirkungen der Verlagerung von
Workloads von Mainframe - in Cloud-Umgebungen
zu untersuchen die Kostenauswirkungen der Verlagerung von
Workloads von Mainframe und das Gleichgewicht zwischen
potenziellen betrieblichen Einsparungen
in der Cloud und den Kosten für die Wartung
von
Mainframe-Systemen vor Ort zu
verstehen potenziellen betrieblichen Einsparungen
in der Cloud und den Kosten für die Wartung
von
Mainframe-Systemen vor Ort Lass uns anfangen. Die Kosten der Cloud-Migration,
was Sie wissen müssen. Vorabkosten der Migration. Die Migration von Workloads
von einem Mainframe in
die Cloud ist nicht ohne Die Cloud kann zwar zu langfristigen
Einsparungen führen, doch um diese zu erreichen
, sind
Investitionen in
Infrastruktur,
Planung und Ausführung erforderlich Infrastruktur,
Planung und Ausführung Hier finden Sie eine Aufschlüsselung
der üblichen
Vorabkosten, mit denen Sie rechnen müssen Erstens:
Migrationsstrategie und Planung. Die Entwicklung einer
Cloud-Migrationsstrategie erfordert Zeit und Fachwissen. Möglicherweise müssen Sie
in Berater oder
Cloud-Migrationsexperten investieren , um
eine detaillierte Roadmap zu erstellen , die auf Ihre Geschäftsziele
abgestimmt Dies hat Auswirkungen auf die Kosten. Die Beauftragung externer Unterstützung für Planung und Strategie
kann teuer sein, verringert
jedoch das Risiko kostspieliger Fehler während
des Migrationsprozesses. Zweitens: Rehosting, Refactoring
oder Austausch von Anwendungen. Einige Workloads können verschoben und in
die Cloud verlagert oder erneut gehostet werden , während andere umgestaltet oder komplett
neu geschrieben werden müssen, um effektiv neu geschrieben Auswirkungen auf die Kosten. Das Refactoring
älterer Anwendungen kann zeitaufwändig
und teuer sein Wenn Sie sich dazu entschließen,
Anwendungen von Grund auf neu zu schreiben, fallen zusätzliche Entwicklungs
- und Drittens, Datenübertragung
und Cloud-Setup. Übertragung von Daten von Ihrem lokalen Mainframe in die Cloud ist mit Datenübertragungskosten verbunden, insbesondere wenn es sich um große
Datenmengen handelt Außerdem erheben Cloud-Anbieter wie
AWS Gebühren für ausgehende Daten. Das bedeutet, dass Gebühren anfallen, wenn Sie Daten aus
ihren Cloud-Diensten
verschieben z. B. zwischen
Regionen oder von der Cloud Daten aus
ihren Cloud-Diensten
verschieben,
z. B. zwischen
Regionen oder von der Cloud Nehmen wir ein Beispiel. Für das
Williams-Finanzinstitut kann die
Migration eines Kundenkontos in die Cloud
sichere
Datenübertragungsmechanismen erfordern,
um die Einhaltung gesetzlicher Vorschriften zu gewährleisten, was die Kosten
in die Höhe treibt Darüber hinaus kann das Refactoring älterer
Anwendungen für die Ausführung in einer modernen
Cloud-Umgebung
ein Entwicklerteam und
mehrere Monate Aufwand erfordern ein Entwicklerteam und
mehrere Monate Betriebliche Einsparungen
in der Cloud, das Pay-as-you-go-Modell,
zahlen nur für das, was Sie Einer der
größten Vorteile der Cloud ist ihre betriebliche Kosteneffizienz durch ein Pay-as-you-go-Modell. Im Gegensatz zu einer
Infrastruktur vor
Ort, bei der Sie für Kapazität zahlen,
unabhängig davon, ob Sie sie nutzen oder
nicht, können Sie
mit der Cloud nur für die Ressourcen bezahlen, die
Sie tatsächlich verbrauchen. Dazu gehören Rechenleistung, Speicher, Netzwerke und mehr. Schauen wir uns einige der
wichtigsten betrieblichen Einsparungen an. Die erste ist Elastizität
und Skalierbarkeit. Die Cloud ermöglicht es Ihnen,
Ressourcen
je nach Bedarf hoch und runter zu skalieren . Das bedeutet, dass Sie
saisonale Spitzen
wie Steuern und für Banken bewältigen können saisonale Spitzen
wie Steuern und für Banken ohne
teure Hardware
vor Ort übermäßig bereitstellen zu müssen. Kosteneinsparungen Sie vermeiden es, für
ungenutzte Kapazität zu zahlen, was bei lokalen Infrastrukturen häufig
der Fall ist Dies ist besonders
vorteilhaft für Workloads mit
schwankenden Anforderungen Zweitens, Ressourcenoptimierung. In einer Cloud-Umgebung können
Sie Auto
Scaling nutzen, um sicherzustellen, dass Sie nur genau die
Menge an Ressourcen verwenden, die Sie benötigen. Darüber hinaus
sorgen Spot-Instances für langfristige Workloads
und Reserved Instances langfristige Workloads
und Reserved Instances
für langfristige Verpflichtungen für weitere Einsparungen Kosteneinsparungen. Durch
die Optimierung der Nutzung von Cloud-Ressourcen können
Unternehmen
unnötige Ausgaben reduzieren und
ihre
Gesamtbetriebskosten (TCO) optimieren ihre
Gesamtbetriebskosten (TCO Drittens Wartung und
Infrastrukturmanagement. Bei einer Cloud verlagert sich die
Verantwortung für Wartung physischer
Hardware wie Server, Speichersysteme und
Netzwerkausrüstung die
Wartung physischer
Hardware wie Server,
Speichersysteme und
Netzwerkausrüstung auf
den Cloud-Anbieter. Dies reduziert den
Bedarf
an einem großen internen IT-Betriebsteam. Kosteneinsparungen. Durch die Auslagerung des
Infrastrukturmanagements reduzieren
Sie die
Betriebskosten im Zusammenhang mit Hardwarewartung, Upgrades und physischem Speicherplatz
in Ihren Rechenzentren. Nehmen wir ein Beispiel. Stellen Sie sich vor,
das
Finanzinstitut Williams migriert
Workloads für die Stapelverarbeitung in die Cloud Anstatt
zusätzliche Mainframe-Kapazitäten
für ein paar Mal im Jahr aufrechtzuerhalten ,
wenn die Anzahl der Batch-Jobs stark ansteigt, kann
die Cloud bei diesen Problemen automatisch
skalieren Sobald die Verarbeitung abgeschlossen ist, die Ressourcen reduziert, wodurch die Kosten
gesenkt werden nur für die
Rechenleistung
während der eigentlichen Auftragsausführung bezahlt während der Die laufenden Kosten für Wartung kritischer
Mainframe-Systeme Die Migration
einiger Workloads die Cloud wird zwar die
Betriebskosten senken,
es ist jedoch wichtig zu
wissen, dass die Wartung kritischer Anwendungen
auf Ihrem Mainframe immer noch mit erheblichen Kosten verbunden
ist Nicht alle Workloads
sollten in
die Cloud verlagert werden, und Ihr
Mainframe wird möglicherweise auch in den kommenden Jahren geschäftskritische
Systeme
verarbeiten geschäftskritische
Systeme
verarbeiten.
Mainframe-Kosten Erstens die Fixkosten der
Mainframe-Infrastruktur. Mainframes erfordern Vorfeld erhebliche
Kapitalinvestitionen, einschließlich der Kosten für Hardware, Software und Einrichtungen für die
Unterbringung der Infrastruktur Darüber hinaus
muss die Mainframe-Hardware regelmäßig aktualisiert werden, was die
Investitionskosten erhöht Betriebskosten. Sie müssen weiterhin
ein Budget für
Mainframe-Support-Teams,
Hardwarewartung
und Softwarelizenzierung bereitstellen ein Budget für
Mainframe-Support-Teams, Hardwarewartung
und Softwarelizenzierung Zweitens spezialisiertes Personal. Mainframe-Umgebungen erfordern hochqualifizierte
Systemadministratoren und Mainframe-Techniker, damit alles
reibungslos
läuft Da sich diese Fachkräfte immer spezialisieren, kann es teuer
werden, Talente
zu finden und zu Betriebskosten und die Aufrechterhaltung eines engagierten
Mainframe-Teams mit Fachkenntnissen in Legacy-Systemen
wie COBOL werden auch weiterhin
Teil Ihres IT-Budgets sein Drittens, Compliance und Sicherheit. Viele Organisationen in
regulierten Branchen wie Finanzwesen müssen
strenge Compliance-Standards einhalten. Aufbewahrung sensibler Daten und Echtzeit-Transaktionssysteme
auf dem Mainframe kann das Compliance-Risiko verringern ,
das mit der Verlagerung
aller Daten in die Cloud
verbunden ist. sicher, dass Ihr Mainframe die Compliance-Standards
erfüllt und regelmäßig geprüft wird ,
was Ihre
Betriebskosten erhöht Balance zwischen Cloud-Einsparungen und
Mainframe-Investitionen Ziel ist es,
ein Gleichgewicht zwischen der
Verlagerung von Workloads in die
Cloud zu finden , wo Sie
betriebliche Einsparungen erzielen können ,
und der Wartung kritischer Systeme auf dem
Mainframe, wo Leistungs-, Sicherheits- und
Compliance-Anforderungen dies erfordern könnten Dieser Ansatz ermöglicht es Ihnen, Ihre IT-Ausgaben zu optimieren und gleichzeitig Sicherheit
und Zuverlässigkeit wichtiger Abläufe zu gewährleisten .
Nehmen wir ein Beispiel. Williams-Unternehmen, das unkritische
Workloads in die Cloud
verlagert, wie z. B.
kundenorientierte Anwendungen und Datenanalysen, kann
Ressourcen freisetzen und Kosten senken Die Kosten, die wichtigsten
Transaktionsverarbeitungssysteme
und
die Betrugserkennung in Echtzeit müssen jedoch wichtigsten
Transaktionsverarbeitungssysteme
und
die Betrugserkennung in Echtzeit möglicherweise auf dem Mainframe verbleiben, um
die Verfügbarkeit und die
regulatorischen Anforderungen zu erfüllen und ein Gleichgewicht
zwischen Cloud-Einsparungen und
den laufenden Kosten kritischer
Abläufe zu
gewährleisten den laufenden Kosten kritischer Erstellung eines Kostenmodells, Berechnung der Gesamtbetriebskosten Um fundierte Entscheidungen treffen zu
können, müssen Sie die
Gesamtbetriebskosten (TCO) sowohl
für Ihre
Mainframe-Infrastruktur
als auch für Ihre Cloud-Migrationsstrategie berechnen sowohl
für Ihre
Mainframe-Infrastruktur
als auch für Ihre Cloud-Migrationsstrategie Dies hilft Ihnen,
die langfristigen finanziellen Auswirkungen Ihrer IT-Investitionen
zu verstehen die langfristigen finanziellen Auswirkungen Ihrer IT-Investitionen
zu Schritte zur Erstellung eines TCO-Modells. Berechnen Sie zunächst die
Mainframe-Kosten. Berücksichtigen Sie Investitionskosten
wie Hardware- und
Softwarelizenzen berücksichtigen Sie
Betriebskosten wie Personal, Wartung und
Stromverbrauch Vergessen Sie nicht die Kosten für Compliance und
Audits oder die regulierte Umgebung — schätzen
Sie die Cloud-Kosten Verwenden Sie Cloud-Rechner, die von AWS, Azure
und anderen Anbietern
erhältlich sind, um die Kosten für
Rechenspeicher und
Netzwerke auf der
Grundlage Ihrer erwarteten Nutzung zu schätzen Kosten für
Rechenspeicher und
Netzwerke auf der
Grundlage Ihrer Berücksichtigen Sie die Kosten für die Datenübertragung und alle
Kosten mit
der Skalierung
oder Größenänderung von Workloads verbunden Berücksichtigen Sie die Migrationskosten, einschließlich des Refactorings von
Anwendungen und der ersten Datenübertragung Drittens: Vergleichen Sie die Kosten im Zeitverlauf. Berücksichtigen Sie den Zeithorizont
für Ihre Kostenanalyse. Zum Beispiel drei
Jahre, fünf Jahre. Was sind die langfristigen
Einsparungen durch die Umstellung auf die Cloud im Vergleich zur die Cloud im Vergleich zur
Wartung der
Infrastruktur vor Ort? Berücksichtigung potenzieller Kostenspitzen wie
Hardware-Aktualisierungszyklen oder Cloud-Nutzung Nehmen wir ein Beispiel. William kann anhand eines Gesamtbetriebskostenmodells die Kosten
vergleichen, die entstehen, wenn
Kernbankanwendungen auf dem Mainframe verbleiben, und die Kosten für die Verlagerung unkritischer Workloads wie Kundenanalysen in
die Cloud Durch die Berechnung der laufenden Betriebskosten für die Wartung älterer Systeme und der potenziellen Einsparungen
durch Cloud-Elastizität kann
er ermitteln, welche
Workloads in einer
Hybrid-Cloud-Umgebung den größten Nutzen bieten in einer
Hybrid-Cloud-Umgebung den größten Nutzen Zu den wichtigsten Erkenntnissen aus dieser
Lektion gehören die folgenden. Erstens umfassen die Vorabkosten der
Cloud-Migration Planung, Refactoring und Datenübertragung Diese werden jedoch häufig durch
betriebliche Einsparungen in der Cloud
durch Elastizität und
Ressourcenoptimierung ausgeglichen betriebliche Einsparungen in der Cloud durch Elastizität und Zweitens müssen die laufenden Mainframe-Kosten wie die Wartung von Hardware, wie die Wartung von Hardware,
Spezialsoftware und
Compliance gegen die potenziellen
Einsparungen durch die Cloud-Migration
abgewogen werden gegen die potenziellen
Einsparungen durch die Cloud-Migration
abgewogen Einsparungen durch die Cloud-Migration
abgewogen Drittens hilft der Aufbau eines
Gesamtbetriebskosten - oder Gesamtbetriebskostenmodells dabei die
langfristigen finanziellen Auswirkungen
Ihrer Migrationsstrategie
zu quantifizieren und
sicherzustellen, dass Sie fundierte, kosteneffiziente Lernaktivität, Reflexion. Betrachten Sie Ihre aktuellen
Mainframe-Workloads. Welche Workloads
scheinen Kosteneffizienz der Cloud-Migration
profitieren Welche sind
aufgrund kritischer Leistungs-
oder Sicherheitsanforderungen am besten geeignet, um auf dem Mainframe zu
bleiben aufgrund kritischer Leistungs-
oder Sicherheitsanforderungen am besten geeignet, um Im Forum
gestellte Diskussionsfrage. Wie bewertet Ihr Unternehmen
derzeit die Kosten des Mainframe-Betriebs
im Vergleich zur Cloud-Infrastruktur Mit welchen Herausforderungen rechnen
Sie bei der Berechnung Ihrer
Gesamtbetriebskosten Nächste Lektion, technische Machbarkeit der
Cloud-Integration. In der nächsten Lektion werden
wir uns mit
den technischen
Herausforderungen befassen, die Verlagerung von Workloads
in die Cloud verbunden sind,
wie z. B. den Umgang
mit veraltetem Code, Bewertung der
Systemkompatibilität und Berücksichtigung von
Modernisierungsansätzen wie Rehosting,
Refactoring Refactoring bereit, die technische Hürde der Cloud-Integration zu überwinden, fahren
wir mit Lektion
vier fort und untersuchen, wie Sie die
technische Durchführbarkeit
Ihrer Cloud-Migrationsstrategie
bewerten können Sind wir bereit, die technische
Hürde der Cloud-Integration zu überwinden, fahren
wir mit Lektion
vier fort und untersuchen, wie Sie die
technische Durchführbarkeit
Ihrer Cloud-Migrationsstrategie
bewerten können.
9. Lektion 4: Technische Machbarkeit für die Cloud-Integration: Lektion vier, technische Machbarkeit
der Cloud-Integration. Willkommen zurück zu Modul
zwei unseres Kurses zur Bewertung älterer Systeme
für die Cloud-Integration. In dieser Lektion
konzentrieren wir uns auf einen
der wichtigsten Aspekte
Ihrer Cloud-Migration, die
technische Machbarkeit. Als William, der Leiter der
IT-Infrastruktur, vor einem
Mainframe-Modernisierungsprojekt steht, wissen
Sie bereits,
welchen Wert die Cloud bietet Bevor Sie das tun können,
müssen Sie jedoch unbedingt die technischen
Herausforderungen abschätzen ,
die mit der Verlagerung von
Altsystemen
in die Cloud verbunden sind Verlagerung von
Altsystemen
in die Cloud Legacy-Systeme, insbesondere
solche, die mit Cobalt,
EL oder einer anderen älteren Sprache betrieben EL oder einer anderen älteren Sprache stellen besondere Herausforderungen dar, wenn es um die Cloud-Integration geht. Am Ende dieser Lektion werden
Sie in der Lage sein, die technischen
Herausforderungen
wie Legacy-Code, Leistungsanforderungen
und Systemkompatibilität
bei der
Cloud-Migration zu
bewerten Leistungsanforderungen und Modernisierungsansätze, Rehosting,
Refactoring
und den
Austausch von Anwendungen zu untersuchen, Refactoring
und den
Austausch von Anwendungen um Ihnen bei der Entscheidung für die beste
Strategie für jeden Workload zu helfen Lassen Sie uns in die Einzelheiten der technischen Machbarkeit eintauchen . Bewertung der technischen
Herausforderungen in Altsystemen. Wenn eine
Cloud-Migration in Betracht gezogen wird, einer der ersten
Schritte darin,
die technischen Hindernisse zu identifizieren , die den Prozess verlangsamen oder
erschweren
könnten Ältere Systeme sind oft stark bestimmte Hardware
angepasst und optimiert
, was die Migration zur
Cloud zu einer komplexen Aufgabe macht Ein veralteter Code, der sich in alten Sprachen
zurechtfindet. Mainframes verlassen sich oft auf Legacy-Code, der
vor Jahrzehnten in Sprachen wie CBO,
PL One oder Assembler geschrieben wurde PL One Diese Sprachen sind
zwar immer noch leistungsfähig, wurden aber nicht für
Cloud-Umgebungen entwickelt Tatsächlich sind sie oft eng an die spezifische
Hardware gebunden, auf der sie ausgeführt werden, was die Migration
in
eine virtualisierte
Cloud-Umgebung zu einer Herausforderung Die Herausforderung besteht darin, Legacy-Code
zu überarbeiten kann zeitaufwändig
und kostspielig sein, insbesondere wenn es an internem
Fachwissen mangelt Es
kann auch schwierig sein, Entwickler
mit fundierten Kenntnissen dieser älteren Sprachen dieser älteren Sprachen zu finden, da viele dieser Talente kurz vor dem
Ruhestand stehen Nehmen wir ein Beispiel. Williams Team verwendet möglicherweise ein CBL-basiertes
Transaktionsverarbeitungssystem , das täglich Millionen
von Transaktionen abwickelt Dieses System wurde auf
die spezifische Hardware des
Mainframes zugeschnitten , und die Verlagerung in
die Cloud würde wahrscheinlich
umfangreiche Umgestaltungen erfordern, um die Cloud würde wahrscheinlich
umfangreiche Umgestaltungen erfordern effizient in der Cloud-Infrastruktur zu arbeiten effizient B, Leistung, passende
Mainframe-Rechenleistung. Mainframes sind für die Verarbeitung von Hochgeschwindigkeitstransaktionen mit hohem
Volumen zuständig Bei Anwendungen, die
Tausende von
Transaktionen pro Sekunde verarbeiten , ist
Leistung nicht Die Cloud kann skaliert werden, um viele Workloads zu
bewältigen, aber es
ist ein allgemeines Anliegen, sicherzustellen, dass
die
Cloud-Infrastruktur mit der Rechenleistung und
Zuverlässigkeit eines Mainframes mithalten kann die
Cloud-Infrastruktur mit der Rechenleistung und ist ein allgemeines Anliegen, sicherzustellen, dass
die
Cloud-Infrastruktur mit der Rechenleistung und
Zuverlässigkeit eines Mainframes Die Herausforderung besteht darin, dass Cloud-Umgebungen horizontale
Skalierung verwenden. Das bedeutet, dass mehr Server hinzugefügt werden, wohingegen Mainframes
auf vertikale Skalierung angewiesen sind Das bedeutet, die
Leistung einer einzelnen Maschine zu erhöhen. Dieser Unterschied in der
Architektur kann
zu Leistungsproblemen führen ,
wenn die Cloud
nicht richtig
für Workloads optimiert ist , die einen hohen Durchsatz
und eine geringe Latenz erfordern Nehmen wir ein Beispiel. Stellen Sie sich vor, die
Williams-Organisation betreibt ein
Echtzeit-Zahlungssystem auf dem Mainframe Das System verarbeitet Tausende von
Kreditkartentransaktionen pro Sekunde Verlagerung dieser Arbeitslast in die Cloud
kann
zu Leistungsengpässen führen, wenn die Cloud-Infrastruktur
nicht darauf abgestimmt ist, dieselbe
Transaktionsintensität zu bewältigen C, Systemkompatibilität. Kann es mit einer Cloud funktionieren? Eine weitere Herausforderung
besteht darin, sicherzustellen, dass Ihre vorhandenen Systeme und Software
mit Cloud-Umgebungen kompatibel sind. Viele ältere Anwendungen sind eng in andere Systeme,
Datenbanken oder APIs integriert , die möglicherweise nicht einfach
auf Cloud-Plattformen übertragen werden können. Die Herausforderung besteht darin, sicherzustellen, dass alle miteinander verbundenen
Systeme, z. B. Datenbanken oder externe Geräte weiterhin wie
vorgesehen funktionieren , sobald ein Teil
der Infrastruktur in die Cloud
verlagert wurde. Möglicherweise stoßen Sie auch auf
Schwierigkeiten mit Softwarelizenzen, die
Cloud-basierte Bereitstellungen nicht zulassen Nehmen wir ein Beispiel.
William verwaltet möglicherweise ein Kernbankensystem
, das in Zahlungsabwickler von
Drittanbietern
und externe Compliance-Tools integriert Zahlungsabwickler von
Drittanbietern ist. Wenn diese Abhängigkeiten nicht
vollständig Cloud-kompatibel sind, könnte
die Umstellung zu
Störungen kritischer
Geschäftsfunktionen führen zu
Störungen kritischer
Geschäftsfunktionen Erkundung von
Modernisierungsansätzen. Es gibt verschiedene
Strategien, mit denen Sie migrieren Ihre Altsysteme
modernisieren und in die Cloud Diese reichen vom einfachen Rehosting hin zur vollständigen Neuarchitektur
von Anwendungen Die Wahl des richtigen Ansatzes hängt von der Komplexität
der Anwendung, den Geschäftsanforderungen und der
technischen Machbarkeit Der erste ist das Rehosting oder der sogenannte
Lift-and-Shift-Ansatz Beim Rehsting, auch bekannt als
Lift and Shift Anwendungen in die Cloud
verschoben ohne wesentliche
Änderungen am Code vorzunehmen Dieser Ansatz ist in der Regel der
schnellste und kostengünstigste, aber möglicherweise nicht alle
Vorteile der Cloud-Funktionen Es eignet sich am besten für Anwendungen
, die nicht neu
konzipiert werden müssen und unverändert in einer Cloud-Umgebung ausgeführt werden können Rhosting ist nützlich, wenn
Sie schnell
migrieren müssen und nur wenig Zeit
oder Budget für größere Änderungen zur Verfügung haben oder Budget für größere Nehmen wir ein Beispiel.
Die Organisation Williams könnte ihre
Stapelverarbeitungssysteme in
der Cloud hosten , wo sie keine hohe Leistung
oder wesentliche Änderungen
benötigen , um die
Vorteile der
Cloud-Infrastruktur nutzen zu können. Auf diese Weise kann
das Unternehmen schnell handeln und gleichzeitig eine komplette
Systemüberholung vermeiden An zweiter Stelle steht das Refactoring, die
Optimierung für die Cloud. Beim Refactoring wird
die bestehende Codebasis geändert um sie besser an die Cloud-Umgebung anzupassen Auf diese Weise können Sie die Anwendung
im Hinblick auf Skalierbarkeit,
Belastbarkeit und
Cloud-native Funktionen
optimieren ,
Belastbarkeit und
Cloud-native Funktionen zwar zeitaufwändiger
als ein Rehosting, Refactoring ist zwar zeitaufwändiger
als ein Rehosting, kann aber
langfristige Vorteile bieten Es eignet sich am besten für geschäftskritische Anwendungen , die
Cloud-native Funktionen
wie automatische Skalierung,
Redundanz und nutzen
müssen Cloud-native Funktionen
wie automatische Skalierung, Redundanz Nehmen wir ein Beispiel. Für
Transaktionsverarbeitungssysteme von Williams kann ein
Refactoring
erforderlich sein, um sicherzustellen, dass die Anwendung in
der Cloud skaliert werden kann und gleichzeitig eine
hohe Leistung Die umgestaltete Anwendung kann Cloud-native
Dienste wie
AWS Lambda oder
serverlose Funktionen oder Amazon RDS oder skalierbares Datenbankmanagement
nutzen AWS Lambda oder
serverlose Funktionen oder Amazon RDS oder skalierbares Datenbankmanagement Cloud-native
Dienste wie
AWS Lambda oder
serverlose Funktionen oder Amazon RDS oder skalierbares Datenbankmanagement
nutzen. Die dritte ersetzt oder fängt neu an. In einigen Fällen kann es
sinnvoll sein , ältere
Anwendungen vollständig zu ersetzen. Dies beinhaltet den
Aufbau oder die Anpassung einer neuen Cloud-nativen Anwendung , die das alte System ersetzt. Dies ist zwar oft die
teuerste und
zeitaufwändigste Option, kann aber langfristig den
größten Nutzen bieten. Sie eignet sich am besten für Anwendungen
, die sich nur
schwer umgestalten lassen oder die nicht mehr
den Anforderungen des Unternehmens Austausch ist ideal
, wenn eine neue Lösung eine deutlich
verbesserte Funktionalität
und Leistung
bieten kann deutlich
verbesserte Funktionalität
und Leistung
bieten verbesserte Funktionalität
und Leistung Das Williams-Team
könnte beispielsweise erwägen,
ein veraltetes internes
Berichtssystem durch
eine moderne cloudbasierte
Analyseplattform wie AWS,
Red Shift oder Google BigQuery zu ersetzen ein veraltetes internes
Berichtssystem durch eine moderne cloudbasierte
Analyseplattform wie AWS, , bessere Einblicke zu erhalten, Leistung
zu verbessern und die
Abhängigkeit von veralteter Technologie zu verringern Abhängigkeit von veralteter Die vierte ist die
Neuausrichtung der Plattform, die irgendwo dazwischen liegt Ein hybrider Ansatz zwischen Rehosting und Refactoring
ist das Re-Platforming,
bei dem Sie einige kleine
Änderungen vornehmen, um die Anwendung für
die Cloud zu optimieren ,
ohne ein vollständiges Refactoring durchführen ohne Dies könnte die Umstellung auf
einen verwalteten Dienst beinhalten, anstatt
einfach die Infrastruktur zu einen verwalteten Dienst beinhalten, anstatt migrieren. Dies ist am besten für
Anwendungen geeignet, die von einigen
Cloud-nativen Funktionen
profitieren könnten , aber keine vollständige Neuarchitektur benötigen.
Nehmen wir ein Beispiel Williams Team könnte
eine ältere Datenbank auf eine neue Plattform umstellen, indem es sie zu Amazon RDS,
einem verwalteten Datenbankservice,
verschiebt . Dies würde den
Aufwand für die Verwaltung
der Datenbank reduzieren und gleichzeitig von der Cloud-Skalierbarkeit
profitieren Wichtige Überlegungen
für jeden Ansatz. Entscheidung,
ob Sie Ihre
Legacy-Anwendungen
rehosten , umgestalten oder ersetzen sollten, Bei der Entscheidung,
ob Sie Ihre
Legacy-Anwendungen
rehosten, umgestalten oder ersetzen sollten,
sollten Sie mehrere wichtige
Überlegungen berücksichtigen Der erste ist der Zeitrahmen. Rhosting bietet den
schnellsten Migrationspfad, jedoch möglicherweise nicht
die langfristigen
Leistungsvorteile eines Refactorings Refactoring nimmt mehr Zeit in Anspruch, optimiert
jedoch Anwendungen im Hinblick auf die Elastizität und Skalierbarkeit der Cloud Das Refactoring nimmt mehr Zeit in Anspruch, optimiert
jedoch Anwendungen im Hinblick auf die Elastizität und Skalierbarkeit der Cloud
. Das Ersetzen erfordert einen
erheblichen Zeitaufwand da neue Anwendungen erstellt oder
angepasst werden müssen Zweitens sind es die Kosten. Rehosting ist kurzfristig
am
kostengünstigsten, aber möglicherweise nicht die
Kosten auf lange Sicht Refactoring erfordert eine Vorabinvestition
in die Entwicklung, kann
jedoch zu erheblichen
betrieblichen Einsparungen
in der Cloud führen betrieblichen Einsparungen Ein Austausch ist zwar mit den
höchsten Vorabkosten verbunden, kann
aber
den größten Nutzen bringen, wenn ältere Systeme aktualisiert werden
oder sich dem Ende ihrer Nutzungsdauer nähern Drittens ist das Risiko. Rhosting birgt das Listenrisiko, da Sie die Anwendung
nicht ändern, aber es verbessert möglicherweise weder die
Leistung noch die Sicherheit Refactoring birgt ein gewisses Risiko während des Migrationsprozesses, das jedoch durch sorgfältige Planung gemindert
werden kann Ersetzen ist mit dem
größten Risiko verbunden, da Sie Systeme, auf die sich das Unternehmen möglicherweise verlassen kann,
komplett überarbeiten Das Ersetzen ist mit dem
größten Risiko verbunden, da Sie
Systeme, auf die sich das Unternehmen möglicherweise verlassen kann,
komplett überarbeiten. Eine sorgfältige
Planung des Übergangs ist von entscheidender Bedeutung. den wichtigsten Erkenntnissen aus
dieser Lektion gehören Technische Herausforderungen wie Legacy-Code,
Leistungsanforderungen und Systemkompatibilität müssen vor der
Migration zur Cloud bewertet
werden Diese Hindernisse können sich auf
die Durchführbarkeit der
Cloud-Migration auswirken die Durchführbarkeit der
Cloud-Migration Zweitens sind Rehosting, Refactoring und
Replacement drei gängige
Modernisierungsansätze, die
jeweils mit unterschiedlichen Kosten, jeweils mit unterschiedlichen Kosten, Risiken und Die Wahl des richtigen
Ansatzes
hängt von Ihren spezifischen geschäftlichen
und Drittens
erfordert eine erfolgreiche
Cloud-Migration eine sorgfältige Planung,
um Geschwindigkeit,
Kosten und Leistung in Einklang zu bringen und
sicherzustellen, dass die technische Machbarkeit
jeder Anwendung gründlich geprüft
wird. Erwerbstätigkeit, Reflexion. Sehen Sie sich die Anwendungen an, die Sie für eine Cloud-Migration in
Betracht ziehen. Sind sie besser für
Rehosting, Refactoring oder Ersatz geeignet ? Berücksichtigen Sie den Zeit
-, Kosten - und Risikoaufwand jedes Ansatzes Diskussion, Frage,
Beitrag im Forum. Welche technischen Herausforderungen
erwarten Sie bei der Migration Ihrer
Altsysteme in die Cloud Wie planen Sie, diese Herausforderungen zu
bewältigen? Nächste Lektion: Strategische Planung für die Hybrid-Cloud-Integration. Im nächsten Modul werden
wir uns damit befassen, wie die
Hybrid-Cloud-Integration strategisch geplant werden kann. In der ersten Lektion von Modul drei lernen
wir, wie Sie
geschäftliche und technische Ziele für die
Hybrid-Cloud-Anpassung definieren geschäftliche und technische Ziele für und sicherstellen , dass Ihre Strategie mit
umfassenderen
Unternehmenszielen
wie Skalierbarkeit und Innovation übereinstimmt umfassenderen
Unternehmenszielen
wie Skalierbarkeit und Sie bereit sind, mit der Entwicklung
Ihrer Hybrid-Cloud-Strategie zu beginnen, wir
mit Modul
drei fort und stellen Sie sicher, dass Ihr Migrationsplan Ihren Geschäftszielen entspricht. Ein
10. Lektion 1: Strategische Planung für die Hybrid Cloud-Integration: Willkommen zur Modulstudie Entwurf einer
Hybrid-Cloud-Strategie und -Architektur. Dieses Modul konzentriert sich auf Entwicklung einer maßgeschneiderten
Hybrid-Cloud-Strategie. Die Teilnehmer lernen, hybride
Umgebungen zu entwerfen, einschließlich der Frage, welche Dienste lokal und welche in der Cloud gehostet werden sollen. Sie werden sich auch mit
K-Entwurfsmustern und Tools
für Hybridumgebungen befassen , Schwerpunkt
insbesondere
auf der AWS-Integration liegt. Lektion eins, strategische Planung für die Hybrid-Cloud-Integration. Willkommen zu Modul drei
Ihrer Hybrid-Cloud-Reise. In diesem Modul legen wir
zunächst
den Grundstein für eine erfolgreiche
Hybrid-Cloud-Strategie. Der erste Schritt beim Entwurf einer Hybrid-Cloud-Architektur
ist die strategische Planung, sichergestellt wird, dass Ihre
Cloud-Integrationsziele mit Ihren allgemeinen
Geschäftszielen
übereinstimmen. Für jemanden wie William, unseren Direktor
für IT-Infrastruktur, bedeutet
dies, klare Ziele zu definieren , wie die Hybrid
Cloud
dem Unternehmen zugute kommen und
sowohl den kurzfristigen Betrieb
als auch das langfristige Wachstum unterstützt . Am Ende dieser Lektion werden
Sie in der Lage sein, geschäftliche und technische Ziele
für die Einführung der Hybrid Cloud zu definieren . Um zu verstehen,
wie wichtig es ist,
Ihre Hybrid-Cloud-Strategie an
umfassenderen Geschäftszielen
wie Skalierbarkeit,
Innovation und Kosteneffizienz auszurichten Ihre Hybrid-Cloud-Strategie an
umfassenderen Geschäftszielen
wie Skalierbarkeit, Innovation und Kosteneffizienz Definition geschäftlicher
und technischer Ziele oder Einführung einer Hybrid-Cloud erfolgreiche
Hybrid-Cloud-Strategie beginnt mit einer klaren Definition Ihrer geschäftlichen und
technischen Ziele. der Umstellung auf die Cloud geht es nicht nur um die Einführung
neuer Technologien. Es geht darum sicherzustellen
, dass die Technologie die Mission
und die langfristigen Ziele
Ihres Unternehmens unterstützt . Hallo, Geschäftsziele. Was möchtest du erreichen? Geschäftsziele liefern ein Warum hinter Ihrer
Hybrid-Cloud-Strategie. Diese Ziele konzentrieren sich auf das, was
das Unternehmen durch die Integration von
Cloud-Technologien in
Mainframe-Systeme
erreichen Cloud-Technologien in
Mainframe-Systeme Hier sind einige typische
Geschäftsziele, auf die Unternehmen wie
Williams konzentrieren könnten Skalierbarkeit, das ist die
Fähigkeit,
IT-Ressourcen schnell und
kostengünstig zu erweitern IT-Ressourcen schnell und , wenn
das Unternehmen wächst. Beispielsweise kann
eine Hybrid-Cloud in Zeiten hoher Besucherzahlen,
wie z. B. in
der Weihnachtszeit, dazu beitragen,
kundenorientierte
Anwendungen zu skalieren und gleichzeitig Kernbankbetrieb auf dem Mainframe
stabil
zu halten Innovation, die eine
schnellere Entwicklung neuer Dienstleistungen und Produkte Die Cloud kann
als Plattform für Experimentieren mit neuen Technologien wie
maschinellem Lernen, Big-Data-Analysen
oder Blockchain Im Bereich Finanzdienstleistungen könnte das
Williams-Team
beispielsweise eine Cloud
nutzen, um
KI-gestützte Systeme zur
Betrugserkennung aufzubauen KI-gestützte Systeme zur
Betrugserkennung ohne den
Kernbankbetrieb auf dem Mainframe zu stören Kernbankbetrieb auf dem Kosteneffizienz, ein ausgewogenes Verhältnis der
Betriebskosten bei gleichzeitiger Aufrechterhaltung einer
hohen Cloud-Umgebungen bieten
On-Demand-Preise, bei denen Sie nur für die
Ressourcen zahlen, die Sie tatsächlich nutzen, wodurch die hohen
Fixkosten für lokale Systeme vermieden werden. Williams Organization
kann unkritische
Workloads wie Stapelverarbeitung außerhalb der Spitzenzeiten in
die Cloud
verlagern und so die
Gesamtkosten senken Risikomanagement zur Reduzierung
betrieblicher Risiken, einschließlich Ausfallzeiten,
Systemausfällen und Sicherheitsverletzungen Hybrid-Cloud-Modelle bieten Failover-Optionen
, mit denen Workloads im Notfall zwischen
Mainframe
- und Cloud-Diensten vor Ort
wechseln können im Notfall zwischen
Mainframe
- und Cloud-Diensten vor Ort
wechseln - und Cloud-Diensten B, technische Ziele. Wie
wirst du es erreichen? Technische Ziele stellen sicher, dass
Ihre Hybrid-Cloud-Strategie
technisch durchführbar ist und sich
in ihrer Architektur an
Ihre bestehende IT-Architektur Bei diesen Zielen geht es häufig um Leistung, Sicherheit
und Integration Leistungsoptimierung,
um sicherzustellen, dass die Hybrid Cloud
sowohl für Mainframe- als auch für
Cloud-basierte Workloads eine
hohe Leistung bietet Workloads eine
hohe Leistung sowohl für Mainframe- als auch für
Cloud-basierte Für das
Williams-Unternehmen bedeutet dies, sicherzustellen, dass die
Transaktionsverarbeitung in Echtzeit weiterhin reibungslos
auf dem Mainframe läuft und gleichzeitig die Cloud für Analysen
und kundenorientierte Dienste
genutzt und Sicherheit und Compliance, Aufrechterhaltung der Datensicherheit
und Sicherstellung, dass die Hybrid Cloud
branchenübliche Compliance-Anforderungen
wie PCIDSS oder GDPR erfüllt branchenübliche Compliance-Anforderungen
wie PCIDSS Organisation Williams
muss sicherstellen , dass sensible
Kundendaten sicher bleiben,
unabhängig davon, ob sie auf dem Mainframe verarbeitet oder in
der Cloud
gespeichert werden Stimulus-Integration, die
sicherstellt, dass die Mainframe- und
Cloud-Umgebungen reibungslos
zusammenarbeiten , ohne den täglichen Betrieb zu
stören Dazu gehören die Konfiguration von
Netzwerkverbindungen, Synchronisation von Datenflüssen
und die Verwaltung von Anwendungsabhängigkeiten und die Verwaltung von Ausrichtung der Hybrid-Cloud-Strategie auf die
Geschäftsziele. Eine Hybrid-Cloud-Strategie
kann nur erfolgreich sein, wenn sie auf die
allgemeinen Geschäftsziele Ihres Unternehmens abgestimmt allgemeinen Geschäftsziele Die Cloud ist keine
Einheitslösung. Sie muss so konzipiert sein, die individuellen
Bedürfnisse Ihres Unternehmens erfüllt,
unabhängig davon, dass sie die individuellen
Bedürfnisse Ihres Unternehmens erfüllt,
unabhängig davon, ob es darum geht, das Wachstum voranzutreiben, das Kundenerlebnis zu
verbessern
oder die Kosten zu senken. A: Skalierbarkeit als
Wettbewerbsvorteil. Für Unternehmen, die in sich schnell verändernden Märkten tätig sind, ist
Skalierbarkeit von entscheidender Bedeutung. Bei Finanzdienstleistungen, bei denen die
Kundennachfrage schwankt, eine skalierbare Infrastruktur ist
eine skalierbare Infrastruktur der Schlüssel, um wettbewerbsfähig zu bleiben Für die Organisation Williams bedeutet
die Fähigkeit, mit der Cloud schnell zu skalieren, dass sie neue
Produkteinführungen wie
ein neues Kreditkartenangebot unterstützen oder Verkehrsspitzen in
Zeiten hoher Nachfrage
auffangen kann ein neues Kreditkartenangebot unterstützen oder Verkehrsspitzen in
Zeiten hoher Nachfrage
auffangen Beispielsweise könnte eine Bank während eines Aktionszeitraums
für ein neues Produkt
eine höhere Aktivität
als normal
verzeichnen während eines Aktionszeitraums
für ein neues Produkt
eine höhere Aktivität
als normal Aktionszeitraums
für ein neues Produkt
eine Mit der Hybrid Cloud
kann William die
Cloud-Infrastruktur skalieren, um die erhöhte
Last zu bewältigen, ohne Änderungen am
Mainframe-Kernsystem
vornehmen zu müssen B, Innovation durch die Cloud. Unternehmen, die wettbewerbsfähig
bleiben wollen ,
müssen innovativ sein. Die Cloud bietet
Möglichkeiten für schnelle Experimente
und Produktentwicklung ohne den
Mainframe zu gefährden William könnte beispielsweise Cloud-Dienste
nutzen, um
neue Mobile-Banking-Funktionen zu testen neue Mobile-Banking-Funktionen oder ein
Kundenbindungsprogramm zu entwickeln Beispielsweise
könnte Williams Team beschließen,
einen Algorithmus für maschinelles Lernen
in der Cloud zu implementieren , um
Kunden
personalisierte
Einblicke in ihr Ausgabenverhalten zu bieten Kunden
personalisierte
Einblicke . Durch die Beibehaltung dieser innovativen
Funktion in der Cloud kann
das Team
schnell handeln, ohne die Einschränkungen älterer
Mainframe-Systeme C, Kosteneffizienz zur Steigerung des ROI. Hybrid-Cloud-Modelle ermöglichen es Unternehmen, sich
auf Kosteneffizienz zu konzentrieren
und sicherzustellen, dass Ressourcen dort
eingesetzt werden , wo sie
am sinnvollsten sind. Cloud-Dienste ermöglichen ein
Pay-as-you-go-Modell, während der Mainframe
geschäftskritische Workloads mit
garantierter Verfügbarkeit abwickelt geschäftskritische Workloads mit
garantierter Ein Beispiel: Ein
Williams-Unternehmen könnte tägliche
Batch-Verarbeitungsaufträge in
der Cloud ausführen und dabei von niedrigeren Kosten
profitieren und gleichzeitig
Mainframe-Ressourcen
für die Echtzeitverarbeitung freigeben könnte tägliche
Batch-Verarbeitungsaufträge in
der Cloud ausführen und dabei von niedrigeren Kosten
profitieren
und gleichzeitig
Mainframe-Ressourcen
für die Echtzeitverarbeitung freigeben. Dadurch werden die
Betriebskosten gesenkt und gleichzeitig sichergestellt, dass wichtige Systeme rund um die Uhr
betriebsbereit bleiben B, Risikomanagement und
Geschäftskontinuität. Hybrid-Cloud-Strategien tragen
auch zur Verbesserung Geschäftskontinuität bei,
indem sie eine schnelle Wiederherstellung
nach
Katastrophen oder Systemausfällen ermöglichen. Durch die Implementierung der Hybrid Cloud kann
William sicherstellen,
dass bei Problemen mit
dem lokalen Mainframe die Cloud
als Backup zur Aufrechterhaltung des
Geschäftsbetriebs dienen kann als Backup zur Aufrechterhaltung des
Geschäftsbetriebs Beispielsweise kann
Williams Organisation im Falle
einer Naturkatastrophe, die
das Rechenzentrum betrifft ,
in dem sich der Mainframe befindet, wichtige Dienste in die Cloud verlagern und so
sicherstellen, dass
Kunden weiterhin
auf wichtige Dienste
wie Online-Banking zugreifen können wichtige Dienste in die Cloud verlagern und so
sicherstellen, dass
Kunden weiterhin auf wichtige Dienste
wie Online-Banking zugreifen Schritte zur Definition einer erfolgreichen
Hybrid-Cloud-Strategie. Um eine
Hybrid-Cloud-Strategie effektiv zu definieren, ist
es wichtig,
einen strukturierten Ansatz zu verfolgen. Hier sind die Schritte, die
William ergreifen kann, um einen strategischen Plan
für die Einführung der Hybrid Cloud zu erstellen. Erstens: Führen Sie eine Analyse der
Geschäftsanforderungen durch. Machen Sie sich mit den
Hauptzielen der Organisation vertraut,
unabhängig davon, ob es sich um Wachstum,
Kosteneinsparungen oder Innovation handelt. Identifizieren Sie, welche Workloads für das
Erreichen dieser Ziele
am wichtigsten sind Erreichen dieser Ziele
am wichtigsten Zweitens: Legen Sie technische Ziele fest. Definieren Sie die Leistungskennzahlen, Sicherheitsanforderungen und Integrationspunkte, die den
Migrationsprozess leiten
werden. Stellen Sie sicher, dass die
Hybrid-Cloud-Umgebung skaliert und
gesichert werden kann und Zeit für
unternehmenskritische Anwendungen eingehalten werden kann. Drittens: Entwickeln Sie einen schrittweisen
Implementierungsplan. Verlagern Sie zunächst unkritische Workloads in die Cloud, z. B. Stapelverarbeitung
und Datenanalyse, gefolgt von komplexeren,
eng gekoppelten Anwendungen Sorgen Sie für einen reibungslosen Übergang,
indem Sie mithilfe von Pilotprojekten testen
, wie gut Cloud-Ressourcen in
einer Mainframe-Umgebung funktionieren F, kontinuierlich überwachen und
optimieren. Sobald die Hybrid
Cloud eingerichtet ist, sollten Sie wichtige Kennzahlen
wie Leistung,
Kosten und Skalierbarkeit
überwachen ,
um sicherzustellen, dass die Strategie weiterhin auf die Geschäftsziele
abgestimmt ist. Verfeinern und optimieren Sie
die Hybrid-Cloud-Umgebung kontinuierlich ,
während sich das Unternehmen weiterentwickelt den wichtigsten Erkenntnissen aus dieser Lektion gehören die folgenden Erstens ist die Definition klarer geschäftlicher und
technischer Ziele entscheidend um sicherzustellen, dass Ihre
Hybrid-Cloud-Strategie die Wachstums -,
Innovations- und
Kosteneffizienzziele Ihres
Unternehmens unterstützt -,
Innovations- und
Kosteneffizienzziele Zweitens stellt die Ausrichtung Ihres
Hybrid-Cloud-Ansatzes umfassendere
Geschäftsziele sicher, dass die Cloud strategisch genutzt wird,
um den Betrieb zu skalieren, Innovationen
voranzutreiben
und Risiken zu managen Drittens sollte eine erfolgreiche
Hybrid-Cloud-Strategie schrittweise eingeführt werden, wobei mit
unkritischen Workloads
begonnen und
kontinuierlich auf Leistung und Kosteneffizienz hin überwacht werden Leistung und Erwerbstätigkeit, Reflexion. Denken Sie über die Ziele
Ihrer Organisation nach. Welche
Geschäftsziele würden durch eine
Hybrid-Cloud-Strategie am besten unterstützt? Ziehen Sie Bereiche wie Skalierbarkeit, Innovation oder Kosteneinsparungen in Betracht. Diskussionsfrage,
Beitrag im Formular. Welche Geschäftsziele sollten Ihrer
Meinung nach
bei der Entwicklung einer
Hybrid-Cloud-Strategie
für Ihr Unternehmen priorisiert werden? bei der Entwicklung einer
Hybrid-Cloud-Strategie für Ihr Unternehmen Wie kann die Cloud Ihnen helfen, diese Ziele
zu erreichen? Nächste Lektion,
Architekturmuster für das Hybrid-Cloud-Design. In der nächsten Lektion werden
wir
die verschiedenen
Architekturmuster
für das Hybrid-Cloud-Design untersuchen die verschiedenen
Architekturmuster . Sie lernen die Ansätze Data
First, Process First und Lift and Shift kennen
und erfahren, wie Sie
das richtige Muster
für die Bedürfnisse Ihres Unternehmens auswählen können. bereit,
die Architektur
hinter einer erfolgreichen
Hybrid Cloud zu erkunden , und fahren
wir mit Lektion
zwei von Modul drei fort.
11. Lektion 2: Architekturmuster für hybrides Cloud-Design: Lektion zwei,
Architekturmuster für das Hybrid-Cloud-Design. Willkommen zu Lektion
zwei von Modul drei, in der wir uns eingehend Architekturmustern
für das Hybrid-Cloud-Design befassen. Als
IT-Infrastrukturdirektor wie William Ihre größte Herausforderung bei der
Modernisierung von Altsystemen und Anpassung von Cloud-Technologien darin den richtigen
architektonischen Ansatz
zu finden Nicht alle Workloads und Anwendungen
sind gleich und
Ihre geschäftlichen und technischen
Anforderungen bestimmen welche Hybrid-Cloud-Architektur für Ihr Unternehmen am besten geeignet
ist Am Ende dieser Lektion werden
Sie eines der drei wichtigsten Muster
der
Hybrid-Cloud-Architektur verstehen :
Daten zuerst, Prozess zuerst
und Lift and Shift Zweitens, wann Sie die einzelnen Muster auf der
Grundlage der
Geschäftsziele und
technischen Anforderungen
Ihres Unternehmens verwenden auf der
Grundlage der
Geschäftsziele und sollten. In dieser Lektion
erhalten Sie die Tools die richtigen
Architekturentscheidungen treffen und
sicherstellen können, dass sich Ihre Hybrid Cloud nahtlos in Ihre Mainframe-Systeme integrieren lässt und
gleichzeitig
Skalierbarkeit, Innovation
und Leistung unterstützt Skalierbarkeit, Innovation
und Leistung Data First-Ansatz,
Zentralisierung des Datenmanagements. Was ist der Data-First-Ansatz? Der Ansatz, bei dem Daten an
erster Stelle konzentriert sich auf die Zentralisierung Datenmanagements
bei gleichzeitiger Aufrechterhaltung der
Anwendungsverarbeitung
sowohl in Mainframe- als auch in
Cloud-Umgebungen Bei diesem Muster werden Daten zentral
gespeichert und verwaltet, entweder auf dem Mainframe oder
in der Cloud, und der Zugriff verschiedene Anwendungen, die über beide Umgebungen verteilt Dieser Ansatz wird häufig von Unternehmen mit
geschäftskritischen Daten
gewählt , die
hochsicher und verfügbar bleiben
müssen hochsicher und verfügbar bleiben
müssen In diesem Fall sind Anwendungen
so konzipiert, dass sie Daten
von diesem zentralen Hub abrufen,
unabhängig davon, ob sie in
der Cloud oder vor Ort ausgeführt werden. Wann der
Data-First-Ansatz verwendet werden sollte, Anforderungen an
Datensicherheit und
Compliance. Wenn Ihr Unternehmen mit
sensiblen Daten wie
Finanzunterlagen, personenbezogenen Daten von
Kunden oder personenbezogenen und die
Aufbewahrung der
Daten sicherstellen muss, ist die Zentralisierung der Daten Konsistente Daten in allen Systemen. Dieser Ansatz stellt sicher
, dass alle Anwendungen,
unabhängig davon, wo
sie ausgeführt werden, auf dieselben konsistenten Daten zugreifen. Wenn ein
Finanzinstitut beispielsweise Kundendaten auf seinem Mainframe
verarbeitet, kann
es
diese Daten zentral speichern und verwalten, während Cloud-basierte Dienste für Echtzeitanalysen
darauf zugreifen Ein Beispiel: Das
Finanzinstitut Williams könnte den
Data-First-Ansatz wählen wenn es die
zentrale Kontrolle über
Transaktionsdaten behalten und gleichzeitig Cloud-Anwendungen
ermöglichen muss , Datenanalysen , Datenanalysen Echtzeit
durchzuführen Die Daten bleiben aus Sicherheitsgründen
vor Ort, während Cloud-Apps
sicher darauf zugreifen oder Berichte oder
prädiktive Analysen
ausführen können sicher darauf zugreifen oder Berichte oder
prädiktive Analysen
ausführen ,
ohne
Daten an mehreren Standorten replizieren zu Daten Hauptvorteile des
Data-First-Ansatzes. Erstens verbesserte Datensicherheit. Sensible Daten werden
zentral verwaltet, sodass die Einhaltung
gesetzlicher Standards einfacher gewährleistet werden kann. Zweitens: Konsistenz. Dies führt zu Problemen bei der
Datenduplizierung oder -fragmentierung, da
alle Anwendungen auf dieselbe
Durchgangsquelle zugreifen Prozessorientierter Ansatz,
Optimierung der Anwendungsworkflows. Was ist der
prozessorientierte Ansatz? Beim prozessorientierten Ansatz verlagert sich
der Fokus von den Daten auf die Geschäftsprozesse oder
Anwendungsworkflows. Hier werden die Arbeitslast, die Prozesse oder der Durchlauf zwischen
dem Mainframe und der
Cloud verteilt , je nachdem wo sie
am effizientesten ausgeführt werden können Der Mainframe übernimmt die
geschäftskritische
Transaktionsverarbeitung
mit hohem Volumen, Transaktionsverarbeitung
mit hohem Volumen während die Cloud
für Workflows verwendet wird , die
Elastizität, Skalierbarkeit oder Modernisierung erfordern Elastizität, Skalierbarkeit oder Modernisierung Dieses Muster wird
in der Regel verwendet, wenn Unternehmen ihre
wichtigsten Transaktionssysteme
auf dem Mainframe behalten , die Cloud
aber für
Workloads wie Batch-Verarbeitung,
kundenorientierte Anwendungen oder Datenanalysen nutzen Workloads wie Batch-Verarbeitung, kundenorientierte Anwendungen Wann sollte der Process-First-Ansatz verwendet werden
? Erstens, Transaktionen mit hohem Volumen. Wenn Ihr Unternehmen
stark auf die
Transaktionsverarbeitung in Echtzeit angewiesen ist, z. B. bei Finanztransaktionen, sollten
Sie
diese Prozesse auf
dem Mainframe belassen und gleichzeitig
die Cloud für andere Aufgaben nutzen Zweitens: Workflow-Segmentierung:
Anwendungen, die in kleinere
Workflows oder Aufgaben
unterteilt werden können , von denen
einige in
der Cloud ausgeführt werden können , profitieren
von Nehmen wir ein Beispiel. Williams Bank könnte sich für den
Prozess-First-Ansatz
entscheiden , um die
Kernbanktransaktionen
auf dem Mainframe zu speichern , wo sie mit
der erforderlichen Zuverlässigkeit
und Sicherheit verarbeitet werden können der erforderlichen Zuverlässigkeit
und Sicherheit Derweil könnten
kundenorientierte Anwendungen wie die
Mobile-Banking-App in der Cloud laufen und
auf
Transaktionsdaten vom Mainframe zugreifen, auf
Transaktionsdaten vom Mainframe zugreifen, aber weniger
kritische Workloads
in Cloud-Umgebungen auslagern aber weniger
kritische Workloads
in Cloud-Umgebungen auslagern. Hauptvorteile des
Process-First-Ansatzes. Erstens: effiziente
Ressourcenzuweisung. Jeder Prozess wird dort ausgeführt, wo
er am effizientesten ist. Echtzeittransaktionen verbleiben auf
dem Mainframe, während die Cloud elastische
Workloads verarbeitet Zweitens: Nach der Markteinführung. Cloud-basierte Anwendungen können häufiger aktualisiert
werden, was schnellere Innovationen
ohne Beeinträchtigung oder Verarbeitung ermöglicht ohne Beeinträchtigung oder Verarbeitung Lift-and-Shift-Ansatz, schnelle und einfache Cloud-Migration Was ist der
Lift-and-Shift-Ansatz? Der Lift-and-Shift-Ansatz
beinhaltet die Migration vorhandener Anwendungen
in die Cloud ohne die
zugrunde liegende Architektur zu ändern Dieser Ansatz wird häufig für
ältere Anwendungen verwendet , die
schnell und mit
minimalem Aufwand in
die Cloud migriert werden müssen , wobei das
Hauptziel darin besteht, die Infrastrukturkosten zu
senken oder Cloud-Skalierbarkeit zu
nutzen Dies ist eine gute Option für Unternehmen, die
ihren Online-Fußabdruck schnell reduzieren
oder
Cloud-Ressourcen nutzen
möchten ihren Online-Fußabdruck schnell reduzieren
oder
Cloud-Ressourcen nutzen , ohne Anwendungen neu
zu gestalten Wann sollte der
Lift-and-Shift-Ansatz verwendet werden? Erstens, es sind nur minimale Änderungen erforderlich. Wenn Ihr Unternehmen über
Workloads verfügt, die mit
wenigen oder gar keinen Änderungen in die Cloud
verlagert werden können und das Ziel lediglich darin besteht, die Betriebskosten zu
senken Dies ist eine effiziente Methode. Zwei Zeitbeschränkungen. Wenn Sie schnell handeln müssen, aufgrund
von Zeitplänen für die
Migration von Rechenzentren oder aufgrund von Infrastrukturbeschränkungen, kann
Lift and Shift eine
schnelle Lösung Ein Beispiel: Williams Team könnte sich für eine
Lift-and-Shift-Lösung für
unkritische
Stapelverarbeitungs-Workloads entscheiden , bei denen das Unternehmen die
Kosten senken kann , indem es diese
Jobs in der Cloud ausführt Die Anwendung selbst
wurde nicht für die
Cloud neu konzipiert, sondern
die bestehende Umgebung
wird in
einem Cloud-basierten
Infrastructure-as-a-Service-IAAS-Modell wurde nicht für die
Cloud neu konzipiert, sondern
die repliziert einem Cloud-basierten
Infrastructure-as-a-Service-IAAS-Modell Hauptvorteil des
Lift-and-Shift-Ansatzes. Eine, schnelle Migration. Dies ist der schnellste Weg zur Cloud-Migration, da Sie die Anwendung
nicht ändern müssen. Zweitens, reduzieren Sie das Risiko. Durch die Beibehaltung der
Anwendungsarchitektur reduzieren
Sie das Risiko, dass während
der Migration
neue Fehler oder
Leistungsprobleme auftreten. Analysieren
Sie, wann jedes Muster verwendet werden sollte. Das richtige
Hybrid-Cloud-Architekturmuster hängt von Ihren
Geschäftszielen, technischen Anforderungen und
Ressourcenbeschränkungen ab. Lassen Sie uns erläutern, wie Sie entscheiden können , welcher Ansatz
für verschiedene Szenarien am besten geeignet ist. Erstens: Verwenden Sie den
Ansatz „Daten zuerst“, wenn Datensicherheit und Compliance Ihre Hauptanliegen
sind. Zweitens
benötigt Ihre Anwendung einen konsistenten, zentralen
Zugriff auf wichtige Daten. Zweitens: Verwenden Sie den
Prozess-First-Ansatz, wenn Sie Workflows
optimieren möchten , indem Sie
verschiedene Prozesse in
der Cloud und vor Ort ausführen . Wenn Skalierbarkeit und Elastizität für unkritische
Aufgaben wichtig
sind, Kerntransaktionen
jedoch auf dem Mainframe
verbleiben müssen Drittens: Verwenden Sie den
List-and-Shift-Ansatz, wenn
Sie schnell und mit
minimalen Änderungen an
bestehenden Anwendungen migrieren müssen minimalen Änderungen an
bestehenden Anwendungen Wenn das Ziel darin besteht, die
Infrastrukturkosten zu senken , ohne die
Anwendung umzugestalten den wichtigsten Erkenntnissen aus
dieser Lektion gehören: Erstens konzentriert sich
der Ansatz „Data First“ auf die Zentralisierung von Daten ermöglicht
gleichzeitig Anwendungen in beiden Umgebungen den
Zugriff auf diese Daten, gewährleistet Zweitens optimiert der prozessorientierte Ansatz die
Anwendungsabläufe, sodass
geschäftskritische Aufgaben vor Ort bleiben
können, während
andere Prozesse in die Cloud ausgelagert Drittens
ist der
Lift-and-Shift-Ansatz ideal für eine schnelle Migration, bestehende Anwendungen in
die Cloud
verschoben werden, ohne
ihre Architektur zu ändern Erwerbstätigkeit, Reflexion. Überprüfen Sie Ihre aktuellen
Workloads und Prozesse. Welches
Hybrid-Cloud-Modell, Data First, Process First oder Lift and Shift würde die Anforderungen Ihres
Unternehmens am besten erfüllen Warum? Im Forum
gestellte Diskussionsfrage. Welches
Hybrid-Cloud-Architekturmuster würde Ihrer
Meinung nach den
unmittelbarsten Nutzen für
Ihr Unternehmen bieten ? Was sind die potenziellen Risiken oder Herausforderungen bei der Implementierung
dieses Ansatzes? Nächste Lektion,
Hybrid-Workload-Platzierung. In der nächsten Lektion werden wir
besprechen, wie bestimmt werden kann, welche Anwendungen und Dienste lokal und nicht in
der Cloud
verbleiben sollen . Sie lernen,
Workload-Merkmale
wie Latenzanforderungen,
Compliance-Bedenken
und Leistungsanforderungen zu analysieren Workload-Merkmale
wie Latenzanforderungen, , um fundierte
Entscheidungen zu treffen. bereit, uns eingehender mit der Platzierung
hybrider Workloads Lassen Sie uns nun zu Lektion
drei übergehen und untersuchen,
wie Sie entscheiden können, wo Ihre
Anwendungen hingehören
12. Lektion 3: Hybride Workload-Platzierung: Lektion drei,
Hybrid-Workload-Platzierung. Willkommen zurück zu Modul drei
unseres Kurses zur Gestaltung einer
Hybrid-Cloud-Strategie. In den vorherigen Lektionen haben wir verschiedene
Architekturmuster und
Strategien für die Integration
Ihrer Mainframe- und
Cloud-Umgebungen untersucht Strategien für die Integration Ihrer Mainframe- und
Cloud-Umgebungen Heute werden
wir uns in Lektion drei mit einem der wichtigsten Aspekte
des Hybrid-Cloud-Designs befassen wichtigsten Aspekte
des Hybrid-Cloud-Designs Platzierung hybrider Workloads. Als
IT-Infrastrukturdirektor wie William müssen
Sie
fundierte Entscheidungen
darüber treffen, müssen
Sie
fundierte Entscheidungen
darüber treffen welche Anwendungen
und Dienste lokal auf
Ihrem Mainframe verbleiben und welche in die Cloud
verlagert werden sollten Nicht jeder Workload
eignet sich gut für
die Cloud, und eine falsche Platzierung kann zu Leistungsproblemen,
Sicherheitsrisiken und
Kostenineffizienzen führen Sicherheitsrisiken und
Kostenineffizienzen Der Schlüssel liegt darin,
die Workload-Merkmale bei Entscheidungen
zur Festplattenplatzierung zu verstehen die Workload-Merkmale bei Entscheidungen zur Festplattenplatzierung Am Ende dieser Lektion werden Sie wissen, wie
Sie
Workload-Merkmale
wie Latenz,
Konformität und
Leistungsanforderungen bewerten Workload-Merkmale
wie Latenz, , um die beste
Platzierung für jede Arbeitslast zu ermitteln. Zweitens müssen Sie entscheiden, ob
eine Anwendung oder Dienst
lokal bleiben oder in die Cloud
migriert werden soll lokal bleiben oder in die Cloud
migriert werden Lass uns anfangen. Grundlegendes zu den
Merkmalen der Arbeitslast Bevor Sie entscheiden
, wo ein Workload platziert werden soll, müssen
Sie seine
wichtigsten Merkmale analysieren. Anhand dieser Merkmale können Sie beurteilen, ob eine Anwendung auf
Ihrem Mainframe verbleiben oder in die Cloud
migrieren sollte Ihrem Mainframe verbleiben oder in die Cloud
migrieren A, Latenz, wie empfindlich
reagiert Ihr Workload auf Verzögerungen? Latenz bezieht sich auf die
Zeit, die
Daten benötigen , um zwischen verschiedenen
Systemen oder Anwendungen zu übertragen. Bei bestimmten Anwendungen kann
bereits eine geringfügige Verzögerung
zu schwerwiegenden Problemen führen, insbesondere bei Anwendungen, die
eine Verarbeitung in Echtzeit erfordern. Empfindliche Workloads mit hoher Latenz. Diese Workloads erfordern Leistung in Echtzeit oder nahezu in Echtzeit. Bei
Finanzdienstleistungen reagieren
Transaktionsverarbeitungssysteme
beispielsweise empfindlich auf Latenz Wenn ein Kunde eine
Kreditkartenzahlung tätigt, muss
das System
die Transaktion sofort verarbeiten. Für diese Art von Workloads
ist es oft die beste Wahl, sie auf dem Mainframe zu lassen,
um eine geringe Latenz
und hohe Zuverlässigkeit zu gewährleisten Tolerante Workloads mit niedriger Latenz. Andere Workloads
wie Datenanalysen oder Batch-Verarbeitung können höhere Latenzen
tolerieren Diese Prozesse erfordern kein sofortiges Feedback und können außerhalb der Spitzenzeiten ausgeführt
werden. Sie eignen sich
daher gut für
die Cloud, daher gut für
die wo sie effizient skaliert
werden können Das Team von William
kümmert sich beispielsweise um die
Betrugserkennung in Echtzeit auf seinem Mainframe, da Verzögerungen bei der Identifizierung betrügerischer Aktivitäten zu erheblichen finanziellen
Verlusten führen können erheblichen finanziellen
Verlusten Das Tagesabschlussberichtssystem
der Bank,
das
Transaktionsdaten aggregiert und
Berichte generiert, kann jedoch das
Transaktionsdaten aggregiert und
Berichte generiert mit
einer Latenz von einigen Minuten oder sogar
Stunden laufen , was es zu einem perfekten Kandidaten
für die Cloud-Migration macht B, Einhaltung der Vorschriften. Gibt es regulatorische
Einschränkungen? In Branchen wie dem Finanzwesen, dem
Gesundheitswesen und der Regierung spielt die
Einhaltung von Vorschriften eine
wichtige Rolle
bei der Festlegung, wo
Arbeitslasten platziert werden können Vorschriften können vorschreiben
, dass bestimmte Daten
vor Ort verbleiben müssen, um den Speicherort, die Sicherheit oder
den Datenschutz der Daten zu gewährleisten Sensible und
regulierte Workloads. Workloads, die
personenbezogene Daten
oder PII, Finanzdaten
oder Patientenakten verarbeiten , müssen
aufgrund
strenger Vorschriften wie
PCIDSS, HIPAA oder GDPR häufig vor Ort verbleiben strenger Vorschriften wie
PCIDSS, HIPAA oder GDPR Diese Vorschriften können vorschreiben,
wo Daten gespeichert werden können, wer darauf zugreifen kann In solchen Fällen kann es
notwendig sein,
Daten auf Ihrem Mainframe
oder Ihrer privaten Cloud zu speichern , um die Einhaltung der Vorschriften sicherzustellen Nicht regulierte Workloads.
Andererseits Workloads, die keine
sensiblen Daten beinhalten können
Workloads, die keine
sensiblen Daten beinhalten, in der Regel in die
Public Cloud migriert werden Dazu können
kundenorientierte Anwendungen, Marketinganalysen oder interne Business
Intelligence-Plattformen Nehmen wir ein Beispiel. Bei
Williams Financial Institution müssen
Kundenkontoinformationen auf dem Mainframe verbleiben , um
den PCI-DSS-Vorschriften zu
entsprechen Es wird sichergestellt, dass die Daten
sicher aufbewahrt werden und die Anforderungen an den
Wohnsitz erfüllt Analyse des
Kundenverhaltens ohne personenbezogene Daten
können jedoch Daten zur Analyse des
Kundenverhaltens ohne personenbezogene Daten
können jedoch in der Cloud verarbeitet werden, um
Einblicke in
das
Ausgabenverhalten und die Trends der Kunden zu gewinnen Einblicke in
das
Ausgabenverhalten und die Trends der Kunden C, Leistungsanforderungen. Welche Ressourcen benötigen Ihre
Anwendungen? Verschiedene Workloads erfordern
unterschiedliche Mengen an Rechenleistung,
Arbeitsspeicher und Speicherplatz Die Bewertung der
Leistungsanforderungen Ihrer Anwendungen ist wichtig, um festzustellen, wo
sie am besten funktionieren Leistungsstarke Workloads. Anwendungen, die einen
hohen Verarbeitungsdurchsatz
oder garantierte Verfügbarkeit erfordern oder garantierte Verfügbarkeit eignen sich
häufig am besten
für Mainframes Diese Systeme sind für
geschäftskritische
Workloads konzipiert , die eine
Verfügbarkeit von
99 bis zu 9% und eine robuste
Transaktionsverarbeitung erfordern 99 bis zu 9% Verfügbarkeit von
99 bis zu 9% und eine robuste Skalierbare Workloads. Workloads, die eine
elastische Skalierung erfordern, wie Webanwendungen oder
saisonale Batch-Jobs profitieren von der Skalierbarkeit der
Cloud. Die Cloud kann
Ressourcen nach Bedarf bereitstellen, sodass Sie in Zeiten mit hoher Auslastung nach oben und in langsameren Zeiten
nach unten skalieren können, was zur Kostenoptimierung beiträgt Nehmen wir ein Beispiel.
Das Williams-Team führt Transaktionsverarbeitung in
Echtzeit auf dem Mainframe durch, da dafür eine schnelle Verarbeitung
mit hoher Verfügbarkeit erforderlich ist Die
kundenorientierte mobile App der Bank,
die variablen
Traffic erfasst, läuft jedoch in der Cloud,
wo sie in geschäftigen Zeiten, wie z. B.
bei Werbeaktionen, automatisch skaliert werden kann ,
ohne den Mainframe zu
belasten den Mainframe zu
belasten Entscheidend ist die Entscheidung vor Ort oder in der
Cloud. wir nun die Merkmale der
Workloads verstanden haben, wollen wir untersuchen, wie
entschieden werden kann, wo einzelnen Workloads platziert werden sollen. A: Anwendungen, die lokal bleiben
sollten. Bestimmte Workloads sind immer besser geeignet, um
auf Ihrem Mainframe zu verbleiben Dazu gehören zum einen
geschäftskritische Transaktionen. Jede Anwendung, die
Transaktionsverarbeitung in
Echtzeit abwickelt , wie ATM-Netzwerke, Zahlungsgateways oder
Finanzhandelsplattformen, sollte auf dem Mainframe bleiben,
wo die Latenz minimal ist und die Verfügbarkeit garantiert Zwei stark regulierte Workloads. Anwendungen, die
sensible Kundendaten
wie Kreditkartenverarbeitung
oder Krankenakten verarbeiten ,
unterliegen behördlichen
Beschränkungen, sollten
vor Ort bleiben , um
Datensicherheit und Compliance zu gewährleisten Drittens:
Verarbeitung mit hohem Durchsatz. Workloads, die eine
erhebliche Rechenleistung
für eine schnelle Datenverarbeitung benötigen , wie z. B. die
Betrugserkennung in Echtzeit sollten auf dem Mainframe verbleiben, ausgelegt ist
,
hohe Transaktionsvolumen
mit minimaler Latenz zu bewältigen hohe Transaktionsvolumen
mit minimaler B, Anwendungen, die in die
Cloud migriert werden sollten. Andere Workloads
eignen sich besser für die Cloud. Dazu gehört eine, nicht
kritische Batch-Verarbeitung. Anwendungen, die Batch-Verarbeitung
wie Tagesabschlussberichte oder
umfangreiche Datenaggregationen
durchführen wie Tagesabschlussberichte oder , können die Cloud verlagert
werden, wo sie außerhalb der
Spitzenzeiten geplant und nach Bedarf skaliert werden
können Spitzenzeiten geplant und nach Bedarf skaliert Zweitens: Datenanalyse
und maschinelles Lernen. Workloads, die
Datenanalyse,
Business Intelligence
oder maschinelles Lernen beinhalten Business Intelligence
oder maschinelles Lernen können in die
Cloud migriert werden, um die Skalierbarkeit
und Rechenleistung von
Cloud-Plattformen
wie AWS oder Azure zu nutzen die Skalierbarkeit
und Rechenleistung von Cloud-Plattformen
wie AWS oder Drei, kundenorientierte
Webanwendungen. Anwendungen wie
Mobile-Banking-Apps oder Kundensupport-Portale eignen sich
gut für die Cloud, wo sie in
Zeiten hoher Auslastung hochskaliert und in
Backend-Services integriert werden können, die
auf dem Mainframe ausgeführt Nehmen wir ein Beispiel. Williams Bank hält
Kernbankensysteme wie Zahlungsabwicklung
auf dem Mainframe Leistung
und Compliance
zu gewährleisten,
während
Mobile-Banking-Dienste
in der Cloud laufen, während
Mobile-Banking-Dienste
in der Cloud laufen um die schwankende Nachfrage und die
schwankende Nachfrage der Nutzer
zu bewältigen und so das
Beste aus beiden Welten zu gewährleisten, was Leistung Bewährte Methoden für die Verteilung
hybrider Workloads. Bei der Festlegung der
Workload-Platzierung ist
es wichtig,
einige bewährte Methoden zu beachten. Erstens: Beurteilen Sie die Latenz und die
Leistungsempfindlichkeit. Priorisieren Sie
latenzempfindliche Anwendungen für
lokale Infrastrukturen immer , während weniger sensible oder weniger
zeitkritische Workloads ausgelagert werden
können Zweitens: Beurteilen Sie die Einhaltung
von Vorschriften und Sicherheit. Stellen Sie sicher, dass alle Daten, die den
Branchenvorschriften entsprechen müssen,
vor Ort
verbleiben Branchenvorschriften entsprechen müssen,
vor Ort
verbleiben , während weniger
sensible Daten in die Cloud verschoben werden
können. Drittens: Nutzen Sie
die Cloud für mehr Flexibilität. Nutzen Sie die Cloud für
skalierbare Workloads wie
kundenorientierte Anwendungen, Datenanalysen und
Batch-Verarbeitung, bei denen Elastizität und
Kosteneffizienz entscheidend sind Nehmen wir ein Beispiel. Williams Organization
verwendet diese Best Practices um zu bestimmen, welche Workloads
auf dem Mainframe verbleiben sollen, z. B. leistungsstarke
Transaktionsverarbeitung und welche Workloads in die Cloud migriert
werden sollen, wie z. B. unkritische
Batch-Verarbeitung und Kundenanalysen, um ein Gleichgewicht zwischen
Sicherheit, Leistung
und Skalierbarkeit zu gewährleisten Sicherheit, Leistung
und Skalierbarkeit den wichtigsten Erkenntnissen aus
dieser Lektion gehört, latenzempfindliche und
geschäftskritische Workloads wie Transaktionsverarbeitung auf dem
Mainframe verbleiben
sollten , um eine geringe Latenz
und eine hohe und Zweitens sollten regelkonforme
Workloads,
insbesondere solche, die
strengen regulatorischen
Anforderungen unterliegen die
strengen regulatorischen
Anforderungen Ort verbleiben, während
nicht regulierte Workloads
in die Cloud verlagert werden
können Drittens: Nutzen Sie die Cloud für skalierbare, unkritische
Workloads wie kundenorientierte Anwendungen
und Datenanalysen bei denen Elastizität und
Kostenoptimierung Erwerbstätigkeit, Reflexion und Bewertung der Arbeitsbelastung
in Ihrem Unternehmen Bei denen es um Latenz- und Compliance-Anforderungen geht,
sollten sie vor Ort bleiben Welche könnten von
der Skalierbarkeit
und Kosteneffizienz der Cloud profitieren . Im Forum
gestellte Diskussionsfrage. Wie bestimmt Ihr Unternehmen
derzeit, ob ein Workload vor
Ort verbleiben oder
in die Cloud verlagert werden soll ? Was sind die wichtigsten Faktoren,
die diese Entscheidungen beeinflussen? Nächste Lektion, Auswahl des
Cloud-Dienstes. In der nächsten Lektion werden wir
besprechen, wie Sie
die geeigneten Cloud-Dienste
für Ihre Hybrid-Cloud-Strategie auswählen die geeigneten Cloud-Dienste . Sie erfahren, wie Sie
zwischen Anbietern wie AWS,
Azure und Google Cloud wählen können, und erfahren, welche Rolle
Cloud-native Tools wie Container, Microservices und Serverlistenarchitekturen
in Hybridumgebungen gespannt darauf, mehr
über die Auswahl der
richtigen Cloud-Dienste zu erfahren , mehr
über die Auswahl der
richtigen Cloud-Dienste Lassen Sie uns in Lektion vier
herausfinden, wie Sie
die beste Wahl für Ihre
Hybrid-Cloud-Umgebung treffen können. Ähm,
13. Lektion 4: Cloud-Service-Auswahl: Lektion vier, Auswahl des
Cloud-Dienstes. Willkommen zu Lektion
vier von Modul drei. In dieser Lektion werden wir untersuchen, wie
Sie
die geeigneten Cloud-Dienste
für Ihre
Hybrid-Cloud-Architektur auswählen die geeigneten Cloud-Dienste können. Als
IT-Infrastrukturdirektor wie William ist die
Auswahl der richtigen
Cloud-Plattform eine
der wichtigsten
Entscheidungen, die Sie
während der
Cloud-Modernisierung Ihres Unternehmens treffen werden. Sie müssen verstehen,
wie Services von AWS, Microsoft Azure oder
Google Cloud auf die Bedürfnisse
Ihres Unternehmens abgestimmt sind und wie Cloud-native Tools
wie Container, Microservices und
serverlose Architekturen in
hybriden Umgebungen genutzt werden
können Am Ende dieser Lektion werden
Sie in der Lage sein, die geeigneten
Cloud-Dienste für
Ihren Anwendungsfall und
Ihre Leistungsziele auszuwählen die geeigneten
Cloud-Dienste für Ihren Anwendungsfall und
Ihre Zweitens sollten Sie lernen, wie Sie Cloud-native
Tools wie Container,
Microservices und
serverlose Architekturen
in Ihre
Hybrid-Cloud-Umgebung integrieren Microservices und
serverlose Architekturen in Ihre
Hybrid-Cloud-Umgebung Lassen Sie uns eintauchen. Auswahl
der richtigen Cloud-Plattform, AWS, Azure oder Google Cloud. Die drei großen Cloud-Anbieter, Amazon Web Services oder
AWS, Microsoft Azure und Google Cloud
Platform oder GCP, bieten
jeweils eine breite
Palette von Diensten an, ihre Stärken
unterscheiden sich
jedoch
je nach den spezifischen Anforderungen Ihres
Unternehmens geringfügig je nach den spezifischen Anforderungen Ihres
Unternehmens Die Wahl der richtigen Plattform für Ihre
Hybrid-Cloud-Architektur
hängt von Ihren
Workload-Anforderungen, Leistungszielen und der
vorhandenen Infrastruktur A, Amazon Web Services oder
AWS, der Marktführer im Cloud-Bereich. AWS gilt weithin als Marktführer
für Cloud-Dienste bietet eine breite Palette von Tools und Services für
nahezu jeden Anwendungsfall. AWU bietet flexible, skalierbare Lösungen für
Unternehmen jeder Größe und ist eine hervorragende Wahl für
Unternehmen, die ein robustes Serviceangebot
nutzen möchten . Stärken. AWS ist bekannt
für seine Skalierbarkeit, umfangreiches Toolset
und seine globale Ausrichtung. Es verfügt über einen riesigen Markt
an Cloud-Diensten und -Tools, einschließlich Rechenleistung,
Datenbanken und Datenspeicherung. AWS lässt sich dank
Services wie AWS Outpost, die native AWS-Services in Ihre lokale Umgebung integrieren
, auch gut in
hybride Umgebungen native AWS-Services in Ihre lokale Umgebung integrieren
, in Beste Anwendungsfälle. AWS ist ideal für Unternehmen,
die Skalierbarkeit benötigen, weltweit
tätig
sind oder
spezielle Tools wie
KI-ML-Funktionen,
IOT-Services oder
Big-Data-Analysen benötigen spezielle Tools wie
KI-ML-Funktionen, . Nehmen wir ein Beispiel. Organisation Williams
könnte sich für
AWS entscheiden , wenn sie nach
Skalierbarkeit für
Cloud-native Apps
wie ihre
Mobile-Banking-App sucht Skalierbarkeit für
Cloud-native Apps oder die Big-Data-Tools von
AWS zur Analyse von
Kundentransaktionsdaten nutzen möchte. Microsoft Azure eignet sich am besten
für die Hybridintegration. Microsoft Azure ist bekannt für seine tiefe Integration mit lokalen Systemen und
Unternehmensanwendungen, insbesondere für Unternehmen, die bereits über eine
Windows-basierte Infrastruktur verfügen. Azure hat sich
dank seiner robusten
Hybrid-Integrationstools zu einem starken
Konkurrenten im Cloud-Bereich entwickelt, insbesondere bei
Hybrid-Cloud-Setups insbesondere bei
Hybrid-Cloud-Setups Stärke Azure ist in
Hybrid-Cloud-Umgebungen stark bietet Dienste wie
Azure Arc für die Verwaltung Cloud
- und lokalen Ressourcen von
einer einzigen Kontrollebene aus Die enge Integration
mit Microsoft-Produkten wie Active Directory,
Windows Server
und SQL Server macht
Azure zu einer überzeugenden Wahl
für Unternehmen, und SQL Server macht
Azure zu einer überzeugenden Wahl die bereits auf
Microsoft-Technologien
setzen. Beste Anwendungsfälle. Azure ist ideal für
Unternehmen, die ihre bestehenden
Microsoft-Umgebungen
vor Ort auf die Cloud
ausweiten möchten ihre bestehenden
Microsoft-Umgebungen
vor Ort auf die Cloud
ausweiten , z. B. für Unternehmen, die webbasierte
Anwendungen oder Office 365 verwenden. Es ist auch ein starker Konkurrent
für Branchen, die
Hybrid-Cloud-Funktionen für die
Verwaltung sowohl vor Ort als auch für Cloud-Umgebungen
benötigen Hybrid-Cloud-Funktionen für Verwaltung sowohl vor Ort als auch für Cloud-Umgebungen Nehmen wir ein
Beispiel. Für William wenn sein
Finanzinstitut stark
auf Windows-basierte Infrastruktur
und Active Directory angewiesen ist, wäre
Azure eine
hervorragende Wahl,
wenn sein
Finanzinstitut stark
auf Windows-basierte Infrastruktur
und Active Directory angewiesen ist, um seine
Hybridumgebung zu
verwalten und eine seine
Hybridumgebung zu
verwalten und nahtlose
Integration zwischen
seinen Mainframe- und
Cloud-Anwendungen
sicherzustellen seinen Mainframe- und
Cloud-Anwendungen Google Cloud Platform oder GCP, der Innovator im Bereich Daten Google Cloud ist vor allem für
seine führende Position in den Bereichen
Datenanalyse,
maschinelles Lernen und KI bekannt seine führende Position in den Bereichen
Datenanalyse, maschinelles Lernen und KI Die Cloud-Dienste von Google
bieten eine Reihe von Tools , die für die
Datenverarbeitung und -analyse hochoptimiert sind , was sie
zu einer guten Wahl für
Unternehmen macht , die
modernste Technologien nutzen möchten . Stärken. GCP zeichnet sich durch
Datenmanagement, Analytik und maschinelles Lernen Dienste wie Big
Query, Data Flow und AutoML machen GCP zur Plattform für
datenintensive Workloads und AutoML machen GCP zur idealen
Plattform für
datenintensive Workloads
und KI-gestützte Innovationen. GCP ist auch bekannt für seine entwicklerfreundlichen Tools und Open-Source-Integrationen Beste Anwendungsfälle. Google Cloud eignet sich am besten für Unternehmen, die sich
auf Datenanalysen,
KI-ML-Projekte oder Datenverarbeitung in
Echtzeit konzentrieren . Aufgrund seiner Flexibilität und
Open-Source-Unterstützung ist es eine hervorragende Wahl für Unternehmen, die schnell
innovieren möchten Nehmen wir ein Beispiel. Das Williams-Team kann sich für
GCP entscheiden , wenn es sich
auf Big-Data-Analysen konzentriert oder die Implementierung
fortschrittlicher Modelle für
maschinelles Lernen plant , um Erkenntnisse
aus Kundendaten Die Tools von ApS würden der Bank
helfen,
riesige Mengen an
Kundentransaktionsdaten
für personalisiertes Marketing
und Betrugserkennung zu analysieren von ApS würden der Bank
helfen,
riesige Mengen an
Kundentransaktionsdaten für personalisiertes Marketing
und Betrugserkennung Cloud-native Tools für
hybride Umgebungen. In einer Hybrid-Cloud-Architektur ist
es entscheidend, Cloud-native Tools zu nutzen, die Flexibilität,
Skalierbarkeit und Effizienz
bieten. Klicken Sie auf drei wichtige Cloud-native
Technologien: Container, Microservices und
serverlose Architekturen Diese Tools
wurden entwickelt, um die
Agilität und Leistung
in einer Hybridumgebung zu verbessern Agilität und Leistung
in einer Hybridumgebung nahtlose
Integration zwischen Ihren
Mainframe-Systemen vor Ort und Cloud-Diensten A, Container, Portabilität
und Konsistenz. Container, wie sie beispielsweise von Docker
verwaltet
und von
Kubernetis orchestriert werden , ermöglichen es Ihnen,
Anwendungen mit
ihren Abhängigkeiten in isolierte Umgebungen zu packen Anwendungen mit ihren Container sind
portabel, leicht und ermöglichen einen konsistenten Betrieb in verschiedenen Umgebungen, egal ob vor Ort oder in der Cloud Stärken. Container
bieten Portabilität und erleichtern das
Verschieben von Anwendungen zwischen der Cloud und Ihrer
Mainframe-Umgebung Sie fördern auch die Skalierbarkeit,
indem sie es Entwicklern ermöglichen, Updates schnell
bereitzustellen, ohne das Gesamtsystem zu
beeinträchtigen Beste Anwendungsfälle. Container eignen sich ideal für Unternehmen
, die Anwendungen in
mehreren Umgebungen
bereitstellen oder
Microservices dynamisch skalieren müssen Sie eignen sich besonders
für Cloud-native Anwendungen oder Anwendungen, die
schrittweise
in die Cloud migriert werden müssen schrittweise
in die Cloud migriert werden Ein Beispiel:
Das Williams-Team könnte
Kubernetes verwenden, um Container
für seine kundenorientierte
Bankanwendung zu verwalten und
so sicherzustellen, dass Updates
einfach in
der Cloud bereitgestellt werden können , während die
wichtigsten Bankdienstleistungen
auf dem wichtigsten Bankdienstleistungen Microservices, bei denen
Anwendungen in kleinere unabhängige Anwendungen in Eine Microservices-Architektur
unterteilt Anwendungen in kleine unabhängige Dienste , die über APIs kommunizieren Jeder Microservice
kann unabhängig entwickelt, bereitgestellt
und skaliert werden, wodurch Agilität
und Fehlertoleranz verbessert Vorteile: Microservices bieten Flexibilität
und Skalierbarkeit und
ermöglichen es Unternehmen, bestimmte Dienste
zu aktualisieren oder zu
skalieren, ohne
die
gesamte Anwendung zu beeinträchtigen Diese Architektur ist ideal
für Hybridumgebungen, in denen bestimmte Microservices vor
Ort und
andere in der Cloud ausgeführt werden können vor
Ort und
andere in der Beste Anwendungsfälle. Microservices
eignen sich ideal für Anwendungen , die häufig aktualisiert
werden müssen oder die aus vielen
unabhängigen Funktionen bestehen Sie werden häufig in
Cloud-nativen Entwicklungen verwendet , um die Leistung
und Zuverlässigkeit zu verbessern Nehmen wir ein Beispiel. Das Williams-Team könnte
Microservices nutzen und
seine
Online-Banking-Plattform in
kleinere Dienste wie Anmeldung,
Kontoverwaltung und
Transaktionsverlauf aufteilen seine
Online-Banking-Plattform in kleinere Dienste wie Anmeldung, Kontoverwaltung und
Transaktionsverlauf Einige Microservices können in der Cloud
ausgeführt werden, während
andere, wie die Zahlungsabwicklung, auf dem
Mainframe verbleiben Serverlose Architektur:
Sie zahlen nur für das, was Sie tatsächlich nutzen. serverlose Architektur
entfällt die Notwendigkeit
, die zugrunde liegenden Server zu verwalten Bei serverlosen Plattformen
wie AWS Lambda, Azure Functions oder
Google Cloud-Funktionen schreiben
Sie Code, der als Reaktion auf Ereignisse ausgeführt wird
, und der Cloud-Anbieter verwaltet die Infrastruktur und
skaliert
die Ressourcen automatisch nach Bedarf Stärken von Server LS gehören Kosteneinsparungen und
automatische Skalierbarkeit, da Sie nur für
die Ressourcen zahlen , die Sie tatsächlich nutzen,
wenn die Funktion ausgeführt wird Es eignet sich perfekt für
ereignisgesteuerte Aufgaben und kurzlebige
Operationen, für die keine kontinuierlich
laufende Infrastruktur
erforderlich ist. Beste Anwendungsfälle.
Die serverlose Architektur eignet sich gut für
ereignisgesteuerte Anwendungen, z. B. die Verarbeitung von Transaktionen, Reaktion auf Benutzerereignisse oder Auslösen von Aktionen auf der
Grundlage von API-Aufrufen Nehmen wir ein Beispiel.
Die Williams-Organisation könnte AWS Lambda verwenden, um bestimmte Aufgaben zu
erledigen, z. B. Auslösen von Benachrichtigungen,
wenn ein Benutzer bestimmte Aktionen in
der Mobile-Banking-App
ausführt , oder Ausführen von serverlosem Code zur Bearbeitung von
Betrugswarnungen in Echtzeit Bewährte Methoden für die Auswahl von
Cloud-Services
in einer hybriden Umgebung Bei der Auswahl von Cloud-Diensten
für eine Hybridumgebung ist
es wichtig, dass
Sie Ihre Auswahl an
Ihren Geschäftszielen und
technischen Anforderungen ausrichten Sie Ihre Auswahl . Im Folgenden finden Sie einige
bewährte Methoden, die Sie befolgen sollten. Erstens: Evaluieren Sie die
Integrationsmöglichkeiten. Wählen Sie eine Cloud-Plattform
, die sich
gut in Ihre bestehenden Mainframe
- und On-Premise-Systeme integrieren lässt gut in Ihre bestehenden Mainframe
- und On-Premise-Systeme Dienste wie AWS
Outposts oder Azure Art sind so konzipiert, dass sie eine
nahtlose Integration zwischen Cloud- und lokalen Umgebungen ermöglichen
. Zweitens: Priorisieren Sie Sicherheit
und Compliance. Stellen Sie sicher, dass die von Ihnen
ausgewählten
Cloud-Dienste die
Compliance-Anforderungen Ihrer Branche erfüllen Wenn
Sie beispielsweise im Finanzbereich tätig sind, leiten
Sie Dienste, die
PCI DSS- oder DSGVO-konform sind Drittens: Nutzen Sie
Cloud-native Tools. Integrieren Sie Container,
Mikroservices
und serverlose
Architekturen, um die
Skalierbarkeit und Agilität
Ihrer Hybridumgebung zu maximieren Skalierbarkeit und Agilität
Ihrer Hybridumgebung Diese Tools wurden entwickelt , um die
Leistung,
Portabilität und
Bereitstellungsgeschwindigkeit von Anwendungen zu verbessern Portabilität und
Bereitstellungsgeschwindigkeit Nehmen wir ein Beispiel. William Stein kann
Ubernatsp-Container
und AWS Lambda für
serverlose Funktionen verwenden Ubernatsp-Container
und AWS Lambda für ,
um sicherzustellen, dass seine
Hybrid-Cloud-Umgebung skalierbar,
agil und kosteneffizient bleibt agil Durch den Einsatz der besten
Cloud-Native-Tools können
sie sicherstellen, dass sich
ihre Cloud-Services nahtlos in ihre Mainframe-Infrastruktur integrieren lassen den wichtigsten Erkenntnissen aus
dieser Lektion gehören zum einen,
AWS, Azure und GCP, die
jeweils ihre Stärken haben, die von den Zielen Ihres
Unternehmens abhängen Ihres
Unternehmens AWS eignet sich am besten für Skalierbarkeit, Azure für Hybrid-Integration und GCP für
Datenanalyse Zweitens
sind Cloud-native Tools wie Container,
Microservices und serverlose Architekturen wie Container,
Microservices
und serverlose Architekturen der Schlüssel zur Verbesserung der
Skalierbarkeit, Portabilität und Agilität
in Hybridumgebungen Drittens sollten Sie bei der Auswahl von
Cloud-Diensten
darauf achten, dass sie sich gut
in Ihre lokalen Systeme integrieren lassen, Sicherheits- und
Compliance-Anforderungen
erfüllen und Ihre
Leistungsziele unterstützen Lernaktivität, Reflexion. Berücksichtigen Sie
die Ziele Ihrer Organisation. Welche Cloud-Plattform, AWS, Azure oder GCP, passt Ihrer Meinung nach am
besten zu Ihrer
Hybrid-Cloud-Strategie Wie würden
Cloud-Native-Tools wie Container oder weniger Server dazu beitragen, die Leistung
Ihrer Anwendungen zu verbessern Diskussionsfrage im Forum
gestellt. Was sind die wichtigsten Faktoren, die
Ihr Unternehmen bei der Auswahl von
Cloud-Diensten für
Hybridumgebungen
berücksichtigt ? Wie planen Sie,
Cloud-native Tools wie
Microservices oder Container
in Ihrer Strategie zu nutzen Cloud-native Tools wie Microservices oder Container
in Ihrer Strategie zu Nächste Lektion, Entwicklung einer
Datenmigrationsstrategie. Im nächsten Modul werden wir
unseren Fokus auf die Migration von Daten und Anwendungen in die Cloud
verlagern In der ersten Lektion von Modul vier werden
wir untersuchen, wie
eine Datenmigrationsstrategie entwickelt werden kann, einschließlich der Wahl zwischen
verschiedenen Migrationsmethoden Zum Beispiel Big Bang versus Basismigration und Verständnis
der Vor- und Nachteile. Bereit, Ihre
Cloud-Migration zu planen. Lassen Sie uns mit
Modul vier fortfahren und mit der
Entwicklung Ihrer
Datenmigrationsstrategie beginnen . Ähm,
14. Lektion 1: Entwicklung einer Datenmigrationsstrategie: Modul vier, Migration von Daten und Anwendungen in die Cloud In diesem Modul lernen die
Studierenden den Prozess der Migration
von Daten, Anwendungen und Workloads
von Mainframes Es behandelt bewährte Methoden
für die sichere Datenmigration, Minimierung von Ausfallzeiten
und die Aufrechterhaltung Datenintegrität während des reale Migrationstools Es werden auch reale Migrationstools
und -techniken untersucht Lektion eins, Entwicklung einer
Datenmigrationsstrategie. Willkommen zu Modul vier, in dem wir mit dem
kritischen Prozess der
Migration von Daten und
Anwendungen in die Cloud beginnen Migration von Daten und
Anwendungen in die Cloud In dieser ersten Lektion konzentrieren
wir uns auf Entwicklung einer soliden
Datenmigrationsstrategie Für jemanden wie William, einen Direktor für IT-Infrastruktur, mit der Modernisierung
älterer Mainframe-Systeme
beauftragt ist, ist eine
klare
Datenmigrationsstrategie unerlässlich, um einen reibungslosen
Übergang zur Cloud zu gewährleisten Ganz gleich, ob Sie
große Mengen
sensibler Kundendaten verschieben oder Anwendungen
migrieren,
die richtige Strategie kann
Ihnen helfen, Ausfallzeiten zu minimieren, Risiken zu minimieren und die
Datenintegrität zu Am Ende dieser Lektion werden
Sie
die wichtigsten Komponenten
eines Datenmigrationsplans verstehen eines Datenmigrationsplans Zweitens müssen Sie in der Lage sein, verschiedene
Migrationsmethoden wie
Big Bang und Faced Migration zu
bewerten und die jeweiligen Vorteile
und Herausforderungen zu
verstehen. Lass uns anfangen.
Die Grundlagen eines Datenmigrationsplans Eine Datenmigrationsstrategie ist eine Blaupause für die Übertragung von
Daten von einer
Umgebung in eine andere, sei es von Ihrem
lokalen Mainframe in
die Cloud oder zwischen
verschiedenen Eine erfolgreiche Strategie stellt sicher , dass die Migration
pünktlich und mit minimalen Unterbrechungen abgeschlossen
wird und die Datenintegrität Im Folgenden finden Sie die wichtigsten Elemente
, die Sie in Ihren Plan aufnehmen sollten. A: Definieren Sie Ihre
Migrationsziele. Bevor Sie mit der Migration beginnen, müssen
Sie sich über Ihre Ziele im
Klaren sein. Was möchten Sie mit
dieser Migration erreichen ?
Verbesserung der Leistung. Migrieren Sie, um die
Anwendungsleistung zu verbessern oder die Latenz zu reduzieren? Skalierbarkeit. Verschieben Sie Daten in die Cloud, um den
Betrieb bei steigender Nachfrage zu skalieren ? Kostenoptimierung. Möchten Sie die
Infrastrukturkosten senken, indem Sie
unkritische Daten in die Cloud verlagern ? Diese Ziele prägen
Ihre Gesamtstrategie
und bestimmen, welche Daten bei
der
Migration priorisiert werden Nehmen wir ein Beispiel. Für Williams Team könnte das
Ziel darin bestehen, unkritische Daten wie
historische
Kundentransaktionsprotokolle zur
Langzeitspeicherung in
die Cloud
auszulagern unkritische Daten wie historische
Kundentransaktionsprotokolle zur und gleichzeitig Echtzeit-Transaktionsdaten aus
Performancegründen auf dem Mainframe zu B, Inventar und
Datenauswertung. Sobald Sie Ihre Ziele definiert
haben, müssen Sie eine gründliche
Bestandsaufnahme Ihrer Daten durchführen. In diesem Schritt müssen Sie ermitteln welche Daten migriert werden müssen, aktuelle Speicherort, welche Größe, welches
Format und welche Abhängigkeiten Fragen Sie sich, welche Datensätze geschäftskritisch
sind und zuerst migriert werden
müssen Gibt es Datenabhängigkeiten zwischen Anwendungen, die berücksichtigt werden
müssen? Wie hoch ist das Datenvolumen? Migrieren Sie Gigabyte,
Terabyte oder Parabite an Daten? Beurteilen Sie das Datenformat. Beispielsweise können strukturierte,
unstrukturierte und qualitativ hochwertige, schlechte Datenqualität
den Migrationsprozess erschweren Erwägen Sie daher, Daten
vor der Migration zu bereinigen, um
Genauigkeit und Konsistenz zu gewährleisten .
Nehmen wir ein Beispiel In einer Bankumgebung könnte
William feststellen, dass einige Daten, wie z. B. personenbezogene Daten von
Kunden,
zusätzliche Verschlüsselungsmaßnahmen erfordern , während unsensible Archivdaten einfacher übertragen werden können Planung von Ausfallzeiten
und Risikomanagement. Ein wichtiger Teil Ihrer
Strategie ist die Planung
potenzieller Ausfallzeiten während
des Migrationsprozesses. Je nachdem, welche
Methode Sie wählen, können
einige Ausfallzeiten unvermeidlich
sein Um dies zu minimieren, müssen Sie Daten mit hohem Risiko
identifizieren, die sich auf den Betrieb
auswirken
könnten, Betrieb
auswirken
könnten Planen Sie die Migration in Zeiten
mit geringem Datenverkehr, um Unterbrechungen zu
minimieren Halten Sie einen
Notfallplan für
den Fall bereit, dass bei der Migration Probleme wie Datenverlust oder Beschädigung Durch die sorgfältige Planung von
Ausfallzeitfenstern und die Erstellung von Backups können
Sie das Risiko
einer Unterbrechung des
Geschäftsbetriebs verringern einer Unterbrechung des
Geschäftsbetriebs William könnte beispielsweise die Migration unkritischer
Kundendienstdaten
außerhalb der Spitzenzeiten
planen unkritischer
Kundendienstdaten
außerhalb , um
die Auswirkungen auf
kundenseitige Anwendungen zu minimieren . Untersuchung von
Datenmigrationsmethoden, Urknall versus Phasenmigration. Es gibt zwei primäre
Datenmigrationsmethoden Big-Bang-Migration
und die Phasenmigration. Jede Methode hat ihre
Vorteile und Herausforderungen, und die richtige Methode für
Ihr Unternehmen hängt von Faktoren
wie Datenvolumen, Komplexität und Risikotoleranz ab. Urknall-Migration,
alles auf einmal verschieben. Bei einer Big-Bang-Migration werden
alle Daten auf einmal migriert, normalerweise innerhalb eines
kurzen Zeitfensters. Diese Methode ist schnell und kann schnell
abgeschlossen werden , wenn das
Datenvolumen überschaubar ist Es erfordert jedoch eine
gründliche Planung und Vorbereitung, um Probleme zu vermeiden, da es zu
erheblichen Ausfallzeiten
und Risiken führen kann , wenn etwas schief geht Vorteile. Schnell.
Die gesamte Migration erfolgt innerhalb eines einzigen Ereignisses, wodurch der Gesamtzeitplan minimiert wird Geringere Komplexität nur ein
Migrationsprozess verwaltet werden muss, sodass
Sie nicht mehrere Phasen
bewältigen müssen Herausforderungen, Risiko von Ausfallzeiten. Ein Big-Bang-Ansatz
führt oft zu längeren Ausfallzeiten, die den
Betrieb ganz oder gar nicht stören können Wenn
während der Migration Probleme auftreten, kann sich
dies auf alle Daten auswirken und zu
Datenverlust oder -beschädigung
führen Nehmen wir ein Beispiel. Williams-Organisation könnte
eine Big-Bang-Migration für einen
relativ kleinen Datensatz verwenden , wie z. B. die Übertragung archivierter
Finanzdaten Cloud-Speichersystem, wo Ausfallzeiten keine
kritischen Abläufe beeinträchtigen würden. Phasenmigration, schrittweiser
Kontrollübergang. Eine Phasenmigration verteilt
den Migrationsprozess auf mehrere Phasen, Workloads
oder Datensätze
häufig inkrementell migriert Diese Methode ist
für große, komplexe
Umgebungen einfacher zu handhaben , in denen Minimierung von Risiken und die Aufrechterhaltung die
Minimierung von Risiken und die Aufrechterhaltung
des laufenden Betriebs oberste Priorität haben. Vorteile, geringeres Risiko. Durch die phasenweise Migration von Daten verringern
Sie die Wahrscheinlichkeit
kritischer Ausfälle, verringern
Sie die Wahrscheinlichkeit
kritischer Ausfälle die sich auf das gesamte
System auswirken. Begrenzte Ausfallzeiten Da die Migration schrittweise erfolgt, ist es einfacher,
Ausfallzeiten in kleinen Schritten zu verwalten Betriebsunterbrechungen zu
begrenzen. Einfacheres Rollback Wenn in einer bestimmten Phase
Probleme auftreten, ist
es einfacher, ein Rollback ohne dass sich dies auf die
gesamte Migration auswirkt Herausforderungen, verlängerter Zeitplan. Durchführung von Phasenmigrationen dauert
länger und erfordert eine sorgfältige
Abstimmung zwischen den Komplexität. Die Verwaltung
mehrerer Migrationsphasen erhöht die betriebliche
Komplexität und
erfordert viel Liebe zum
Detail. Nehmen wir ein Beispiel.
Das Finanzinstitut Williams könnte sich für eine schrittweise
Migration entscheiden, um dynamische Anwendungen schrittweise in die Cloud
zu
verlagern und gleichzeitig
unternehmenskritische Systeme wie die
Zahlungsabwicklung während unternehmenskritische Systeme wie der Übergangsphase
auf dem Mainframe zu belassen Dies gewährleistet minimale
Ausfallzeiten für Kunden. Wichtige Überlegungen bei
der Auswahl einer Migrationsmethode. Bei der Entscheidung zwischen
Urknall- und Phasenmigration sollten Sie die folgenden Faktoren berücksichtigen. Datenvolumen. Große Datenmengen eignen sich eher für
die Phasenmigration, während kleinere Datensätze mit einem
Big-Bang-Ansatz möglicherweise verwaltet werden Komplexität. Komplexe Datenarchitekturen mit
vielen Abhängigkeiten lassen sich am besten phasenweise migrieren, um
sicherzustellen, dass
während des Prozesses nichts unterbrochen wird Toleranz gegenüber Ausfallzeiten. Wenn sich Ihr Unternehmen keine nennenswerten Ausfallzeiten
leisten kann, ist
die
Phasenmigration die bessere Wahl. Bei Systemen, bei denen Ausfallzeiten
weniger kritisch sind, könnte
eine Big-Bang-Migration schneller
sein. Risikobereitschaft. Phasenmigration senkt
das Gesamtrisiko, insbesondere für
Unternehmen, die mit
sensiblen Daten oder
unternehmenskritischen Systemen umgehen . den wichtigsten Erkenntnissen aus
dieser Lektion gehört zum einen, eine solide
Datenmigrationsstrategie unerlässlich ist, um sicherzustellen , dass Ihre Daten
sicher, pünktlich und
mit minimalen Unterbrechungen übertragen werden sicher, pünktlich und
mit minimalen Unterbrechungen Zweitens
bietet die Big-Bang-Migration einen schnellen
Komplettansatz, ist
jedoch mit einem höheren
Risiko und der Möglichkeit von
Ausfallzeiten verbunden, während die Phasenmigration mehr Kontrolle
und ein geringeres Risiko
bietet,
aber länger dauert, bis sie abgeschlossen Drittens
sollten Faktoren wie
Datenvolumen, Komplexität und Ausfallsicherheit
Ihre Entscheidung bei
der Auswahl der geeigneten
Migrationsmethode beeinflussen. Erwerbstätigkeit, Reflexion. Berücksichtigen Sie die Anforderungen Ihres Unternehmens an die
Datenmigration. Ist eine Big Bang- oder
Phasenmigration besser für Ihre
aktuellen Workloads
und betrieblichen Ziele
geeignet und betrieblichen Ziele Warum? Im Forum
gestellte Diskussionsfrage. Wie
plant Ihr Unternehmen Ausfallzeiten
während einer Migration? Waren Sie
bei einer früheren Migration auf Herausforderungen gestoßen, was hätte anders
gemacht werden können? Nächste Lektion:
Tools und Techniken zur Datenmigration. In der nächsten Lektion werden wir uns mit den Tools und
Techniken
befassen, die Ihnen bei der
Umsetzung Ihrer
Datenmigrationsstrategie zur Verfügung stehen . Wir befassen uns mit
Migrationstools wie AWS Direct Connect, VPNs und Lösungen von Drittanbietern sowie mit der
sicheren Übertragung von
Daten von Ihrem Mainframe in
Cloud-Umgebungen Bereit, mit der Erstellung
Ihres Migrations-Toolkits zu beginnen. Lassen Sie uns mit Lektion
zwei von Modul vier fortfahren.
15. Lektion 2: Datenmigrationstools und Techniken: Und Lektion zwei,
Tools und Techniken für die Datenmigration. Willkommen zu Lektion
zwei von Modul vier. Wir werden uns mit den Tools
und Techniken befassen, die
für die Migration von Daten von
Ihren
Mainframe-Systemen in die Cloud verfügbar für die Migration von Daten von Ihren
Mainframe-Systemen in die Die Auswahl der richtigen Tools ist entscheidend für einen sicheren, effizienten und zuverlässigen
Migrationsprozess Als
IT-Infrastrukturdirektor wie William müssen
Sie
verschiedene Tools evaluieren, müssen
Sie
verschiedene Tools evaluieren von
Cloud-nativen Lösungen
bis hin zu
Migrationsplattformen von Drittanbietern, die
Ihnen helfen , Ihre
Migrationsziele mit minimalen Unterbrechungen zu erreichen. Am Ende dieser
Lektion werden Sie die verschiedenen
Datenmigrationstools
wie AWS Direct Connect,
VPNs und Lösungen von Drittanbietern
verstehen wie AWS Direct Connect, VPNs und Lösungen von Drittanbietern Erfahren Sie, wie Sie
Cloud-native Tools für die
sichere Übertragung von Daten von
Mainframe-Systemen in
Cloud-Umgebungen nutzen sichere Übertragung von Daten von können Lassen Sie uns diese Tools
und Techniken im Detail untersuchen. Überblick über gängige Tools
zur Datenmigration. Bei der Verlagerung von Daten von
lokalen Standorten in die Cloud benötigen
Unternehmen sichere
und skalierbare Verbindungen. Abhängig von Ihrem
Datenvolumen, Ihren Netzwerkanforderungen und Ihren Sicherheitsanforderungen
müssen Sie zwischen
verschiedenen Migrationstools wählen. Im Folgenden sind einige der am
häufigsten verwendeten Optionen aufgeführt. A, AWS Direct Connect
, privat und zuverlässig. AWS Direct Connect ist eine dedizierte Netzwerkverbindung , die es Unternehmen ermöglicht eine direkte
Verbindung zwischen ihrem
lokalen Rechenzentrum und den
Amazon Web Services
herzustellen . Dies ist eine hervorragende Wahl für
Unternehmen, die
Hochgeschwindigkeitsdatenübertragungen benötigen und die Nutzung des öffentlichen Internets vermeiden
möchten, wodurch das Risiko
einer Datenexposition verringert wird. Zu den Vorteilen gehören
Sicherheit und Datenschutz. Direct Connect stellt eine
eigene Leitung zu AWS bereit,
die das Internet umgeht , was für
mehr Sicherheit sorgt .
Hohe Bandbreite Es bietet eine höhere Bandbreite
für schnellere Datenübertragungen und ist
somit ideal für
groß angelegte Migrationen Konsistente Leistung, Direct Connect bietet eine
konsistente Netzwerkleistung, was für
unternehmenskritische
Migrationen, bei denen
Ausfallzeiten minimiert werden müssen, unerlässlich ist unternehmenskritische
Migrationen, bei denen Ausfallzeiten minimiert den besten Anwendungsfällen gehört sichere Verschieben großer Datensätze. Unternehmen, die
hochsichere Verbindungen
mit garantierter Leistung für
sensible Daten benötigen mit garantierter Leistung für , wie Finanzinstitute
oder Regierungsbehörden Nehmen wir ein Beispiel. Finanzinstitut Williams könnte AWS Direct Connect
verwenden, um Kundentransaktionsdaten
und historische
Aufzeichnungen
sicher in die Cloud zu so ein hohes
Maß an Sicherheit zu gewährleisten und das Risiko einer
Gefährdung während der Migration zu
verringern. VPNs, sicher, aber
leichter zugänglich. Ein virtuelles privates Netzwerk oder VPN bietet eine sichere,
verschlüsselte Verbindung über das öffentliche Internet VPNs sind nützlich, wenn Sie
eine flexible, aber sichere
Möglichkeit benötigen ,
Ihr
Rechenzentrum vor Ort mit einer Cloud zu verbinden Ihr
Rechenzentrum vor Ort mit einer Cloud VPNs sind zwar
im Allgemeinen langsamer als Direktverbindungen wie
AWS Direct Connect, werden
aber häufig für
kleinere Migrationen oder kontinuierliche Konnektivität verwendet kleinere Migrationen Zu den Vorteilen gehört die Kosteneffizienz
. VPNs sind oft günstiger als dedizierte
Netzwerkverbindungen wie Direct Connect Sicherheit: VPNs verwenden Verschlüsselung, um sicherzustellen, dass Daten sicher über das
öffentliche Internet
übertragen werden Barrierefreiheit: VPNs können einfacher
eingerichtet werden als dedizierte Verbindungen und eignen ideal für Migrationen kleiner bis
mittlerer Größe besten Anwendungsfällen gehören Unternehmen mit
kleineren Datenmengen oder die keine Verbindungen mit hoher
Bandbreite benötigen sowie Unternehmen, die nach einer erschwinglichen,
sicheren Verbindung für
laufende Datensenken
oder kleinere Migrationen suchen sicheren Verbindung für
laufende Datensenken
oder kleinere Migrationen Nehmen wir ein Beispiel. Für
weniger geschäftskritische Daten könnte das
Williams-Team ein VPN verwenden um sichere
Cloud-Verbindungen herzustellen und unsensible Daten wie Systemprotokolle oder Analyseberichte zu geringeren Kosten als
AWS Direct Connect zu übertragen. Migrationslösungen von Drittanbietern, Flexibilität
und umfangreiche Tools. Es gibt viele
Datenmigrationsplattformen von Drittanbietern speziell dafür entwickelt wurden, Unternehmen
bei der Übertragung von Daten zwischen lokalen
Umgebungen und der Cloud zu unterstützen. Diese Tools bieten häufig erweiterte Funktionen
wie Datenreplikation, Echtzeitmigration
und integrierte Sicherheit. Zu den beliebten Plattformen gehören Cloud Azure ZRTO
und Azure Migrate Zu den Vorteilen gehört ein großer Funktionsumfang. Viele
Lösungen von Drittanbietern bieten Funktionen wie kontinuierliche
Datenreplikation, Echtzeitanalysen
und Notfallwiederherstellung. Cloud-übergreifende Funktionen. Lösungen ermöglichen also Multi-Cloud- oder
Hybrid-Cloud-Migrationen und sind damit flexibler
als anbieterspezifische Tools Reduzieren Sie die Komplexität. Diese Plattformen automatisieren häufig Großteil des Migrationsprozesses und erleichtern
Unternehmen so die Verwaltung
komplexer Migrationen besten Anwendungsfällen
gehören Unternehmen , die
Multi-Cloud-Funktionen benötigen oder eine Mischung aus
lokalen und
Cloud-Umgebungen
migrieren , sowie Unternehmen
, die eine
kontinuierliche Replikation
und Datensenkung in Echtzeit während der Migration benötigen Datensenkung in Echtzeit während Ein Beispiel:
Das Williams-Team könnte
CloudEndure verwenden, um während des
Migrationsprozesses
kontinuierlich
Daten vom Mainframe nach
AWS zu replizieren des
Migrationsprozesses
kontinuierlich
Daten vom Mainframe nach
AWS zu und
so sicherzustellen, dass das Unternehmen auch
während der Migration mit minimalen Ausfallzeiten arbeiten kann. Erkunden Sie Cloud-native Tools für Für Unternehmen, die Daten
von
Mainframe-Systemen in die Cloud verlagern , gibt es spezielle
Cloud-native Tools die
diesen Prozess erleichtern und gleichzeitig
Datenintegrität, Sicherheit
und Compliance gewährleisten
sollen diesen Prozess erleichtern und gleichzeitig Datenintegrität, Sicherheit
und Compliance Diese Tools gewährleisten eine reibungslose, sichere und effiziente
Datenmigration, ohne täglichen Betrieb Ihres
Mainframes zu stören A: AWS-Mainframe-Modernisierung, Brücke zwischen AWS Mainframe Modernization ist eine Reihe von Services, die von
AWS angeboten werden, um Unternehmen bei der
Migration und Modernisierung
von Mainframe-Anwendungen zu unterstützen Migration und Modernisierung Es bietet Tools zur
Analyse, Umgestaltung, Neugestaltung und Automatisierung
der Migration von
Daten und Anwendungen von Mainframes Zu den wichtigsten Funktionen gehört die
automatisierte Migration. AWS-Mainframe-Modernisierung bietet automatisierte Tools, um die Komplexität der
Migration von
Mainframe-Anwendungen und -Daten zu
reduzieren Migration von
Mainframe-Anwendungen Integration mit AWS-Services. Sobald sich die Daten in der Cloud befinden, können
sie problemlos in
andere AWS-Services
wie AWS Lambda, serverloses
Computing
, oder Amazon RDS, eine verwaltete
relationale Datenbank
, integriert andere AWS-Services
wie AWS Lambda, serverloses
Computing
, oder Amazon RDS, eine verwaltete
relationale Datenbank
, verwaltete
relationale Datenbank
, Kostenoptimierung. Durch die Migration von
Mainframe-Workloads zu AWS können
Unternehmen von nutzungsabhängigen Preisen
profitieren und die
Infrastrukturkosten senken Ein Beispiel: Das
Finanzinstitut Williams könnte die Modernisierung des
AWS-Mainframes nutzen , um Kundendaten und
ältere Anwendungen von
ihrem Mainframe in die Cloud
auszulagern ältere Anwendungen von
ihrem Durch das Refactoring kritischer
Anwendungen für die Cloud können
sie die
Betriebskosten
senken und können
sie die
Betriebskosten
senken gleichzeitig eine hohe Leistung aufrechterhalten. B, Azure-Datenbox, die große Datenmengen
verschiebt Azure Data Boox ist ein
Microsoft-Dienst, der
Unternehmen dabei unterstützt , große
Datenmengen sicher in die Cloud zu verschieben Datenmengen sicher in die Cloud zu Die Datenbox ist eine physische Appliance, die Microsoft an
Ihr Rechenzentrum sendet, sodass Sie
Daten direkt darauf laden bevor Sie sie zur Cloud-Integration an
Microsoft zurücksenden zur Cloud-Integration an
Microsoft Zu den wichtigsten Funktionen gehört die
Offline-Datenübertragung. Durch die physische Übertragung von Daten vermeidet
Azure Data Box
die Verzögerungen und das
Sicherheitsrisiko
internetbasierter Datenübertragungen. Hochgradig sicher. während der Übertragung
verschlüsselt und geschützt, wodurch sichergestellt wird, dass vertrauliche
Informationen nicht offengelegt werden. Ideal für große Datensätze. Diese Lösung eignet sich hervorragend für die Übertragung von
Petabytes an Daten die Cloud
, wo
Online-Übertragungen möglicherweise Ein Beispiel: Die
Williams-Organisation könnte Azure Data Box
verwenden, um
umfangreiche Datensätze,
wie z. B. historische
Transaktionsaufzeichnungen, in den
Azure-Cloud-Speicher zu übertragen wie z. B. historische
Transaktionsaufzeichnungen, in den
Azure-Cloud-Speicher zu , wo sie archiviert werden
können C, Google Transfer Appliance, Massendatenübertragung
an Google Cloud Google Transfer Appliance funktioniert ähnlich wie Azure
Data Box und bietet eine physische Appliance zum Verschieben großer Datensätze von Ihrem
Rechenzentrum in die Google Cloud Es wurde für Unternehmen
mit riesigen
Datenmengen entwickelt , die effizient
und sicher in
die Cloud verschoben werden müssen effizient
und sicher in
die Cloud Zu den wichtigsten Funktionen gehört
die Unterstützung großer Datenmengen. Transfer Appliance kann Terabyte bis
Petabyte an Daten verarbeiten Die Transfer Appliance kann Terabyte bis
Petabyte an Daten verarbeiten und eignet sich
daher für
groß eignet sich
daher für Es ist sicher und effizient. Die Appliance ist verschlüsselt
und sobald sie gefüllt ist, wird
sie zum Hochladen von Daten an Google
zurückgesendet Dies reduziert den Bedarf an
längeren Datenübertragungszeiten über das Netzwerk Wenn das
Finanzinstitut Williams beispielsweise zu Google Cloud migrieren
würde, könnte
es die Google
Transfer Appliance verwenden um riesige Mengen an
Kundendaten und historischen
Aufzeichnungen sicher und schnell in die Cloud zu
übertragen in die Cloud zu Bewährte Methoden für die Auswahl von Tools
zur Datenmigration. Sie bei der Auswahl der
richtigen Migrationstools für Ihr Unternehmen Beachten Sie bei der Auswahl der
richtigen Migrationstools
für Ihr Unternehmen die folgenden
bewährten Methoden. Erstens: Beurteilen Sie die Anforderungen an Datenvolumen und
Übertragungsgeschwindigkeit. Für kleinere Datensätze können
VPNs ausreichend sein, aber für größere Migrationen
sollten Sie Tools wie
AWS Direct Connect, Azure Data Box oder
Google Transfer Appliance für
schnellere und sicherere Übertragungen in Betracht ziehen Azure Data Box oder Google Transfer Appliance für schnellere Zweitens sollten Sie die Sicherheits
- und Compliance-Anforderungen berücksichtigen. Wenn Sie
sensible Daten wie personenbezogene Daten von
Kunden oder
Finanztransaktionen migrieren , stellen Sie
sicher, dass Ihre Tools Ende-zu-Ende-Verschlüsselung
bieten und
Compliance-Standards
wie PCI-DSS oder GDPR erfüllen Compliance-Standards
wie PCI-DSS Drittens: Nutzen Sie Cloud-native Cloud-native Tools wie die Modernisierung von
AWS-Mainframes oder Azure Migrate vereinfachen den Prozess
der Integration Ihrer
migrierten Daten in Cloud-Dienste, sodass Sie das volle Potenzial
von Cloud den wichtigsten Erkenntnissen aus
dieser Lektion gehören zum
einen, AWS Direct, Direct Connect, VPNs und
Migrationstools von Drittanbietern
bieten unterschiedliche Sicherheits-, Geschwindigkeits- und Flexibilitätsstufen Wählen Sie das richtige Tool auf der
Grundlage Ihres Datenvolumens, Sicherheitsanforderungen und Ihres
Migrationszeitplans Zweitens
sind Cloud-native Tools wie Modernisierung des
AWS-Mainframes,
die Joe Data Box
und die Google Transfer Appliance darauf ausgelegt, und die Google Transfer Appliance die Modernisierung des
AWS-Mainframes,
die Joe Data Box
und die Google Transfer Appliance darauf ausgelegt, Daten sicher und mit
minimaler Unterbrechung von
Mainframe-Systemen in die Cloud
zu
übertragen mit
minimaler Unterbrechung von
Mainframe-Systemen in die Cloud
zu Drittens sollten Sie bei der Auswahl
eines Migrationstools Datensicherheit, Geschwindigkeit
und Integrationsfähigkeit
Priorität einräumen, um einen reibungslosen
Übergang zur Cloud zu gewährleisten Lernaktivität, Reflexion. Welche Migrationstools eignen sich am besten für
Ihr Unternehmen? Berücksichtigen Sie bei Ihrer Auswahl Ihr Datenvolumen, Ihre
Sicherheitsanforderungen und Ihren Zeitplan. Im Forum
gestellte Diskussionsfrage. Hat Ihre Organisation schon einmal
ein
Migrationstool eines Drittanbieters verwendet ? Was waren die wichtigsten Herausforderungen
und Vorteile, mit denen Sie konfrontiert wurden? Nächste Lektion: Minimierung der
Ausfallzeiten während der Migration. In der nächsten Lektion
konzentrieren wir uns auf Strategien
zur Minimierung von Ausfallzeiten
während Ihrer Datenmigration Sie lernen bewährte Methoden zur Aufrechterhaltung der
Betriebskontinuität kennen und Techniken wie
Live-Migration und
Schattendatenbanken kennen, damit Ihr Unternehmen während der Umstellung reibungslos
läuft Um eine
reibungslose Migration zu gewährleisten, fahren
wir mit Lektion
drei von Modul vier fort.
16. Lektion 3: Ausfallzeiten während der Migration minimieren: Drei. Lektion drei, Minimierung der Ausfallzeiten
während der Migration Willkommen zu Lektion
drei von Modul vier. In dieser Lektion werden wir
untersuchen, wie Sie Ausfallzeiten
minimieren und dafür sorgen können, dass Ihre Systeme
während der Daten- und
Anwendungsmigration in die Cloud
reibungslos funktionieren . Für einen
IT-Infrastrukturdirektor wie William ist die
Minimierung von Ausfallzeiten von entscheidender Bedeutung, insbesondere in Umgebungen wie Finanzdienstleistungen, in
denen jede Sekunde der Unterbrechung das
Kundenerlebnis beeinträchtigen und zu Umsatzeinbußen
führen kann Kundenerlebnis beeinträchtigen und zu Umsatzeinbußen
führen Wir werden
bewährte Verfahren zur Reduzierung von
Ausfallzeiten behandeln und uns mit
fortschrittlichen Techniken wie Live-Migration
und Schattendatenbanken befassen , die eine kontinuierliche
Verfügbarkeit während der Migration gewährleisten Am Ende dieser
Lektion werden Sie besten Methoden zur
Minimierung von Ausfallzeiten
während der Migration
verstehen . Zweitens müssen Sie
Techniken wie
Live-Migration und
Schattendatenbanken anwenden können Live-Migration und
Schattendatenbanken , um die
Betriebskontinuität zu gewährleisten. Lass uns anfangen.
Bewährte Methoden zur Minimierung von Ausfallzeiten
während der Migration. Minimierung von Ausfallzeiten während der
Migration erfordert die Planung, Auswahl der richtigen Tools und die Implementierung von Strategien
, die es Ihrem Unternehmen ermöglichen, Betrieb während
der Datenübertragung
fortzusetzen Im Folgenden finden Sie die
bewährten Methoden, die Sie
bei der Migration von Daten vor
Ort in die Cloud berücksichtigen sollten bei der Migration von Daten vor
Ort in die Cloud A: Planen Sie Ausfallzeiten frühzeitig ein. Einer der wichtigsten
Aspekte bei der Minimierung von Ausfallzeiten ist eine sorgfältige Planung Dazu gehört die Analyse
Ihrer Workloads und Bestimmung, wie viele Ausfallzeiten für
jeden Systemtyp akzeptabel Nicht jedes System
benötigt keinerlei Ausfallzeiten.
Daher ist es wichtig,
die unternehmenskritischen Systeme zu identifizieren die unternehmenskritischen Systeme , die betriebsbereit bleiben
müssen Identifizieren Sie kritische Workloads. Klassifizieren Sie
Ihre Workloads zunächst in unkritische Prozesse und
Batch-Prozesse Kritische Workloads, wie die Transaktionsverarbeitung
in
Echtzeit in einer Bankumgebung, müssen
mit geringen bis keinen Ausfallzeiten verfügbar Legen Sie ein Ausfallbudget
fest und legen Sie eine maximale Ausfallzeit , die
für jedes System akzeptabel ist Dies sollte
in Zusammenarbeit
mit den Geschäftsbeteiligten geschehen mit den Geschäftsbeteiligten um sicherzustellen, dass sowohl die IT als auch die
Geschäftsbereiche aufeinander abgestimmt sind. Nehmen wir ein Beispiel. Für William wird es bei
Zahlungsabwicklungs- und Online-Banking-Diensten künftig keine
Ausfallzeiten geben, wohingegen historische Berichts
- und Batch-Verarbeitungsaufträge mehr Ausfallzeiten
tolerieren können , da sie die
Kunden nicht in Echtzeit betreffen. B, testen Sie
Migrationspläne mit Probeläufen. Bevor Sie eine
vollständige Migration durchführen, führen Sie
immer Testmigrationen
oder Testmigrationen Dabei handelt es sich um kleine
Tests, die
den Migrationsprozess simulieren , um potenzielle
Probleme im Voraus zu identifizieren Identifizieren Sie Engpässe frühzeitig. Probeläufe helfen dabei,
Leistungsengpässe,
Datenübertragungsprobleme und
Systeminkompatibilitäten zu erkennen , bevor sie sich auf die eigentliche Migration auswirken. Testen Sie Rollback-Verfahren. Im Falle eines Migrationsfehlers sollten
Sie wissen, wie Sie zum ursprünglichen System zurückkehren können, ohne dass es zu Störungen
kommt Testen der
Rollback-Verfahren während eines Probelaufs stellt sicher, dass Sie
auf alle Probleme vorbereitet sind , während
der Live-Migration
auftreten können Nehmen wir ein Beispiel. Williams Team könnte die Migration
eines kleinen Datensatzes oder einer
unkritischen Anwendung zu
AWS
simulieren , um den
Datenübertragungsprozess zu testen und sicherzustellen, dass die Systeme
stabil und betriebsbereit bleiben C, Migration
außerhalb der Spitzenzeiten. Planen Sie Migrationen wann immer möglich außerhalb
der Spitzenzeiten Dadurch werden die
Auswirkungen auf Benutzer und
Geschäftsabläufe minimiert , da
die Wahrscheinlichkeit von
Serviceunterbrechungen
in Spitzenzeiten verringert wird die Wahrscheinlichkeit von
Serviceunterbrechungen
in Spitzenzeiten . Überwachen Sie die Verkehrsmuster. Verwenden Sie Tools zur Verkehrsüberwachung , um die Spitzennutzungszeiten zu verstehen. Bei Finanzinstituten
wie Williams kann der
Traffic während der
Geschäftszeiten oder nach Zahlungsschluss Planung von Migrationen in
den frühen Morgenstunden oder an einem Wochenende kann das
Risiko einer Serviceunterbrechung verringern Kündigen Sie Wartungsfenster an. Informieren Sie Kunden und Mitarbeiter rechtzeitig
über mögliche Ausfallzeiten. Dadurch wird sichergestellt, dass sich
jeder über
den Zeitpunkt im Klaren ist , und
unerwartete Störungen werden minimiert Nehmen wir ein Beispiel. Williams Team könnte die Migration
unwichtiger Dienste
wie
Chat-Logs oder
Marketingdaten für den Kundensupport in der Nacht oder am Wochenende
planen unwichtiger Dienste
wie
Chat-Logs oder
Marketingdaten für den Kundensupport in der Nacht oder am , um zu vermeiden, dass
die Systeme mit
Kundenkontakt beeinträchtigt Techniken für die kontinuierliche
Verfügbarkeit während der Migration. Für geschäftskritische Workloads , die sich keine Ausfallzeiten leisten können, müssen
Sie
fortschrittliche Techniken implementieren, um das System
während der Migration betriebsbereit zu halten. Zwei gängige Techniken sind Live-Migration und
Schattendatenbanken Live-Migration, um
Systeme online zu halten. Live-Migration ist eine Technik , bei der Daten oder Anwendungen von einer Umgebung in eine
andere
verschoben werden , ohne das Quellsystem
herunterzufahren Dadurch kann das Quellsystem
während des
Migrationsprozesses wie
gewohnt weiterarbeiten . So funktioniert es. Bei der Live-Migration läuft das
System weiterhin in der Quellumgebung, während
Daten in die Cloud kopiert werden. Sobald die Daten
vollständig übertragen wurden, wird
das System mit
minimaler Unterbrechung
auf die Cloud-Umgebung umgestellt .
Beste Anwendungsfälle. Live-Migration ist ideal für
virtuelle Maschinen oder VMs, Echtzeitanwendungen oder Datenbanken, bei denen Ausfallzeiten auf ein absolutes Minimum beschränkt
werden müssen auf ein absolutes Minimum beschränkt
werden Ein Beispiel: Für das
Finanzinstitut Williams könnte die
Live-Migration verwendet
werden, um
Echtzeit-Transaktionsverarbeitungssysteme in die Cloud zu Die Migration würde erfolgen, während das System betriebsbereit bleibt ,
um sicherzustellen, dass die
Kundenzahlungen und Kontozugriff
nicht unterbrochen werden. Schattendatenbanken, die
Daten in Echtzeit synchronisieren. Schattendatenbank ist
eine Technik, bei ein Replikat Ihrer Hauptdatenbank in der Cloud erstellt
wird Die Shadow-Datenbank
bleibt mit
Ihrem Primärsystem synchronisiert und empfängt
Updates in Echtzeit. Sobald die Migration abgeschlossen ist, kann
die Shadow-Datenbank
ohne Ausfallzeiten die Rolle der primären Datenbank
übernehmen . So funktioniert es. Schattendatenbank repliziert
Transaktionen und Datenänderungen aus Ihrem
lokalen System in Echtzeit. Sobald die lokalen Daten
vollständig repliziert sind, kann
die cloudbasierte Datenbank zur primären Datenbank
werden Beste Anwendungsfälle. Schattendatenbanken eignen sich
perfekt für Systeme, die kontinuierliche Updates und Datenreplikation in
Echtzeit
erfordern , wie z. B. Bank- und
E-Commerce-Plattformen. Ein Beispiel: Williams
Team würde
eine Schattendatenbank verwenden, um die Transaktionsaufzeichnungen von
Kunden
synchron zu halten und
sie gleichzeitig in die Cloud zu migrieren Sobald die
Datenmigration abgeschlossen ist, kann
die Cloud-basierte Datenbank nahtlos übernehmen, was einen reibungslosen Übergang
ohne Ausfallzeiten ermöglicht Verwaltung hybrider Workloads
während der Migration. Wenn Sie nur
einen Teil Ihrer Systeme
in die Cloud migrieren , während andere vor Ort
bleiben, müssen
Sie während
des Migrationsprozesses
hybride Workloads verwalten des Dadurch wird sichergestellt, dass sowohl
cloudbasierte lokale Systeme weiterhin effektiv
kommunizieren Halten Sie die Synchronisation aufrecht. Stellen Sie sicher, dass Daten und
Anwendungen, die sowohl in
der Cloud als auch vor Ort ausgeführt werden, während
des gesamten Migrationsprozesses
synchronisiert werden während
des gesamten Migrationsprozesses
synchronisiert Verwenden Sie Tools
und Middleware zur Datenreplikation , um den
Informationsfluss zwischen Umgebungen zu
verwalten .
Überwachen Sie die Leistung Überwachen Sie die Leistung
sowohl cloudbasierter primärer Systeme
während der Migration, um sicherzustellen, dass der
Migrationsprozess nicht zu einer
Verschlechterung der
Antwortzeiten oder der Verfügbarkeit führt. Zum Beispiel könnte Williams
Team die analytischen Workloads
von
Kunden in die Cloud migrieren und gleichzeitig die
Transaktionsverarbeitung während des Migrationsprozesses auf dem Mainframe beibehalten Indem sichergestellt wird, dass die beiden
Systeme synchronisiert bleiben, können Verzögerungen oder
Inkonsistenzen
bei den Kundendaten vermieden Inkonsistenzen Validierung und Tests nach der Migration. Nach der Migration ist es wichtig
, gründliche Tests durchzuführen, um sicherzustellen, dass alle
Systeme in der neuen
Cloud-Umgebung
erwartungsgemäß funktionieren . Dieser Schritt hilft dabei,
Dateninkonsistenzen,
Leistungsprobleme oder
Verbindungsprobleme zu erkennen , bevor sie sich auf die Benutzer auswirken Überprüfen Sie die Datengenauigkeit. Stellen Sie sicher, dass alle in
die Cloud übertragenen
Daten mit den Daten
im Originalsystem übereinstimmen. Dies kann
Vollständigkeitsprüfungen, die Validierung der
Datenintegrität und
Leistungstests umfassen Validierung der
Datenintegrität und .
Testen Sie Workflows. Führen Sie einen End-to-End-Test um sicherzustellen, dass Ihre
Geschäftsprozesse und Workflows in
der neuen Umgebung weiterhin ordnungsgemäß
funktionieren. Überwachen Sie die Leistung.
Überwachen Sie die Systemleistung weiterhin auf
Anzeichen von Latenz, Engpässen oder
anderen Problemen, die Ihren
Betrieb beeinträchtigen könnten. Ein Beispiel Nach Abschluss
der Migration der
kundenorientierten Anwendungen zu AWS führte das
Williams-Team
Leistungstests durch, um sicherzustellen,
dass das System
effizient funktioniert, und
Datenintegritätsprüfungen durchführen um sicherzustellen,
dass das System
effizient funktioniert , um zu überprüfen, ob alle
Transaktionsratendatensätze korrekt migriert wurden den wichtigsten Erkenntnissen aus
dieser Lektion gehören zum
einen die frühzeitige Planung von
Ausfallzeiten, die
Durchführung von Probeläufen und die
Planung von Migrationen außerhalb der Spitzenzeiten, um Betriebsunterbrechungen zu Zweitens
sind Live-Migration
und Schattendatenbanken fortschrittliche Techniken , die die kontinuierliche
Verfügbarkeit unternehmenskritischer
Systeme
während der Migration sicherstellen unternehmenskritischer
Systeme
während Drittens: Führen Sie nach der
Migration immer Validierungen und Tests durch, um die Datenintegrität
und Systemleistung in
der neuen Cloud-Umgebung sicherzustellen . Erwerbstätigkeit, Reflexion. Denken Sie an die
kritischsten Systeme Ihres Unternehmens. Wie würden Sie Techniken
wie Live-Migration oder
Schattendatenbanken
implementieren wie Live-Migration oder
Schattendatenbanken , um sicherzustellen, dass
diese Systeme während der Migration betriebsbereit
bleiben Diskussionsfrage, die im Formular
gestellt wurde. Gab es
bei einer früheren Migration Ausfallzeiten ? Welche Strategien oder Techniken hätten eingesetzt werden können
, um sie zu minimieren? Nächste Lektion, Gewährleistung der
Datenintegrität und -sicherheit. In der nächsten Lektion werden
wir besprechen, wie Datenintegrität und
Sicherheit während der Migration
gewährleistet werden können. Wir werden Strategien
zur Aufrechterhaltung der
Datenkonsistenz,
zur Implementierung von Verschlüsselung und zur
Sicherstellung der Einhaltung
gesetzlicher Standards während
des Migrationsprozesses untersuchen zur Aufrechterhaltung der
Datenkonsistenz, zur Implementierung von Verschlüsselung und zur
Sicherstellung der Einhaltung . bereit sind, Ihre
Daten während der Migration zu schützen, schauen wir uns die
vierte Lektion von Modul vier an.
17. Lektion 4: Datenintegrität und Sicherheit gewährleisten: Lektion vier, Gewährleistung der
Datenintegrität und -sicherheit. Willkommen zu Lektion
vier, Modul vier. In dieser Lektion
konzentrieren wir uns auf einen der wichtigsten
Aspekte
der Migration von Daten und Anwendungen in die Cloud,
nämlich die Gewährleistung der Datenintegrität
und -sicherheit Für
IT-Infrastrukturleiter wie William ist es wichtig, die
Genauigkeit, Konsistenz
und Sicherheit der Daten während der
Migration
aufrechtzuerhalten die
Genauigkeit, Konsistenz
und Sicherheit der Daten während der
Migration
aufrechtzuerhalten, insbesondere beim Umgang mit sensiblen Finanz- oder
Kundeninformationen Wir werden untersuchen, wie Datenkonsistenz
gewährleistet, Verschlüsselung
implementiert und die
Einhaltung
gesetzlicher Standards
während des gesamten
Migrationsprozesses sichergestellt Einhaltung
gesetzlicher Standards werden kann. Am Ende dieser
Lektion
lernen Sie zunächst Strategien kennen, um Datenkonsistenz,
Integrität und Sicherheit
während der Migration zu
gewährleisten . Um zu verstehen, wie wichtig Verschlüsselung ist und
wie
gesetzliche Standards
bei der Übertragung sensibler Daten eingehalten werden können.
Lass uns anfangen. Sicherstellung der Datenkonsistenz und
Integrität während der Migration. Die Wahrung der Datenkonsistenz
und -integrität ist während der
Migration von entscheidender Bedeutung , um Probleme wie
Datenverlust, Beschädigung
oder Duplizierung zu verhindern Datenverlust, Beschädigung
oder Duplizierung Dies ist besonders
wichtig, wenn
kritische Systeme von
lokalen Mainframes in Cloud-Umgebungen migriert kritische Systeme von
lokalen Mainframes in Cloud-Umgebungen lokalen Mainframes Im Folgenden finden Sie Strategien, mit denen Sie
sicherstellen können, dass Ihre Daten während
des gesamten Migrationsprozesses
korrekt und zuverlässig bleiben während
des gesamten Migrationsprozesses
korrekt und zuverlässig Datenkonsistenz,
damit die Daten aufeinander abgestimmt sind. Datenkonsistenz bedeutet,
sicherzustellen, dass Ihre Daten während der Migration sowohl
in der
lokalen Quellumgebung als auch in der
Cloud-Zielumgebung
synchronisiert und kohärent bleiben sowohl
in der
lokalen Quellumgebung als auch in der . Implementieren Sie die
Synchronisation in Echtzeit. Verwenden Sie
Tools für die Replikation
in Echtzeit, um die Daten zwischen Ihren lokalen Umgebungen
und Ihrer Cloud-Umgebung synchron zu halten . Dadurch wird sichergestellt, dass alle
Änderungen, die während der Migration an den Daten
vor Ort vorgenommen werden, in der
Cloud-Umgebung
widergespiegelt werden . Beispieltools wie AWS Database
Migration Service oder
DMS oder Azure Data Sync
können dabei helfen,
Änderungen in Echtzeit zu replizieren , um Konsistenz
während der Migration
aufrechtzuerhalten Überwachen Sie die Datenkonsistenz. Verwenden Sie automatisierte
Datenvalidierungsprüfungen, um
die Daten in Ihrem Quellsystem
mit denen im
Ziel-Cloud-System zu vergleichen die Daten in Ihrem Quellsystem . Dies kann
während und nach der
Migration erfolgen , um sicherzustellen, dass keine
Daten verloren gehen oder beschädigt werden. Nehmen wir ein Beispiel. Williams-Finanzinstitut könnte die
Echtzeitsynchronisierung verwenden , um sicherzustellen, dass die
Transaktionsdaten der Kunden während der
Migration zwischen
dem Mainframe und AWS konsistent
bleiben , sodass keine Transaktionen verpasst oder verzögert
werden Datenintegrität, Schutz
vor Korruption. Datenintegrität stellt sicher
, dass die Daten während des gesamten
Migrationsprozesses
korrekt und vollständig bleiben gesamten
Migrationsprozesses
korrekt und vollständig Um Probleme wie
Datenbeschädigung oder -verlust zu vermeiden, ist
es wichtig, einen
Validierungs- und
Fehlerprüfungsmechanismus zu implementieren . Verwenden Sie Prüfsummen für die Validierung. Implementieren Sie Prüfsummenmechanismen,
um zu überprüfen, ob die in die Cloud
übertragenen Daten die Cloud
übertragenen mit den ursprünglichen
Daten vor Ort übereinstimmen Prüfsummen ermöglichen es Ihnen,
alle Inkonsistenzen
oder Beschädigungen
zu erkennen alle Inkonsistenzen
oder Beschädigungen , die während der Migration auftreten können. Datenvalidierung nach der Migration. Sobald die Daten vollständig migriert sind,
führen Sie Validierungsprozesse durch, um sicherzustellen, dass den migrierten Daten um eine
exakte Kopie des Originals handelt Dazu gehört
die Überprüfung auf fehlende Datensätze, beschädigte Dateien und
inkonsistente Nehmen wir ein Beispiel. Für das Williams-Team stellt die
Überprüfung, dass alle
Kundenkontodaten ohne
Beschädigung in
die Cloud migriert wurden
, sicher , dass wichtige Bankgeschäfte fehlerfrei
weitergeführt werden Sicherstellung der Datenverschlüsselung und des
Schutzes während der Übertragung. Datensicherheit
hat bei der Migration oberste Priorität,
insbesondere bei der Übertragung sensibler Kundeninformationen, Finanztransaktionen oder persönlich identifizierbarer
Informationen oder PII Ziel ist es, sicherzustellen, dass die
Daten während des gesamten
Migrationsprozesses verschlüsselt,
geschützt und
konform bleiben ,
geschützt und gesamten
Migrationsprozesses verschlüsselt,
geschützt und
konform Verschlüsselung, Sicherung von Daten
bei der Übertragung und Adresse. Verschlüsselung ist
für den Schutz von Daten
bei der Übertragung zwischen
lokalen Umgebungen
und der Cloud unerlässlich bei der Übertragung zwischen . Sie stellt sicher, dass
Daten, selbst wenn sie
während der Übertragung abgefangen werden, nicht abgerufen
oder manipuliert werden können Verschlüsseln Sie Daten während der Übertragung. Stellen Sie sicher, dass alle
migrierten Daten während der Übertragung verschlüsselt werden Verwendung von VPNs oder dedizierten
Verbindungen wie AWS Direct Connect oder
Azure Express Route können sichere,
verschlüsselte Verbindungen zwischen Ihren lokalen
Systemen und der Sie können auch Protokolle wie
SSL TLS verwenden , um
Daten zu verschlüsseln , während sie über das
Netzwerk übertragen werden Beispieltools für AWS:
Sie können die SSL-Verschlüsselung
für Daten aktivieren, die
zwischen Prime-Systemen und Cloud-Diensten wie
S Three oder RDS Datenadresse verschlüsseln. Sobald die Daten eine Cloud
erreicht haben, stellen Sie
sicher, dass sie eine
verschlüsselte Adresse bleiben Dazu gehören Cloud-native
Verschlüsselungsdienste wie AWS KMS oder Azure Key Vault zur Verwaltung von
Verschlüsselungsschlüsseln und zum Schutz vertraulicher Informationen in der Cloud-Umgebung
gespeichert sind. Nehmen wir ein Beispiel.
Williams Team könnte SSL/TLS-Verschlüsselung
oder Data Intransit verwenden, um die
Finanzdaten von Kunden
zu schützen während sie in die Cloud
übertragen werden Sobald sich die Daten in AWS befinden, kann die
AMS-Verschlüsselung
die Adresse sichern und so einen kontinuierlichen Schutz gewährleisten Sicherung
des Zugriffs während der Migration. Sicherung von Daten während der Migration geht es nicht nur um Verschlüsselung. Es geht auch darum zu
kontrollieren, wer während des Migrationsprozesses
Zugriff auf
die Daten hat . Implementieren Sie eine rollenbasierte
Zugriffskontrolle oder RBAC. Verwenden Sie RBAC, um den Zugriff auf den Migrationsprozess
zu beschränken. Nur autorisiertes Personal
wie Dateningenieure oder Sicherheitsadministratoren
sollte
während der Migration
Zugriff auf sensible Daten haben während der Migration
Zugriff auf sensible Daten Verwenden Sie
Multifaktor-Authentifizierung oder MFA. Implementieren Sie MFA für zusätzliche Sicherheit für
jeden, der auf die Migrationstools
oder die Cloud-Umgebung zugreift oder die Dies bietet eine zusätzliche
Schutzebene und verhindert
unbefugten Zugriff Nehmen wir ein Beispiel.
Das Williams-Team könnte RBAC implementieren, um sicherzustellen, dass nur erfahrene
Dateningenieure und Sicherheitspersonal
Zugriff auf das Migrationssystem haben MFA könnte auch für alle
erforderlich sein Übertragung
sensibler Kundendaten
beteiligt sind Einhaltung
gesetzlicher Standards. Für viele Unternehmen,
insbesondere in stark regulierten
Branchen wie dem Bankwesen, ist
es wichtig, die Einhaltung
der
Datenschutzbestimmungen bei der Migration
sicherzustellen . Nichteinhaltung von
Vorschriften wie PCIDSS, GDPR oder HIPA kann zu rechtlichen Konsequenzen und erheblichen
Bußgeldern führen Einhaltung gesetzlicher Vorschriften bei der Datenübertragung. Um die Einhaltung der Vorschriften
zu gewährleisten,
muss unbedingt überprüft werden, ob der
Cloud-Dienstanbieter und der
Migrationsprozess selbst die
regulatorischen Standards für
Datensicherheit und Datenschutz erfüllen . Stellen Sie die
Einhaltung der Vorschriften durch Cloud-Anbieter sicher. Sie vor der Migration sicher, dass der von Ihnen gewählte
Cloud-Anbieter die erforderlichen
Industriestandards und Zertifizierungen einhält die erforderlichen
Industriestandards und Zertifizierungen AWS und Azure sind beispielsweise
PCIDSS- und DSGVO-konform und eignen sich
daher für den
Umgang mit Finanzdaten
und personenbezogenen
Daten oder Verwenden Sie Verschlüsselung und
Maskierung zur Einhaltung der Vorschriften. Viele Vorschriften schreiben vor, dass sensible Daten bei der Übertragung verschlüsselt
oder maskiert Verschlüsselung wird sichergestellt
, dass Daten auch dann nicht
lesbar sind, wenn sie
abgefangen werden Datenmaskierung können Daten weiter
geschützt werden, indem
sensible Informationen
wie Kreditkarten - oder Sozialversicherungsnummern verschleiert sensible Informationen
wie Kreditkarten Durch Datenmaskierung können Daten weiter
geschützt werden, indem
sensible Informationen
wie Kreditkarten - oder Sozialversicherungsnummern verschleiert werden. Nehmen wir ein Beispiel. Wenn das Williams-Team
Kundentransaktionsdaten zu AWS migriert , muss es sicherstellen, dass die
AWS-Services PCI-DSS-konform sind und dass
Datenmaskierungstechniken verwendet werden um sensible
Datenfelder während der Migration zu schützen Anforderungen an den Wohnsitz der Daten. Bestimmte Vorschriften
können auch
Anforderungen an die Datenresidenz enthalten, die
vorschreiben, wo Daten gespeichert und verarbeitet
werden müssen DSGVO verlangt beispielsweise, dass Daten von EU-Bürgern innerhalb
der Europäischen Union gespeichert
werden ,
während Finanzdaten möglicherweise an
bestimmten geografischen Standorten gespeichert werden müssen Wählen Sie Datenregionen sorgfältig aus. Achten Sie bei der Datenmigration
darauf, dass Sie
Cloud-Regionen wählen , die den Vorschriften zur Datenresidenz
entsprechen Datenresidenz
entsprechen Sowohl AWS als auch Azure bieten bestimmte Regionen in
verschiedenen Ländern , die die Anforderungen an den Wohnsitz
erfüllen können Beispielsweise muss die Williams-Institution
möglicherweise sicherstellen, dass
Kundendaten europäischer Kunden innerhalb der
AWS-Regionen der EU verbleiben , um der DSGVO zu
entsprechen,
während Daten für US-Kunden
möglicherweise in Cloud-Regionen mit während Daten für US-Kunden Sitz in den USA gespeichert werden Implementierung von
Prüfprotokollen und Überwachung. Um
Sicherheit und Compliance weiter zu verbessern, ist
es wichtig, während des gesamten
Migrationsprozesses Prüfpfade
und Überwachung zu
implementieren . Aktivieren Sie die Protokollierung und Prüfung. Cloud-Plattformen wie AWS
CloudTrail oder Azure Monitor ermöglichen es Ihnen,
alle Aktionen und
Änderungen zu verfolgen ,
die während des Migrationsprozesses vorgenommen wurden Diese Protokolle helfen Ihnen dabei,
unbefugte Zugriffsversuche
oder potenzielle Sicherheitsverletzungen zu identifizieren unbefugte Zugriffsversuche oder potenzielle Sicherheitsverletzungen Überwachen Sie den Migrationsprozess. kontinuierliche Überwachung
des Migrationsprozesses hilft dabei,
Leistungsengpässe,
Fehler oder potenzielle Bedrohungen
in Echtzeit zu identifizieren Fehler oder potenzielle Bedrohungen , was eine
schnelle Mediation ermöglicht Zum Beispiel könnte Williams
Team
AWS CloudTrail in die Lage versetzen, alle während des
Migrationsprozesses ergriffenen Maßnahmen zu überprüfen alle während des
Migrationsprozesses ergriffenen Maßnahmen so vollständige
Transparenz zu gewährleisten und Aufzeichnungen zu Compliance-Zwecken
bereitzustellen wichtigsten Erkenntnissen aus dieser
Lektion gehört zum einen, Datenintegrität und Konsistenz während der Migration
durch Techniken wie
Echtzeitsynchronisierung
und Prüfsummen zur Datenvalidierung gewährleistet werden können durch Techniken wie
Echtzeitsynchronisierung und Prüfsummen zur Zweitens ist die Verschlüsselung von
Daten während der Übertragung und Adresse entscheidend für Schutz sensibler
Informationen Rollenbasierte
Zugriffskontrolle oder RBAC und
Multifaktor-Authentifizierung oder MFA sichern den Migrationsprozess zusätzlich Drittens ist die Einhaltung
gesetzlicher Standards wie PCI DSS
oder GDPR bei der Migration oder GDPR sicher, dass Cloud-Anbieter die Standards
erfüllen und bei Bedarf die
Anforderungen an die Datenresidenz umsetzen Erwerbstätigkeit, Reflexion. Erteilen Sie Ihrer Organisation eine
regulatorische Verpflichtung. Zum Beispiel PCI DSS und GDPR. Wie würden Sie
Datenverschlüsselung und
Compliance während
Ihrer Cloud-Migration sicherstellen Compliance während
Ihrer Cloud-Migration Diskussion, Frage,
Beitrag im Forum, wie gewährleistet Ihr
Unternehmen Datenintegrität und
Sicherheit während der Migration? Welche Tools oder Praktiken haben
Sie als am effektivsten empfunden? Nächste Lektion, Einführung in
DevOps in Hybridsystemen. Im nächsten Modul
konzentrieren wir uns auf die Rolle von
DevOps bei der Verwaltung hybrider
Cloud-Umgebungen In der ersten Lektion von Modul fünf werden
wir untersuchen, wie
DevOps-Praktiken
wie Continuous
Integration und
Continuous Delivery,
Abläufe in Hybridsystemen rationalisieren
und Abläufe in Hybridsystemen rationalisieren
und bereit sind, das Potenzial der Automatisierung in Ihrer
Hybrid-Cloud-Umgebung auszuschöpfen, gehen
wir zu Modul fünf über und untersuchen, wie DevOps Ihre Cloud-Strategie
optimieren kann
18. Lektion 1: Einführung in DevOps in hybriden Systemen: Willkommen zu Modul fünf, Implementierung von Automatisierung und DevOps in hybriden Umgebungen In diesem Modul erfahren Sie, wie Sie DevOps-Praktiken und
Automatisierungstools in
einer hybriden
Mainframe-Cloud-Architektur
implementieren Automatisierungstools in einer hybriden
Mainframe-Cloud-Architektur Es behandelt Automatisierungstechniken
wie CICD-Pipelines, Orchestrierung mit
Kubernetes und
AWS-Automatisierungstools
wie CloudFormation, die einen effizienten und AWS-Automatisierungstools
wie CloudFormation Orchestrierung mit
Kubernetes und
AWS-Automatisierungstools
wie CloudFormation, die einen effizienten und optimierten Betrieb ermöglichen. Lektion eins, Einführung in DevOps in Hybridsystemen. Willkommen zu Modul fünf. In dieser Lektion
stellen wir die Rolle von
DevOps bei der Verwaltung von
Hybrid-Cloud-Umgebungen Für
IT-Infrastrukturleiter wie William, die die
Modernisierung von Altsystemen beaufsichtigen,
kann die
Einführung von DevOps-Praktiken entscheidend sein DevOps kombiniert Entwicklung und Betrieb, um
eine Kultur der Zusammenarbeit zu schaffen ,
in der Automatisierung, kontinuierliche Integration
und kontinuierliche Bereitstellung Schlüssel zur Optimierung
von Hybrid-Cloud-Workflows
sind Am Ende dieser
Lektion werden Sie zum einen Rolle von DevOps bei der
Verwaltung von
Hybrid-Cloud-Umgebungen
verstehen Verwaltung von
Hybrid-Cloud-Umgebungen Erkennen Sie die
Vorteile der Anpassung von
CICD-Pipelines zur Automatisierung Bereitstellung und Optimierung Lassen Sie uns untersuchen, wie DevOps die Art und Weise, wie Sie Ihre Hybrid-Cloud-Infrastruktur
verwalten,
verändern kann die Art und Weise, wie Sie Ihre Hybrid-Cloud-Infrastruktur
verwalten,
verändern Ihre Hybrid-Cloud-Infrastruktur
verwalten Definition der Rolle von DevOps
in Hybrid-Cloud-Umgebungen. DevOps ist eine Reihe von
Praktiken, die die
Zusammenarbeit zwischen
Entwicklungs- und
IT-Betriebsteams fördern Zusammenarbeit zwischen Entwicklungs- und
IT-Betriebsteams Es zielt darauf ab, den
Entwicklungszyklus zu verkürzen, qualitativ hochwertige
Anwendungen schnell
bereitzustellen
und sicherzustellen, dass
Infrastrukturänderungen reibungslos
und automatisch
erfolgen In Hybrid-Cloud-Umgebungen
, in denen Anwendungen sowohl auf
Mainframe-Systemen als auch auf Cloud-Plattformen
ausgeführt werden, spielt
DevOps eine entscheidende Rolle
bei der Integration und
Automatisierung DevOps, Abbau von Silos. Traditionell
arbeiten Entwicklungs- und IT-Betriebsteams getrennt Dies führte häufig zu
Engpässen, langsamen Bereitstellungen und Fehlkommunikation. DevOps durchbricht die Silos indem es eine Kultur
der Zusammenarbeit fördert, in der Entwickler und Betriebsteams gesamten Lebenszyklus
einer Anwendung, von der
Entwicklung und
dem Testen bis hin zur Bereitstellung und Überwachung, eng
zusammenarbeiten Lebenszyklus
einer Anwendung, von der
Entwicklung und
dem Testen bis Entwicklung In einer Hybrid-Cloud-Umgebung,
in der Legacy-Systeme Mainframes
mit Cloud-nativen Anwendungen interagieren müssen , kann
DevOps die Lücke zwischen Es stellt sicher, dass sowohl lokale als auch
Cloud-Systeme
nahtlos verwaltet werden und Änderungen
konsistent in
beiden Umgebungen implementiert werden
können konsistent in
beiden Nehmen wir ein Beispiel. William geht davon aus, dass Devos-Praktiken implementiert
werden müssen, um
die Bereitstellung
cloudbasierter
kundenorientierter Anwendungen
wie Mobile-Banking-Apps zu optimieren cloudbasierter
kundenorientierter Anwendungen und
gleichzeitig sicherzustellen, dass diese Anwendungen
nahtlos mit
Mainframe-Systemen vor Ort interagieren , die Echtzeittransaktionen abwickeln DevOps in der
Hybrid-Cloud-Automatisierung in mehreren Umgebungen. In Hybrid-Cloud-Umgebungen Verwaltung von Anwendungen über
mehrere Infrastrukturen hinweg kann die
Verwaltung von Anwendungen über
mehrere Infrastrukturen hinweg komplex sein DevOps ermöglicht es Ihnen wichtige Aufgaben
wie Bereitstellung,
Überwachung und Skalierung
sowohl in Ihren lokalen
als auch in Ihren Cloud-Umgebungen zu
automatisieren ,
Überwachung und Skalierung
sowohl in Ihren lokalen
als auch in Ihren Cloud-Umgebungen Dies ist besonders nützlich in Hybridsystemen, bei denen
verschiedene Teile
einer Anwendung in
der Cloud ausgeführt werden können , während andere vor Ort
bleiben Mit entwickelten Tools
und Methoden können
Sie die
Infrastruktur als Code oder IAC implementieren, wobei Ihre Infrastruktur wie
Netzwerke, virtuelle Maschinen
und Datenbanken über
maschinenlesbare
Skripts verwaltet
und bereitgestellt wird, und Datenbanken über
maschinenlesbare
Skripts verwaltet
und bereitgestellt wird anstatt Hardware oder Systeme
manuell zu konfigurieren Nehmen wir ein Beispiel. Das Williams-Team könnte IAC nutzen , um die Bereitstellung
von Cloud-Servern für
kundenorientierte
Anwendungen zu automatisieren und gleichzeitig den
Kernbankbetrieb auf dem Mainframe
laufen DevOps-Tools können sicherstellen
, dass beide Systeme je nach Workload-Anforderungen automatisch
aktualisiert und skaliert werden automatisch
aktualisiert und skaliert werden
. Die Einführung von CICD
zur Automatisierung von Hybrid-Cloud-Prozessen bietet Continuous Integration, CI und Continuous Delivery CD sind zwei Schlüsselkomponenten
der DevOps-Methodik Zusammen helfen sie
Unternehmen dabei,
den gesamten
Softwareveröffentlichungsprozess
von der Codeentwicklung
bis zur Bereitstellung zu automatisieren den gesamten
Softwareveröffentlichungsprozess , wodurch er schneller, zuverlässiger und weniger anfällig für menschliche Fehler In Hybrid-Cloud-Umgebungen können
CICD-Pipelines verwendet werden, um die Bereitstellung
von Anwendungen sowohl auf
lokalen Mainframes als auch auf Cloud-Plattformen
zu automatisieren von Anwendungen sowohl auf
lokalen Mainframes als auch auf Cloud-Plattformen Kontinuierliche Integration, automatisches
Zusammenführen von Code. Kontinuierliche Integration
bezieht sich auf die Praxis Codeänderungen von
mehreren Entwicklern
regelmäßig in
einem gemeinsamen Repository zusammenzuführen mehreren Entwicklern
regelmäßig in
einem gemeinsamen Jedes Mal, wenn neuer Code zusammengeführt wird, werden
automatisierte Tests ausgelöst, um zu
überprüfen, ob der Code erwartungsgemäß
funktioniert Dies hilft Teams dabei, Probleme frühzeitig zu erkennen
und zu beheben und größere Probleme später
im Entwicklungszyklus zu
verhindern . Zu den wichtigsten Vorteilen gehört
eine schnellere Entwicklung. Entwickler können kleine
inkrementelle Updates vornehmen , die häufig getestet und
bereitgestellt werden Es wurden Fehler hinzugefügt. Automatisierte Tests stellen sicher, dass neue Änderungen bestehende
Funktionalität
nicht beeinträchtigen systemlosen
Zusammenarbeit können mehrere Teams effizienter zusammenarbeiten, selbst in komplexen
Hybridumgebungen Nehmen wir ein Beispiel. Im Hybrid-Cloud-System von Williams könnte
das DevOp-Team CI
nutzen, um
die Integration von Code für
Cloud-basierte Anwendungen
wie die mobile App der Bank zu automatisieren die Integration von Code für
Cloud-basierte Anwendungen und
gleichzeitig sicherzustellen, dass durch Änderungen die
Backend-Systeme des gleichzeitig sicherzustellen, dass durch Änderungen die Mainframes, die Transaktionen abwickeln,
nicht gestört Mainframes, die Transaktionen abwickeln, Kontinuierliche Bereitstellung, Automatisierung von Bereitstellungen
. Continuous Delivery ist die Praxis,
Codeänderungen
automatisch in einer
Staging-Umgebung bereitzustellen , nachdem sie die CI-Pipeline passiert haben TD ermöglicht es Teams,
Softwareupdates schneller
und zuverlässiger zu veröffentlichen , indem
der Bereitstellungsprozess automatisiert wird Es stellt sicher, dass Änderungen immer bereit
sind, mit
minimalem menschlichem Eingreifen in die Produktion
implementiert zu werden mit
minimalem menschlichem Eingreifen in die Produktion
implementiert zu Zu den wichtigsten Vorteilen gehören
schnellere Releases. CD ermöglicht häufigere
Veröffentlichungen neuer Funktionen, Bugfixes und Updates. Automatisierte Rollbacks. Wenn
bei der Bereitstellung ein Problem festgestellt wird, können
CD-Systeme
automatisch
zur vorherigen Version zurückkehren ,
wodurch Ausfallzeiten minimiert werden Skalierbarkeit: CD-Pipelines können auf Hybridsysteme
skaliert werden, wodurch sichergestellt wird, dass
Änderungen sowohl auf
lokalen Systemen als auch in der Cloud
konsistent implementiert werden sowohl auf
lokalen Systemen als auch in der Cloud
konsistent Ein Beispiel: Die
Organisation Williams
könnte CID implementieren, um den Einsatz
von Cloud-basierten
Analysetools zu
automatisieren , die dabei helfen, die Ausgabegewohnheiten der
Kunden zu verfolgen und gleichzeitig sicherzustellen, dass diese Tools in die Mainframe-Vorsysteme integriert
bleiben die Mainframe-Vorsysteme Dies würde es der Bank ermöglichen, Updates
häufiger
zu veröffentlichen und gleichzeitig
das Risiko von
Betriebsunterbrechungen zu minimieren das Risiko von
Betriebsunterbrechungen CICD-Pipelines funktionieren in hybriden Umgebungen. In einem Hybrid-Cloud-Setup können
CICD-Pipelines so konfiguriert
werden, können
CICD-Pipelines so konfiguriert
werden der gesamte
Prozess der Entwicklung, des
Testens und der Bereitstellung von
Anwendungen in mehreren Umgebungen automatisiert Testens und der Bereitstellung von
Anwendungen in mehreren Anwendungen So funktioniert es. Code ist ein
verbindliches und integriertes CI. Entwickler übertragen Code in ein gemeinsam genutztes Repository wie Git. Dies löst die CI-Pipeline aus. Automatisierte Tests werden ausgeführt, um sicherzustellen, dass der neue Code
keine Fehler verursacht. Der Code wird dann in andere Teile der
Anwendung integriert , z. B. den Mainframe oder in
Cloud-basierte Dienste Der Code wird automatisch für CD
bereitgestellt. Sobald der Test bestanden wurde, wird
der Code automatisch einer
Staging-Umgebung
bereitgestellt Wenn alles wie erwartet funktioniert, wird der Code
zur Produktion weitergeleitet,
wodurch sichergestellt wird, dass sowohl das
Mainframe- als auch das Cloud-System aktualisiert
werden Wenn Probleme auftreten, kann
die CD-Pipeline
automatisch auf eine stabile Version
der Anwendung
zurückgesetzt werden,
wodurch Ausfallzeiten
und Auswirkungen auf die Benutzer minimiert Ein Beispiel: In Williams
Hybrid-Cloud-System würde
dieser Prozess
es seinem Team ermöglichen, würde
dieser Prozess
es seinem Team ermöglichen schnell Updates für
mobile Anwendungen mit Kundenkontakt
bereitzustellen und
gleichzeitig sicherzustellen, dass
diese Anwendungen vollständig in die
Transaktionssysteme
integriert bleiben , die auf dem Mainframe laufen den wichtigsten Erkenntnissen aus
dieser Lektion gehört, DevOps eine entscheidende
Rolle bei der Verwaltung
hybrider
Cloud-Umgebungen spielt , indem es Silos zwischen
Entwicklung und Betrieb
aufbricht und Zusammenarbeit und Automatisierung ermöglicht Zu den wichtigsten Erkenntnissen aus
dieser Lektion gehört, dass
DevOps eine entscheidende
Rolle bei der Verwaltung
hybrider
Cloud-Umgebungen spielt, indem es Silos zwischen
Entwicklung und Betrieb
aufbricht und Zusammenarbeit und Automatisierung ermöglicht. Zweitens automatisieren CICD-Pipelines den Prozess der
Integration, des Testens
und der Bereitstellung von Code
in Hybridsystemen, wodurch Fehler reduziert, die Geschwindigkeit
verbessert und die Skalierbarkeit verbessert den Prozess der
Integration, des Testens
und der Bereitstellung von Code
in Hybridsystemen,
wodurch Fehler reduziert, die Geschwindigkeit
verbessert und die Skalierbarkeit verbessert werden. Drittens sorgt
DevOps in hybriden Umgebungen für eine konsistente
und zuverlässige Bereitstellung von Anwendungen sowohl auf
lokalen Systemen als auch auf Cloud-Plattformen lokalen Systemen Erwerbstätigkeit, Reflexion. Überlegen Sie, wie
DevOps-Praktiken wie CICD
das Management
Ihrer
Hybrid-Cloud-Umgebung verbessern könnten Ihrer
Hybrid-Cloud-Umgebung Was sind die potenziellen
Vorteile für Ihr Team? Im Forum
gestellte Diskussionsfrage. Wie könnte die Einführung von
CICD-Pipelines Ihrem Unternehmen helfen Bereitstellungsprozesse zu
automatisieren und die betriebliche Effizienz
hybrider Systeme zu verbessern Nächste Lektion: Wichtige DevOps-Tools für Hybrid-Cloud-Management In der nächsten Lektion werden
wir uns eingehender mit
den spezifischen
DevOp-Tools befassen , mit denen Sie
Hybrid-Cloud-Systeme automatisieren und verwalten können Hybrid-Cloud-Systeme automatisieren und verwalten Wir werden beliebte Tools
wie Jenkins, Terraform,
AWS Lambda und Kubernetes untersuchen und erläutern, AWS Lambda und Kubernetes untersuchen und wie sie verwendet
werden können, um die
Bereitstellung, Überwachung
und Skalierung in Hybridumgebungen zu optimieren . Wir freuen uns darauf, die Tools kennenzulernen,
die die Automatisierung in Ihrer Hybrid Cloud vorantreiben werden. Lassen Sie uns mit Lektion
zwei von Modul fünf fortfahren. Ein,
19. Lektion 2: Die wichtigsten DevOps-Tools für Hybrid Cloud-Management: Lektion zwei, wichtige DevOps-Tools
für Hybrid-Cloud-Management. Willkommen zu Lektion
zwei von Modul fünf. In dieser Lektion werden wir uns eingehend
mit einigen
der beliebtesten und
leistungsstärksten DevOps-Tools für die Verwaltung von
Hybrid-Cloud-Umgebungen Als
IT-Infrastrukturdirektor wie William ist die
Auswahl der richtigen Tools
unerlässlich, ist die
Auswahl der richtigen Tools um
Ihre Arbeitsabläufe sowohl
auf lokalen Mainframes als auch in Cloud-Umgebungen zu automatisieren
und zu optimieren Ihre Arbeitsabläufe sowohl
auf lokalen Mainframes als auch in Cloud-Umgebungen zu automatisieren
und Wir werden uns mit Tools wie Jenkins,
Perra Form, AWS Lambda
und Kubernetes befassen und untersuchen, wie sie zur Verwaltung der Bereitstellung,
Überwachung und Skalierung in Ihren
Hybridsystemen verwendet werden können Überwachung Am Ende dieser
Lektion werden Sie Rolle der wichtigsten
DevOps-Tools bei der Automatisierung
und Verwaltung von Hybrid-Cloud-Umgebungen
verstehen die Rolle der wichtigsten
DevOps-Tools bei der Automatisierung
und Verwaltung von Hybrid-Cloud-Umgebungen
verstehen. Zweitens müssen Sie wissen, wie Sie Tools
wie Jenkins, Terraform,
AWS Lambda und Kubernetes einsetzen können, um die Bereitstellung, Überwachung und Skalierung in
Hybridsystemen zu automatisieren . Lass uns anfangen.
Jenkins, Automatisierung Continuous Integration und Continuous Delivery CICD Was ist Jenkins? Jenkins ist einer
der am häufigsten verwendeten
Open-Source-Automatisierungsserver Continuous Integration
,
CI und Continuous Delivery CD ermöglicht CI und Continuous Delivery CD Jenkins automatisiert
die sich wiederholenden Aufgaben beim Erstellen,
Testen und
Bereitstellen von Anwendungen. Es ist hochgradig erweiterbar
und bietet Hunderte von Plugins, die sich in
andere DevOps-Tools
und Cloud-Dienste integrieren lassen ,
sodass es sich ideal für Hybrid-Cloud-Umgebungen eignet Zu den wichtigsten Funktionen gehört die Automatisierung
von Builds und Tests. Jenkins automatisiert den Prozess der Integration
von Codeänderungen, Ausführung von Tests und der Bereitstellung von
Anwendungen in der Cloud und in
der Erweiterbarkeit.
Jenkins stellt Plugins für fast alle
wichtigen Entwickler von Tools bereit, sodass es
sich nahtlos in Tools
wie Docker, Ubernets und Terraform integrieren lässt wie Docker, Flexibilität: Jenkins arbeitet mit
mehreren Cloud-Plattformen, sodass Sie Pipelines für die Bereitstellung von
Code in hybriden Umgebungen, einschließlich Mainframes und Cloud-nativen Systemen, erstellen Code können. Nehmen wir ein Beispiel. Williams Team kann
Jenkins verwenden, um
die CICD-Pipeline für
Anwendungen zu automatisieren , die in ihrer
Hybrid-Cloud-Umgebung ausgeführt können sie beispielsweise die Bereitstellung
cloudbasierter kundenorientierter
Apps
automatisieren und gleichzeitig sicherstellen, dass die Backend-Prozesse auf
dem Mainframe Wie kann Jenkins in
Hybrid-Cloud-Umgebungen eingesetzt werden? In einer Hybrid-Cloud-Umgebung kann
Jenkins verwendet werden, um die gesamte CI City-Pipeline
von
der Codeintegration über das Testen bis hin zur Bereitstellung zu
automatisieren gesamte CI City-Pipeline
von
der Codeintegration über das Testen bis hin zur Bereitstellung zu Es ermöglicht Entwicklern, Code zu
schreiben, der sich
nahtlos sowohl in die lokale als auch in die Cloud-Infrastruktur Anwendungsfall: Das Williams-Team kann eine Jenkins-Pipeline
einrichten , die automatisch Updates für
Cloud-Anwendungen wie
ihre Mobile-Banking-App
bereitstellt und
gleichzeitig sicherstellt, dass die
Kernbankensysteme, die auf
dem Mainframe laufen , auch ohne manuelles Eingreifen getestet
und bereitgestellt werden und bereitgestellt Terraform,
Infrastruktur als Code, IAC für Hybridsysteme. Terraform,
Infrastruktur als Code, IAC für Hybridsysteme. Was ist Traform? Terraform, entwickelt von
HashiCorp, ist ein Infrastruktur- und
IAC-Tool, mit dem Sie Ihre Infrastruktur mithilfe von Code
definieren und verwalten können definieren Das bedeutet, dass Sie
Ressourcen für
mehrere Cloud-Anbieter und
lokale Systeme auf konsistente, wiederholbare Weise bereitstellen ,
konfigurieren und verwalten ,
konfigurieren und lokale Systeme Zu den wichtigsten Funktionen gehört die
Multi-Cloud-Unterstützung. Terraform unterstützt eine Vielzahl von Cloud-Plattformen, darunter AWS,
Azure, Google Cloud und lokale Umgebungen,
wodurch es
sich ideal
für deklarativer Sprache definieren
Sie, wie Ihre
Infrastruktur aussehen soll, und Theraform nimmt
automatisch die erforderlichen Änderungen vor, um den gewünschten Zustand zu
erreichen Versionskontrolle.
Infrastrukturänderungen können in
Versionskontrollsystemen wie Git nachverfolgt werden,
sodass sichergestellt wird, dass Ihre
Infrastruktur in allen Umgebungen konsistent
bleibt. Ein Beispiel: Das Williams-Team
kann Terraform verwenden, um Ressourcen
sowohl in der Mainframe-Umgebung
als auch in der Cloud-Infrastruktur
bereitzustellen sowohl in der Mainframe-Umgebung
als auch Ressourcen
sowohl in der Mainframe-Umgebung
als auch in der Cloud-Infrastruktur
bereitzustellen. Beispielsweise
könnten sie Terraform verwenden, um einen Kubernet-Cluster auf
AWS bereitzustellen und gleichzeitig die
bestehende Infrastruktur auf ihrem lokalen Mainframe beizubehalten um einen Kubernet-Cluster auf
AWS bereitzustellen und gleichzeitig die
bestehende Infrastruktur auf ihrem lokalen Mainframe beizubehalten. Wie Terraform in Hybrid-Cloud-Umgebungen eingesetzt werden kann. In einer Hybrid-Cloud-Umgebung ermöglicht
Terraform Teams, ihre
Infrastruktur als Code zu verwalten und so
sicherzustellen, dass Ressourcen
auf Mainframes und
Cloud-Umgebungen vor Ort konsistent konfiguriert und verwaltet werden . Anwendungsfall:
Das Williams-Team könnte
Terraform verwenden, um
die Bereitstellung von Cloud-Ressourcen zu automatisieren die Zum Beispiel Speicher- und
Rechendienste für Kundendaten bei gleichzeitiger Wartung des Mainframes für die Transaktionsverarbeitung in Echtzeit AWS Lambda, serverlose Automatisierung für
Cloud-fähige Prozesse Was ist AWS Lambda? AWS Lambda ist ein serverloser
Rechenservice, der automatisch Codes als Reaktion auf
Ereignisse
ausführt und
Ressourcen nach Bedarf skaliert Mit Lambda
müssen Sie keine Server bereitstellen
oder verwalten Es skaliert automatisch
je nach Bedarf
Ihrer Anwendungen,
sodass Sie
sich auf das Schreiben
und Bereitstellen von Code konzentrieren Zu den wichtigsten Funktionen gehört Serverless. AWS Lambda übernimmt das gesamte
Infrastrukturmanagement für Sie,
sodass Sie Code ausführen können,
ohne Server bereitstellen
oder verwalten zu müssen Ereignisgesteuerte Lambda-Funktionen werden durch Ereignisse
aus anderen AWS-Services ausgelöst eignen sich
daher ideal für Automatisierung von Aufgaben wie
Datenverarbeitung, Anwendungsüberwachung Skalierbarkeit: Lambda skaliert
automatisch als Reaktion auf die
Anzahl der Anfragen und
stellt so sicher, dass Ihre
Anwendungen
Bedarfsspitzen ohne manuelles Eingreifen bewältigen können Bedarfsspitzen Ein Beispiel: Das Williams-Team
könnte AWS Lambda verwenden, um
Datenverarbeitungsaufgaben in Echtzeit zu automatisieren durch Ereignisse wie
übliche Transaktionen ausgelöst werden Lambda
könnte beispielsweise Algorithmen zur
Betrugserkennung auslösen Algorithmen zur
Betrugserkennung wenn verdächtige
Transaktionen stattfinden, sodass das System nach
Bedarf ohne
manuelles Eingreifen skaliert Bedarf ohne
manuelles Wie kann AWSamda in
Hybrid-Cloud-Umgebungen eingesetzt werden? In einem Hybrid-Cloud-Setup kann
AWS Lambda
verwendet werden, um
bestimmte Aufgaben in die Cloud auszulagern und gleichzeitig unternehmenskritische
Systeme auf
dem
Mainframe zu unternehmenskritische
Systeme auf
dem
Mainframe Lambda kann auch in andere AWS-Services
integriert werden, sodass Sie Aufgaben sowohl vor
Ort als auch
in Cloud-Umgebungen automatisieren sowohl vor
Ort als auch
in Anwendungsfall. Das Williams-Team
könnte Lambda verwenden, um Batch-Verarbeitungsaufträge in der Cloud zu
automatisieren und gleichzeitig den
Kernbankbetrieb auf dem Mainframe beizubehalten Lambda könnte
unkritische Aufgaben wie die Analyse des
Kundenverhaltens Mainframe-Ressourcen
für Echtzeittransaktionen
freisetzen wie die Analyse des
Kundenverhaltens übernehmen und so Mainframe-Ressourcen
für Echtzeittransaktionen
freisetzen. Kubernetes, Orchestrierung von Containern über Hybridsysteme hinweg. Was ist Kubernetes? Kubernetes ist eine
Open-Source-Container-Orchestrierungsplattform Open-Source-Container-Orchestrierungsplattform , die die Bereitstellung,
Skalierung und Verwaltung von containerisierten Anwendungen automatisiert Skalierung stellt sicher, dass Ihre Anwendung in einer konsistenten,
skalierbaren Umgebung
ausgeführt wird, egal ob vor Ort oder in
der Zu den wichtigsten Funktionen gehört die
Container-Orchestrierung. Kubernetes verwaltet
Container clusterübergreifend und
automatisiert Aufgaben wie Bereitstellung, Skalierung Skalierbarkeit: Kubernetes skaliert die
Anwendung
automatisch je nach Bedarf und
stellt so sicher, dass Ihr System mit Schwankungen der Arbeitslast umgehen kann . Hybrid-Cloud-Unterstützung. Kubernetes kann vor Ort
in der Cloud oder in
beiden Umgebungen ausgeführt werden, was es zu einem leistungsstarken Tool für die
Verwaltung der
Hybrid-Cloud-Infrastruktur macht Verwaltung der
Hybrid-Cloud-Infrastruktur Nehmen wir ein Beispiel. könnte Kubernetes verwenden, um
containerisierte Anwendungen zu verwalten , die
sowohl in ihrem
lokalen Rechenzentrum
als auch in ihrer Cloud-Infrastruktur ausgeführt sowohl in ihrem
lokalen Rechenzentrum
als auch in ihrer Cloud-Infrastruktur Williams Team
könnte Kubernetes verwenden, um
containerisierte Anwendungen zu verwalten
, die
sowohl in ihrem
lokalen Rechenzentrum
als auch in ihrer Cloud-Infrastruktur ausgeführt werden. Kubernetes könnte beispielsweise den Einsatz
von Microservices
orchestrieren, die
Kundendaten in der Cloud verarbeiten und
gleichzeitig mit Backend-Systemen auf dem Mainframe interagieren gleichzeitig Wie Kubernetes in Hybrid-Cloud-Umgebungen eingesetzt werden kann. In Hybrid-Cloud-Systemen ermöglicht
Kubernetes Teams, containerisierte Anwendungen in mehreren
Umgebungen auszuführen und
so sicherzustellen, dass
Anwendungen sowohl auf
Prime-Systemen als auch in der Cloud
dynamisch skaliert werden können sowohl auf
Prime-Systemen als auch in der Cloud
dynamisch Im Anwendungsfall
würde das Williams-Team Kubernetes verwenden, um in der Cloud
ausgeführte Microservices für
kundenorientierte
Apps zu
verwalten und gleichzeitig sicherzustellen, dass
diese Microservices in und gleichzeitig sicherzustellen, dass die Transaktionssysteme auf dem Mainframe integriert
bleiben . Kombination von DevOps-Tools für eine umfassende Automatisierung. Die genannten Tools Jenkins,
Terraform, AWS Lambda
und Kubernts arbeiten zusammen, um eine umfassende Automatisierung für Hybrid-Cloud-Umgebungen bereitzustellen. eine umfassende Automatisierung für Hybrid-Cloud-Umgebungen bereitzustellen. Durch die Kombination dieser Tools können
Sie alles automatisieren, können
Sie alles automatisieren Infrastruktur
bis hin zur
Anwendungsbereitstellung, Skalierung von der Bereitstellung der Infrastruktur
bis hin zur
Anwendungsbereitstellung, Skalierung und Überwachung. Ein Beispiel für einen Workflow. Terraform stellt
die notwendige Cloud-Infrastruktur
für neue Jenkins automatisiert
die CICD-Pipeline und
stellt sicher, dass der
Anwendungscode sowohl
vor Ort als auch in Cloud-Umgebungen erstellt, getestet
und bereitgestellt wird sowohl
vor Ort als auch in Cloud-Umgebungen erstellt, getestet
und bereitgestellt wird . Kubernetes verwaltet die
containerisierte Anwendung und stellt sicher, dass sie je nach Bedarf automatisch skaliert wird. Anschließend automatisiert AWS Lambda
spezifische Aufgaben wie ereignisgesteuerte Verarbeitung
oder
Echtzeitüberwachung , ohne dass Beispielsweise könnte Williams Team Terraform zur Verwaltung von
Cloud-Ressourcen, Jenkins für automatisierte
Bereitstellungen,
Ubernts für die
Autokratierung von Containern in der Cloud und
auf erstklassigen Systemen und
AwAMDA zur Auslösung ereignisgesteuerter Prozesse für kundenorientierte Anwendungen
verwenden Jenkins für automatisierte
Bereitstellungen,
Ubernts für die
Autokratierung von Containern in der Cloud und
auf erstklassigen Systemen und
AwAMDA zur Cloud und
auf erstklassigen Systemen und
AwAMDA . . den Erkenntnissen aus dieser
Lektion gehört zum einen, dass
Jenkins den CICD-Prozess automatisiert und so sicherstellt, dass Code in
hybriden Umgebungen nahtlos integriert Zu den Erkenntnissen aus dieser
Lektion gehört zum einen, dass
Jenkins den CICD-Prozess automatisiert und so sicherstellt, dass Code in
hybriden Umgebungen nahtlos integriert, getestet und bereitgestellt wird. Zu den Erkenntnissen aus dieser
Lektion gehört zum einen, dass
Jenkins den CICD-Prozess automatisiert und so sicherstellt, dass Code in
hybriden Umgebungen nahtlos integriert, getestet und bereitgestellt wird. Zu den Erkenntnissen aus dieser
Lektion gehört zum einen, dass
Jenkins den CICD-Prozess automatisiert und so sicherstellt, dass Code in
hybriden Umgebungen nahtlos integriert, getestet und bereitgestellt wird. Zweitens ermöglicht
Ihnen das Formular die Verwaltung der
Infrastruktur als Code und ermöglicht Ihnen das Formular die Verwaltung der
Infrastruktur als Code konsistente
Bereitstellung und
Konfiguration für
Cloud- und Konfiguration Drittens bietet AWS Lambda serverlose Automatisierung für Aufgaben wie die Datenverarbeitung in Echtzeit, während Kubernetes containerisierte Anwendungen in Hybridsystemen orchestriert serverlose Automatisierung für Aufgaben
wie die Datenverarbeitung in Echtzeit,
während Kubernetes containerisierte Anwendungen in Hybridsystemen orchestriert
. Lernaktivität, Reflexion. Überlegen Sie,
wie Tools wie Terraform, Jenkins und Kubernetes den Betrieb in Ihrer Hybrid-Cloud-Umgebung
optimieren würden optimieren Welche Aufgabe würden Sie mit diesen Tools automatisieren? Diskussion, Frage,
Beitrag im Forum. Welche Entwicklungstools haben
Sie für die Verwaltung Ihrer
Hybrid-Cloud-Umgebung verwendet oder planen zu verwenden? Wie würden diese Tools Ihren Arbeitsablauf
verbessern? Nächste Lektion, Aufbau einer
CICD-Pipeline für Hybrid Cloud. In der nächsten Lektion konzentrieren
wir uns auf den Aufbau einer CICD-Pipeline für
Hybrid-Cloud-Umgebungen Sie lernen Schritt für Schritt, wie Sie
eine CICD-Pipeline
erstellen und implementieren ,
und wir werden untersuchen, wie
Sie Bereitstellungen sowohl
in Mainframe
- als auch in Cloud-Umgebungen automatisieren sowohl
in Mainframe
- als auch in Cloud-Umgebungen Sie bereit sind, eine
vollautomatische Pipeline aufzubauen,
schauen wir uns die
dritte Lektion von
20. Lektion 3: Aufbau einer CI/CD-Pipeline für die Hybrid Cloud: Lektion drei, Aufbau einer
CICD-Pipeline für die Hybrid Cloud. Kommen Sie zu Lektion drei
von Modul fünf. In dieser Lektion werden wir den Prozess des
Aufbaus den Prozess des
Aufbaus einer CICD-Pipeline erläutern, die auf
Hybrid-Cloud-Umgebungen zugeschnitten Für
IT-Infrastrukturleiter wie William, die
neben der Cloud-Infrastruktur auch
Mainframe-Systeme verwalten , ist die
Implementierung einer
CICD-Pipeline entscheidend für Automatisierung von Bereitstellungen Am Ende dieser Lektion werden Sie wissen, wie
Sie
eine CICD-Pipeline
entwerfen und aufbauen , die
Mainframe-Anwendungen
mit Cloud-nativen Systemen integriert und so eine schnellere und zuverlässigere Bereitstellung gewährleistet Am Ende dieser
Lektion werden Sie zunächst den schrittweisen
Prozess der Erstellung und
Implementierung einer CICD-Pipeline
für Hybrid-Cloud-Umgebungen
verstehen CICD-Pipeline
für Hybrid-Cloud-Umgebungen für Hybrid-Cloud-Umgebungen Erfahren Sie, wie Sie die
Bereitstellung
sowohl auf Mainframe-Systemen als auch auf
Cloud-Plattformen automatisieren sowohl auf Mainframe-Systemen können.
Lass uns anfangen Was ist eine CICD-Pipeline? Eine CICD-Pipeline ist ein automatisierter Prozess, Continuous
Integration,
CI und Continuous Delivery
CD
integriert , um sicherzustellen, dass Codeänderungen automatisch
getestet, validiert und bereitgestellt werden getestet, validiert und bereitgestellt In einer
Hybrid-Cloud-Umgebung, in der Teile
der Anwendung auf
dem Mainframe ausgeführt werden können , während andere
Teile in der Cloud ausgeführt werden Eine CICD-Pipeline stellt sicher, dass
Updates ohne
manuelles
Eingreifen konsistent in
beiden Infrastrukturen bereitgestellt werden können bereitgestellt ohne
manuelles
Eingreifen konsistent in
beiden Infrastrukturen Continuous Integration
CI führt Codeänderungen von
mehreren Entwicklern automatisch in
einem gemeinsamen Repository zusammen
und testet in
einem gemeinsamen Continuous Delivery CD automatisiert die Bereitstellung von bestem Code
in Produktionsumgebungen und
stellt so sicher, dass Anwendungen immer bereit für die Veröffentlichung
sind Nehmen wir ein Beispiel. Das Williams-Team könnte
eine CICD-Pipeline nutzen , um die Bereitstellung
kundenorientierter Webanwendungen, die in der Cloud
laufen, zu
automatisieren kundenorientierter Webanwendungen und
gleichzeitig diese und
Mainframe-Systeme, die die
Transaktionsverarbeitung übernehmen, zu aktualisieren Mainframe-Systeme, die die
Transaktionsverarbeitung übernehmen, Er beteiligt sich am Aufbau einer
CICD-Pipeline für die Hybrid Cloud. Der Aufbau einer
CICD-Pipeline umfasst mehrere wichtige Schritte von Codeintegration bis zur
automatisierten Bereitstellung Hier finden Sie eine schrittweise
Anleitung zum Aufbau einer CICD-Pipeline für
Hybrid-Cloud-Umgebungen Schritt eins: Richten Sie ein
gemeinsames Code-Repository ein. Der erste Schritt beim Aufbau einer CICD-Pipeline ist die Einrichtung
eines gemeinsamen Code-Repositorys Hier
speichern und verwalten Entwickler ihren Code, was die Zusammenarbeit
und Versionskontrolle ermöglicht beliebten Repositorys gehören Git Hub, GitLab und Bit Bucket Struktur des Repositorys. Organisieren Sie Ihr Repository so, dass
Mainframe-Code vom
Cloud-basierten
Anwendungscode getrennt wird und
beide gleichzeitig in dieselbe Pipeline integriert werden Mainframe-Code, speichert
Cobble-JCL - oder Assembler-Code Cloud-Code, speichert Code der in modernen
Sprachen wie JavaScript,
Python oder GO
geschrieben wurde und
auf Cloud-Plattformen läuft. Nehmen wir ein Beispiel.
Williams Team kann Github als
gemeinsames Repository verwenden, um sowohl die
Mainframe-Transaktionsverarbeitungsskripte
als auch den Cloud-basierten Code
für die Mobile-Banking-App zu
speichern den Cloud-basierten Code
für die Mobile-Banking-App Schritt zwei: Integrieren Sie die
kontinuierliche Integration. Der nächste Schritt besteht darin,
Continuous Integration CI in Ihre Pipeline zu integrieren. CI beinhaltet das automatische
Erstellen und Testen von Code jedes Mal, wenn ein Entwickler
eine Änderung vornimmt. Dadurch wird sichergestellt, dass
neuer Code das System nicht beschädigt und
dass Fehler
früh im
Entwicklungszyklus erkannt werden . Automatisierung erstellen. Verwenden Sie Tools wie Jenkins oder Gitlab CI, um
den Build-Prozess sowohl für
Mainframe- als auch für Cloud-Code zu automatisieren den Build-Prozess sowohl für
Mainframe- als auch für Cloud-Code Jenkins kann
Builds auf der Grundlage von
Codeänderungen auslösen und automatisierte Tests ausführen . Testen. Implementieren Sie automatisierte
Tests für beide Umgebungen. Verwenden Sie für Mainframe-Code CA Endeavor oder IBM
Z Unit zum Testen Verwenden Sie für Cloud-Anwendungen Test-Frameworks wie
J Unit oder Nehmen wir ein Beispiel.
Wenn ein Entwickler im Williams-Team Änderungen Code der Mobile-Banking-App vornimmt, löst
Jenkins
automatisch einen Build- und Run-Test aus, um sicherzustellen , dass die App
reibungslos in das
Mainframe-Backend integriert reibungslos in das
Mainframe-Backend integriert Schritt drei: Automatisieren Sie Continuous Delivery. Continuous Delivery CD automatisiert
den Bereitstellungsprozess und
stellt sicher, dass sich Ihre Anwendungen immer in einem
bereitstellbaren Zustand
befinden In einer Hybrid Cloud kümmert sich
CD um die Bereitstellung sowohl in Mainframe
- Verwenden Sie bei der Mainframe-Bereitstellung Tools wie IBM Urban C Deploy oder CarLease Automation, um
die Bereitstellung von
Mainframe-Anwendungen zu automatisieren die Bereitstellung von Cloud-Bereitstellung. Für
Cloud-Umgebungen Tools wie AWS C
Deploy oder Azure DevOps können
Tools wie AWS C
Deploy oder Azure DevOps die Bereitstellung von
Anwendungen über
mehrere Cloud-Instanzen hinweg automatisieren Anwendungen über
mehrere Cloud-Instanzen hinweg Für das Williams-Team stellt
CD beispielsweise sicher, dass alle an der mobilen App vorgenommenen
Code-Updates automatisch in AWS bereitgestellt werden, während die entsprechenden
Updates auf
den Mainframe angewendet werden, um die
Transaktionsverarbeitung synchron zu halten Schritt vier: Richten Sie
automatisierte Rollbacks ein. Automatisierte
Rollback-Mechanismen sind in CICD-Pipelines von
entscheidender Bedeutung, insbesondere in
Hybridumgebungen denen sich ein Ausfall in einem System, beispielsweise auf dem Mainframe, auf die gesamte Anwendung auswirken kann Rollbacks ermöglichen es Ihnen
, schnell zu
einer früheren stabilen Version zurückzukehren, einer früheren stabilen Version falls Mainframe-Rollbacks. Verwenden Sie Tools zur Versionskontrolle
wie Endeavor, um zu
früheren Versionen von
Mainframe-Anwendungen zurückzukehren früheren Versionen von .
Cloud-Rollbacks In Cloud-Umgebungen CD-Tools wie AWS
Lambda oder Kubernetes können
CD-Tools wie AWS
Lambda oder Kubernetes automatisch ein Rollback durchführen, um sicherzustellen, dass fehlgeschlagene Bereitstellungen Wenn beispielsweise ein Update der mobilen App von
William
ein Problem mit der
Transaktionsverarbeitung verursacht , die CICD-Pipeline die Änderungen
automatisch rückgängig und
stellt so sicher, dass die Mainframe
- und macht
die CICD-Pipeline die Änderungen
automatisch
rückgängig und
stellt so sicher, dass die Mainframe
- und Cloud-Systeme ohne Ausfallzeiten betriebsbereit bleiben. Schritt fünf: Überwachen und
optimieren Sie die Pipeline. Sobald die
CICD-Pipeline eingerichtet ist, müssen
Sie sie
kontinuierlich überwachen und optimieren, um sicherzustellen, dass
sie reibungslos läuft Überwachungstools
bieten
Einblick in den Zustand
Ihrer Anwendungen, sodass Sie
potenzielle Probleme erkennen bevor sie sich auf Benutzer auswirken Überwachungstools: Verwenden Sie Überwachungstools wie
Prometheus Grafana
oder New Relic, um die
Leistungskennzahlen sowohl
in der Cloud
als auch in lokalen Systemen im Auge zu behalten Leistungskennzahlen sowohl
in der Cloud
als auch in lokalen Systemen im Überwachungstools wie
Prometheus Grafana
oder New Relic, um die
Leistungskennzahlen sowohl
in der Cloud
als auch in lokalen Systemen im Auge zu behalten. Optimierung der Pipeline. Optimieren Sie
Ihre Pipeline kontinuierlich indem Sie die Build-Zeiten reduzieren, die Testabdeckung verbessern und die
Bereitstellungsstrategien verfeinern Beispielsweise
könnte Williams Team Grafana verwenden, um
wichtige Leistungskennzahlen
wie die Reaktionszeit der mobilen App und die
Geschwindigkeit
der Transaktionsverarbeitung auf
dem Mainframe zu überwachen wichtige Leistungskennzahlen
wie die Reaktionszeit der mobilen App und die
Geschwindigkeit
der und so sicherzustellen, dass beide
Umgebungen Herausforderungen und
bewährte Verfahren für Hybrid-Cloud-CICD-Pipelines Der Aufbau und die Verwaltung
einer CICD-Pipeline in Hybrid-Cloud-Umgebungen mit eigenen Herausforderungen verbunden Befolgung von
Best Practices
kann jedoch dazu beitragen,
diese Herausforderungen zu bewältigen Synchronisation zwischen
Mainframe und Cloud. Eine der größten Herausforderungen
besteht darin , sicherzustellen, dass Code-Updates
sowohl für die Mainframe
- als auch für die Cloud-Systeme synchron bereitgestellt
werden Eine Diskrepanz beim
Bereitstellungszeitpunkt kann Anwendungsausfällen oder Inkonsistenzen
führen Bewährtes Verfahren. Implementieren Sie eine
enge Synchronisation zwischen Mainframe- und
Cloud-Bereitstellungen, indem Sie sicherstellen, dass beide Mainframes dieselben
Pipeline-Tools und -Prozesse verwenden dieselben
Pipeline-Tools Sicherheit und Compliance. In hybriden Umgebungen, insbesondere in
Branchen wie dem Bankwesen, sind
Sicherheit und Compliance von entscheidender Bedeutung. Ihre CICD-Pipeline sollte Sicherheitschecks
beinhalten, um sicherzustellen , dass sowohl die Cloud- lokalen Systeme den Vorschriften
entsprechen Bewährte Methode: Verwenden Sie
DebSecppPractices, um Sicherheitsüberprüfungen
in die CICD-Pipeline einzubetten Verwenden Sie beispielsweise
AWS Security Hub oder
Azure Security Center, um Sicherheits- und Konformitätsprüfungen
während des Bereitstellungsprozesses zu automatisieren und Konformitätsprüfungen während des Komplexität bei der Verwaltung
älterer Systeme. Mainframes sind oft komplex und weniger flexibel als
Cloud-Umgebungen. Die Integration von Mainframes in
eine moderne CICD-Pipeline
kann aufgrund
der erforderlichen speziellen Tools
und Prozesse eine Herausforderung sein der erforderlichen speziellen Tools
und Bewährte Verfahren: Nutzen Sie
spezielle Tools wie Urban Co Deploy oder
Mainframe-Implementierungen und sicher, dass die
CICD-Pipeline auf die spezifischen Bedürfnisse
sowohl der Mainframe- als auch der Cloud-Umgebung zugeschnitten
ist spezifischen Bedürfnisse
sowohl der Mainframe- als auch der Cloud-Umgebung sowohl der Mainframe- als auch der wichtigsten Erkenntnissen aus dieser
Lektion gehört zum
einen, dass eine CICD-Pipeline
den Prozess der Integration, des
Testens und der Bereitstellung von Code in hybriden Umgebungen automatisiert und
so sicherstellt, dass
Updates
konsistent sowohl
auf Mainframes als auch auf Cloud-Systemen bereitgestellt werden konsistent Zweitens sind Tools wie Jenkins, IBM Urban C Deploy IBM Urban C Deploy
und AWS Codploy
für die Verwaltung von CICD-Pipelines
in Hybrid-Cloud-Umgebungen unverzichtbar und ermöglichen nahtlose Updates in beiden Infrastrukturen. Drittens stellt die Überwachung
und Optimierung der CICD-Pipeline sicher,
dass
die Anwendungen leistungsfähig und belastbar
bleiben automatisierte
Rollback-Mechanismen zur Behebung von Ausfällen
vorhanden CICD-Pipeline sicher,
dass
die Anwendungen leistungsfähig und belastbar
bleiben, da automatisierte
Rollback-Mechanismen zur Behebung von Ausfällen
vorhanden sind. Erwerbstätigkeit, Reflexion. Stellen Sie sich vor, wie eine
CICD-Pipeline mit optimierten Bereitstellungen
sowohl in Ihren Mainframe- als auch in Ihrer
Cloud-Umgebung aussieht Welche Herausforderungen erwarten Sie bei der Implementierung dieser Automatisierung optimierten Bereitstellungen
sowohl in Ihren Mainframe- als auch in Ihrer
Cloud-Umgebung aussieht.
Welche Herausforderungen erwarten Sie bei der Implementierung dieser Automatisierung
? Frage zur Diskussion.
Poste im Forum, welche Tools würden
Sie verwenden, um
CICD in Ihrer
Hybrid-Cloud-Umgebung zu automatisieren CICD in Ihrer
Hybrid-Cloud-Umgebung Wie würden Sie Updates
zwischen lokalen Systemen
und Cloud-Plattformen
synchronisieren zwischen lokalen Systemen
und Cloud-Plattformen Nächste Lektion:
Automatisierungsstrategien für hybride Umgebungen. In der nächsten Lektion werden
wir
Automatisierungsstrategien für die effiziente
Verwaltung hybrider
Umgebungen untersuchen Automatisierungsstrategien für . Sie lernen, wie Sie Infrastruktur
als Code oder IAC
verwenden , um
komplexe
Hybridsysteme zu verwalten , und erörtern häufig auftretende Automatisierungsherausforderungen
und deren Bewältigung bereit, uns mit fortgeschrittenen
Automatisierungsstrategien zu befassen, und fahren
wir mit Lektion
vier von Modul fünf
21. Lektion 4: Automationsstrategien für hybride Umgebungen: Lektion vier,
Automatisierungsstrategien für Hybridumgebungen. Willkommen zu Lektion
vier von Modul fünf. In dieser Lektion werden wir
Automatisierungsstrategien untersuchen, die auf Hybridumgebungen zugeschnitten
sind. Unsere Systeme sind auf Mainframes
und Cloud-Plattformen
vor Ort
verteilt Mainframes
und Cloud-Plattformen
vor Für einen
IT-Infrastrukturdirektor wie William die
Implementierung der richtigen
Automatisierungsstrategie kann die
Implementierung der richtigen
Automatisierungsstrategie die
betriebliche Effizienz erheblich verbessern, Fehler
reduzieren und eine
nahtlose Verwaltung
beider Umgebungen ermöglichen nahtlose Verwaltung
beider Umgebungen Wir werden uns darauf konzentrieren, wie
Infrastrukturcode verwendet werden kann, um
diese komplexen
Systeme zu verwalten , und wir werden
allgemeine Automatisierungsherausforderungen erörtern und erläutern, wie sie gelöst werden können. Am Ende dieser
Lektion werden Sie
verstehen, wie Sie
Infrastrukturcode verwenden können, um Hybridumgebungen
effizient zu verwalten. Zweitens: Identifizieren Sie häufig auftretende
Automatisierungsherausforderungen in Hybridsystemen und lernen Sie
Strategien zu deren Überwindung kennen. Lassen Sie uns einen Blick auf
Automatisierungsstrategien werfen, die Ihre
Hybrid-Cloud-Umgebung stärken werden Den
Infrastrukturcode
für Hybridumgebungen verstehen für Hybridumgebungen Infrastrukturcode oder IAC ist die Praxis,
Infrastruktur mithilfe
maschinenlesbarer Konfigurationsdateien zu
verwalten und Infrastruktur mithilfe
maschinenlesbarer Konfigurationsdateien anstatt
Hardware und Systeme manuell zu konfigurieren In Hybrid-Cloud-Umgebungen
, in denen die Infrastruktur sowohl Mainframe-Systeme als auch Cloud-Plattformen
umfasst, ist
IAC ein leistungsstarkes Tool zur Sicherstellung von
Konsistenz, Skalierbarkeit
und ist
IAC ein leistungsstarkes Tool zur Sicherstellung Konsistenz, Was ist Infrastruktur als Code? IAC können Sie Infrastrukturen
wie Server,
Netzwerke, Datenbanken und
Load Balancer mithilfe von Code definieren und
verwalten und Dies erleichtert die
Automatisierung der Erstellung und Verwaltung von Ressourcen in lokalen und
Cloud-Umgebungen Mithilfe von IAC können Sie die
Infrastruktur
wie Software behandeln, Infrastruktur
wie Software sodass Sie sie versionieren, testen und automatisieren Deklarativer Ansatz. In IAC beschreiben
Sie, wie
Ihre Infrastruktur aussehen
soll, und das System stellt
automatisch sicher
, dass Ihre Umgebung dem gewünschten
Status entspricht Wiederholbarkeit und Konsistenz. IAC macht
den manuellen Prozess der
Infrastrukturkonfiguration überflüssig , reduziert menschliche Fehler und
stellt sicher, dass Umgebungen konsistent konfiguriert
sind Nehmen wir ein Beispiel. Das Williams-Team könnte IAC
nutzen, um
die Bereitstellung
sowohl von Cloud-Ressourcen
für ihre kundenorientierten
Bankanwendungen als auch von Mainframe-Ressourcen zu automatisieren die Bereitstellung
sowohl von Cloud-Ressourcen für ihre kundenorientierten , die Transaktionen in Echtzeit
abwickeln Terraform
kann beispielsweise verwendet werden, um die Infrastruktur
in beiden Umgebungen zu definieren und zu verwalten
und so eine konsistente Konfiguration über Hybridsysteme hinweg sicherzustellen Implementierung von IAC in hybriden Umgebungen
. Bei der Verwendung von
Infrastruktur als Code oder IAC in Hybridumgebungen besteht
das Ziel darin, die
Bereitstellung, Konfiguration
und Verwaltung von
Ressourcen sowohl auf
erstklassigen Systemen wie Mainframes
als auch auf Cloud-Plattformen wie AWS,
Azure oder Google Cloud zu automatisieren und Verwaltung von
Ressourcen sowohl auf
erstklassigen Systemen wie Mainframes
als auch auf Cloud-Plattformen wie AWS,
Azure oder Google Cloud Azure So können Sie
IAC effektiv in einer Hybridumgebung implementieren IAC effektiv Werkzeugauswahl für Hybrid-IAD. Um Hybridumgebungen zu automatisieren, benötigen
Sie Tools,
die
sowohl mit Cloud-Ressourcen als auch mit
der lokalen Infrastruktur umgehen können sowohl mit Cloud-Ressourcen als auch mit
der lokalen Infrastruktur Hier sind einige gängige Tools für IAC- und Hybridumgebungen. Terraform, eines der
beliebtesten IAC-Tools, unterstützt
mehrere
Cloud-Plattformen unterstützt
mehrere
Cloud-Plattformen und lokale Umgebungen. Es ermöglicht Ihnen, die
Infrastruktur in
einer deklarativen Sprache zu definieren und
Ressourcen in einer deklarativen Sprache zu definieren und Hybridsystemen zu verwalten. Answerable ist ein
Open-Source-Automatisierungstool, mit dem die
Bereitstellung sowohl
auf erstklassigen Systemen als auch in Cloud-Umgebungen
automatisiert werden kann dem die
Bereitstellung sowohl
auf erstklassigen Systemen als auch in Cloud-Umgebungen
automatisiert auf erstklassigen Systemen Es ist besonders nützlich für die Automatisierung des Konfigurationsmanagements
in Hybridumgebungen AWS CloudFormation. Für AWS-spezifische
Hybridumgebungen kann
Cloud Formation zur
Definition und Verwaltung von Ressourcen verwendet werden Definition und Verwaltung von Ressourcen Es lässt sich über Dienste
wie AWS Outpost gut in erstklassige Systeme Nehmen wir ein Beispiel. Das Williams-Team kann Terraform
verwenden, um sowohl
Cloud-basierte Ressourcen wie
AWS EC-Instances und
RDS-Datenbanken als auch die
Mainframe-Infrastruktur vor Ort zu
definieren AWS EC-Instances und RDS-Datenbanken als auch die
Mainframe-Infrastruktur vor Ort Durch das Schreiben des
Infrastrukturcodes kann
das Team
Ressourcen in beiden
Umgebungen konsistent
bereitstellen und verwalten Ressourcen in beiden
Umgebungen konsistent Automatisierung der Bereitstellung
und Konfiguration. Sobald Sie
Ihre IAC-Tools ausgewählt haben, der nächste Schritt darin,
die Bereitstellung und
Konfiguration von Ressourcen zu automatisieren die Bereitstellung und IAC können Sie
Skripts erstellen , die die
Bereitstellung von Servern,
Netzwerken, Speichern und anderen
Infrastrukturkomponenten automatisieren Netzwerken, Speichern und anderen Automatisierte Bereitstellung,
Schreiben von Skripten zur Automatisierung der Erstellung von Cloud-Umgebungen und
Mainframe-Ressourcen Diese Skripte können die
Infrastruktur innerhalb von Minuten bereitstellen, sodass keine
manuellen Konfigurationen erforderlich Automatisierte Konfiguration. Verwenden Sie Tools wie Ansibl oder Puppet, um
die Konfiguration
von Servern und Anwendungen zu automatisieren und
sicherzustellen, dass sie korrekt
eingerichtet und auf Ihre
Geschäftsanforderungen abgestimmt
sind eingerichtet und auf Ihre
Geschäftsanforderungen abgestimmt Nehmen wir ein Beispiel. Wenn Williams
Financial Institute ein neues Bankprodukt auf den
Markt bringt, kann
sein Team
TerraForm Provision nutzen,
die Cloud-Infrastruktur, die für das Hosten des Produkts
erforderlich ist, und
Ansibl das Mainframe-System konfigurieren
, das die , Versionskontrolle und Zusammenarbeit mit IAC. Einer der Hauptvorteile
von IAC besteht darin, dass Infrastrukturcode
in
Versionskontrollsystemen wie Git gespeichert werden kann in
Versionskontrollsystemen wie Dies ermöglicht die Zusammenarbeit zwischen mehreren Teams und Änderungen an der Infrastruktur
können genau wie der
Anwendungscode verfolgt und überprüft Versionskontrolle, Speicherung von
IAC-Skripten in Repositorys
wie GitHub oder Gitlab, sodass Ihr Team zusammenarbeiten und
Infrastrukturänderungen überprüfen kann,
bevor sie angewendet werden Kontinuierliche Integration. Integrieren Sie IAC in
Ihre CICD-Pipelines, um
Infrastrukturänderungen
automatisch zu testen und zu validieren ,
bevor sie implementiert werden Nehmen wir ein Beispiel. Williams Team würde
ihre
Terraform-Skripte auf GitHub speichern , wo Teammitglieder vorgeschlagene Änderungen an
der Cloud-Infrastruktur oder den
Mainframe-Konfigurationen
überprüfen können der Cloud-Infrastruktur oder den ,
bevor sie sie bereitstellen Dadurch wird sichergestellt, dass alle Änderungen geprüft und
genehmigt werden. Überwindung gängiger
Automatisierungsherausforderungen in Hybridumgebungen Automatisierung ist
in hybriden Umgebungen zwar von entscheidender Bedeutung, es gibt jedoch häufig spezifische
Herausforderungen, mit denen Teams konfrontiert Hier werden wir einige
der häufigsten Herausforderungen untersuchen und herausfinden, wie sie überwunden werden können. Sicherstellung der Konsistenz zwischen lokalen und Cloud-Umgebungen. Eine der größten Herausforderungen in Hybridumgebungen ist die Sicherstellung Konsistenz zwischen den Mainframe-Systemen vor Ort und der Cloud-Infrastruktur Verschiedene Umgebungen können unterschiedliche
Konfigurationen
erfordern, was zu potenziellen
Diskrepanzen führen Verwenden Sie zur Lösung
IAC-Tools wie Terraform,
die mehrere
Plattformen unterstützen, um
eine konsistente
Infrastruktur
sowohl in lokalen als auch in Cloud-Umgebungen zu definieren eine konsistente
Infrastruktur
sowohl in lokalen als auch in Cloud-Umgebungen sowohl in lokalen als auch Dadurch wird sichergestellt, dass die
Konfigurationen auch bei der Weiterentwicklung der
Infrastruktur
aufeinander abgestimmt bleiben auch bei der Weiterentwicklung der
Infrastruktur
aufeinander abgestimmt Beispielsweise kann
das Williams-Team
Terraform verwenden, um
Infrastrukturressourcen sowohl
für die Cloud als auch für lokale Systeme zu definieren und
so sicherzustellen, dass
Netzwerkkonfigurationen, Sicherheitsrichtlinien
und Rechenressourcen konsistent angewendet werden Verwaltung komplexer Abhängigkeiten. In hybriden Umgebungen weisen
Systeme häufig
komplexe Abhängigkeiten auf, die sich sowohl auf die Cloud- als auch auf die
lokale Infrastruktur
erstrecken. Beispielsweise kann eine
cloudbasierte Anwendung auf eine Mainframe-Datenbank
zurückgreifen für die
Transaktionsverarbeitung in Echtzeit Die Verwaltung dieser
Abhängigkeiten kann sich bei
automatisierten Bereitstellungen als schwierig Lösung: Verwenden Sie
Orchestrierungstools wie Kubernetes oder Jenkins, um Bereitstellungen
in hybriden Umgebungen zu koordinieren und
sicherzustellen, dass alle
Abhängigkeiten Kubernetes oder Jenkins, um Bereitstellungen
in hybriden Umgebungen zu
koordinieren und
sicherzustellen, dass alle
Abhängigkeiten berücksichtigt und ordnungsgemäß behandelt werden. Das Williams-Team kann beispielsweise Jenkins verwenden, um die Bereitstellung
neuer Funktionen in der
Mobile-Banking-App zu
orchestrieren und
so sicherzustellen, dass die Updates reibungslos in das Mainframe-basierte Transaktionsverarbeitungssystem
integriert die Bereitstellung
neuer Funktionen in der
Mobile-Banking-App zu
orchestrieren und
so sicherzustellen, dass die Updates reibungslos in das Mainframe-basierte Transaktionsverarbeitungssystem
integriert werden. Sicherheit und Compliance. Automatisierung hybrider Umgebungen bringt neue
Sicherheitsherausforderungen mit sich, insbesondere im Hinblick auf den Schutz sensibler
Daten und die
Einhaltung von
Branchenvorschriften wie PCIDSS Lösung: Implementieren Sie bewährte
Sicherheitsmethoden in Ihre IAC-Skripts, z. B. die Definition sicherer
Netzwerkkonfigurationen, Verschlüsselung Integrieren Sie außerdem
Sicherheitsprüfungen in Ihre Automatisierungspipeline, um die Einhaltung
gesetzlicher Anforderungen
sicherzustellen Ein Beispiel:
Das Williams-Team kann NSB verwenden, um die Konfiguration
von Firewalls,
Verschlüsselungsrichtlinien
und Zugriffskontrollen
sowohl in der Mainframe- als auch in der
Cloud-Infrastruktur zu
automatisieren Verschlüsselungsrichtlinien und Zugriffskontrollen und
so sicherzustellen, dass das Bankensystem weiterhin den Sicherheitsstandards entspricht Bewährte Methoden für die
Automatisierung in der Hybrid Cloud. Um das Beste aus der Automatisierung in Hybrid-Cloud-Umgebungen herauszuholen, ist
es wichtig,
bewährte Verfahren zu befolgen, die
Skalierbarkeit, Sicherheit
und Effizienz gewährleisten . Modularisieren Sie den Infrastrukturcode. Aufteilung Ihres IAC in kleinere modulare
Komponenten ermöglicht eine bessere Wiederverwendbarkeit und Wartbarkeit Jedes Modul kann
einen bestimmten Teil
Ihrer Infrastruktur repräsentieren , z. B. eine Netzwerkkonfiguration
oder eine Datenbankeinrichtung
, der in mehreren Umgebungen wiederverwendet werden kann Das Williams-Team kann beispielsweise
ein Modul oder
Datenbankkonfigurationen erstellen , die sowohl für die
Mainframe- als auch für die Cloud-Datenbank angewendet
werden können ,
um sicherzustellen, dass beide Systeme eine ähnliche Konfiguration
verwenden Integrieren Sie Tests in
Automatisierungspipelines. Testen Sie
Infrastrukturänderungen immer bevor sie implementiert werden Verwenden Sie Tools wie T test oder inspect, um automatisierte
Tests für Ihre Infrastruktur zu schreiben und
sicherzustellen, dass alles korrekt
und sicher
konfiguriert ist . Das Williams-Team kann beispielsweise automatisierte Tests in
seine CICD-Pipeline
integrieren , um
sicherzustellen, dass Änderungen an Cloud- und Mainframe-Ressourcen validiert
werden, bevor
sie bereitgestellt werden Überwachen und optimieren Sie die Automatisierung. Überwachen
Sie schließlich kontinuierlich Ihre Automatisierungsprozesse, um Engpässe
oder Ineffizienzen zu identifizieren Verwenden Sie Überwachungstools wie
Prometheus oder AWS Cloud Watch, um sich einen Überblick über
die Leistung Ihrer Infrastruktur und Ihres Automatisierungsworkflows zu verschaffen die Leistung Watch, um sich einen Überblick über
die Leistung Ihrer Infrastruktur und Ihres Automatisierungsworkflows zu verschaffen. Das Williams-Team kann
Prometheus beispielsweise verwenden, um die Leistung der
Infrastruktur zu überwachen und Bereiche zu
identifizieren, in denen
Automatisierungsskripte
optimiert werden müssen , um die
Bereitstellungszeiten zu verkürzen oder den wichtigsten Erkenntnissen aus
dieser Lektion gehören zum einen Infrastrukturcode IAC
können Sie
die Bereitstellung
und Verwaltung von
Ressourcen in
Hybrid-Cloud-Umgebungen automatisieren und so Konsistenz Zu den wichtigsten Erkenntnissen aus
dieser Lektion gehören zum einen: Mit dem
Infrastrukturcode IAC
können Sie
die Bereitstellung
und Verwaltung von
Ressourcen in
Hybrid-Cloud-Umgebungen automatisieren und so Konsistenz und Skalierbarkeit sicherstellen. Zweitens: Überwinden Sie die häufigsten Herausforderungen
bei der hybriden Automatisierung, wie z. B. die Verwaltung von Abhängigkeiten, Sicherstellung der Konsistenz
und die Bewältigung von
Sicherheitsbedenken, indem Sie
Orchestrierungstools und
bewährte Methoden für die Automatisierung verwenden Orchestrierungstools und Drittens: Folgen Sie bewährten Methoden wie der Modularisierung des
Infrastrukturcodes, Integration automatisierter
Tests und der kontinuierlichen Überwachung Ihrer
Automatisierungsprozesse oder Erwerbstätigkeit, Reflexion. Wie würden Sie
IAC einsetzen, um sowohl Primis- als auch
Plowd-Umgebungen in Ihrem Unternehmen zu automatisieren und zu
verwalten Plowd-Umgebungen Welche spezifischen Herausforderungen erwarten Sie und wie
würden Sie sie Diskussion, Frage,
Beitrag im Forum, welche IAC-Tools haben
Sie zur Automatisierung Ihrer
Hybrid-Cloud-Infrastruktur verwendet oder planen zu verwenden Wie haben diese Tools die
betriebliche Effizienz verbessert? Nächste Lektion: Sicherheitsherausforderungen
in Hybrid-Cloud-Systemen. Im nächsten Modul werden wir unseren
Fokus auf Sicherheit, Compliance und Governance
in Hybridsystemen verlagern. In der ersten Lektion von Modul sechs werden
wir die einzigartigen
Sicherheitsherausforderungen untersuchen, die sich in hybriden
Umgebungen ergeben, insbesondere in Branchen wie dem
Finanzwesen, und erörtern, wie Sicherheit lokalen und Cloud-Umgebungen gewährleistet werden kann. Wir freuen uns darauf, Ihre
hybride Infrastruktur zu schützen Lassen Sie uns zu Modul 6 übergehen
und lernen, wie Sie die Sicherheitsherausforderungen in
Hybrid-Cloud-Systemen bewältigen können.
22. Lektion 1: Sicherheitsherausforderungen in hybriden Cloud-Systemen: Willkommen zu Modul sechs, der
Sicherstellung von Compliance und
Governance in Hybridsystemen befasst. Sicherheit und Compliance sind für
Hybrid-Cloud-Architekturen von
entscheidender Bedeutung, insbesondere in regulierten
Branchen wie dem Bankwesen Dieses Modul behandelt
Sicherheitsframeworks, Verschlüsselungsmethoden und
Compliance-Strategien Die Teilnehmer lernen auch, wie man Governance-Richtlinien
implementiert, die gesetzlichen
Anforderungen
sowohl in Mainframe- als auch in
Cloud-Umgebungen Lektion eins: Sicherheitsherausforderungen
in Hybrid-Cloud-Systemen. Willkommen zu Modul sechs, in dem wir uns auf Sicherheit,
Compliance und Governance in
Hybrid-Cloud-Umgebungen konzentrieren werden. Für einen
Leiter der IT-Infrastruktur wie William die einzigartige Natur
von Hybridsystemen, bei denen lokale
Mainframes und
Cloud-Umgebungen
kombiniert werden,
eine Reihe von
Sicherheitsherausforderungen dar eine Reihe von
Sicherheitsherausforderungen Diese Lektion bietet einen
Überblick über diese Herausforderungen, insbesondere in regulierten
Branchen wie dem Finanzwesen, in denen die Aufrechterhaltung der
Sicherheit sowohl von lokalen als auch von
Cloud-Systemen von größter Bedeutung ist Am Ende dieser
Lektion werden Sie zunächst die einzigartigen
Sicherheitsherausforderungen
in Hybrid-Cloud-Umgebungen
verstehen . Zweitens lernen Sie, wie Sie die
Sicherheit sowohl in
lokalen als auch in
Cloud-Infrastrukturen aufrechterhalten Sicherheit sowohl in können, insbesondere in Branchen mit strengen regulatorischen
Anforderungen. Lassen Sie uns zunächst
die Sicherheitslandschaft
in Hybridsystemen untersuchen und die kritischen
Herausforderungen
identifizieren, Unternehmen wie
Ihres auseinandersetzen müssen. Überblick über die
Sicherheitsherausforderungen in Hybrid-Cloud-Umgebungen. In Hybridumgebungen müssen
Unternehmen
zwei unterschiedliche Infrastrukturen vor Ort sichern, z.
B.
auf Mainframes und
Cloud-basierten Plattformen wie AWS, Azure oder Google Cloud Jede Infrastruktur hat ihre
eigenen Sicherheitsanforderungen, und deren
Kombination zu
einem einzigen zusammenhängenden System
führt zu neuen Lassen Sie uns die wichtigsten
Sicherheitsherausforderungen aufschlüsseln. Erweiterung der Angriffsfläche. Hybridumgebungen
vergrößern die Angriffsfläche , da sie sowohl
lokale als auch Cloud-Systeme umfassen Dies schafft mehr Einstiegspunkte
für potenzielle Angreifer. Die Notwendigkeit,
Daten und die Übertragung
zwischen lokalen und
Cloud-Umgebungen zu schützen und Anwendungen so
zu schützen, dass sie sich über beide Infrastrukturen erstrecken,
macht die Sicherung dass sie sich über beide Infrastrukturen erstrecken, hybrider Systeme von Natur aus
komplexer Sicherheit vor Ort. Systeme vor Ort
wie Mainframes werden häufig durch
Netzwerk-Firewalls, Systeme zur Erkennung von
Eindringlingen
und physische Zugriffskontrollen gesichert Systeme zur Erkennung von
Eindringlingen
und physische Zugriffskontrollen und physische Cloud-Sicherheit. In
Cloud-Umgebungen verlassen sich
Unternehmen auf Modelle der gemeinsamen
Verantwortung mit Cloud-Anbietern, bei denen der Cloud-Anbieter
einige Sicherheitsvorkehrungen wie die Sicherheit
des physischen Rechenzentrums übernimmt einige Sicherheitsvorkehrungen wie die Sicherheit , die Organisation
jedoch für die
Sicherung der
Datenanwendung und des Zugriffs verantwortlich
ist . Nehmen wir ein Beispiel. Finanzinstitut Williams verarbeitet Kundentransaktionen in
Echtzeit auf dem Mainframe und speichert gleichzeitig
Kundendaten in der Cloud Beide Systeme müssen in beiden Infrastrukturen
vor Angriffen wie
Datenschutzverletzungen oder Dios-Angriffen geschützt werden . Datensicherheit und Compliance. regulierten Branchen
wie dem Finanzwesen Einhaltung von
Vorschriften wie PCIDSS, erhöht die
Einhaltung von
Vorschriften wie PCIDSS,
GDPR und HIPA die Komplexität Diese Vorschriften
erfordern strenge Kontrollen Umgangs mit sensiblen
Daten,
einschließlich Verschlüsselung, einschließlich Verschlüsselung, Zugriffsverwaltung Die Herausforderung in hybriden
Umgebungen besteht darin, sicherzustellen, dass die Datensicherheitsrichtlinien
sowohl in lokalen als auch in
Cloud-Umgebungen
einheitlich durchgesetzt werden einheitlich durchgesetzt sowohl in lokalen als auch in
Cloud-Umgebungen Daten im Transit. Daten, die zwischen Primärsystemen und
der Cloud
übertragen werden, müssen
verschlüsselt werden , um ein
Abfangen während der Übertragung zu verhindern Datenadresse. Sowohl Daten in der Cloud
als auch vor Ort müssen mithilfe von Verschlüsselungs
- und Zugriffskontrollrichtlinien
gesichert , um sie vor
unbefugtem Zugriff zu schützen. Nehmen wir ein Beispiel. Williams Institution
muss die
Finanzdaten der
Kunden verschlüsseln , wenn sie übertragen werden zur
Verarbeitung vom Mainframe in die Cloud Sie müssen außerdem sicherstellen, dass die in
Cloud-Umgebungen gespeicherten
Daten den PCIDSS-Standards in
Cloud-Umgebungen gespeicherten
Daten
den PCIDSS-Standards
zur Sicherung von Zahlungsinformationen entsprechen. Identitäts- und Zugriffsmanagement. Eine weitere große Herausforderung in
hybriden Umgebungen ist die Verwaltung Identitäts- und Zugriffskontrolle in zwei unterschiedlichen
Infrastrukturen. In lokalen Umgebungen verwenden
Unternehmen in der Regel Systeme wie Active Directory oder EDAP
zur Authentifizierung In der Cloud verlassen
sie sich auf Dienste wie AWS IAM oder Azure 8.0 zu verhindern unbefugten Zugriff in kann schwierig sein, eine konsistente
Zugriffskontrolle sicherzustellen und
unbefugten Zugriff in
beiden Umgebungen Multifaktor-Authentifizierung oder MFA. Verwendung von MFA ist unerlässlich, um
den Zugriff auf lokale
und Cloud-Ressourcen zu sichern und
sicherzustellen, dass
Angreifer auch dann nicht einfach darauf zugreifen können
, wenn
Anmeldeinformationen kompromittiert werden Angreifer auch dann nicht einfach darauf zugreifen können Rollenbasierte
Zugriffskontrolle oder RBAC. Implementieren Sie RBAC, um zu kontrollieren , wer Zugriff auf
bestimmte Systeme hat,
und um sicherzustellen, dass Benutzer nur über die für ihre Rolle
erforderlichen Berechtigungen verfügen Nehmen wir ein Beispiel. In Williams Organisation benötigt das
DevOps-Team Zugriff
sowohl auf Cloud-Umgebungen für Anwendungsbereitstellung
als auch auf Mainframe-Systeme für die Backend-Verarbeitung Implementierung von MFA und RBAC wird
sichergestellt, dass der Zugriff streng
kontrolliert wird und dass nur
autorisiertes Durch die Implementierung von MFA und RBAC wird
sichergestellt, dass der Zugriff streng
kontrolliert wird und dass nur
autorisiertes Personal kritische Systeme ändern kann. Ähm, Aufrechterhaltung der Sicherheit in lokalen und
Cloud-Umgebungen wir nun
die Herausforderungen identifiziert haben, schauen wir uns einige Strategien
zur Aufrechterhaltung der Sicherheit sowohl in lokalen als auch in
Cloud-Infrastrukturen
in einer Hybridumgebung an . Sicherung von Daten während der Übertragung. Eine der wichtigsten Sicherheitsmaßnahmen
in Hybridsystemen ist die Sicherung von Daten bei der Übertragung zwischen lokalen Systemen
und Cloud-Plattformen. Ohne angemessene
Sicherheit könnten Daten während der
Übertragung
abgefangen werden, was
zu potenziellen Datenschutzverletzungen führen zu potenziellen Datenschutzverletzungen Verschlüsselung bei der Übertragung. Verwenden Sie die
SSL-TLS-Verschlüsselung, um
Daten zu schützen , wenn sie zwischen lokalen Umgebungen und
Cloud-Umgebungen übertragen werden. Die gesamte Kommunikation zwischen
Systemen sollte verschlüsselt werden , um sicherzustellen, dass vertrauliche
Informationen sicher bleiben. Sichere Netzwerkverbindungen. Verwenden Sie VPNs oder dedizierte
Verbindungen wie AWS Direct Connect oder Azure
Express Route, um
sichere private
Verbindungen zwischen
Ihren lokalen Systemen
und der Cloud-Umgebung herzustellen sichere private
Verbindungen zwischen Ihren lokalen Systemen
und der Cloud-Umgebung Diese Verbindungen umgehen
das öffentliche Internet und
reduzieren so das Risiko, dass sie
abgefangen Nehmen wir ein Beispiel.
Das Williams-Team kann AWS
Direct Connect implementieren, um Kundentransaktionsdaten
sicher
von seinem Mainframe an
AWS zur Cloud-Verarbeitung zu übertragen von seinem Mainframe an
AWS zur Cloud-Verarbeitung Diese spezielle Verbindung
stellt sicher, dass Daten
verschlüsselt und
sicher übertragen werden ohne dass sie
dem öffentlichen Internet ausgesetzt Konsistente Sicherheitsrichtlinien
in allen Umgebungen. Die Einhaltung konsistenter
Sicherheitsrichtlinien sowohl in lokalen als auch in
Cloud-Umgebungen ist unerlässlich, um
Sicherheitslücken zu vermeiden Diese Richtlinien sollten
die Zugriffskontrolle,
Verschlüsselung,
Datenschutz und Prüfung regeln Verschlüsselung,
Datenschutz und Prüfung Einheitliches Sicherheitsmanagement. Verwenden Sie Tools wie Azure
Security Center, AWS Security Hub oder Lösungen von
Drittanbietern, um das
Sicherheitsmanagement
sowohl in lokalen als auch in
Cloud-Umgebungen zu zentralisieren sowohl in lokalen als auch in
Cloud-Umgebungen Diese Tools bieten eine zentrale
Oberfläche zur Überwachung und
Durchsetzung von Sicherheitsrichtlinien in
allen
Infrastrukturen Automatisierte
Sicherheitsaudits, regelmäßige Sicherheitsrichtlinien
und stellen sicher, dass sowohl lokale als auch
Cloud-Umgebungen den gesetzlichen
Anforderungen entsprechen. Automatisierungstools
können dabei helfen, die
Einhaltung von Vorschriften zu überwachen und Teams
vor Sicherheitsverstößen zu warnen Beispielsweise
kann das Williams-Team den AWS Security Hub verwenden, um konsistente Sicherheitsrichtlinien sowohl
in der Cloud als auch in den
Mainframe-Systemen vor Ort
zu
überwachen und durchzusetzen sowohl
in der Cloud als auch in den
Mainframe-Systemen vor Ort
zu
überwachen und Mainframe-Systemen vor Ort
zu Dadurch wird sichergestellt, dass Umgebungen dieselben Verschlüsselungs- und
Zugriffskontrollrichtlinien beiden Umgebungen dieselben Verschlüsselungs- und
Zugriffskontrollrichtlinien durchgesetzt
werden Sicherung hybrider Workloads
mit einer Zero-Trust-Architektur. Durch die Einführung einer
Zero-Trust-Architektur wird sichergestellt, dass jede
Zugriffsanfrage,
unabhängig davon, ob sie von innerhalb oder außerhalb des Netzwerks stammt, verifiziert wird,
bevor der Zugriff gewährt wird Dies ist besonders wichtig in Hybridumgebungen, in denen sich Workloads über mehrere
Infrastrukturen erstrecken Zero-Trust-Prinzipien. Implementieren Sie Zero-Trust-Prinzipien wie den Zugriff mit den geringsten Rechten, kontinuierliche Authentifizierung und Mikrosegmentierung,
um sicherzustellen, dass auch interne Benutzer
verifiziert werden , bevor sie auf
sensible Ressourcen zugreifen Mikrosegmentierung. Verwenden Sie die Mikrosegmentierung, um Ihre Hybridumgebung
in kleinere Segmente zu unterteilen, Workloads
zu isolieren und
die Auswirkungen von Sicherheitsverletzungen zu begrenzen die Auswirkungen In der Organisation
Williams
kann die
Mikrosegmentierung beispielsweise verwendet werden, um verschiedene Teile der
hybriden Infrastruktur zu isolieren und
so sicherzustellen, dass das Mainframe-System auch bei einem Angriff auf die
Cloud-Umgebung sicher bleibt . Bewährte Methoden für
Hybrid-Cloud-Sicherheit. Um
Hybridumgebungen effektiv zu schützen, ist
es wichtig,
bewährte Verfahren zu befolgen, die den besonderen Herausforderungen bei
der Verwaltung sowohl lokaler als auch
Cloud-Infrastrukturen Rechnung tragen. Implementieren Sie
mehrschichtige Sicherheit. Verwenden Sie einen mehrschichtigen
Sicherheitsansatz , der Verschlüsselung,
Zugriffskontrolle, Überwachung
und Bedrohungserkennung umfasst . Dieser mehrschichtige Ansatz stellt sicher , dass selbst wenn eine
Ebene gefährdet ist, die verbleibenden Schichten das System
weiterhin schützen Verschlüsselung. Verwenden Sie Verschlüsselung sowohl für die Übertragung von Daten als auch für
die Datenadresse Identitätsmanagement. Verwenden Sie starke
Authentifizierungsmechanismen wie MFA und RBAC Überwachung:
Überwachen Sie Ihre Hybridumgebung kontinuierlich mit Tools wie AWS CloudWatch,
Azure Monitor oder Splunk, um in
Echtzeit Einblick in Sicherheitsbedrohungen zu erhalten Echtzeit Zentralisierte
Sicherheitsüberwachung und Reaktion. Implementieren Sie ein zentralisiertes
Sicherheitsüberwachungssystem , um sowohl Ihre Cloud
- als auch Ihre lokalen Umgebungen zu Mit einem zentralen Kontrollpunkt können
Sicherheitsteams Bedrohungen überwachen und schnell
darauf reagieren.
Reaktion auf Vorfälle. sicher, dass Ihr Plan zur Reaktion auf
Vorfälle Verfahren sowohl
für Cloud- als auch für
lokale Systeme
umfasst , damit
Sicherheitsteams
auf Bedrohungen in der gesamten
hybriden Infrastruktur reagieren können . Regelmäßige Sicherheitsaudits
und Konformitätsprüfungen. Führen Sie regelmäßige Sicherheitsaudits und Konformitätsprüfungen durch,
um sicherzustellen, dass Ihre
Hybridumgebung den Branchenvorschriften und
internen Sicherheitsrichtlinien Automatisierungstools können bei der kontinuierlichen Überwachung der
Einhaltung von Vorschriften helfen kontinuierlichen Überwachung der
Einhaltung Überwachung der Einhaltung der Vorschriften. Verwenden Sie automatisierte Tools, um die Einhaltung von
Vorschriften wie
PCIDSS, GDPR und HIPAA
kontinuierlich zu überwachen Vorschriften wie
PCIDSS, GDPR und HIPAA den wichtigsten Erkenntnissen aus
dieser Lektion gehören zum
einen, dass hybride Umgebungen einzigartige
Sicherheitsherausforderungen mit sich
bringen, darunter eine erweiterte
Angriffsfläche, Datensicherheitsanforderungen und die Identitäts
- und Zugriffsverwaltung für lokale und Cloud-Systeme Zweitens sind die sichere Übertragung von Daten
mit Verschlüsselung und die Verwendung dedizierter
Netzwerkverbindungen entscheidend für den Schutz sensibler Daten bei Übertragung zwischen Umgebungen Drittens sollten Sie eine
Zero-Trust-Architektur einführen und konsistente
Sicherheitsrichtlinien sowohl in lokalen als auch in Cloud-Umgebungen , um einen umfassenden
Schutz zu gewährleisten. Erwerbstätigkeit, Reflexion. Wie würden Sie Daten während
der Übertragung schützen und
konsistente Sicherheitsrichtlinien in Ihrer
gesamten Hybridumgebung sicherstellen konsistente Sicherheitsrichtlinien ? Vor welchen Herausforderungen könnten Sie stehen und wie würden
Sie sie bewältigen? Diskussionsfrage,
Beitrag im Forum Wie verwaltet Ihr
Unternehmen Identitäts- und
Zugriffskontrolle
sowohl in der Cloud als auch in der
lokalen Umgebung? Wie stellen Sie die Konsistenz
der Sicherheitsrichtlinien sicher? Nächste Lektion, Entwicklung eines
Hybrid-Cloud-Sicherheitsframeworks. In der nächsten Lektion werden wir
untersuchen, wie
ein umfassendes
Sicherheitsframework
für Hybridumgebungen entwickelt ein umfassendes
Sicherheitsframework werden kann. Sie lernen, wie Sie Schlüsselelemente
wie Verschlüsselung,
Multifaktor-Authentifizierung
und Zero-Trust-Architekturen
integrieren können, und wir werden
bewährte Methoden für den
Schutz von Daten sowohl bei der
Übertragung als auch bei der Adresse besprechen Schutz von Daten sowohl bei der
Übertragung als auch bei der Adresse Bereit, ein
Sicherheitsframework
für Ihre Hybrid Cloud zu erstellen für Ihre Hybrid Fahren wir mit Lektion
zwei von Modul sechs fort. Ähm,
23. Lektion 2: Entwicklung eines hybriden Cloud-Sicherheitsframeworks: Lektion zwei, Entwicklung eines
Hybrid-Cloud-Sicherheitsframeworks. Willkommen zu Lektion
zwei von Modul sechs. In dieser Lektion
konzentrieren wir uns darauf, wie Sie
ein umfassendes
Sicherheitsframework entwickeln ein umfassendes
Sicherheitsframework Hybrid-Cloud-Umgebungen
zugeschnitten ist. Für einen
Leiter der IT-Infrastruktur wie William ist der
Aufbau eines
Sicherheitsframeworks, das Schlüsselelemente
wie Verschlüsselung,
Multifaktor-Authentifizierung
und Zero-Trust-Architekturen
beinhaltet , entscheidend, um sowohl
erstklassige Systeme als auch
Cloud-Umgebungen zu schützen erstklassige Systeme als auch
Cloud-Umgebungen Wir werden uns auch mit
bewährten Methoden zur Sicherung von Daten während der Übertragung
und der Datenadresse befassen,
um ein Höchstmaß an
Sicherheit in Ihrer
hybriden Infrastruktur zu gewährleisten Ihrer
hybriden Am Ende dieser
Lektion werden Sie zunächst
lernen, wie Sie ein
umfassendes
Hybrid-Cloud-Sicherheitsframework
mit Schlüsselelementen
wie Verschlüsselung,
MFA und Zero Trust erstellen umfassendes
Hybrid-Cloud-Sicherheitsframework mit Schlüsselelementen
wie Verschlüsselung, MFA und Zero Trust Informieren Sie sich außerdem über bewährte Verfahren zur Sicherung von Daten während der
Übertragung und der Adresse Sehen wir uns die
wesentlichen Komponenten des Hybrid Cloud-Sicherheitsframeworks und erfahren Sie, wie Sie
diese effektiv implementieren können. Schlüsselelemente eines umfassenden
Hybrid-Cloud-Sicherheitsframeworks. Ein starkes Sicherheitsframework für Hybridumgebungen
muss
den spezifischen
Herausforderungen Rechnung tragen , die mit der Verwaltung
von Mainframes vor Ort
und Cloud-Plattformen Lassen Sie uns
die wichtigsten Elemente dieses Frameworks und
ihre Implementierung erläutern. Verschlüsselung, Schutz von Daten
bei der Übertragung und Adresse. Verschlüsselung ist für jedes Sicherheitsframework von grundlegender Bedeutung
. In einer Hybrid-Cloud-Umgebung stellt die
Verschlüsselung sicher, dass
sensible Daten
geschützt bleiben , wenn sie zwischen lokalen Systemen
und Cloud-Plattformen übertragen werden und wenn sie
in einer der Umgebungen gespeichert werden. Verschlüsselung bei der Übertragung. Verschlüsselung von Daten während der Übertragung
zwischen Ihren lokalen und Cloud-Systemen ist entscheidend, um
unbefugten Zugriff zu verhindern Verwenden Sie SSL-TLS-Verschlüsselungsprotokolle
für alle Datenübertragungen. Beispieltools verwenden AWS Direct Connect oder
Azure Express Route für sichere, verschlüsselte Verbindungen zwischen lokalen
Rechenzentren und der Cloud. Verschlüsselungsadresse. Stellen Sie sicher, dass Daten
verschlüsselt sind, wenn sie
sowohl auf Ihren
Mainframe-Systemen vor Ort als auch auf Ihrem Cloud-Speicher gespeichert werden sowohl auf Ihren
Mainframe-Systemen vor Ort als auch auf Ihrem Cloud-Speicher Verwenden Sie Cloud-native
Tools wie AWS KMS oder Azure Key Volt, um Verschlüsselungsschlüssel zu
verwalten und in der Cloud
gespeicherte Daten zu
schützen Beispiel: Implementierung:
Verschlüsseln Sie sensible
Finanzdaten und Kundendaten, Verschlüsseln Sie sensible
Finanzdaten und Kundendaten in AWS
gespeichert sind, mithilfe von KMS um sicherzustellen, dass die Daten auch dann, wenn der
Cloud-Speicher kompromittiert wird, ohne
die richtigen
Entschlüsselungsschlüssel nicht zugänglich bleiben ohne
die richtigen
Entschlüsselungsschlüssel nicht Nehmen wir ein Beispiel.
Das Williams-Team kann die DLS-Verschlüsselung verwenden, um die Übertragung von
Kundenfinanzdaten
vom Mainframe zu
AWS und KMS zu
sichern Kundenfinanzdaten
vom Mainframe zu
AWS und KMS zu , um
sicherzustellen, dass die Daten, sobald sie in der Cloud
gespeichert sind Dadurch wird sichergestellt, dass sowohl die Daten als auch die
Übertragung und die adressierten Daten vollständig
geschützt sind Multifaktor-Authentifizierung oder MFA zur Stärkung des
Identitätsschutzes Multi-Faktor-Authentifizierung MFA bietet eine zusätzliche
Sicherheitsebene , da Benutzer ihre Identität
anhand mehrerer Faktoren
überprüfen müssen ihre Identität
anhand mehrerer Faktoren
überprüfen In der Regel etwas, das sie
kennen, wie ein Passwort,
etwas, das sie haben,
ein Sicherheitstoken oder Telefon und etwas, das
sie biometrisch Cloud-MFA-Lösungen. In Cloud-Umgebungen kann
MFA mithilfe von
Diensten wie AWS MFA,
Azure MFA oder Tools von
Drittanbietern wie Octa implementiert werden Azure MFA oder Tools von
Drittanbietern wie Octa MFA stellt sicher, dass
Angreifer ohne den zweiten Authentifizierungsfaktor nicht auf
kritische Systeme
zugreifen können, selbst wenn die Anmeldeinformationen
eines Benutzers kompromittiert
werden Angreifer ohne den zweiten Authentifizierungsfaktor nicht auf
kritische Systeme
zugreifen können . Beispiel: Bei der Implementierung ist MFA
für alle Anmeldungen sowohl bei
Cloud-Anwendungen als auch bei lokalen Systemen
erforderlich für alle Anmeldungen sowohl bei
Cloud-Anwendungen ,
insbesondere für Benutzer
mit privilegiertem Zugriff,
wie Administratoren
und insbesondere für Benutzer
mit privilegiertem Zugriff, wie Administratoren MFA vor Ort. Erweitern Sie die MFA-Lösungen auch
auf Ihre lokalen Systeme. Durch die Integration von Active Directory
oder LDAP mit MFA können Sie wichtige
lokale Anwendungen schützen, z. B. solche, die auf Ihrem
Mainframe laufen Nehmen wir ein Beispiel. Für Williams Institution kann
MFA
für jeden Mitarbeiter erforderlich sein, der remote auf
die Mainframe- oder
Cloud-Systeme zugreift . Dadurch wird
sichergestellt, dass nur
autorisiertes Personal auf sensible Systeme zugreifen
kann Zero-Trust-Architektur,
vertraue niemandem, verifiziere immer. Ein
Zero-Trust-Sicherheitsmodell basiert auf dem
Prinzip „Niemals vertrauen, immer verifizieren“,
was bedeutet, dass
niemandem, egal ob innerhalb oder außerhalb des Unternehmens, standardmäßig
vertraut wird. Jede Zugriffsanfrage
muss authentifiziert, autorisiert und
kontinuierlich validiert Zugriff mit den geringsten Rechten. Wenden Sie das Prinzip
der geringsten Rechte indem Sie sicherstellen, dass Benutzer nur Zugriff auf
die Ressourcen haben, die sie für ihre
Arbeit
benötigen, und nicht mehr. Dadurch wird das Potenzial
einer Sicherheitsverletzung begrenzt , indem
die Anzahl der Systeme reduziert wird , auf die
ein Angreifer
zugreifen kann , wenn er ein Konto
kompromittiert. Beispielimplementierung: Verwenden Sie
AWS IAM oder Azure AD, um
rollenbasierte
Zugriffskontrollen (RBAC) zu erstellen , die
basierend auf den Rollen der Benutzer
innerhalb der Organisation
eingeschränkten Zugriff auf
Cloud-Ressourcen gewähren , die
basierend auf den Rollen der Benutzer
innerhalb der Organisation
eingeschränkten Zugriff auf
Cloud-Ressourcen basierend auf den Rollen der Benutzer
innerhalb der Organisation
eingeschränkten Zugriff auf Kontinuierliche Authentifizierung. Implementieren Sie eine kontinuierliche
Authentifizierung, um sicherzustellen, dass Benutzer während
ihrer gesamten Sitzung
verifiziert bleiben , insbesondere beim Zugriff auf
sensible Daten oder Anwendungen. Implementieren Sie ein Beispiel, integrieren Sie biometrische Verifizierung oder kontextbasierte Authentifizierung, um
beispielsweise
ungewöhnliche Anmeldeorte
oder Geräte zu erkennen , um eine zusätzliche
Schutzebene zu schaffen Nehmen wir ein Beispiel. Das Williams-Team könnte AWSIAM verwenden , um einen strikten regelbasierten
Zugriff für verschiedene Teams zu schaffen DevOps-Techniker beschränken sich auf die Ressourcen, die
sie für die Verwaltung von
Cloud-Implementierungen benötigen, und
stellen gleichzeitig sicher, dass
Mainframe-Administratoren nur Zugriff auf Mainframe-Systeme haben Bewährte Methoden für die Sicherung von
Daten in Hybridumgebungen. Daten sind das wertvollste
Gut in jedem Unternehmen, insbesondere in
Branchen wie dem Finanzwesen, denen der Schutz von Kunden- und Transaktionsdaten von entscheidender Bedeutung ist. Folgenden finden Sie
bewährte Verfahren zum Schutz von Daten während der Übertragung und Adresse. Sicherung von Daten während der Übertragung. Daten, die zwischen Ihren
lokalen Systemen und Cloud-Umgebungen übertragen werden, sind während der Übertragung
besonders gefährdet. Hier erfahren Sie, wie Sie es sichern und alle Übertragungen
verschlüsseln können. Verschlüsseln Sie
Datenübertragungen immer mit SSL-TLS-Verschlüsselungsprotokollen , um ein Abfangen
durch unbefugte Parteien zu verhindern Für Williams
Financial Institution kann
DLS beispielsweise verwendet werden, um Daten zu
verschlüsseln, die von
Mainframe-Datenbanken in die
drei oder andere Cloud-Speicherlösungen von AWS übertragen werden drei Verwenden Sie private Netzwerkverbindungen. Anstatt sich für
die
Übertragung sensibler Daten auf das öffentliche Internet zu verlassen , verwenden Sie dedizierte Verbindungen wie AWS Direct Connect oder
Azure Express Route, um private
Hochgeschwindigkeitsverbindungen
zwischen lokalen
und Cloud-Systemen
herzustellen . Nehmen wir ein Beispiel.
Das Williams-Team kann AWS Direct Connect einrichten, um Transaktionsaufzeichnungen
sicher
vom Mainframe in die Cloud zu übertragen vom Mainframe in die Cloud zu und so
das mit einem
öffentlichen Internet
verbundene Risiko zu umgehen mit einem
öffentlichen Internet
verbundene Sicherung der Datenadresse. Daten, die in
Cloud-Umgebungen oder auf
erstklassigen Systemen gespeichert sind, müssen verschlüsselt und vor unbefugtem Zugriff
geschützt werden. Cloud-Verschlüsselung: Verschlüsseln Sie alle in der Cloud gespeicherten Daten
mit Tools wie AWSKMS oder Azure Keyvolt und stellen Sie sicher, dass die Verschlüsselungsschlüssel ordnungsgemäß verwaltet und
rotiert werden Verschlüsseln Sie beispielsweise alle in der
AWSRDS- oder Azure SQL-Datenbank gespeicherten
Kundenkontodaten mit KMS oder Tastatur Verschlüsselung vor Ort. bei Mainframe-Systemen Implementieren Sie bei Mainframe-Systemen die Datenverschlüsselung
auf Speicherebene mithilfe integrierter
Verschlüsselungstools, um lokale Datenbanken zu schützen Verwenden Sie beispielsweise die
ZOS-Verschlüsselungsfunktion von IBM um die
Mainframe-Datenadresse zu verschlüsseln und
so sicherzustellen, dass die auf dem Mainframe gespeicherten
Finanzdaten der Kunden gespeicherten
Finanzdaten der Beispielsweise kann das Williams-Team
sicherstellen, dass Kundendaten auf dem Mainframe
gespeichert sind mithilfe der IBM
ZOS-Verschlüsselung
verschlüsselt werden, während
in der Cloud gespeicherte Daten , die auf dem Mainframe
gespeichert sind, mithilfe der IBM
ZOS-Verschlüsselung
verschlüsselt werden,
während
in der Cloud gespeicherte Daten mit AWS KMS geschützt werden. Dadurch wird gewährleistet, dass
beide Umgebungen die erforderlichen
Verschlüsselungsstandards
erfüllen Überwachung und Prüfung Ihres
hybriden Sicherheitsframeworks. Regelmäßige Überwachung und Prüfung sind entscheidend, um sicherzustellen, dass Ihr Sicherheitsframework
wirksam bleibt und den
Vorschriften entspricht. So implementieren Sie
diese Kontrollen. Zentralisierte Überwachung. Verwenden Sie eine zentralisierte
Sicherheitsüberwachungslösung, um
Aktivitäten sowohl in
lokalen als auch in Cloud-Umgebungen zu verfolgen . Lösungen wie AWS Cloud
Watch, Azure Security Center und Splunk ermöglichen Echtzeitüberwachung
von Sicherheitsereignissen, sodass Ihr Team potenzielle
Bedrohungen schnell erkennen und darauf reagieren Implementieren Sie beispielsweise
AWS Cloud Watch zur Überwachung von Cloud-Aktivitäten verwenden Sie Splunk, um allgemeine Ereignisse zu
verfolgen und Sicherheitswarnungen
für jedes verdächtige Verhalten zu generieren Kontinuierliche Prüfungen
und Konformitätsprüfungen. Regelmäßige Audits stellen sicher, dass
Ihr Sicherheitsframework den
gesetzlichen Standards und
den internen Sicherheitsrichtlinien entspricht gesetzlichen Standards und
den internen Sicherheitsrichtlinien Automatisierte Audits. Verwenden Sie Tools wie AWS
Config oder Azure Policy , um Konfigurationen automatisch zu
prüfen und die
Einhaltung von PCIDSS,
GDPR und anderen
Branchenvorschriften sicherzustellen ,
GDPR und anderen Das Williams-Team kann beispielsweise
AWS Config verwenden, um automatisch zu überprüfen, ob alle Cloud-Ressourcen PCI-DSS-Anforderungen
entsprechen, und gleichzeitig
regelmäßige Audits auf
Mainframe-Systemen
durchführen regelmäßige Audits auf
Mainframe-Systemen überprüfen, ob alle Cloud-Ressourcen den
PCI-DSS-Anforderungen
entsprechen, und gleichzeitig
regelmäßige Audits auf
Mainframe-Systemen
durchführen, um die DSGVO-Konformität sicherzustellen. den wichtigsten Erkenntnissen aus
dieser Lektion gehört zum einen, ein umfassendes
Sicherheitsframework für Hybridumgebungen
Schlüsselelemente wie Verschlüsselung,
Multifaktor-Authentifizierung
und Zero-Trust-Architekturen beinhalten muss Schlüsselelemente wie Verschlüsselung, , um den
Datenschutz und den sicheren
Zugriff auf lokale und Cloud-Systeme zu gewährleisten Zugriff auf lokale und Cloud-Systeme Zweitens ist die Verschlüsselung sowohl der Daten bei der Übertragung als auch der
Datenadresse unerlässlich unbefugten Zugriff auf vertrauliche Informationen
zu verhindern zu Drittens sind regelmäßige Überwachungen, Prüfungen und
Konformitätsprüfungen erforderlich, um sicherzustellen, dass
Ihr Sicherheitsrahmen wirksam
bleibt
und den gesetzlichen
Anforderungen entspricht. Lernaktivität, Reflexion. Berücksichtigen Sie die spezifischen Anforderungen der Hybridumgebung
Ihres Unternehmens. Wie implementieren Sie
Verschlüsselung, MFA
und Zero Trust, um
sowohl lokale
als auch Cloud-Systeme zu schützen sowohl lokale
als auch Cloud-Systeme Diskussionsfrage,
Beitrag im Forum. Welche Strategien haben Sie
implementiert, um
Daten während der Übertragung und das Vertrauen in Daten
in Ihrer Hybridumgebung zu schützen Daten während der Übertragung und das Vertrauen in Daten ? Wie stellen Sie die
Konsistenz zwischen beiden Infrastrukturen sicher? Nächste Lektion, Compliance
in einer Hybridumgebung. In der nächsten Lektion
konzentrieren wir uns auf die Einhaltung von Vorschriften
in Hybridsystemen. Wir werden die
regulatorischen Anforderungen für
Finanzinstitute, das
Gesundheitswesen
und andere regulierte Branchen untersuchen und erörtern, und wie eine
kontinuierliche
Compliance-Überwachung
sowohl in der Cloud als auch in
Mainframe-Systemen implementiert kontinuierliche
Compliance-Überwachung
sowohl in der Cloud als auch in
Mainframe-Systemen Bereit dafür zu sorgen, dass Ihre
Hybridumgebung die regulatorischen Standards erfüllt Fahren wir mit Lektion
drei von Modul sechs fort.
24. Lektion 3: Compliance in einer hybriden Umgebung: Einhaltung von Vorschriften in einer
Hybridumgebung. Willkommen zu Lektion
drei von Modul sechs. In dieser Lektion werden wir uns mit
den regulatorischen Anforderungen
für hybride Umgebungen befassen den regulatorischen Anforderungen
für hybride Umgebungen uns dabei auf Branchen wie
Finanzen und Gesundheitswesen konzentrieren, denen strenge
Compliance-Vorschriften gelten Compliance-Management
in Hybridsystemen , in denen Daten und Anwendungen
zwischen lokalen
Mainframes und
Cloud-Umgebungen verteilt
sind zwischen lokalen
Mainframes und , stellt
besondere Wir werden erörtern, wie wichtig kontinuierliche
Compliance-Überwachung ist und wie
Systeme implementiert werden können , die die Einhaltung der Vorschriften sowohl
in der Cloud als auch in der
lokalen Infrastruktur sicherstellen sowohl
in der Cloud als auch in der
lokalen Infrastruktur Am Ende dieser
Lektion werden Sie die
regulatorischen Anforderungen
für Finanzinstitute, das
Gesundheitswesen und andere
regulierte Branchen
in hybriden Umgebungen
verstehen für Finanzinstitute, Gesundheitswesen und andere
regulierte Branchen . Zweitens lernen Sie, wie Sie kontinuierliche
Compliance-Überwachung sowohl
in Cloud- als auch in
Mainframe-Systemen
implementieren sowohl
in Cloud- als auch in
Mainframe-Systemen können, um die Einhaltung
gesetzlicher Standards sicherzustellen Lassen Sie uns zunächst
die spezifischen
Compliance-Herausforderungen untersuchen , mit denen
Hybridsysteme konfrontiert sind, und
wie sie angegangen werden können Verständnis der regulatorischen
Anforderungen für Hybridsysteme. In hybriden Umgebungen, in denen sowohl ältere Systeme wie Mainframes als auch
Cloud-Plattformen verwendet werden, müssen
Unternehmen
je
nach Branche eine Vielzahl von
regulatorischen Anforderungen erfüllen je
nach Branche eine Vielzahl von
regulatorischen Anforderungen wichtigsten
Compliance-Vorschriften gehören PCIDSS, GDPR
und HIPA, was
strenge Datenschutz-,
Datenschutzkontrollen und Auditfunktionen erfordert Datenschutzkontrollen PCI DSS, Datensicherheitsstandard der Zahlungskartenbranche Für Unternehmen, die mit
Zahlungskartendaten umgehen wie Williams
Financial Institution, ist die
Einhaltung von PCI
DSS verpflichtend Diese Verordnung stellt sicher, dass die Zahlungsinformationen
der
Kunden vor Betrug,
Verstößen und
unbefugtem Zugriff geschützt Verstößen und
unbefugtem Zugriff Anforderungen an die Verschlüsselung. PCIDSS schreibt die Verschlüsselung
sensibler Karteninhaberdaten bei der Übertragung über offene
Netzwerke und während der Übertragung über offene Sowohl Cloud- als auch
On-Premise-Umgebungen
müssen Verschlüsselungstechnologien implementieren. Verschlüsseln Sie beispielsweise alle
Karteninhaberdaten, die auf
Mainframes gespeichert sind , und stellen Sie sicher, dass alle an
Cloud-Systeme übertragenen Zahlungsdaten ebenfalls verschlüsselt sind Zugriffskontrolle, Implementierung rollenbasierten
Zugriffskontrolle (RBAC), um den
Zugriff auf
Karteninhaberdaten auf
diejenigen Mitarbeiter oder Systeme
zu beschränken , die für die Ausführung ihrer einer
rollenbasierten
Zugriffskontrolle (RBAC), um den
Zugriff auf
Karteninhaberdaten auf
diejenigen Mitarbeiter oder Systeme
zu beschränken, die für die Ausführung ihrer Aufgaben benötigt werden. Nehmen wir ein Beispiel. Das Williams-Team muss sicherstellen, dass alle Zahlungsdaten von Kunden die in der Cloud
gespeichert
und vom
Mainframe verarbeitet werden , mithilfe
starker Kryptografie wie AS
256 verschlüsselt starker Kryptografie wie AS werden und dass in beiden Umgebungen Zugriffskontrollen
durchgesetzt werden , um PCI DSS
zu entsprechen DSGVO, Allgemeine Datenschutzverordnung. Für Organisationen,
die innerhalb der Europäischen Union
tätig sind oder
mit Daten von EU-Bürgern umgehen, verlangt die
DSGVO eine strikte
Kontrolle darüber, wie personenbezogene Daten gespeichert,
verarbeitet und übertragen werden. Rechte der betroffenen Person. DSGVO gewährt
betroffenen Personen Rechte
wie das Recht, vergessen zu werden und das Recht, auf ihre Daten
zuzugreifen. Unternehmen müssen sicherstellen dass sie personenbezogene
Daten auf Anfrage lokalisieren, abrufen
und löschen können ,
unabhängig davon, ob diese Daten auf einem Mainframe
oder in der Cloud
gespeichert Benachrichtigung über Datenschutzverletzungen. DSGVO schreibt vor, dass jede
Datenschutzverletzung, personenbezogene Daten betrifft,
innerhalb von 72 Stunden
den zuständigen Behörden gemeldet
werden muss innerhalb von 72 Stunden
den zuständigen Behörden Hybride Umgebungen
müssen in der Lage sein,
Verstöße schnell zu erkennen, zu
protokollieren und darauf zu reagieren Nehmen wir ein Beispiel. Williams Institution
muss sicherstellen, dass alle Kundendaten DSGVO-konform gespeichert
werden. Das
bedeutet, dass es möglich
sein muss, die personenbezogenen Daten
eines Kunden auf Anfrage
sowohl aus Mainframe-Datenbanken als auch aus
Cloud-Speichern abzurufen oder zu löschen personenbezogenen Daten
eines Kunden auf Anfrage
sowohl aus Mainframe-Datenbanken als auch aus
Cloud-Speichern HIPAA, Portabilität
und Rechenschaftspflicht von
Krankenversicherungen Im Gesundheitswesen
legt HIPAA Anforderungen zum Schutz geschützter Organisationen im Gesundheitswesen, die
Hybrid-Cloud-Umgebungen verwenden , müssen sicherstellen, dass PHI sowohl in lokalen
als auch in Cloud-Systemen ordnungsgemäß
gesichert ist sowohl in lokalen
als auch in Cloud-Systemen ordnungsgemäß
gesichert Datenverschlüsselung. HIPAA
erfordert die Verschlüsselung von PHI, sowohl bei der Adresse als auch bei der Übertragung,
unabhängig davon, ob die Daten auf
Mainframes oder in
Cloud-Plattformen gespeichert sind Mainframes oder in Prüfpfade. HIPA schreibt die Erstellung von Prüfprotokollen vor,
um nachzuverfolgen, wer auf PHI zugegriffen hat, wann
und zu welchem Zweck darauf zugegriffen wurde Diese Auditprotokolle
müssen sowohl
in der Cloud als auch in lokalen Systemen
verfügbar sein sowohl
in der Cloud als auch in lokalen Systemen Nehmen wir ein Beispiel. Gesundheitsorganisationen wie
Krankenhäuser oder Kliniken, die
Mainframes für
Patientenakten und
Cloud-Dienste für die
Tally-Medizin verwenden Mainframes für
Patientenakten und ,
müssen sicherstellen, dass PHI in allen Phasen
verschlüsselt ist und dass der
Zugriff auf Patientendaten vollständig
protokolliert und rückverfolgbar ist, um die
HIPA-Anforderungen zu erfüllen Implementierung einer kontinuierlichen
Compliance-Überwachung in Sicherstellung
der kontinuierlichen Einhaltung von Vorschriften in hybriden Umgebungen ist eine
herausfordernde, aber notwendige Aufgabe. Da Daten und
Anwendungen
zwischen lokalen Mainframes
und Cloud-Plattformen verteilt sind, müssen
Unternehmen
Monitoring-Lösungen implementieren, Echtzeiteinblicke in den Compliance-Status
bieten
und
potenzielle Verstöße erkennen, und
potenzielle Verstöße erkennen bevor sie mit
behördlichen Sanktionen rechnen Zentralisierte
Überwachungslösungen. Eine der effektivsten
Methoden zur Überwachung der Einhaltung von Vorschriften in Hybridumgebungen ist Implementierung zentraler
Überwachungslösungen. Diese Tools bieten
einen einheitlichen Überblick über die
Einhaltung von Vorschriften sowohl
auf lokalen als auch auf Cloud-Systemen, sodass Sicherheitsteams Verstöße
erkennen und in Echtzeit
auf Bedrohungen reagieren können. Cloud-basierte Überwachung. Tools wie AWS CloudTrail, Azor und Google Cloud Operations bieten Einblicke in
Cloud-Ressourcenkonfigurationen, Zugriffsprotokolle und
Sicherheitsereignisse Diese Tools helfen dabei, die Einhaltung der
Pflichten der
Cloud-Dienstanbieter
im Rahmen des Modells der gemeinsamen
Verantwortung zu
überwachen Pflichten der
Cloud-Dienstanbieter im Rahmen des Modells der gemeinsamen
Verantwortung Das Williams-Team kann beispielsweise
AWS Cloud Trail verwenden, um den Zugriff
und die Änderungen an sensiblen
Finanzdaten in der Cloud zu überwachen und
so sicherzustellen, dass nur
autorisierte Benutzer
Änderungen vornehmen und dass jeder Zugriff aus Compliance-Gründen protokolliert
wird. Überwachung vor Ort. Für Mainframe-Systeme können
Tools wie Splunk
oder IBM Z Secure Compliance-Ereignisse
verfolgen
und potenzielle Verstöße aufdecken Diese Tools helfen bei der
Überwachung von Benutzeraktivitäten, Datenzugriffen und Sicherheitsvorfällen
in älteren Systemen Verwenden Sie beispielsweise IBM Z
Secure, um den
Zugriff auf
Mainframe-Datenbanken zu überwachen und Warnung zu
generieren, wenn unbefugte
Versuche erkannt werden Automatisieren Sie die
Einhaltung von Richtlinien und Warnmeldungen. Um eine kontinuierliche
Einhaltung der Vorschriften zu gewährleisten, sollten
Unternehmen die Durchsetzung von
Sicherheitsrichtlinien
automatisieren und zeitnahe Warnmeldungen einrichten , um Verstöße zu
erkennen Automatisierung der Einhaltung von Vorschriften
reduziert das Risiko menschlicher Fehler und trägt dazu bei ,
dass alle Systeme gesetzlichen Anforderungen
konsistent erfüllen Automatisierte Durchsetzung von Richtlinien. Tools wie AWS Config
oder Azure Policy zur Automatisierung der Durchsetzung von Sicherheits- und
Compliance-Richtlinien. Diese Tools können Konfigurationen automatisch überprüfen, z. B. ob die Verschlüsselung aktiviert ist oder ob sensible Daten
sicher gespeichert werden. Das Williams-Team
kann beispielsweise AWS Config verwenden, um automatisch
Verschlüsselungsrichtlinien
für alle in der Cloud gespeicherten
Finanzdaten durchzusetzen und
so sicherzustellen, dass die
PCI-DSS-Anforderungen alle
Cloud-Ressourcen erfüllt
werden Benachrichtigungen in Echtzeit:
Richten Sie Warnmeldungen ein, die das Sicherheitsteam
benachrichtigen , wenn
Compliance-Verstöße auftreten Diese Benachrichtigungen können
auf bestimmten Ereignissen basieren, z. B. auf unberechtigtem
Zugriff auf Kundendaten oder Fehlkonfigurationen
in Cloud-Umgebungen Verwenden Sie Plank beispielsweise, um Warnmeldungen zu
generieren, wenn unbefugte Benutzer
versuchen, auf
sensible Daten zuzugreifen , die
auf dem Mainframe gespeichert sind, um
sicherzustellen, dass sofort Maßnahmen ergriffen
werden können , um Verstöße zu Kontinuierliche Prüfung
und Berichterstattung. Die Einhaltung der Vorschriften erfordert eine
kontinuierliche Prüfung und Berichterstattung, um Lücken zu identifizieren und die Einhaltung der
regulatorischen Standards sicherzustellen Regelmäßige Audits helfen
Unternehmen auch dabei, sich auf externe
Prüfungen durch Aufsichtsbehörden vorzubereiten Unternehmen auch dabei, sich auf externe
Prüfungen durch Aufsichtsbehörden Automatisierte Prüfungstools. Verwenden Sie Tools wie AWS
Audit Manager, Azure Security Center oder
Google Cloud Audit Logs, um Compliance-Audits zu
automatisieren. Diese Tools generieren
Berichte, mit deren Hilfe der
Compliance-Status
des Unternehmens im Laufe der
Zeit verfolgt Compliance-Status
des Unternehmens im Laufe und
Verbesserungspotenziale identifiziert werden können. Das Williams-Team kann beispielsweise
AWS Audit Manager verwenden, um
automatisierte Prüfberichte zu erstellen , Einhaltung von PCIDSS
verfolgen und
so sicherstellen, dass alle
Systeme, die
Zahlungsdaten verarbeiten , den gesetzlichen Standards entsprechen Nehmen wir ein Beispiel. Um HIPAA zu erfüllen,
könnte eine Organisation im Gesundheitswesen
Azure Security Center verwenden , um den
Verschlüsselungsstatus der in der Cloud
gespeicherten Patientendaten
kontinuierlich zu überprüfen und gleichzeitig IBM Z Secure für die
Prüfung von Mainframe-Protokollen oder den
Zugriff auf vertrauliche
Patientendaten zu
verwenden Mainframe-Protokollen oder Zugriff auf vertrauliche
Patientendaten zu Bewährte Methoden für die Einhaltung von Vorschriften
in hybriden Umgebungen. den Best Practices, um
Compliance und
Hybridumgebungen erfolgreich zu verwalten , um
Compliance und
Hybridumgebungen Folgen Sie den Best Practices, um
Compliance und
Hybridumgebungen erfolgreich zu verwalten. Implementieren Sie das Modell der gemeinsamen
Verantwortung. In Cloud-Umgebungen ist die
Einhaltung eine gemeinsame Verantwortung zwischen dem Cloud-Anbieter
und der Organisation. Während Cloud-Anbieter
die Sicherheit der
Cloud-Infrastruktur verwalten , sind
Unternehmen für die Sicherung
ihrer Datenanwendungen
und Zugriffskontrollen
verantwortlich . Bewährtes Verfahren. Machen Sie sich
mit dem Modell der gemeinsamen Verantwortung für jeden Cloud-Anbieter vertraut
und stellen Sie sicher, dass Compliance-Pflichten
Ihres Unternehmens wie Datenverschlüsselung und
Identitätsmanagement vollständig umgesetzt werden. Standardisierte
Sicherheitsrichtlinien für alle Umgebungen. Um Inkonsistenzen zu vermeiden, müssen
Sicherheits- und
Compliance-Richtlinien sowohl für lokale Systeme
als auch für
Cloud-Plattformen standardisiert
werden lokale Systeme
als auch für
Cloud-Plattformen Einheitliche Richtlinien stellen sicher, dass dieselben
Sicherheitskontrollen angewendet werden unabhängig davon, wo
die Daten gespeichert
oder verarbeitet werden . Bewährtes Verfahren. Verwenden Sie einheitliche
Sicherheitsmanagement-Tools, um konsistente Richtlinien in beiden Umgebungen
anzuwenden. Auf diese Weise können Sie sicherstellen, dass
Verschlüsselung, Zugriffskontrolle und Protokollierung
auf jeder Ebene
Ihrer Infrastruktur durchgesetzt werden auf jeder Ebene
Ihrer Infrastruktur Sorgen Sie für Transparenz und
Prüfung in allen Systemen. Einhaltung der Vorschriften zu erreichen, ist ein
kontinuierlicher
Einblick in Ihre Cloud- und
On-Premise-Umgebung erforderlich . Implementieren Sie Prüfungstools, die Echtzeit
Einblicke in den Datenzugriff, Systemkonfiguration und die Benutzeraktivitäten
auf allen Systemen bieten. Bewährtes Verfahren. Implementieren Sie
zentralisierte Überwachungs- und Auditlösungen, um
Compliance-Ereignisse zu verfolgen und
Verstöße in Echtzeit zu erkennen. den wichtigsten Erkenntnissen aus
dieser Lektion gehört zum einen, Einhaltung von Vorschriften in hybriden
Umgebungen für
regulierte Branchen
wie Finanzen und Gesundheitswesen
unerlässlich ist für
regulierte Branchen
wie Finanzen und Gesundheitswesen
unerlässlich , die Standards
wie PCI DSS,
GDPR und HIPA sowohl für
lokale als auch für Cloud-Systeme erfüllen müssen ,
GDPR und HIPA sowohl für
lokale als auch für Cloud-Systeme Zweitens: Implementieren Sie eine kontinuierliche
Compliance-Überwachung mithilfe zentralisierter Tools, die Echtzeit
Einblick in Compliance-Status
sowohl in der Mainframe - als auch in sowohl in der Mainframe Drittens: Automatisieren Sie
Compliance-Audits, die Durchsetzung von Richtlinien und Warnmeldungen in Echtzeit, um
sicherzustellen, dass die Sicherheitskontrollen einheitlich angewendet und Verstöße schnell
erkannt werden Erwerbstätigkeit, Reflexion. Wie würden Sie eine
kontinuierliche Compliance-Überwachung
in Ihrer Hybridumgebung implementieren kontinuierliche Compliance-Überwachung ? Welche Herausforderungen könnten
sich bei der Standardisierung von
Sicherheitsrichtlinien für
lokale und Cloud-Systeme ergeben Sicherheitsrichtlinien für
lokale und Cloud-Systeme Diskussion, Frage,
Beitrag im Formular, wie geht Ihr Unternehmen mit der Einhaltung von Vorschriften
in Hybridsystemen Welche Tools verwenden Sie für die kontinuierliche Überwachung
und Prüfung und wie effektiv sind sie in der nächsten Lektion, Unternehmensführung und
Richtlinienmanagement In der nächsten Lektion konzentrieren
wir uns auf Governance und Richtlinienmanagement
in hybriden Umgebungen. Sie lernen, wie Sie
Richtlinien sowohl in Cloud
- als auch in Legacy-Systemen durchsetzen können, wobei
der Schwerpunkt auf Datenschutz, Risikomanagement und
Disaster Recovery liegt. bereit sein, die Herausforderungen der
Unternehmensführung anzugehen Lassen Sie uns bereit sein, die Herausforderungen der
Unternehmensführung anzugehen, und fahren wir mit Lektion
vier von Modul sechs fort.
25. Lektion 4: Governance und Richtlinienmanagement: Lektion vier, Regierungsführung
und Politikmanagement. Willkommen zu Lektion
vier von Modul sechs. In dieser Lektion werden wir die entscheidende Rolle von
Governance und Richtlinienmanagement
in Hybrid-Cloud-Umgebungen
untersuchen Governance und Richtlinienmanagement . Für einen
IT-Infrastrukturdirektor wie William Verwaltung einer Mischung aus
lokalen Mainframes und erfordert die
Verwaltung einer Mischung aus
lokalen Mainframes und
Cloud-Plattformen eine
starke Steuerung um Datenschutz,
Risikomanagement und
Notfallwiederherstellung in
beiden Infrastrukturen sicherzustellen Risikomanagement und Notfallwiederherstellung in
beiden Infrastrukturen In dieser Lektion lernen
Sie Strategien
zur Erstellung und Durchsetzung Governance-Richtlinien kennen
, die konsistent sind und sowohl auf Cloud
- als auch auf Legacy-Systeme
abgestimmt Am Ende dieser
Lektion werden Sie zunächst die Bedeutung von
Governance in
Hybrid-Cloud-Umgebungen
verstehen, einschließlich der Verwaltung von Datenschutz, Risiko und Notfallwiederherstellung, um zu erfahren, wie Sie
Governance und Richtlinienmanagement in der Cloud
und auf Primärsystemen
konsistent durchsetzen Governance und Richtlinienmanagement in der Cloud
und können Lassen Sie uns zunächst verstehen warum Governance in
Hybrid-Cloud-Umgebungen so wichtig ist und wie Sie
Governance-Frameworks entwickeln können , die
sowohl für ältere als auch für moderne Systeme
funktionieren sowohl für ältere als auch für moderne Systeme Warum Governance
in hybriden Umgebungen unverzichtbar ist. Bei der Steuerung in hybriden
Umgebungen geht es darum sicherzustellen, dass die
Richtlinien, Prozesse
und Risikomanagement-Frameworks Ihres Unternehmens sowohl auf lokalen
Mainframes als auch auf
Cloud-Plattformen einheitlich angewendet
werden sowohl auf lokalen
Mainframes als auch auf
Cloud-Plattformen Die Komplexität der
gleichzeitigen Verwaltung beider Infrastrukturen erfordert ein robustes
Governance-Framework, das
den besonderen Herausforderungen einer hybriden Umgebung
Rechnung Datenschutz, Schutz
sensibler Informationen. In hybriden Umgebungen gelten
Datenschutzbestimmungen
wie GDPR, PCIDSS und HIPA
gleichermaßen für lokale Daten
und in der Cloud gespeicherte Daten Es ist wichtig, über
Governance-Richtlinien zu verfügen , die die
Einhaltung dieser Vorschriften sicherstellen, indem strenge
Datenzugriffskontrollen, Verschlüsselungsstandards Richtlinien zur Zugriffskontrolle. Implementieren Sie konsistente, rollenbasierte Zugriffskontrollen (RBAC)
sowohl in der Cloud als auch in älteren Systemen um einzuschränken, wer
auf sensible Daten zugreifen kann Dadurch wird das Risiko von
Datenschutzverletzungen und unbefugtem Zugriff minimiert Datenschutzverletzungen Das Williams-Team kann beispielsweise
einheitliche Richtlinien
für die
Zugriffskontrolle erstellen , die Azure als auch auf
Mainframe-Systeme vor Ort
regeln den Zugriff sowohl auf
Cloud-Anwendungen wie AWS und und
so sicherstellen, dass Kundendaten
nur autorisiertem Personal zugänglich
sind Datenschutzprüfungen. Überprüfen Sie Ihre
Datenschutzrichtlinien regelmäßig , um sicherzustellen, dass sie den Vorschriften
entsprechen und
in beiden Umgebungen
einheitlich angewendet werden . Tools wie AWS Config und Azure Security Center können dabei helfen, die
Einhaltung der Datenschutzbestimmungen zu automatisieren. Nehmen wir ein Beispiel. Für das
Finanzinstitut Williams müssen die
auf dem Mainframe gespeicherten Finanzdaten der
Kunden
genauso sicher und vertraulich sein genauso sicher und vertraulich wie dieselben Daten, die in der Cloud
gespeichert sind Ein einheitliches Governance-Framework stellt sicher, dass sowohl
lokale als auch
Cloud-Umgebungen die
PCI-DSS-Anforderungen
für Datenschutz und Verschlüsselung erfüllen für Datenschutz und Risikomanagement,
proaktives Management von Sicherheits- und Compliance-Risiken Risikomanagement in
hybriden Umgebungen umfasst die Identifizierung, Bewertung und Minderung der Sicherheits
- und Compliance-Risiken , die sich aus der Nutzung
von Altsystemen
und Cloud-Plattformen ergeben Altsystemen
und Cloud-Plattformen Governance-Rahmenbedingungen
sollten
klare Richtlinien für
Risikobewertung, Reaktion auf
Vorfälle und
Notfallwiederherstellung beinhalten klare Richtlinien für
Risikobewertung, Reaktion auf , um
vor potenziellen
Ausfällen oder Sicherheitsvorfällen zu schützen Rahmenbedingungen für die Risikobewertung. Implementieren Sie ein
Risikomanagement-Framework, das
die spezifischen Risiken abdeckt , die
mit beiden Mainframe-Systemen verbunden sind, z. B. veraltete Software, eingeschränkte Agilität und
Cloud-Plattformen Zum Beispiel das
Sicherheitsrisiko Dritter, Datenschutzverletzungen. Eine regelmäßige Risikobewertung
hilft Unternehmen dabei, Sicherheitslücken
zu antizipieren
und sie proaktiv Das Williams-Team kann beispielsweise
vierteljährliche Risikobewertungen durchführen, bei denen sowohl die Infrastruktur
vor Ort (z.
B.
Mainframe-Sicherheitspatches) als auch Cloud-Dienste (z.
B. die Überwachung von
Drittanbietern)
bewertet z.
B.
Mainframe-Sicherheitspatches ) als auch Cloud-Dienste (z.
B. die Überwachung von
Drittanbietern Pläne zur Reaktion auf Vorfälle. Governance-Rahmenbedingungen
sollten
detaillierte
Verfahren zur Reaktion auf Vorfälle beinhalten , in denen dargelegt wird,
wie das Unternehmen mit Sicherheitsverletzungen
oder Systemausfällen in einer hybriden Umgebung umgeht Dieser Plan sollte sowohl
lokale als auch Cloud-Vorfälle abdecken lokale als auch Cloud-Vorfälle Nehmen wir ein Beispiel. Für das Williams-Team kann das Risiko
einer Datenschutzverletzung in einer in der Cloud gehosteten Anwendung
Echtzeit-Überwachungstools
wie AWS Cloud Lodge erfordern , während das Risiko eines
Systemausfalls auf dem Mainframe etablierte
Wiederherstellungsverfahren
und einen Notfallwiederherstellungsplan
erfordern kann etablierte
Wiederherstellungsverfahren
und einen Notfallwiederherstellungsplan
erfordern und einen Notfallwiederherstellungsplan Notfallwiederherstellung zur Sicherstellung der
Geschäftskontinuität. Hybride Cloud-Umgebungen
erhöhen die Komplexität der Notfallwiederherstellung
, da Systeme und Daten auf
mehrere Standorte verteilt sind. Governance-Rahmenbedingungen
müssen
umfassende
Notfallwiederherstellungspläne beinhalten , die Datenverlusts oder einer
Naturkatastrophe
gewährleisten die Geschäftskontinuität im Falle eines Systemausfalls, . Backup-Richtlinien. Legen Sie klare Backup-Richtlinien , die sicherstellen, dass
regelmäßig Datensicherungen sowohl
für lokale Mainframes
als auch für Cloud-Systeme erstellt lokale Mainframes
als auch für Cloud-Systeme Regelmäßige Backups sollten
verschlüsselt und an
sicheren Orten wie
externen Rechenzentren oder
Kühlhäusern in der Cloud gespeichert an
sicheren Orten wie
externen Rechenzentren oder
Kühlhäusern in der Das Williams-Team kann beispielsweise tägliche Backups von
Mainframe-Datenbanken und
wöchentliche Cloud-Backups
planen , um
sicherzustellen, dass geschäftskritische Daten immer
für die Wiederherstellung verfügbar sind Wiederherstellung mehrerer Umgebungen. Notfallwiederherstellungspläne sollten der Komplexität der
Wiederherstellung von Systemen sowohl in lokalen als auch
in
Cloud-Infrastrukturen
Rechnung tragen Wiederherstellung von Systemen sowohl in lokalen als auch
in . Automatisieren Sie nach Möglichkeit
Wiederherstellungsprozesse, um Ausfallzeiten zu reduzieren und eine
schnelle Wiederherstellung der Dienste sicherzustellen. Verwenden Sie beispielsweise Tools wie AWS Elastic Disaster Recovery,
um die Wiederherstellung von
Cloud-Services zu automatisieren , und
kombinieren Sie diese mit manuellen Wiederherstellungsprozessen für den Mainframe, um einen
einheitlichen Notfallwiederherstellungsplan zu erstellen Nehmen wir ein Beispiel.
Das Williams-Team könnte einen Disaster-Recovery-Plan
entwickeln , der regelmäßige Backups von
Kundendaten sowohl vom
Mainframe als auch von der Cloud umfasst und
die Möglichkeit bietet, diese auf
Backup-Systeme zu übertragen, falls es in einer der
Umgebungen zu Ausfallzeiten kommt
. Durchsetzung von
Governance-Richtlinien für
Cloud- und Altsysteme Implementierung und Durchsetzung von
Governance-Richtlinien konsistente Implementierung und Durchsetzung von
Governance-Richtlinien in Cloud- und Legacy-Systemen
erfordert den Einsatz von Governance-Frameworks und -Tools , die die Lücke
zwischen beiden Umgebungen schließen können Im Folgenden finden Sie wichtige
Strategien, um sicherzustellen, dass Richtlinien
in allen Infrastrukturen durchgesetzt werden Einheitliches Richtlinienmanagement. Um die Governance in
hybriden Umgebungen zu verwalten, müssen
Unternehmen einheitliche
Tools zur Richtlinienverwaltung implementieren , die
eine zentrale Kontrolle
über Richtlinien und Konfigurationen sowohl
vor Ort als auch in Cloud-Systemen ermöglichen. Tools zur Durchsetzung von Richtlinien. Verwenden Sie Tools wie Azure Policy, AWS Organizations und
IBM Z Security Server um Sicherheits- und
Governance-Richtlinien in allen Systemen
einheitlich durchzusetzen . diesen Tools können
Administratoren
Richtlinienvorlagen definieren , die auf Cloud-Dienste
und Mainframe-Ressourcen
angewendet werden können Cloud-Dienste
und Mainframe-Ressourcen
angewendet Das Williams-Team kann beispielsweise die
Azure-Richtlinie verwenden, um
Datenverschlüsselungsrichtlinien für
alle
Cloud-Speicherdienste durchzusetzen , und gleichzeitig den
IBM Z-Sicherheitsserver verwenden , um
dieselben Richtlinien auf
lokale Mainframe-Datenbanken anzuwenden dieselben Richtlinien auf
lokale Mainframe-Datenbanken Einhaltung der
Policy-Frameworks. Organisation sollte
ihre Unternehmensführungsrichtlinien an allgemein
anerkannten
Rahmenbedingungen wie COVID oder
ISO IEC 27 001 ausrichten allgemein
anerkannten
Rahmenbedingungen wie COVID oder ISO IEC 27 001 um sicherzustellen, dass die
Unternehmensführungspraktiken Industriestandards
entsprechen Nehmen wir ein Beispiel. Für das
Finanzinstitut Williams Anwendung konsistenter
Zugriffskontrollrichtlinien Cloud- und
Altsysteme sicher , dass sensible
Kundeninformationen unabhängig
davon, wo sie gespeichert sind, geschützt
bleiben. Automatisierung der Einhaltung von Richtlinien. Automatisierung ist der Schlüssel zur konsistenten Durchsetzung Governance-Richtlinien
in Hybridsystemen Automatisierungstools können
Systemkonfigurationen überwachen, Richtlinienverstöße
erkennen und Korrekturmaßnahmen
ergreifen, ohne dass manuelles Automatisierte Prüfung. Verwenden Sie AWS
Config oder Azure Monitor, um kontinuierliche
Konformitätsprüfungen
durchzuführen und Konfigurationen Ihrer
Cloud-Umgebung zu
prüfen. So stellen Sie
sicher, dass das System stets Governance- und
Sicherheitsanforderungen erfüllt. Verwenden Sie auf ähnliche Weise
Mainframe-Überwachungstools wie Splunk oder Z Secure, um sicherzustellen, dass die Richtliniensysteme den Unternehmensrichtlinien entsprechen Das Williams-Team kann beispielsweise
AWS-Konfigurationsregeln einrichten , die
automatisch überprüfen ob Cloud-basierte
Speichersysteme die Verschlüsselungsrichtlinien erfüllen Jeder Verstoß löst eine Warnung die sicherstellt, dass sofort
Maßnahmen ergriffen werden können. Abhilfemaßnahmen.
Automatisieren Sie Korrekturmaßnahmen , wenn Richtlinienverstöße festgestellt
werden Wenn beispielsweise eine
Verschlüsselungsrichtlinie verletzt wird, können
Tools wie AWS Systems Manager
oder Azure Automation automatisch die
richtige Konfiguration anwenden,
um die Systeme wieder an
die Vorschriften anzupassen Nehmen wir ein Beispiel. Das Williams-Team kann mithilfe von
Azure-Richtlinien automatisch
alle Konfigurationen in der Cloud korrigieren , die gegen Verschlüsselungs- oder
Zugriffskontrollrichtlinien verstoßen, Einhaltung der Vorschriften ohne
manuelles Eingreifen
sicherstellen. Plattformübergreifende Überwachung der
Unternehmensführung. Verwaltung in
hybriden Umgebungen erfordert Tools, die
einen zentralen Überblick
über Sicherheit,
Compliance und Richtlinieneinhaltung sowohl in der Cloud als auch in lokalen Systemen bieten ,
Compliance und Richtlinieneinhaltung über Sicherheit,
Compliance und Richtlinieneinhaltung sowohl in der Cloud als auch in lokalen Systemen Zentralisierte Dashboards. Verwenden Sie zentralisierte
Governance-Dashboards , die einen ganzheitlichen Überblick über
den Sicherheits
- und Compliance-Status des Unternehmens
in allen Systemen bieten den Sicherheits
- und Compliance-Status des Unternehmens in allen Systemen Tools wie AWS Control Tower, ein Security Center oder Splunk
können Daten
sowohl aus Cloud- als auch aus älteren
Umgebungen aggregieren , um
Administratoren einen vollständigen Überblick
über die Einhaltung von Richtlinien zu geben Administratoren einen vollständigen Überblick Das Williams-Team kann beispielsweise
AWS Control Tower verwenden, um die
Einhaltung
mehrerer Cloud-Konten zu überwachen Einhaltung
mehrerer Cloud-Konten gleichzeitig Splunk zur Nachverfolgung von
Sicherheitsvorfällen und
Richtlinienverstößen
auf dem Mainframe zu verwenden Richtlinienverstößen Nehmen wir ein Beispiel. Durch die Integration von Daten aus AWS und dem Mainframe in
ein zentrales Dashboard kann
Williams die Einhaltung von Richtlinien
überwachen
und sicherstellen, kann
Williams die Einhaltung von Richtlinien
überwachen dass
beide Umgebungen den Governance-Standards entsprechen Bewährte Methoden für
Hybrid-Cloud-Governance. Um die Governance in
Hybridumgebungen sicherzustellen, sollten
Unternehmen
diese bewährten Methoden befolgen. Richten Sie frühzeitig einen
Governance-Rahmen ein. Richten Sie von
Anfang an ein
Governance-Framework ein, das die wichtigsten Richtlinien,
Rollen und Verantwortlichkeiten für die
Verwaltung von Cloud- und
lokalen Systemen
umreißt Rollen und Verantwortlichkeiten für die . Dadurch wird sichergestellt, dass jeder
in der Organisation seine Rolle bei der
Aufrechterhaltung von Unternehmensführung
und Compliance
versteht . Bewährte Methode: Entwicklung
eines Governance-Frameworks, Industriestandards
wie COBIT oder NIST
abgestimmt als Grundlage
für
das Risikomanagement, die Einhaltung von Risiken
und den Datenschutz in
hybriden Umgebungen dienen kann für
das Risikomanagement, die Einhaltung und den Datenschutz in
hybriden Sorgen Sie für Konsistenz
in allen Systemen. Stellen Sie sicher, dass behördliche Richtlinien, sei es in Bezug auf Datenschutz,
Risikomanagement oder Disaster Recovery,
sowohl auf Cloud-Plattformen
als auch auf älteren Systemen
einheitlich angewendet werden auf älteren Systemen
einheitlich . Dies reduziert das Risiko
von Sicherheitsverstößen oder Nichteinhaltung von Vorschriften aufgrund einer
inkonsistenten Durchsetzung von Richtlinien Bewährte Methode: Verwenden Sie einheitliche
Tools für die Richtlinienverwaltung, um
Richtlinien auf alle Systeme anzuwenden , und Konfigurationen
regelmäßig,
um die Konsistenz sicherzustellen Automatisierte Durchsetzung von Richtlinien. Die Automatisierung von Governance
und Richtlinienmanagement in hybriden Umgebungen ist entscheidend, um
manuelle Fehler zu reduzieren und die Einhaltung von Vorschriften
sicherzustellen Bewährtes Verfahren. Implementieren Sie
automatisierte Tools
, mit denen
Governance-Richtlinien in Echtzeit überwacht, geprüft und durchgesetzt werden
können, sodass das
Unternehmen
Richtlinienverstöße sofort erkennen und darauf reagieren kann. Die wichtigsten Erkenntnisse aus dieser
Lektion sind die folgenden. Erstens müssen Governance-Frameworks in hybriden
Umgebungen Datenschutz, Risikomanagement und
Notfallwiederherstellung berücksichtigen, um sowohl Cloud
- als auch lokale Systeme zu schützen Zweitens: Verwenden Sie einheitliche
Tools für die Richtlinienverwaltung, um die Governance in
allen Systemen
einheitlich durchzusetzen und Compliance-Prüfungen zu
automatisieren, um das Risiko menschlicher Fehler zu verringern. Drittens
ermöglicht die zentralisierte Überwachung es Unternehmen den Überblick über die Einhaltung von
Richtlinien in
hybriden Infrastrukturen zu behalten und
so sicherzustellen, dass sowohl Cloud-Plattformen als auch ältere Systeme effektiv
verwaltet werden .
Erwerbstätigkeit Spiegelung. Wie würden Sie Governance-Richtlinien
implementieren , die sich sowohl auf lokale als auch auf Cloud-Systeme
in Ihrer Hybridumgebung beziehen? Was sind die wichtigsten Herausforderungen, die Sie erwarten, und wie würden
Sie sie bewältigen? Diskussion, Frage,
Beitrag im Forum Wie setzt Ihr
Unternehmen
Governance-Richtlinien in
hybriden Umgebungen durch? Welche Tools oder Strategien
sind Ihrer Meinung nach am effektivsten, um die Einhaltung von Vorschriften
und Richtlinien Nächste Lektion: Überwachungstools
für Hybridumgebungen. Im nächsten Modul werden
wir uns Leistungsüberwachung in
Hybrid-Cloud-Umgebungen befassen. Sie lernen, wie Sie Tools
wie AWS Cloud Watch, Datadog und
Splunk verwenden, um Dashboards einzurichten und den Systemzustand
sowohl auf Cloud- als auch auf Mainframe-Systemen zu
verfolgen sowohl Ich freue mich darauf zu erfahren, wie Sie Ihre Hybridsysteme überwachen
und optimieren können . Fahren wir mit Modul sieben fort.
26. Lektion 1: Monitoring-Tools für hybride Umgebungen: Willkommen zu Modul 7, Optimierung und Verwaltung von Hybrid-Cloud-Systemen im Hinblick
auf die Leistung. Im letzten Modul lernen die
Studierenden, wie sie
die kontinuierlich überwachen
und optimieren Leistung ihrer
Hybrid-Cloud-Systeme
kontinuierlich überwachen
und optimieren können. Zu den Themen gehören
Leistungsüberwachung, Lastausgleich zwischen
Mainframes und Cloud, Kostenoptimierung und die
Behebung häufiger Probleme Das Modul
behandelt auch Strategien für Disaster Recovery und Geschäftskontinuität in
hybriden Umgebungen Lektion eins, Überwachungstools
für Hybridumgebungen. Willkommen zu Lektion
eins von Modul 7. In dieser Lektion werden wir uns den wichtigsten
Überwachungstools zur
Leistungsverfolgung in
Hybrid-Cloud-Umgebungen befassen. Für einen
IT-Infrastrukturdirektor wie William Verwaltung von
Mainframes vor Ort und Cloud-Plattformen erfordert die
Verwaltung von
Mainframes vor Ort und Cloud-Plattformen einen umfassenden Einblick in die Leistung
beider Infrastrukturen In dieser Lektion
stellen wir uns Tools wie AWS, CloudWatch, Datadog und Splunk vor und zeigen,
wie sie zur Überwachung des
Systemzustands und der Leistung hybrider Systeme eingesetzt werden können Überwachung des
Systemzustands Tools wie AWS, CloudWatch,
Datadog und Splunk vor und zeigen,
wie sie zur Überwachung des
Systemzustands und der Leistung hybrider Systeme eingesetzt werden können. Außerdem lernen wir, wie man Dashboards
und Warnmeldungen einrichtet
, um Leistungsproblemen immer einen Schritt voraus zu Am Ende dieser
Lektion werden Sie zunächst
verstehen, wie Sie mithilfe von E-Tools
zur
Leistungsüberwachung den Systemzustand
sowohl in der Cloud als auch in
lokalen Systemen verfolgen sowohl in der Cloud als auch in
lokalen Systemen Erfahren Sie, wie Sie Dashboards
und Benachrichtigungen
einrichten , um die
Leistung und den
Systemzustand in Echtzeit zu überwachen Leistung und den
Systemzustand in Echtzeit Sehen wir uns die Tools
und Best Practices für Leistungsüberwachung
in Hybridumgebungen Überblick über die wichtigsten
Überwachungstools für Hybridumgebungen. Hybridumgebungen
führen zu Komplexität bei der
Überwachung, da Leistungsdaten
sowohl auf Cloud-Plattformen als auch
auf
Mainframes vor Ort verteilt sowohl auf Cloud-Plattformen auf
Mainframes vor Ort verteilt Um eine lückenlose Überwachung zu gewährleisten, benötigen
Unternehmen Tools, die Einblick in
beide Umgebungen
bieten Hier sind drei der
leistungsstärksten und am häufigsten verwendeten Tools für die Überwachung
hybrider Umgebungen:
AWS CloudWatch, Datadog Native Cloud-Überwachung mit AWS Cloud Watch. AWS CloudWatch ist der
native Überwachungs- und
Beobachtbarkeitsservice von Amazon , der Echtzeit-Metriken,
Protokolle und Alarme für
Ihre AWS-Infrastruktur
bereitstellt ,
Protokolle und Alarme für
Ihre AWS-Infrastruktur Es ist ein leistungsstarkes Tool zur Überwachung des Zustands
und der Leistung von Cloud-basierten Anwendungen,
Diensten und Ressourcen Metriken und Protokolle. CloudWatch
sammelt und verfolgt Metriken allem, von
der
CPU-Auslastung und DiO bis hin zur Latenz bei API-Aufrufen Es kann auch
Anwendungsprotokolle überwachen bietet so Einblicke in Fehler, Warnungen und
Leistungsengpässe Das Williams-Team kann CloudWatch beispielsweise
verwenden, um
die Leistung
seiner auf AWS EC Two
gehosteten
Webanwendungen für Kunden zu überwachen seiner auf AWS EC Two
gehosteten
Webanwendungen für Kunden , CPU-Auslastung zu
verfolgen und Alarme
für plötzliche Leistungsspitzen
einzurichten Dashboards und Alarme. CloudWatch können Sie benutzerdefinierte Dashboards
erstellen
, die
wichtige Leistungskennzahlen visualisieren und Alarme einrichten, um Benachrichtigungen
auszulösen, wenn
ein Schwellenwert überschritten Sie können beispielsweise Benachrichtigungen
erhalten, wenn CPU-Auslastung
einer Datenbank über einen längeren Zeitraum einen bestimmten Prozentsatz
überschreitet Erstellen Sie beispielsweise ein
CloudWatch-Dashboard , das die Soforthilfe von EC
Two, die
RDS-Leistung und die S3
Storage-Metriken überwacht , damit die Williams
Cloud-Infrastruktur reibungslos funktioniert Nehmen wir ein Beispiel aus der realen Welt. Williams Team kann
CloudWatch verwenden, um
die Leistung seiner
cloudbasierten
Mobile-Banking-Anwendung zu überwachen die Leistung seiner
cloudbasierten und
so sicherzustellen, dass Latenz
und CPU-Auslastung innerhalb akzeptabler Bereiche
bleiben Wenn Leistungsprobleme auftreten, kann
das Team schnell
erkennen, ob das Problem in der Cloud-Infrastruktur
oder einer anderen Systemkomponente
liegt oder einer anderen Systemkomponente Datadog Full-Stack-Überwachung
für Hybridumgebungen. Datadog ist eine Cloud-native Überwachungsplattform
, die eine
vollständige Stack-Transparenz in
Cloud-Umgebungen vor
Ort bietet, vollständige Stack-Transparenz in die Infrastruktur und die Anwendungen vor Ort Ort Es eignet sich besonders
gut für hybride Umgebungen, da es in
Hunderte von Tools integriert darunter Cloud-Plattformen
und ältere Plattformübergreifende Überwachung. Mit Datadog können Sie
Ihre gesamte Hybrid-Infrastruktur
von einer einzigen Plattform aus überwachen Ihre gesamte Hybrid-Infrastruktur
von einer einzigen Plattform aus Es kann Metriken
von AWS, Azure,
Google Cloud und
lokalen Systemen verfolgen Google Cloud und
lokalen Systemen bietet Ihnen so einen einheitlichen Überblick Leistung
in allen Umgebungen Das Williams-Team kann beispielsweise Datadog
verwenden, um
sowohl die Leistung
von Cloud-Workloads als auch der Mainframe-Systeme zu überwachen sowohl die Leistung
von Cloud-Workloads als auch der ,
die
für die Backend-Verarbeitung verantwortlich sind,
um sicherzustellen, dass beide Systeme um sicherzustellen, dass Überwachung der Anwendungsleistung, APM. Datadog enthält integrierte APM-Funktionen zur Überwachung der Leistung auf
Anwendungsebene,
einschließlich
Reaktionszeit, Datenbankabfragen Datenbankabfragen Dies ist nützlich für die Überwachung komplexer verteilter
Anwendungen, die sich sowohl auf lokale als auch auf Cloud-Infrastrukturen
erstrecken Das Williams-Team kann beispielsweise APM
verwenden, um
die Leistung
der Mobile-Banking-App zu verfolgen und
gleichzeitig sicherzustellen, dass Mainframe-Interaktionen schnell und effizient
abgewickelt werden schnell und effizient
abgewickelt Dashboards und Benachrichtigungen.
Wie CloudWatch können Sie mit
Datadog
benutzerdefinierte Dashboards erstellen und Benachrichtigungen
einrichten, um Sie zu benachrichtigen,
wenn Leistungsschwellenwerte überschritten wenn Das Williams-Team kann beispielsweise Dashboards
erstellen, um
sowohl
Cloud-Leistungskennzahlen wie
Netzwerklatenz und
Ressourcennutzung als auch
Mainframe-Workload-Metriken wie Transaktionsgeschwindigkeit und Verarbeitungslast zu visualisieren sowohl
Cloud-Leistungskennzahlen wie
Netzwerklatenz und
Ressourcennutzung als auch
Mainframe-Workload-Metriken wie Transaktionsgeschwindigkeit und Verarbeitungslast . Nehmen wir ein Beispiel. Für William
bietet Beta Dog die Möglichkeit, Anfang bis Ende in der
Hybridumgebung zu
überwachen Leistung von Anfang bis Ende in der
Hybridumgebung zu
überwachen. Sein Team kann die
Cloud-API-Latenz
zusammen mit der
Mainframe-Transaktionsgeschwindigkeit verfolgen und
so sicherstellen, dass beide
Systeme
optimal funktionieren, um ihre
kundenorientierten Anwendungen zu unterstützen Splunk, analysiert Logs
und überwacht Ereignisse. Splunk ist eine fortschrittliche
Plattform für Protokollmanagement, Ereignisüberwachung und Datenanalyse in
Echtzeit Sie ist besonders leistungsstark
für die Mainframe-Überwachung, aber auch gut in Cloud-Umgebungen integrieren lässt sich
aber auch gut in Cloud-Umgebungen integrieren
.
Protokollanalyse Splunk sammelt Protokolle aus Ihrer
gesamten Hybridumgebung, sodass Sie sie
auf Leistungsprobleme,
Sicherheitsbedrohungen
und Systemereignisse hin analysieren Sicherheitsbedrohungen
und Systemereignisse seiner leistungsstarken Such- und
Korrelationsfunktionen können Sie
Probleme schnell untersuchen Das Williams-Team kann
Splunk beispielsweise verwenden, um
Mainframe-Protokolle oder Transaktionsfehler
oder Leistungsengpässe zu analysieren und
gleichzeitig
Protokolle von AWS-Services zu analysieren Protokolle von AWS-Services Überwachung und Warnmeldungen von Ereignissen. Splunk kann Ereignisse in
Echtzeit überwachen und Warnmeldungen
auf der Grundlage von Leistungsdaten
einrichten Sie können beispielsweise
Benachrichtigungen erhalten, wenn Anmeldeversuche
auf Mainframe-Systemen
fehlschlagen oder wenn die CPU-Auslastung in
Ihrer Cloud-Umgebung stark ansteigt Das Williams-Team kann beispielsweise Splunk-Benachrichtigungen
so konfigurieren, sie
über ungewöhnliches
Verhalten wie
fehlgeschlagene Versuche, auf
sensible Daten auf dem Mainframe zuzugreifen, informiert fehlgeschlagene Versuche, auf
sensible Daten auf dem Mainframe zuzugreifen werden. Dadurch wird
sichergestellt, dass Sicherheitsrisiken sofort behoben dass sie
über ungewöhnliches
Verhalten wie
fehlgeschlagene Versuche, auf
sensible Daten auf dem Mainframe zuzugreifen, informiert werden. Dadurch wird
sichergestellt, dass Sicherheitsrisiken sofort behoben werden. Dashboards und Berichte. Splunk bietet
anpassbare Dashboards , die einen klaren Überblick über den
Systemstatus bieten und
die Möglichkeit bieten, spezifische
Metriken zu untersuchen oder Ereignisse zu protokollieren Sie können Berichte erstellen Leistungstrends im
Zeitverlauf analysieren und Leistungstrends im
Zeitverlauf analysieren.
Nehmen wir ein Beispiel. Für das
Finanzinstitut Williams kann
Splunk verwendet werden, um
Transaktionsprotokolle auf dem Mainframe zu überwachen und
gleichzeitig
die Leistung von
Cloud-basierten Diensten
wie AWS Lambda zu verfolgen Cloud-basierten Diensten
wie Splunk bietet
Einblicke in die Funktionsweise der Hybridumgebung Einrichtung von Dashboards und Alerts für die Überwachung der hybriden Leistung Sobald Sie
Ihre Überwachungstools ausgewählt haben, der nächste Schritt darin, Dashboards und
Benachrichtigungen
einzurichten , um die
wichtigsten Leistungskennzahlen im Auge zu behalten Auf diese Weise können Sie den Systemzustand in
Echtzeit
überwachen und
proaktiv auf auftretende
Probleme reagieren proaktiv auf auftretende
Probleme Benutzerdefiniertes Dashboard einrichten. Dashboards bieten einen visuellen
Überblick über den Systemstatus und
machen es einfach, mehrere Leistungskennzahlen
sowohl in Cloud- als auch auf
Prime-Systemen zu verfolgen mehrere Leistungskennzahlen
sowohl in Cloud- als auch auf
Prime-Systemen So richten Sie
effektive Dashboards ein. Wählen Sie wichtige Kennzahlen aus. Identifizieren Sie die wichtigsten
Kennzahlen, die Sie verfolgen möchten. Überwachen Sie beispielsweise die
CPU-Auslastung, die Speicherauslastung, Festplatten-E/A, die Netzwerklatenz und die Reaktionszeiten von Anwendungen sowohl
für Cloud-
als auch für lokale Systeme. Das Williams-Team kann beispielsweise ein Dashboard
erstellen, das die CPU-Auslastung von zwei
AWS EC-Instanzen,
die Latenz
kundenorientierter Apps
und die
Geschwindigkeit der Transaktionsverarbeitung auf dem Mainframe
verfolgt die Latenz
kundenorientierter Apps und die
Geschwindigkeit der Transaktionsverarbeitung auf dem Mainframe Erstellen Sie Visualisierungen in Echtzeit. Verwenden Sie Tools wie AWS
Cloud Watch, Datadog
oder Splunk, um Grafiken,
Messgeräte und Trefferkarten
zu erstellen, Messgeräte und Trefferkarten die Leistungsdaten in Echtzeit anzeigen. Stellen Sie sicher, dass Ihr Dashboard auf Blick leicht zu interpretieren ist Richten Sie beispielsweise eine
Hitmap ein, die die Latenz in
Echtzeit für
alle Cloud-Dienste anzeigt Latenz in
Echtzeit für und gleichzeitig Transaktionszeiten auf dem Mainframe
verfolgt Einrichtung von Warnmeldungen für die
proaktive Überwachung. Warnmeldungen informieren Ihr Team über potenzielle
Leistungsprobleme oder Systemausfälle, sodass Sie
Korrekturmaßnahmen ergreifen können, bevor
Probleme eskalieren So richten Sie
effektive Benachrichtigungen ein. Definieren Sie Schwellenwerte und legen Sie Leistungsschwellen
für wichtige Kennzahlen Beispielsweise möchten Sie möglicherweise benachrichtigt
werden, wenn die CPU-Auslastung länger als 10 Minuten
85% übersteigt oder
wenn länger als 10 Minuten
85% übersteigt oder die Netzwerklatenz Williams-Team kann beispielsweise eine Warnung
einrichten, um sie
zu benachrichtigen, wenn CPU-Auslastung von
AWS EC Two Instances
85% überschreitet oder wenn die
Mainframe-Transaktionsgeschwindigkeit unter einen bestimmten Schwellenwert
fällt Zu den Benachrichtigungsmethoden. Entscheiden Sie, wie Sie benachrichtigt werden möchten
. Sie können
E-Mail-Benachrichtigungen und SMS-Benachrichtigungen einrichten oder sogar Tools wie
Slack oder Microsoft Teams oder die Zusammenarbeit in
Echtzeit integrieren Slack oder Microsoft Teams oder die Zusammenarbeit in
Echtzeit Das Williams-Team kann beispielsweise Benachrichtigungen über Slack
erhalten, wenn
Leistungsprobleme auftreten, sodass es
schnell reagieren und
in Echtzeit zusammenarbeiten Bewährte Methoden für die Überwachung von
Hybrid-Cloud-Systemen. Um das Beste aus
Ihren Überwachungstools herauszuholen, befolgen Sie diese bewährten Methoden. Konzentrieren Sie sich auf durchgängige Transparenz. Stellen Sie sicher, dass Ihre
Überwachungsstrategie das gesamte Hybridsystem
abdeckt, einschließlich
Cloud-Anwendungen und Infrastruktur vor Ort. Auf diese Weise erhalten Sie einen
umfassenden
Überblick über die Leistung in
allen Umgebungen. Bewährte Methode: Verwenden Sie
Tools wie Datadog oder
Splunk, um die Überwachung sowohl
auf Cloud- als auch auf
Mainframe-Systemen zu konsolidieren und
so sicherzustellen, dass Sie die Leistung
der gesamten Hybridumgebung
von einem einzigen Dashboard aus
verfolgen können der gesamten Hybridumgebung Automatisieren Sie Benachrichtigungen für schnelle Antworten. Richten Sie automatische
Benachrichtigungen ein, um
Ihr Team in Echtzeit über
Leistungsprobleme zu informieren . Automatisierte Warnmeldungen reduzieren das
Risiko menschlicher Fehler und stellen sicher, dass Probleme
behoben werden , bevor sie sich
auf die Endbenutzer auswirken. Bewährte Methode: Verwenden Sie
Cloud Watch oder
Datadog, um Benachrichtigungen auf der
Grundlage wichtiger
Leistungsschwellenwerte zu automatisieren , z. B. bei hoher CPU-Auslastung oder
erhöhter Verfeinern Sie
Dashboards und Metriken kontinuierlich. Ihre Überwachungsanforderungen
werden sich im Laufe der Zeit weiterentwickeln. Verfeinern Sie Ihre
Dashboards und Kennzahlen kontinuierlich, um
sicherzustellen, dass sie die
Leistungsziele
Ihres Unternehmens widerspiegeln Leistungsziele
Ihres Unternehmens Bewährte Methode: Überprüfen
Sie Ihre Dashboards regelmäßig und passen Sie sie nach
Bedarf an, um neue Kennzahlen,
Dienste oder
Leistungsengpässe zu verfolgen ,
Dienste oder
Leistungsengpässe den wichtigsten Erkenntnissen aus
dieser Lektion gehören zum einen:
AWS Cloud Watch, Datadog
und Splunk sind
leistungsstarke Überwachungstools
für Hybridumgebungen, und Splunk sind leistungsstarke Überwachungstools
für Hybridumgebungen Echtzeit Einblicke in die Leistung sowohl in der Cloud als auch vor Ort
bieten Zu den wichtigsten Erkenntnissen aus
dieser Lektion gehören zum einen:
AWS Cloud Watch, Datadog
und Splunk sind
leistungsstarke Überwachungstools
für Hybridumgebungen, die in
Echtzeit Einblicke in die Leistung sowohl in der Cloud als auch vor Ort
bieten. Zweitens: Richten Sie ein benutzerdefiniertes Dashboard und Warnmeldungen ein, um wichtige
Leistungskennzahlen
in Ihrer Hybridumgebung zu verfolgen und
so sicherzustellen, dass Ihre Systeme reibungslos und effizient funktionieren Warnmeldungen ein, um wichtige
Leistungskennzahlen
in Ihrer Hybridumgebung zu verfolgen und
so sicherzustellen, dass Ihre Systeme reibungslos und effizient funktionieren
. Drittens sollten Sie sich
an bewährte Verfahren halten, wie z. B. die Sicherstellung einer durchgängigen Transparenz, die Automatisierung von Warnmeldungen
und die kontinuierliche Weiterentwicklung Ihrer
Überwachungsstrategie zur Leistungsoptimierung Erwerbstätigkeit, Reflexion. Welche Überwachungstools
würden Sie implementieren, um die Leistung Ihrer
Hybrid-Cloud-Umgebung zu verfolgen? Welchen Kennzahlen würden
Sie Priorität einräumen , um den Zustand
und die Leistung Ihres Systems sicherzustellen Im Forum
gestellte Diskussionsfrage. welche Herausforderungen sind
Sie bei der Leistungsüberwachung von Hybridsystemen
gestoßen? Wie haben Sie
diese Herausforderungen gemeistert und
welche Tools verwenden Sie? Nächste Lektion, Leistungsoptimierung in Hybrid-Cloud-Architekturen In der nächsten Lektion werden wir uns mit Strategien zur
Leistungsoptimierung für
Hybrid-Cloud-Architekturen
befassen Strategien zur
Leistungsoptimierung für
Hybrid-Cloud-Architekturen Sie erfahren, wie Sie die
Arbeitslastverteilung zwischen
lokalen und Cloud-Umgebungen optimieren Arbeitslastverteilung zwischen , die Latenz reduzieren und die
Systemleistung verbessern können bereit, Ihre
Hybridumgebung
auf Spitzenleistung abzustimmen , und fahren
wir mit Lektion
zwei von Modul 7 fort.
27. Lektion 2: Leistungsoptimierung in hybriden Cloud-Architekturen: Lektion zwei, Leistungsoptimierung
in Hybrid-Cloud-Architekturen Willkommen zu Lektion
zwei von Modul sieben. In dieser Lektion werden wir Strategien zur
Leistungsoptimierung für
Hybrid-Cloud-Architekturen
untersuchen und uns
dabei darauf konzentrieren, wie die
Arbeitslastverteilung optimiert, die Latenz reduziert und die
Gesamtsystemleistung verbessert Für einen
Leiter der IT-Infrastruktur wie William die
Optimierung des
Gleichgewichts zwischen ist die
Optimierung des
Gleichgewichts zwischen
lokalen Mainframes und
Cloud-Umgebungen von entscheidender Bedeutung, um sicherzustellen, dass Anwendungen
und Dienste
reibungslos und ohne Engpässe
oder Leistungsverzögerungen ausgeführt reibungslos und ohne Engpässe Am Ende dieser
Lektion werden Sie zunächst Strategien zur Optimierung der Arbeitslastverteilung zwischen der
lokalen Umgebung und der Cloud-Umgebung
kennenlernen Arbeitslastverteilung zwischen lokalen Zweitens erfahren Sie, wie Sie
die Latenz reduzieren, Ressourcennutzung
verwalten und
die Systemleistung verbessern können. Sehen wir uns
die bewährten Methoden zur Leistungsoptimierung in Hybrid-Cloud-Umgebungen an und erfahren Sie, wie Sie
sicherstellen können, dass Ihre Systeme auf maximale Effizienz
ausgelegt sind. Optimierung der
Arbeitslastverteilung zwischen lokalen und
Cloud-Umgebungen. Hybrid-Cloud-Systeme beinhalten
häufig Workloads sowohl auf älteren
Mainframe-Systemen als auch auf modernen
Cloud-Plattformen
ausgeführt modernen
Cloud-Plattformen Eine effiziente
Verteilung der Arbeitslast ist entscheidend, um sicherzustellen
, dass jede Umgebung ihre Stärken optimal ausnutzt
und die Leistung in der
gesamten Infrastruktur maximiert
wird Arbeitslast, wobei ermittelt wird, welche Lösung für
jede Umgebung am besten geeignet zur
Leistungsoptimierung
ist die Entscheidung, wo Workloads platziert werden sollen, Cloud erste Schritt zur
Leistungsoptimierung
ist die Entscheidung, wo Workloads platziert werden sollen,
ob auf Mainframes
oder in der Verschiedene Workloads haben
unterschiedliche Anforderungen in Bezug auf Latenz,
Rechenleistung und
Datensensitivität, von denen sich ihre Platzierung leiten
sollte Mainframes vor Ort eignen
sich ideal für Workloads, die
eine hohe Rechenleistung, Transaktionsabwicklung mit
geringer Latenz
und strenge Sicherheitskontrollen erfordern , insbesondere in Bank - und insbesondere in Bank Echtzeitverarbeitung von
Kundentransaktionen und Stapelverarbeitung
großer Datenmengen eignen sich am besten Zum Beispiel könnte Williams Team
entscheiden, ob die
Transaktionsverarbeitung in Echtzeit auf dem Mainframe stattfindet, wo
Geschwindigkeit und Sicherheit bei
der
Migration von
Analyse-Workloads in die Cloud an
erster Stelle stehen bei
der
Migration von
Analyse-Workloads in die Cloud an
erster Stelle stehen Analyse-Workloads Cloud-Plattformen. Cloud-Plattformen eignen sich am besten für Workloads
, die Skalierbarkeit,
Elastizität und
verteilte Verarbeitung erfordern ,
Elastizität und
verteilte Verarbeitung Datenanalysen,
Webanwendungen und kundenorientierte
Dienste können von
der Flexibilität von
Cloud-Umgebungen profitieren der Flexibilität von
Cloud-Umgebungen Das Williams-Team kann beispielsweise kundenorientierte
Webanwendungen in die Cloud
verlagern, um die
Skalierbarkeit von AWS EC
Two oder virtuellen Azure-Computern zu nutzen Two oder virtuellen Azure-Computern , die große
Mengen an Benutzerverkehr bewältigen können. Nehmen wir ein Beispiel. Für Williams Financial
Institution Beibehaltung der
Transaktionsverarbeitung auf
dem sorgt die
Beibehaltung der
Transaktionsverarbeitung auf
dem Mainframe dafür, dass Kundentransaktionen
sicher und schnell verarbeitet
werden . Gleichzeitig ermöglicht die
Migration
der Datenanalyse in die Cloud
dem Team, die Flexibilität
des Cloud-Computing zu
nutzen die Flexibilität
des Cloud-Computing zu
nutzen Strategien zur
Verteilung hybrider Arbeitslasten. gibt es verschiedene Strategien für die Verteilung der Arbeitslast Abhängig von den Leistungszielen und
der Systemarchitektur gibt es verschiedene Strategien
für die Verteilung der Arbeitslast
auf
Hybrid-Cloud-Systeme . Hier sind einige wichtige Strategien. DataFirst-Strategie. Bei einer Data-First-Strategie verbleiben
Daten vor Ort, z.
B. auf dem Mainframe, während Verarbeitung
und Anwendungen in der Cloud gehostet
werden Dies reduziert den Bedarf Datenmigration und
trägt dazu bei, die Kontrolle
über sensible Daten zu behalten und gleichzeitig rechenintensive
Aufgaben in die Cloud
auszulagern Beispielsweise könnte Williams Team sensible
Finanzdaten auf dem Mainframe
speichern und gleichzeitig Datenanalysen und Modelle für
maschinelles Lernen in
AWS
ausführen , um die Rechenressourcen des
Unternehmens optimal zu nutzen Strategie „Prozess zuerst“. Bei einer prozessorientierten Strategie die aufwändigen
Aufgaben, z. B.
Berechnung oder Speicherung, werden
die aufwändigen
Aufgaben, z. B.
Berechnung oder Speicherung, in der Cloud
ausgeführt, während bestimmte Prozesse aus Compliance
- oder Latenzgründen
vor Ort bleiben Compliance
- oder Latenzgründen
vor Dies ist nützlich für
Anwendungen, die den Zugriff
auf bestimmte Systeme mit niedriger Latenz
aufrechterhalten müssen Zugriff
auf bestimmte Systeme mit niedriger Latenz
aufrechterhalten Das Williams-Team könnte sich beispielsweise
dafür entscheiden, Transaktionsprotokolle in
der Cloud zu verarbeiten , aber
für kritische Aufgaben mit niedriger Latenz
Echtzeit-Finanzsysteme
auf dem Hauptrahmen beizubehalten Echtzeit-Finanzsysteme
auf dem Hauptrahmen . Nehmen wir ein Beispiel. Mithilfe
einer Data-Forest-Strategie kann
Williams Institution
alle sensiblen Finanzdaten vor
Ort speichern und gleichzeitig
Cloud-Dienste
wie AWS Lambda oder
Azure-Funktionen nutzen oder Daten in großem
Umfang verarbeiten Auf diese Weise wird ein Gleichgewicht zwischen dem Bedarf an
Sicherheit und Skalierbarkeit hergestellt. Reduzierung der Latenz in einer
Hybrid-Cloud-Umgebung. Latenz, die Zeit, die
Daten benötigen, um zwischen Systemen zu übertragen, kann
die Leistung von
Hybrid-Cloud-Systemen erheblich beeinträchtigen . Reduzierung der Latenz ist
für die Verarbeitung in Echtzeit unerlässlich, insbesondere in
Bankumgebungen, in denen Verzögerungen Transaktionen
und das Kundenerlebnis beeinträchtigen können. Netzwerkoptimierung,
Verbesserung der Konnektivität. In hybriden Umgebungen ist die
Netzwerklatenz ein
häufiger Engpass, insbesondere wenn
Daten
zwischen
Primärsystemen und der Cloud übertragen werden zwischen
Primärsystemen und der Die Optimierung der
Netzwerkleistung ist entscheidend, um die Latenz zu reduzieren Dedizierte Netzwerkverbindungen. Verwenden Sie dedizierte Verbindungen wie AWS Direct Connect oder
Azure Express Route, um eine sichere Hochgeschwindigkeitsverbindung
zwischen Ihren eigenen erstklassigen
Systemen und der Cloud
herzustellen . Diese Verbindungen umgehen
das öffentliche Internet, Latenz
erheblich reduziert
und die Zuverlässigkeit verbessert wird. Das Williams-Team kann beispielsweise
AWS Direct Connect implementieren , um Daten sicher vom Mainfare nach AWS zu
übertragen Sicherstellung einer schnellen und zuverlässigen
Konnektivität ohne die Verzögerungen, die mit
internetbasierten Übertragungen verbunden sind Netzwerke zur Bereitstellung von Inhalten oder CDNs. Verwenden Sie CDNs, um statische Inhalte
wie
Webseitenelemente näher am Endbenutzer zwischenzuspeichern , wodurch die Latenz reduziert und die
Antwortzeiten für in der Cloud
gehostete
kundenorientierte Anwendungen beschleunigt Antwortzeiten für in der Cloud
gehostete
kundenorientierte Anwendungen in der Cloud
gehostete Bei Webanwendungen
mit Kundenkontakt von Williams wird beispielsweise durch die
Implementierung von AWS Cloudfront
als CDN sichergestellt , dass Webinhalte unabhängig vom Standort
des
Benutzers schnell bereitgestellt unabhängig vom Standort
des
Benutzers schnell Nehmen wir ein Beispiel. Durch die Einrichtung von AWS
Direct Connect Datenübertragungen zwischen Domain-Frame- und Cloud-Services kann das
Williams-Team die Latenz
erheblich reduzieren und
sicherstellen, dass Transaktionsdaten
in
Echtzeit ohne Verzögerungen verarbeitet werden. Minimierung der Latenz
bei der Datenverarbeitung. Latenz bei der
Datenverarbeitung kann auftreten, wenn Anwendungen auf
Daten zugreifen müssen, die in
verschiedenen Umgebungen gespeichert sind den Strategien zur
Reduzierung dieser Art von Latenz gehört Edge-Computing. In bestimmten Fällen kann der Einsatz von Edge-Computing-Ressourcen die
Verarbeitung näher an die
Datenquelle oder den Endbenutzer bringen . Diese Daten. Dies reduziert die Entfernung, die
Daten zurücklegen müssen, und verbessert die Leistung
zeitkritischer Anwendungen. Ein Beispiel:
Das Williams-Team könnte
AWS Green Grass nutzen, um Anwendungen
am Netzwerkrand näher an
ihren Datenquellen
auszuführen und
so die Notwendigkeit zu verringern, Daten
zwischen der Cloud und
lokalen Systemen hin und her zu übertragen Daten
zwischen der Cloud und
lokalen Systemen hin und her . Zwischenspeichern von Daten Implementieren Sie
Caching-Strategien, um
häufig abgerufene Daten
näher an der Anwendung zu speichern ,
unabhängig davon, ob sie sich
vor Ort oder in der Cloud befinden Dies reduziert die
Notwendigkeit, ständig Daten von entfernten Standorten
abzurufen, was zu
erheblichen Verzögerungen führen kann Zum Beispiel kann Williams Team die
Transaktionsverläufe von Kunden lokal auf
dem Mainframe
zwischenspeichern , sodass sie schnell
abgerufen werden können, und gleichzeitig
Cloud-Speicher oder Archivdaten nutzen , auf
die seltener zugegriffen wird Nehmen wir ein Beispiel.
Durch die Einrichtung von Edge-Computing-Ressourcen kann das
Williams-Team Echtzeitanalysen am Netzwerkrand durchführen und
so die Latenz
reduzieren, die entstehen könnte, wenn Daten an eine
zentralisierte Cloud-Umgebung zurückgesendet werden müssten. Verwaltung der Ressourcennutzung
zur Verbesserung der Leistung. Ressourcenmanagement
ist entscheidend für die Leistungsoptimierung in
Hybrid-Cloud-Umgebungen. Wenn sichergestellt wird, dass Ressourcen
sowohl in der Cloud als auch auf
Primatensystemen effizient
genutzt werden , kann Überbereitstellung
und Unterauslastung
verhindert Autoscaling in der Cloud. Einer der Hauptvorteile von Cloud-Umgebungen
ist die automatische Skalierung, bei der die Anzahl
der Rechenressourcen automatisch
an den Bedarf angepasst wird . Dadurch wird sichergestellt, dass Anwendungen Zeiten hoher Nachfrage
immer mehr Ressourcen bereitstellen und gleichzeitig Kosten in Zeiten
geringer Nutzung
minimieren Vertikale und horizontale Skalierung. Cloud-Plattformen wie AWS und Azure unterstützen sowohl die
vertikale Skalierung
, bei der
einer einzelnen Instanz
mehr Ressourcen hinzugefügt werden, als auch die
horizontale Skalierung
, bei der mehr Instanzen hinzugefügt werden. Autoscaling-Gruppen können die
Ressourcenstufen
automatisch auf der Grundlage
vordefinierter Schwellenwerte anpassen Ressourcenstufen
automatisch auf der Grundlage
vordefinierter Schwellenwerte William
Stein kann beispielsweise
AWS-Autoscaling einrichten, um sicherzustellen,
dass Cloud-Ressourcen bei hohem Traffic oder
ihrer
Mobile-Banking-Anwendung
hochskaliert und Geschäftszeiten
herunterskaliert werden, um Kosten zu sparen Nehmen wir ein Beispiel.
Durch die Aktivierung von Autoscaling kann das
Williams-Team sicherstellen, dass die Cloud-Infrastruktur
automatisch an die Benutzernachfrage anpasst, sodass die
Mobile-Banking-App
Verkehrsspitzen bewältigen kann, ohne die Leistung zu beeinträchtigen Mainframe-Ressourcenmanagement. Mainframes vor Ort verfügen über
einen festen Satz von Ressourcen. Beim Ressourcenmanagement
geht es darum, zu optimieren ,
wie diese Ressourcen verschiedenen
Workloads zugewiesen werden Zu den Techniken gehören die Planung der
Arbeitslast, der Lastenausgleich und die
Kapazitätsplanung Planung der Arbeitslast. Verwenden Sie
Planungstools wie IBM Workload Scheduler, um das Timing
von Batch-Prozessen zu optimieren und Aufgaben mit hoher Priorität
sicherzustellen Wir stellen bei Bedarf die erforderlichen Ressourcen zur Verfügung, ohne das
System zu überlasten Das Williams-Team kann beispielsweise Batch-Verarbeitung
außerhalb der Spitzenzeiten
planen , wenn Bedarf an
Echtzeitverarbeitung
gering ist, wodurch die Mainframe-Effizienz maximiert Kapazitätsplanung.
Überwachen Sie kontinuierlich Ressourcennutzung auf
dem Mainframe, um Möglichkeiten
für die Kapazitätsplanung zu identifizieren Dadurch wird sichergestellt, dass
der Mainframe über
genügend Kapazität verfügt , um
Spitzenlasten ohne
Ressourcenkonflikte zu bewältigen Spitzenlasten ohne
Ressourcenkonflikte Nehmen wir ein Beispiel.
Das Williams-Team kann die
Arbeitsplanung optimieren, um sicherzustellen , dass die
Transaktionsverarbeitung während der
Hauptgeschäftszeiten Vorrang hat , während die
Batch-Verarbeitung über Nacht
erfolgt Ressourcenkonflikte
vermieden und eine optimale
Leistung gewährleistet. den wichtigsten Erkenntnissen aus
dieser Lektion gehört zum einen, Verteilung der
Arbeitslast der Schlüssel
zur Optimierung der
Hybridleistung ist zur Optimierung der
Hybridleistung Die richtigen Workloads
in der richtigen Umgebung zu platzieren sei es auf Primes oder in der Cloud,
ist für die Effizienz von entscheidender Bedeutung Zweitens ist die Reduzierung der Latenz durch Netzwerkoptimierung und
Datenverarbeitungsstrategien entscheidend, um
sicherzustellen, dass
Echtzeitanwendungen in
hybriden
Umgebungen reibungslos funktionieren Drittens stellt das Ressourcenmanagement
durch automatische Skalierung in der Cloud und
Workload-Planung auf Mainframes sicher, dass beide
Umgebungen effizient und
ohne Engpässe
genutzt werden effizient und
ohne Engpässe
genutzt Erwerbstätigkeit, Reflexion. Wie optimieren Sie die
Verteilung der Arbeitslast zwischen Ihren und Ihren Cloud-Systemen
, um die Leistung zu maximieren? Welche Faktoren würden Sie
bei der Entscheidung, wo Workloads platziert
werden sollen, berücksichtigen bei der Entscheidung, wo Workloads platziert
werden sollen, Diskussionsfragen,
die im Forum gestellt wurden. Welche Strategien haben Sie verwendet, um die Latenz in
Hybridumgebungen zu reduzieren? Wie verwalten Sie die Ressourcennutzung sowohl in Cloud-
als auch in lokalen Systemen? Nächste Lektion, Kostenoptimierung
in Hybridsystemen. In der nächsten Lektion werden
wir Strategien zur
Kostenoptimierung
für Hybridsysteme untersuchen . Sie erfahren, wie Sie Leistung mit Maßnahmen zur
Kosteneinsparung
wie Ressourcenskalierung,
Workload-Platzierung und
Cloud-Kostenüberwachung in
Einklang bringen Maßnahmen zur
Kosteneinsparung
wie Ressourcenskalierung, können. Wir freuen uns darauf, die Kosten zu senken und gleichzeitig die Leistung
aufrechtzuerhalten Lassen Sie uns zu Lektion
drei von Modul 7 übergehen.
28. Lektion 3: Kostenoptimierung in Hybridsystemen: Lektion drei, Kostenoptimierung
in Hybridsystemen. Willkommen zu Lektion
drei von Modul sieben. In dieser Lektion konzentrieren wir uns auf Strategien zur
Kostenoptimierung für Hybrid-Cloud-Architekturen Für einen
IT-Infrastrukturdirektor wie William bedeutet die
Verwaltung sowohl lokaler Mainframes
als auch
Cloud-Plattformen, Leistung und Kosteneffizienz in Einklang Kosteneffizienz Kosten
zu optimieren, ohne Kompromisse
bei der Leistung einzugehen, sind
Verständnis,
Ressourcenskalierung,
Workload-Platzierung
und Tools zur Überwachung und
Verwaltung der Cloud-Ausgaben erforderlich Ressourcenskalierung,
Workload-Platzierung und Tools zur Überwachung und
Verwaltung der Cloud-Ausgaben Am Ende dieser Lektion werden
Sie sich mit Maßnahmen zur
Kosteneinsparung
in Hybrid-Cloud-Architekturen befassen , einschließlich Ressourcenskalierung und kosteneffizienter
Workload-Platzierung Zweitens lernen Sie, wie Sie die
Cloud-Ausgaben überwachen und Budgets
optimieren und gleichzeitig die
Systemleistung aufrechterhalten Lassen Sie uns untersuchen, wie Sie
Ihre Hybridumgebung
kosteneffizient gestalten und gleichzeitig
die hohe Leistung bieten können, die
Ihr Unternehmen benötigt. Maßnahmen zur Kosteneinsparung in
Hybrid-Cloud-Architekturen. Die Kostenoptimierung in
Hybridsystemen beinhaltet strategische Entscheidungen darüber,
wie Ressourcen zugewiesen, Workloads
verteilt
und die Cloud-Infrastruktur
bedarfsgerecht skaliert Durch die Optimierung der Ressourcennutzung sowohl als On-Premise
- als auch als Cloud-System können
Sie die Kosten minimieren und
gleichzeitig die Leistung sicherstellen Skalierung von Ressourcen: Zahlen Sie
für das, was Sie nutzen. Einer der Hauptvorteile Cloud-Umgebung ist die Möglichkeit Ressourcen dynamisch
zu skalieren, sodass Sie nur für das bezahlen müssen, was Sie tatsächlich nutzen, anstatt
überschüssige Kapazitäten aufrechtzuerhalten. Eine effiziente
Ressourcenskalierung stellt sicher, dass Ihre Systeme in Spitzenzeiten über die Ressourcen verfügen , die
sie benötigen, vermeiden
aber, dass Sie außerhalb der Spitzenzeiten für eine nicht
ausgelastete Infrastruktur
zahlen müssen. Automatische Skalierung. Cloud-Plattformen
wie AWS und Azure bieten Autoscaling-Funktionen
, mit denen Sie die Anzahl
der
Recheninstanzen oder
virtuellen Maschinen automatisch
an die Verkehrsnachfrage anpassen Anzahl
der
Recheninstanzen oder virtuellen Maschinen automatisch
an die Verkehrsnachfrage Dadurch wird sichergestellt, dass Ressourcen nur bei
Bedarf zugewiesen
werden , wodurch die Kosten in
Zeiten geringer Aktivität Williams-Team kann beispielsweise
AWS-Autoscaling so einrichten, dass die
Cloud-Ressourcen in
Zeiten hoher Nachfrage,
z. B. bei Berichten zum Ende des
Geschäftsquartals
oder zu Spitzenzeiten,
automatisch erhöht Cloud-Ressourcen in
Zeiten hoher Nachfrage,
z. B. bei Berichten zum Ende des Geschäftsquartals und außerhalb der Geschäftszeiten
herunterskaliert Spot-Instances und
Reserved Instances. Verwenden Sie Spot-Instances,
bei denen es sich um temporäre, kostengünstige Rechenressourcen für Workloads handelt, die Unterbrechungen
tolerieren können, und Reserved Instances
, für die vorab
ermäßigte Rechenkapazität
für langfristige Workloads erworben werden ermäßigte Rechenkapazität
für langfristige Das Williams-Team könnte beispielsweise
AWS-Spot-Instances für die
Stapelverarbeitung oder
andere unkritische Workloads nutzen AWS-Spot-Instances für die
Stapelverarbeitung oder und Instances
für geschäftskritische
Anwendungen reservieren für geschäftskritische
Anwendungen , die Nehmen wir ein Beispiel. Durch die Implementierung von
AWS Auto Scaling kann das
Williams-Team die Kosten senken, kann das
Williams-Team die Kosten senken indem es sicherstellt, dass die
Rechenressourcen automatisch skaliert werden Spitzenzeiten
automatisch skaliert werden, während die
Kosten außerhalb der Spitzenzeiten minimiert werden. Darüber hinaus
können sie durch den Einsatz von
Spot-Instances für weniger
zeitkritische Workloads bis zu 70% der Kosten für die
Batch-Verarbeitung sparen durch den Einsatz von
Spot-Instances für weniger
zeitkritische Workloads bis zu 70% der Kosten für die
Batch-Verarbeitung Spot-Instances für weniger
zeitkritische Workloads bis zu 70% der Kosten für Verteilung der Arbeitslast unter Einsatz
kosteneffizienter Ressourcen. Platzierung von Workloads in der kosteneffizientesten
Umgebung ist Schlüssel zur Kostenkontrolle in einer Hybrid-Cloud-Architektur Einige Workloads können von
der Skalierbarkeit von
Cloud-Plattformen profitieren , während andere auf
älteren
Mainframe-Systemen kostengünstiger ausgeführt werden können auf
älteren
Mainframe-Systemen kostengünstiger ausgeführt Kostenvergleich zwischen Cloud und On-Premise-Lösung. Cloud-Plattformen
bieten zwar Flexibilität
und Skalierbarkeit, Ausführung von Anwendungen auf einer
älteren Infrastruktur kann
für bestimmte Workloads kostengünstiger sein, insbesondere wenn Sie
die Hardware bereits besitzen und nur Betriebskosten
anfallen Zum Beispiel könnte Williams
Team feststellen, dass es ist, die
Transaktionsverarbeitung auf , als
dieselbe Arbeitslast auf AWS EC Two kostengünstiger
ist, die
Transaktionsverarbeitung auf
dem Mainframe zu belassen, auf dem sie bereits in die
Infrastruktur investiert
haben auszuführen Optimierung hybrider Arbeitslasten. Verteilen Sie Workloads auf der Grundlage ihrer Kosteneffizienz
in jeder Umgebung Workloads zur Stapelverarbeitung oder
Analyse in der Cloud
möglicherweise
kostengünstiger während
Finanztransaktionen in Echtzeit vor Ort günstiger und
sicherer
sein können Ort günstiger und
sicherer
sein Verlagern Sie beispielsweise
Datenanalyse-Workloads in die Cloud wo sie bei Bedarf skaliert
werden können, während Transaktionsverarbeitung auf dem Mainframe
bleibt,
wodurch die Cloud-Rechenkosten gesenkt gleichzeitig eine hohe Leistung aufrechterhalten Nehmen wir ein Beispiel. Für das
Finanzinstitut Williams ermöglicht die
Migration umfangreicher
Datenanalysen in die Cloud
einem Team, die
Cloud-Elastizität
für die Verarbeitung großer Datenmengen zu nutzen Datenmengen Beibehaltung der hochsicheren
Transaktionsverarbeitung auf
dem gewährleistet die
Beibehaltung der hochsicheren
Transaktionsverarbeitung auf
dem Mainframe eine bessere Kostenkontrolle ohne
Leistungseinbußen Überwachung der Cloud-Ausgaben
und Optimierung des Budgets. Um die Kosten
in einer Hybridumgebung vollständig zu optimieren, ist eine
kontinuierliche Überwachung der
Cloud-Ausgaben unerlässlich. Viele Unternehmen haben mit
unerwarteten
Cloud-Rechnungen zu kämpfen , die auf eine
übermäßige Bereitstellung oder mangelnde
Einblicke in die Ressourcennutzung zurückzuführen übermäßige Bereitstellung oder mangelnde
Einblicke in die Ressourcennutzung Implementierung von Tools zur
Echtzeitverfolgung und Kostenoptimierung wird sichergestellt, dass Cloud-Budgets
optimiert werden , ohne die
Systemleistung zu beeinträchtigen Verwendung nativer Cloud-Tools
zur Kostenüberwachung. Cloud-Plattformen bieten
integrierte Tools, mit denen Sie Ihre
Cloud-Ausgaben in Echtzeit überwachen und verwalten können. diesen Tools können
Sie Budgets festlegen, Nutzung von Forschungsdaten
verfolgen und
Ausgabentrends analysieren, um sicherzustellen, dass Sie Ihre
finanziellen Ziele einhalten. AWS Cost Explorer. AWS Cost Explorer können Sie Ihre
AWS-Kosten- und Nutzungsmuster
visualisieren und analysieren. Es hilft dabei,
ungenutzte Ressourcen zu identifizieren, tatsächliche Nutzung mit der
voraussichtlichen zu
vergleichen und Einsparmöglichkeiten zu finden Das Williams-Team kann beispielsweise
AWS Cost Explorer verwenden, um die
monatlichen Cloud-Ausgaben zu verfolgen, ausgelastete
EC-Instances zu
identifizieren und sie
herunterzufahren, wenn sie nicht benötigt Azure-Kostenmanagement
plus Abrechnung. Dieses Tool bietet eine
detaillierte Aufschlüsselung der Azure-Ressourcenkosten, sodass Unternehmen
ihre Ausgaben verfolgen, Dienstleistungen
erwerben und Benachrichtigungen einrichten können,
wenn die Kosten
vordefinierte Schwellenwerte überschreiten Williams Team kann beispielsweise
Azure Cost Management verwenden , um Azure-Dienste zu
überwachen und Benachrichtigungen
einzurichten, wenn die
Cloud-Computing-Kosten ihr monatliches Budget
überschreiten Implementierung von Budgets und Benachrichtigungen. Um zu hohe Ausgaben zu vermeiden, können
Unternehmen Budgets für die
Cloud-Nutzung festlegen und Warnmeldungen
implementieren, die Teams
benachrichtigen, wenn sich die Ausgaben dem Schwellenwert
nähern Auf diese Weise kann das Team Maßnahmen
ergreifen, bevor die Kosten außer Kontrolle
geraten.
Budgetwarnungen. Richten Sie Budgetbenachrichtigungen ein, um das Team zu
benachrichtigen, wenn tatsächlichen Ausgaben die
budgetierten Beträge überschreiten oder bald Dies ist nützlich, um bei der Verwaltung der
Cloud-Ausgaben
proaktiv zu bleiben Verwaltung der
Cloud-Ausgaben
proaktiv Williams-Team kann beispielsweise
ein monatliches Cloud-Budget für
seine AWS-Services festlegen und
Benachrichtigungen erhalten , wenn
sich die Ausgaben 80% des Budgets nähern, sodass es Anpassungen
vornehmen kann, um Überschreitung seines Ziels
zu vermeiden. Kostenanomalien. Tools zur Erkennung von
Kostenanomalien, die auf
maschinellem Lernen wie z. B. die
AWS-Kostenanomalieerkennung , um ungewöhnliche Spitzen bei der
Cloud-Nutzung zu
identifizieren, die auf Fehlkonfigurationen oder Ineffizienzen hinweisen könnten Verwenden Sie Tools zur Erkennung von
Kostenanomalien, die auf
maschinellem Lernen basieren,
wie z. B. die
AWS-Kostenanomalieerkennung, um ungewöhnliche Spitzen bei der
Cloud-Nutzung zu
identifizieren, die auf Fehlkonfigurationen oder Ineffizienzen hinweisen könnten
. Wenn beispielsweise ein Workload für die
Stapelverarbeitung mehr
Cloud-Ressourcen als erwartet
beansprucht, kann das
Williams-Team die Anomalie schnell
erkennen und
untersuchen, ob bei der Planung der Arbeitslast ein Fehler aufgetreten mehr
Cloud-Ressourcen als erwartet
beansprucht, kann das
Williams-Team die Anomalie schnell
erkennen und
untersuchen, ob bei der Planung der Arbeitslast ein Fehler aufgetreten ist. Nehmen wir ein Beispiel.
Das Williams-Team kann
mithilfe des AWS Cost
Explorer ein Budget für die
Cloud-Infrastruktur festlegen und
Benachrichtigungen erhalten , wenn die Ausgaben einen
festgelegten Schwellenwert überschreiten. So können
Mehrausgaben vermieden gleichzeitig die Leistung optimiert Bewährte Methoden zur
Kostenoptimierung in Hybrid-Cloud-Systemen der Kostenoptimierung in
Hybrid-Cloud-Systemen geht es darum, die
Ressourcennutzung an den Geschäftsanforderungen auszurichten und
sicherzustellen, dass die Leistung
erhalten bleibt , ohne dass unnötige Kosten
anfallen Im Folgenden finden Sie bewährte Methoden zur kostengünstigen
Optimierung. Ressourcen in der richtigen Größe. richtige Größe bezieht sich auf die
Anpassung der Größe von Cloud-Instanzen oder
virtuellen Maschinen an die tatsächliche
Nutzung von Workloads Viele Unternehmen
stellen Ressourcen zu um Leistungsprobleme zu vermeiden, jedoch häufig
zu höheren Kosten führt Überprüfen Sie
Ihre Ressourcenzuweisungen regelmäßig und passen Sie sie
auf der Grundlage der tatsächlichen Nutzungsmuster Bewährte Methode: Überprüfen Sie regelmäßig Ressourcennutzung und reduzieren Sie
alle Fälle, in denen zu viel bereitgestellt wird. Dadurch wird vermieden, dass
für ungenutzte Kapazität bezahlt wird wird
gleichzeitig sichergestellt, dass die Workloads
weiterhin optimal funktionieren Verwenden Sie Reserve-Instances
und Sparpläne. Cloud-Plattformen bieten
reservierte Instanzen und Sparpläne, die
erhebliche Rabatte von
bis zu 70% für
langfristige Workloads bieten bis zu 70% für
langfristige Workloads Diese Pläne eignen sich ideal für Workloads und erfordern eine
konsistente Nutzung im Laufe der Zeit, sodass Unternehmen
Kosten senken können, ohne Kompromisse
bei der Leistung einzugehen Bewährte Methode:
Identifizieren Sie Workloads, die konsistent ausgeführt werden,
z. B. Datenbanken und
kritische Anwendungen, und erwerben Sie Reserved Instances
oder Sparpläne für diese Workloads, um niedrigere Preise zu
erzielen Optimieren Sie die Speicherkosten. Speicherkosten können sich
schnell summieren, insbesondere in
Hybridumgebungen denen Daten
auf mehrere Systeme verteilt sind. Optimieren Sie den Speicher mithilfe von Peering-Speicheroptionen
wie AWS ST Glacier oder Assure Blood Storage,
Archivierung oder selten abgerufenen Daten und On-Demand-Speicher für
Echtzeitanwendungen Bewährte Methode: Archivieren Sie Daten mit seltenem Zugriff in
günstigeren
Langzeitspeicheroptionen wie AWS ST Glacier
und nutzen Sie gleichzeitig schnelleren
Speicher, z. B.
SSDs oder geschäftskritische
Daten mit
häufigem günstigeren
Langzeitspeicheroptionen wie AWS ST Glacier und nutzen Sie gleichzeitig schnelleren
Speicher, z. B. SSDs oder geschäftskritische den wichtigsten Erkenntnissen aus
dieser Lektion gehören erstens, automatische Skalierung und
Workload-Platzierung
unverzichtbare Strategien sind, um Kosten zu
senken und gleichzeitig Leistung in
Hybrid-Cloud-Umgebungen
aufrechtzuerhalten Zweitens stellt die kontinuierliche
Überwachung der Cloud-Kosten mithilfe von
Tools wie AWS Cost Explorer und Kostenmanagement sicher, dass Sie Ihr Budget einhalten
und Mehrausgaben vermeiden Drittens: Implementieren Sie
bewährte Methoden zur Kosteneinsparung wie die
richtige Dimensionierung von Ressourcen, Verwendung von Reserve-Instances und Optimierung des Speichers, um eine
langfristige Kosteneffizienz zu erreichen Lernaktivität, Reflexion. Welche Strategien würden
Sie implementieren, um
die Kosten in einer
Hybrid-Cloud-Umgebung zu senken? Wie würden Sie Kosteneinsparungen
mit der Aufrechterhaltung einer
hohen Leistung in
Einklang bringen ? Im Forum
gestellte Diskussionsfrage. Auf welche Herausforderungen sind
Sie beim
Cloud-Kostenmanagement
in hybriden Umgebungen gestoßen ? Wie haben Sie
Ihre Ausgaben optimiert und gleichzeitig die
Systemleistung sichergestellt? Nächste Lektion: Geschäftskontinuität
und Disaster Recovery. In der nächsten Lektion werden wir
erörtern, wie die
Geschäftskontinuität in
hybriden Umgebungen
durch die Entwicklung
robuster Notfallwiederherstellungspläne gewährleistet hybriden Umgebungen
durch die Entwicklung werden kann. Sie lernen, wie Sie
Failover-Strategien implementieren, Datenintegrität
sicherstellen und
ein robustes Hybridsystem aufbauen, das sich nach
unerwarteten Ausfällen erholen
kann bereit sind, die
Geschäftskontinuität zu gewährleisten , fahren
wir mit Lektion
vier von Modul 7
29. Lektion 4: Geschäftskontinuität und Disaster Recovery: Lektion vier, Geschäftskontinuität
und Notfallwiederherstellung. Willkommen zu Lektion
vier von Modul sieben. In dieser letzten Lektion konzentrieren wir uns auf Business Continuity
und Disaster Recovery für Hybrid-Cloud-Umgebungen. Für einen
IT-Infrastrukturdirektor wie William ist es für die Aufrechterhaltung des
Geschäftsbetriebs von entscheidender Bedeutung,
sicherzustellen, dass die Systeme
widerstandsfähig sind und
sich
nach
unerwarteten Störungen schnell
erholen können und
sich
nach
unerwarteten Störungen und
sich
nach In dieser Lektion besprechen wir bewährte Methoden für die
Notfallwiederherstellungsplanung, Implementierung von
Pyover-Strategien und effektive
Backup-Lösungen, um sicherzustellen, dass Ihr
Hybrid-Cloud-System nach Ausfällen
mit minimaler Ausfallzeit wiederhergestellt
werden kann Am Ende dieser Lektion lernen
Sie
bewährte Methoden zur Sicherstellung der
Geschäftskontinuität kennen, lernen
Sie
bewährte Methoden zur Sicherstellung wobei der Schwerpunkt auf Notfallwiederherstellung in
Hybrid-Cloud-Umgebungen Zweitens lernen Sie, wie Sie Failover-Strategien
und Backup-Lösungen
sowohl in der Cloud als auch in
lokalen Systemen
implementieren und Backup-Lösungen
sowohl in der Cloud als auch in lokalen Systemen Lassen Sie uns untersuchen, wie Sie
belastbare Systeme aufbauen können, die unerwarteten
Ausfällen
standhalten und reibungslosen Betrieb Bewährte Methoden für
Geschäftskontinuität in Hybrid-Cloud-Umgebungen. In Hybrid-Cloud-Umgebungen beinhaltet
Geschäftskontinuität einen soliden Plan zur Sicherstellung der
Systemverfügbarkeit, Datenintegrität und
minimaler Ausfallzeiten im Falle eines
Systemausfalls oder einer Katastrophe. Eine gut entwickelte
Disaster-Recovery-Strategie ist Schlüssel zur Aufrechterhaltung des
Geschäftsbetriebs und zum Datenschutz. Entwicklung eines
Notfallwiederherstellungsplans (DRP). Ein
Notfallwiederherstellungsplan ist ein detaillierter, strukturierter Ansatz
zur Wiederherstellung von
IT-Systemen im
Katastrophenfall,
unabhängig davon, ob es sich um eine Naturkatastrophe, Cyberangriff oder
einen Systemausfall Bei Hybrid-Cloud-Umgebungen müssen sich DRPs sowohl auf die Infrastruktur
vor Ort als auch auf Cloud-Systeme beziehen.
Risikobeurteilung Identifizieren Sie die kritischen Systeme, Anwendungen und
Daten, denen in Ihrem
Notfallwiederherstellungsplan Priorität eingeräumt
werden muss in Ihrem
Notfallwiederherstellungsplan Priorität eingeräumt
werden In einer Hybridumgebung umfasst
dies sowohl
Mainframe-Systeme Cloud gehostete Anwendungen Beispielsweise
muss das
Finanzinstitut Williams
dem Mainframe, der
Kundentransaktionen
verarbeitet, und den Cloud-Diensten,
die kundenorientierte Anwendungen
verarbeiten, Priorität Kundentransaktionen
verarbeitet, und den Cloud-Diensten,
die kundenorientierte Anwendungen
verarbeiten, verarbeiten Diese Systeme müssen im
Falle eines
Fehlers schnell wiederhergestellt werden im
Falle eines
Fehlers schnell Ziel der Wiederherstellungszeit,
RTO und RPO am Wiederherstellungspunkt. Definieren Sie Ihre RTO, d. h.
die maximal zulässige Zeit, ein System ausgefallen sein kann, und RPO, die maximale Menge an Datenverlust, die in
hybriden Umgebungen,
gemessen in der Zeit, akzeptabel ist hybriden Umgebungen,
gemessen in der Zeit, RTO und RPO können
je nach System variieren Bei unternehmenskritischen Systemen sollte
der RTO nahe Null liegen Für das
Williams-Transaktionsverarbeitungssystem auf dem Mainframe könnte
die RTO beispielsweise Williams-Transaktionsverarbeitungssystem auf dem Mainframe 15 Minuten betragen. Bei einem nicht kritischen
Datenanalyse-Workload in der Cloud kann
die RTO dagegen mehrere Stunden betragen Implementierung einer hybriden Disaster
Recovery-Architektur. Um eine reibungslose
Geschäftskontinuität in Hybridsystemen zu gewährleisten, muss die
Notfallwiederherstellung sowohl
in lokalen
als auch in Cloud-Umgebungen implementiert werden . Dies beinhaltet den Einsatz
redundanter Systeme, automatisierter Failover- und Backup-Lösungen Basierend auf DR-Lösungen. Nutzen Sie Cloud-Dienste wie AWS Elastic Disaster Recovery
oder Azure Site Recovery , um
lokale Systeme in der Cloud zu replizieren und wiederherzustellen Diese Tools ermöglichen im Falle
eines
Systemausfalls oder einer Katastrophe einen
schnellen Failover in die Cloud eines
Systemausfalls oder einer Katastrophe einen Das Williams-Team kann beispielsweise
AWS Elastic Disaster Recovery implementieren AWS Elastic Disaster Recovery , um kritische
Mainframe-Workloads auf AWS zu replizieren Im Falle eines Ausfalls können
diese Workloads schnell in der Cloud hochgefahren
werden, sodass die
Datenkontinuität für
den Bankbetrieb gewährleistet ist. Hybrider Failover. In
Hybridumgebungen sollte eine
Failover-Strategie
implementiert werden , um sicherzustellen
, dass Systeme
bei Bedarf von der lokalen
Infrastruktur
auf Cloud-Umgebungen
umsteigen können von der lokalen
Infrastruktur
auf Cloud-Umgebungen
umsteigen bei Bedarf von der lokalen
Infrastruktur
auf Cloud-Umgebungen
umsteigen Dadurch können kritische
Systeme auch
bei Katastrophen
betriebsbereit bleiben auch
bei Katastrophen
betriebsbereit Das Williams-Team
kann beispielsweise das Failover
für sein
Kunden-Transaktionssystem
so konfigurieren für sein
Kunden-Transaktionssystem , dass bei einem Ausfall des
Mainframes
das cloudbasierte Backup
übernommen wird, das cloudbasierte Backup bis der
Mainframe Nehmen wir ein Beispiel.
Für Williams Institution Cloud-basierte
Disaster-Recovery-Tools können
Cloud-basierte
Disaster-Recovery-Tools die
Transaktionssysteme
des Mainframes in die Cloud replizieren Transaktionssysteme Wenn der Mainframe aufgrund
eines Stromausfalls
nicht verfügbar ist,
können
Cloud-basierte Backups schnell
aktiviert werden, um können
Cloud-basierte Backups schnell
aktiviert werden die Geschäftskontinuität aufrechtzuerhalten. Implementierung von Failover-Strategien
und Backup-Lösungen. Um Failover- und
Backup-Funktionen
in Hybridumgebungen sicherzustellen , müssen automatische
Prozesse
eingerichtet werden , die Ausfallzeiten
minimieren und die
Datenverfügbarkeit gewährleisten In einem Hybridsystem erfordert
dies koordinierte Anstrengungen
sowohl für lokale als auch für
Cloud-Systeme Failover-Strategien zur Sicherstellung der
Systemverfügbarkeit. Failover-Strategien stellen sicher, dass einem
Ausfall einer Systemkomponente Betrieb automatisch auf ein Backup-System
übertragen werden kann In Hybridumgebungen
kann dies die Übertragung von
einem On-Prime-System in
eine Cloud-Umgebung oder von einer Cloud-Region in
eine andere beinhalten einem On-Prime-System eine Cloud-Umgebung oder von einer Cloud-Region in
eine andere Aktiver aktiver Failover.
Bei diesem Ansatz sind
sowohl lokale Systeme als auch
Cloud-Systeme live und aktiv, sodass bei einem Ausfall eines das andere
reibungslos und ohne Unterbrechung weiter funktioniert reibungslos und ohne Unterbrechung Beispielsweise könnte Williams
Institution die Transaktionsverarbeitung in
Echtzeit
sowohl auf dem Mainframe
als auch in der Cloud durchführen Transaktionsverarbeitung in
Echtzeit sowohl auf dem Mainframe
als auch in der Cloud Wenn der Mainframe ausfällt, übernimmt
die Cloud-Instanz ohne spürbare
Unterbrechung für die Kunden Aktiver passiver Pilover. Bei diesem Ansatz ist das
Primärsystem, beispielsweise vor
Ort, aktiv, während das Sekundärsystem, beispielsweise in der Cloud, im Standby-Modus
bleibt Das Sekundärsystem wird nur
aktiviert, wenn
das Primärsystem ausfällt. Zum Beispiel kann
das Williams-Team
ein aktives passives
Failover-System einrichten ein aktives passives
Failover-System bei dem der Hauptrahmen alle Transaktionen
abwickelt Wenn dies jedoch fehlschlägt,
wird das
AWS-Cloud-Backup aktiviert, um die
Verarbeitung der Transaktionen fortzusetzen B, Backup-Lösungen zum Schutz von Daten in
hybriden Umgebungen. Backups sind ein wesentlicher
Bestandteil jedes Notfallwiederherstellungsplans und
stellen sicher, dass Daten im
Falle eines
Ausfalls oder Datenverlusts wiederhergestellt werden
können . In Hybridumgebungen
sollten
regelmäßige Backups sowohl für
lokale Systeme als auch für
Cloud-Umgebungen erstellt werden . On-Premise-Backup
für Mainframes Backups können
in externen Rechenzentren gespeichert oder aus Redundanzgründen in
Cloud-Umgebungen repliziert werden Das Williams-Team kann beispielsweise tägliche Backups
seiner Mainframe-Datenbanken
an einem sicheren externen Standort
planen und wichtige Daten
für zusätzliche Redundanz auf die drei AWS-Datenbanken replizieren .
Cloud-Backup. Cloud-Dienste bieten
automatisierte Backup-Lösungen für Cloud-basierte Anwendungen. Tools wie AWS-Backup
oder Azure-Backup ermöglichen es Unternehmen, in der Cloud gespeicherte
Daten aus
Redundanzgründen
automatisch in verschiedenen Regionen
zu sichern in der Cloud gespeicherte
Daten Redundanzgründen
automatisch in verschiedenen Regionen
zu Beispielsweise kann das Williams-Team AWS-Backup
verwenden, um
automatische tägliche Backups von
Cloud-basierten Datenbanken zu erstellen und Kopien in
verschiedenen Regionen
zu
speichern , um sich vor
regionalen Ausfällen zu schützen Nehmen wir ein Beispiel.
Das Williams-Team kann den
Datenschutz gewährleisten, indem es
Mainframe-Backups an einem externen
Standort speichert und gleichzeitig
AWS-Backups verwendet , um
Cloud-Backups für
kundenorientierte Anwendungen zu erstellen ,
wodurch eine vollständige Datenredundanz gewährleistet wird Bewährte Methoden für die
Notfallwiederherstellung
in hybriden Umgebungen Der Aufbau eines robusten
Hybridsystems erfordert nicht nur Failover
- und Backup-Lösungen, sondern auch kontinuierliche Tests und Optimierungen Ihrer
Disaster-Recovery-Strategien Hier sind einige
bewährte Methoden, die Sie berücksichtigen sollten. Testen Sie regelmäßig Ihren
Notfallwiederherstellungsplan. Testen Ihres
Notfallwiederherstellungsplans ist entscheidend, um sicherzustellen,
dass er bei Bedarf funktioniert. Simulieren Sie Failover-Ereignisse
und Datenwiederherstellungsszenarien um sicherzustellen, dass Ihr Plan
wie erwartet funktioniert , und
passen Sie ihn bei Bedarf Bewährte Methode: Führen Sie regelmäßig
Notfallwiederherstellungsübungen durch, um die Failover-Fähigkeiten zu testen und
sicherzustellen, dass sowohl
lokale als auch Cloud-Systeme innerhalb Ihrer
definierten RTO- und RPO-Werte wiederhergestellt werden
können Automatisieren Sie Failover- und Backup-Prozesse. Automatisierung ist der Schlüssel zur Minimierung von Ausfallzeiten
im Katastrophenfall Automatisieren Sie Ihre
Failover-Prozesse und Backup-Zeitpläne , um sicherzustellen, dass Systeme ohne
manuelles
Eingreifen wiederhergestellt werden können ohne
manuelles
Eingreifen wiederhergestellt Bewährte Methode: Verwenden Sie AWS
Elastic Disaster Recovery
oder Azure Site Recovery, um den Failover von
lokalen Systemen zur
Cloud zu
automatisieren , und verwenden Sie Tools wie AWS-Backup, um
automatische tägliche Backups von
Cloud- und lokalen Daten zu planen automatische tägliche Backups von
Cloud- und lokalen Optimieren Sie einen Wiederherstellungsplan auf
der Grundlage der Systemprioritäten. Verschiedene Systeme haben unterschiedliche
Wiederherstellungsanforderungen. Priorisieren Sie
unternehmenskritische Systeme z. B. solche, die Kundentransaktionen abwickeln,
um eine schnelle Wiederherstellung während weniger kritische Systeme über längere Zeiträume wiederhergestellt
werden können über längere Zeiträume wiederhergestellt
werden Bewährte Methode: Definieren Sie RTO und RPO auf der Grundlage der
Systemrelevanz und stellen Sie
sicher, dass kritische Systeme innerhalb von
Minuten wiederhergestellt
werden,
während unwichtige Workloads über mehrere
Stunden
oder Tage wiederhergestellt werden können über mehrere
Stunden
oder Tage wiederhergestellt wichtigsten Erkenntnissen aus dieser
Lektion gehört zum einen, ein robuster
Notfallwiederherstellungsplan für die Aufrechterhaltung der
Geschäftskontinuität in
Hybridumgebungen mit
spezifischen RTO- und RPO-Zielen sowohl auf
Primus- als auch auf
Cloud-Systemen
unerlässlich ist für die Aufrechterhaltung der
Geschäftskontinuität in
Hybridumgebungen mit
spezifischen RTO- und RPO-Zielen sowohl auf
Primus- als auch auf
Cloud-Systemen
unerlässlich Hybridumgebungen mit
spezifischen RTO- und RPO-Zielen sowohl auf
Primus- als auch auf
Cloud-Systemen Zweitens: Implementieren Sie
Failover-Strategien wie aktives aktives oder aktives
passives Failover, um
sicherzustellen, dass die Systeme bei einem Ausfall weiterhin
reibungslos funktionieren können reibungslos Drittens: Automatisieren Sie
Backup-Prozesse und testen
Sie regelmäßig Ihren
Disaster-Recovery-Plan, um sicherzustellen, dass Ihr Hybrid-Cloud-System schnell und
ohne Datenverlust
wiederhergestellt werden kann schnell und
ohne Datenverlust
wiederhergestellt Lernaktivität, Reflexion. Wie würden Sie
eine Failover-Strategie
in Ihrer Hybridumgebung implementieren in Ihrer Hybridumgebung Welches RTO und RPO
würden Sie für
Ihre wichtigsten
Systeme festlegen und wie würden Sie sicherstellen, dass Ihr
Notfallwiederherstellungsplan diese Ziele erfüllt Im Forum
gestellte Diskussionsfrage: Auf welche Herausforderungen sind
Sie bei der
Notfallwiederherstellung in
Hybridumgebungen gestoßen Notfallwiederherstellung in
Hybridumgebungen Wie haben Sie
Ihre Backup- und
Failover-Prozesse optimiert Ihre Backup- und
Failover-Prozesse Herzlichen Glückwunsch zum
Abschluss des Kurses. Sie haben den Kurs
Mainframe-MIT-Modernisierung,
Beherrschung des Hybrid-Cloud-Designs abgeschlossen Mainframe-MIT-Modernisierung, Beherrschung des Hybrid-Cloud-Designs Während des Kurses haben
Sie
wertvolle Einblicke in den
Aufbau, die Optimierung
und den Schutz von
Hybrid-Cloud-Umgebungen, und den Schutz von
Hybrid-Cloud-Umgebungen, Integration von Mainframes Cloud-Infrastrukturen und die
Sicherstellung von Leistung,
Kosteneffizienz und Geschäftskontinuität Nächste Schritte: Setzen Sie Ihr
Wissen in die Praxis um. Nachdem Sie den Kurs
abgeschlossen haben, ist
es an der Zeit, Ihre
neuen Fähigkeiten anzuwenden. Wenden Sie die in diesem Kurs
erlernten Strategien um
Mainframe-Modernisierungsprojekte zu verwalten, Failover-Lösungen zu
implementieren, Cloud-Ausgaben
zu optimieren und die Sicherheit in
Hybridumgebungen zu gewährleisten Beginnen Sie Ihre Reise in die Hybrid Cloud indem Sie Ihre
aktuelle Infrastruktur bewerten, einen Modernisierungsplan
erstellen und
Workloads schrittweise in die Cloud verlagern Setzen Sie Ihre
Lernreise mit diesen Kursen fort. Wenn Sie Ihr Fachwissen
in der
Modernisierung von Mainframe-Systemen weiter ausbauen möchten, sollten Sie sich für
einen dieser Kurse anmelden Einer davon ist Mainframe-DevOps, Legacy-Systeme
mit agilen Methoden
integriert Erfahren Sie, wie Sie
DevOps-Prinzipien in den
Mainframe-Betrieb einführen und eine
reibungslose Zusammenarbeit
zwischen Cloud- und
lokalen Systemen sicherstellen zwischen Cloud- und Zweitens: Implementierung von Continuous Integration
Slash Continuous Delivery oder CICD Erfahren Sie Schritt für Schritt
, wie Sie
automatisierte CICD-Pipelines
für Mainframe-Codebasen einrichten und Altsysteme mit modernen
Entwicklungspraktiken integrieren . Wir hoffen, Sie
in der nächsten Phase Ihrer Lernreise
zu sehen Ihrer Lernreise
zu Nochmals herzlichen Glückwunsch
und viel Glück
bei Ihren
Mainframe-Modernisierungsprojekten Lassen Sie uns die Modernisierung fortsetzen.