Mainframe trifft auf Modernisierung: Hybrid-Cloud-Design meistern | Skillshare Member Nuqui | Skillshare
Suchen

Playback-Geschwindigkeit


1.0x


  • 0.5x
  • 0.75x
  • 1x (normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Mainframe trifft auf Modernisierung: Hybrid-Cloud-Design meistern

teacher avatar Skillshare Member Nuqui, Headline...

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Einheiten dieses Kurses

    • 1.

      Einführung

      3:14

    • 2.

      Lektion 1: Einführung in Hybrid-Cloud-Konzepte

      9:51

    • 3.

      Lektion 2: Mainframes vs. Cloud-Infrastruktur

      13:57

    • 4.

      Lektion 3: Schlüsselkomponenten einer hybriden Cloud-Architektur

      14:05

    • 5.

      Lektion 4: Vorteile der Hybrid-Cloud-Integration

      10:36

    • 6.

      Lektion 1: Bewertung der aktuellen Mainframe-Infrastruktur

      11:34

    • 7.

      Lektion 2: Workload-Eignung für die Cloud-Migration

      14:08

    • 8.

      Lektion 3: Kosten-Nutzen-Analyse der Cloud-Migration

      14:26

    • 9.

      Lektion 4: Technische Machbarkeit für die Cloud-Integration

      14:01

    • 10.

      Lektion 1: Strategische Planung für die Hybrid Cloud-Integration

      13:11

    • 11.

      Lektion 2: Architekturmuster für hybrides Cloud-Design

      12:07

    • 12.

      Lektion 3: Hybride Workload-Platzierung

      13:40

    • 13.

      Lektion 4: Cloud-Service-Auswahl

      16:33

    • 14.

      Lektion 1: Entwicklung einer Datenmigrationsstrategie

      11:57

    • 15.

      Lektion 2: Datenmigrationstools und Techniken

      15:06

    • 16.

      Lektion 3: Ausfallzeiten während der Migration minimieren

      12:58

    • 17.

      Lektion 4: Datenintegrität und Sicherheit gewährleisten

      14:43

    • 18.

      Lektion 1: Einführung in DevOps in hybriden Systemen

      12:52

    • 19.

      Lektion 2: Die wichtigsten DevOps-Tools für Hybrid Cloud-Management

      14:56

    • 20.

      Lektion 3: Aufbau einer CI/CD-Pipeline für die Hybrid Cloud

      13:41

    • 21.

      Lektion 4: Automationsstrategien für hybride Umgebungen

      16:11

    • 22.

      Lektion 1: Sicherheitsherausforderungen in hybriden Cloud-Systemen

      16:54

    • 23.

      Lektion 2: Entwicklung eines hybriden Cloud-Sicherheitsframeworks

      14:52

    • 24.

      Lektion 3: Compliance in einer hybriden Umgebung

      16:11

    • 25.

      Lektion 4: Governance und Richtlinienmanagement

      17:03

    • 26.

      Lektion 1: Monitoring-Tools für hybride Umgebungen

      16:19

    • 27.

      Lektion 2: Leistungsoptimierung in hybriden Cloud-Architekturen

      15:11

    • 28.

      Lektion 3: Kostenoptimierung in Hybridsystemen

      14:19

    • 29.

      Lektion 4: Geschäftskontinuität und Disaster Recovery

      15:04

  • --
  • Anfänger-Niveau
  • Fortgeschrittenes Niveau
  • Fortgeschrittenes Niveau
  • Jedes Niveau

Von der Community generiert

Das Niveau wird anhand der mehrheitlichen Meinung der Teilnehmer:innen bestimmt, die diesen Kurs bewertet haben. Bis das Feedback von mindestens 5 Teilnehmer:innen eingegangen ist, wird die Empfehlung der Kursleiter:innen angezeigt.

1

Teilnehmer:in

--

Projekt

Über diesen Kurs

Mainframe trifft auf Modernisierung: Hybrid-Cloud-Design meistern

Kursübersicht

Dieser Kurs schlägt die Lücke zwischen älteren Mainframes und modernen Cloud-Systemen vor. Sie lernen, hybride Cloud-Architekturen zu entwerfen, zu implementieren und zu optimieren und robuste Mainframe-Funktionen mit hochmodernen Cloud-Services zu integrieren.

Was du lernen wirst

Durch die Teilnahme an diesem Kurs gewinnen Sie:

  • Expertise in Hybrid-Cloud-Design, ausgewogener Ausgleich von Leistung, Kosten und Skalierbarkeit.
  • Fähigkeiten in der Workload-Verteilung, um eine optimierte Ressourcennutzung systemübergreifend zu gewährleisten.
  • Kenntnisse in der Automatisierung mit DevOps und CI/CD für nahtlose Abläufe.
  • Einblicke in Sicherheit und Compliance, zugeschnitten auf hybride Umgebungen.
  • Kenntnisse in realen Fallstudien, um eigene Implementierungen zu inspirieren.

Weshalb solltest du diesen Kurs besuchen?

  • Hybrid-Clouds sind die Zukunft: Unternehmen wenden sich zu hybriden Lösungen um, sind diese Fähigkeiten gefragt.
  • Anwendbar für reale Projekte: Vom Bankwesen bis zum Einzelhandel – Hybridsysteme berühren jede Branche.
  • In der IT einen Schritt voraus: Techniken meistern, die die Effizienz verbessern, Kosten senken und die Leistung steigern.
  • Praktisch lernen: Sie verstehen nicht nur die Theorie, sondern erwerben auch umsetzbare Strategien, um sie sofort anzuwenden.

Für wen dieser Kurs ist

Dieser Kurs ist ideal für:

  • IT-Profis mit Erfahrung in Cloud- oder Mainframe-Systemen.
  • Systemarchitekten, die komplexe Infrastrukturen entwerfen.
  • Tech-Enthusiasten, die die Möglichkeiten der Hybrid Cloud erkunden möchten.
    Voraussetzungen: Kenntnisse mit grundlegenden Cloud- und Mainframe-Konzepten sind hilfreich, aber nicht zwingend erforderlich.

Materialien und Ressourcen

In diesem Kurs:

  • Ein Computer mit Internetzugang, um die Kursübungen zu absolvieren.
  • Optional: Eine Kopie des Begleitbuchs Mainframe trifft Modernisierung: Hybrid Cloud-Design meistern, das zusätzliche Beispiele und Ressourcen enthält, um das Lernen zu stärken.

Lass uns jetzt eintauchen, um deine IT-Expertise zukunftssicher zu machen und die Richtung in der Hybrid-Cloud-Innovation zu führen!

Triff deine:n Kursleiter:in

Teacher Profile Image

Skillshare Member Nuqui

Headline...

Kursleiter:in

I am a retired Mainframe Systems Programmer (Specialist), now using my time to write books and create online courses. My interests are Mainframes (of course!), and writing Self Help books and Food Recipe books. I like to read Science Fiction and Fantasy books. I also like to watch Science Fiction movies (I'm a Trekkie, not so much a Star Wars fan).

I have over 30 years of experience on Mainframe systems, as a Systems Programmer, Project Manager and Compute Infrastructure Head, specializing on Mainframe infrastructure and z/OS operating system. I have worked for Service Bureaus, Financial Institutions and Outsourcing Service Providers.

Vollständiges Profil ansehen

Level: Intermediate

Kursbewertung

Erwartungen erfüllt?
    Voll und ganz!
  • 0%
  • Ja
  • 0%
  • Teils teils
  • 0%
  • Eher nicht
  • 0%

Warum lohnt sich eine Mitgliedschaft bei Skillshare?

Nimm an prämierten Skillshare Original-Kursen teil

Jeder Kurs setzt sich aus kurzen Einheiten und praktischen Übungsprojekten zusammen

Mit deiner Mitgliedschaft unterstützt du die Kursleiter:innen auf Skillshare

Lerne von überall aus

Ob auf dem Weg zur Arbeit, zur Uni oder im Flieger - streame oder lade Kurse herunter mit der Skillshare-App und lerne, wo auch immer du möchtest.

Transkripte

1. Einführung: Willkommen bei Mainframe MIT Modernization. Beherrschung des Hybrid-Cloud-Designs. Mein Name ist Ricardo Nuke und ich bin Ihr Dozent für Kurses. dieses Kurses „ Mainframe-MIT-Modernisierung, Beherrschung des Hybrid-Cloud-Designs“ besteht darin, Ihnen grundlegende Fähigkeiten, Kenntnisse und Fähigkeiten zu vermitteln, die Sie benötigen, um Hybrid-Cloud-Architekturen, die Mainframe-Systeme in eine moderne Cloud-Umgebung integrieren, effektiv zu entwerfen und zu implementieren Hybrid-Cloud-Architekturen, die Mainframe-Systeme in eine moderne Cloud-Umgebung integrieren, Das Ziel dieses Kurses „ Mainframe-MIT-Modernisierung, Beherrschung des Hybrid-Cloud-Designs“ besteht darin, Ihnen grundlegende Fähigkeiten, Kenntnisse und Fähigkeiten zu vermitteln, die Sie benötigen, um Hybrid-Cloud-Architekturen, die Mainframe-Systeme in eine moderne Cloud-Umgebung integrieren, effektiv zu entwerfen und zu implementieren. Zum Beispiel AWS. A Die wichtigsten Ergebnisse. Am Ende dieses Kurses werden Sie sicher sein, Hybrid-Cloud-Architekturen zu entwerfen und zu implementieren, die Mainframes in Hybrid-Cloud-Architekturen zu entwerfen und zu implementieren moderne Cloud-Plattformen integrieren moderne Cloud-Plattformen Sie werden über das technische Know-how verfügen , um Sicherheit, Compliance und betriebliche Effizienz während des gesamten Modernisierungsprozesses aufrechtzuerhalten , Compliance und betriebliche Effizienz während des gesamten Modernisierungsprozesses Sie verfügen über praktische Kenntnisse in der Nutzung von Automatisierung, Devov-Tools und Cloud-nativen Diensten zur Verbesserung ihrer Hybridumgebung Sie werden mit Strategien ausgestattet , um organisatorische Herausforderungen zu bewältigen Teamausrichtung und den Projekterfolg sicherzustellen Sieben spezifische Phasen der Transformation. Hier sind die sieben spezifischen Schritte oder Phasen, die Sie befolgen müssen, um von einem älteren Mainframe-Mainframe-System zu einem hybriden Mainframe-Cloud-Computing-System umzusteigen einem älteren Mainframe-Mainframe-System zu einem hybriden Mainframe-Cloud-Computing-System zu einem hybriden Mainframe-Cloud-Computing-System Die erste besteht darin, die aktuelle Mainframe-Umgebung zu bewerten und aktuelle Mainframe-Umgebung zu bewerten Definieren Sie anschließend eine Hybrid-Cloud-Strategie und -Architektur. Anschließend werden Sie cloudfähige Anwendungen und Workloads pilotieren und testen cloudfähige Anwendungen und Workloads pilotieren und Anschließend migrieren Sie Daten und Workloads in die Cloud. Anschließend implementieren Sie Hybrid Cloud-Management und Orchestrierungstools Anschließend optimieren Sie die Sicherheit, Einhaltung und Leistung und treiben schließlich kontinuierliche Verbesserungen und Innovationen voran Gliederung des Kurses mit sieben Modulen. Dieser Kurs ist in sieben Module unterteilt. Die Module sind die folgenden. Zunächst die Grundlagen der Hybrid Cloud-Architektur. Anschließend werden wir uns mit der Evaluierung älterer Systeme für die Cloud-Integration befassen. Die dritte ist die Entwicklung einer Hybrid-Cloud-Strategie und -Architektur. Viertens, die Migration von Daten und Anwendungen in die Cloud. Fünftens, Implementierung von Automatisierung und DevOps in hybriden Umgebungen Sechstens, Gewährleistung von Sicherheit, Compliance und Governance in Hybridsystemen Sieben, Optimierung und Verwaltung von Hybrid-Cloud-Systemen im Hinblick auf die Leistung. Also innerhalb des Kurses. 2. Lektion 1: Einführung in Hybrid-Cloud-Konzepte: Willkommen zu Modul eins, Grundlagen der Hybrid-Cloud-Architektur. Dieses Modul stellt die Kernkonzepte der Hybrid-Cloud-Architektur vor und konzentriert sich dabei auf die Bedeutung hybrider Systeme in der heutigen IT-Landschaft. Es behandelt die grundlegenden Unterschiede zwischen Mainframe- und Cloud-Infrastruktur sowie die Vorteile der Integration beider Systeme im Hinblick auf Skalierbarkeit, Kosteneffizienz und Innovation Lektion eins, Einführung in Hybrid-Cloud-Konzepte. Willkommen zur ersten Lektion unseres Kurses „ Mainframe trifft Modernisierung, Mainframe trifft Modernisierung, Mastering Hybrid Heute werden wir uns Hybrid-Cloud-Architektur befassen und erklären, warum sie in modernen IT-Umgebungen unverzichtbar geworden ist, insbesondere für Unternehmen, die auf ältere Mainframe-Systeme angewiesen sind Wenn Sie ein Mainframe-Modernisierungsprojekt abwickeln , wie William, der Direktor für IT-Infrastruktur, geschäftskritische Systeme in einem Finanzinstitut verwaltet, dann sind Sie hier genau richtig Wir werden diese Lektion in zwei Teile unterteilen. Zunächst die Definition der Hybrid-Cloud-Architektur. Zweitens die Untersuchung der Entwicklung von Cloud- und Legacy-Systemen. Lass uns anfangen. Was ist eine Hybrid-Cloud-Architektur? Eine Hybrid-Cloud-Architektur kombiniert lokale Infrastrukturen wie Mainframes oder private Rechenzentren mit öffentlichen Cloud-Diensten wie AWS, Microsoft Azure oder Google Cloud Diese Umgebungen sind durch eine Technologie miteinander verbunden , die es ermöglicht, Daten, Anwendungen oder Workloads nahtlos zwischen ihnen zu übertragen Im Wesentlichen erhalten Sie das Beste aus beiden Welten die Zuverlässigkeit und Kontrolle von Mainframes und die Flexibilität, Skalierbarkeit und Innovation, die die Cloud bietet Warum ist Hybrid Cloud so wichtig? Für jemanden wie Sie, der mit der Modernisierung eines Finanzsystems beauftragt ist, ein hybrider Ansatz nicht nur eine nette Sache, er ist auch geschäftsentscheidend, und hier erfahren Sie, Erstens werden veraltete Systeme nicht verschwinden. Mainframes sind tief in Branchen wie Finanzen, Gesundheitswesen und Regierung Ein vollständiger Ersatz dieser Systeme ist aufgrund der enormen Kosten und des Risikos von Störungen nicht realistisch und des Risikos von Störungen Zweitens bietet die Cloud Flexibilität. Sie können bestimmte Aufgaben wie Batch-Verarbeitung, Datenanalyse oder kundenorientierte Anwendungen in die Cloud auslagern Datenanalyse oder kundenorientierte Anwendungen in die Cloud auslagern und gleichzeitig sensible Kernoperationen auf dem Mainframe beibehalten Drittens sind Sicherheit und Compliance nicht verhandelbar, insbesondere in regulierten Branchen Ein Hybridmodell ermöglicht es Ihnen , Cloud-Funktionen zu nutzen und gleichzeitig die strenge Kontrolle über Ihre sensibelsten Daten und Anwendungen vor Ort zu Nehmen wir ein Beispiel. Stellen Sie sich vor betreiben ein Kreditkartenverarbeitungssystem auf Ihrem Mainframe Die Transaktionsdaten müssen auf dem Mainframe verbleiben Aber die Analyse des Kundenverhaltens kann in die Cloud verlagert werden, wo es einfacher ist, große Datenmengen in Echtzeit zu skalieren und zu analysieren Dieses Hybrid-Setup stellt sicher, dass Ihre sensiblen Abläufe sicher und funktionsfähig bleiben Die Cloud verarbeitet dynamischere, skalierbarere Workloads. Die Entwicklung von Cloud - und Legacy-Systemen. Lassen Sie uns eine kurze Reise Vergangenheit unternehmen und herausfinden, wie wir hierher gekommen sind. Die Ära der Mainframes. Mainframes sind seit den 1960er Jahren das Rückgrat der Datenverarbeitung in Unternehmen Banken, Regierungen und Gesundheitssysteme verlassen sich alle auf Mainframes, weil sie eine unübertroffene Zuverlässigkeit, Sicherheit und Rechenleistung bieten , Sicherheit und Wenn Sie jemals mit dem Backend-System einer Bank interagiert haben, einen Geldautomaten benutzen oder Ihre Steuern einreichen, ist die Wahrscheinlichkeit groß, dass irgendwo auf der Strecke ein Mainframe involviert war Mainframes sind darauf ausgelegt, Transaktionen mit hohem Volumen Aus diesem Grund ist diese Lösung für Branchen von entscheidender Bedeutung, in denen jede Störung Verluste in Millionenhöhe oder sogar rechtliche Konsequenzen bedeuten würde Verluste in Millionenhöhe oder sogar rechtliche Konsequenzen Die größte Herausforderung besteht jedoch darin, dass Mainframes in einer Zeit gebaut wurden , in der es kein Cloud-Computing gab Sie sind zwar leistungsstark, wurden aber nicht mit Blick auf die Cloud-Integration entwickelt Hier kommt das Hybridmodell ins Spiel. Der Aufstieg von Cloud Computing. Cloud Computing entstand Anfang 2000 und hat die Arbeitsweise von Unternehmen grundlegend verändert. Die Cloud bietet Ressourcen, Rechenleistung, Speicher und Netzwerke auf Abruf , ohne dass physische Server vorhanden und verwaltet werden müssen Zu den wichtigsten Vorteilen der Cloud gehört die Skalierbarkeit. Sie können Ihre Anwendungen und Ressourcen je nach Bedarf nach oben und unten, nach oben oder unten skalieren und Ressourcen je nach Bedarf nach oben und unten, . Kosteneffizienz. Sie zahlen nur für das, was Sie nutzen. Schluss mit der Bereitstellung physischer Hardware. Cloud-Plattformen beherbergen neue Technologien wie KI, maschinelles Lernen und Big-Data-Analysen, die Unternehmen dabei helfen können Einblicke zu gewinnen und Abläufe zu optimieren. Viele Unternehmen stellten jedoch fest, dass die Cloud zwar ein entscheidender Faktor war, es jedoch nicht praktikabel war, vollständig aufzugeben ihre Mainframe-Systeme An dieser Stelle begann das Cloud-Modell an Bedeutung zu gewinnen. Warum werden Hybrid-Cloud-Modelle immer beliebter? In den letzten Jahren haben Hybrid-Cloud-Modelle an Popularität gewonnen, insbesondere in Branchen, in denen Sicherheit, Compliance und Leistung nicht verhandelbar sind Hier erfahren Sie, warum. Erstens, das Gleichgewicht zwischen Risiko und Innovation. Mainframes eignen sich hervorragend für den Kernbetrieb, aber die Cloud ist ideal, um mit neuen Technologien zu experimentieren , ohne Ihre Altsysteme zu gefährden Zweitens: optimierte Arbeitslast. Einige Aufgaben wie die Stapelverarbeitung eignen sich besser für Mainframes, während andere, wie Datenanalysen, von der Skalierbarkeit der Cloud profitieren Drittens, Kostenkontrolle. Sie können Ihre Mainframe-Investitionen dort platzieren, wo sie am sinnvollsten sind, und vermeiden, dass zu viele Ressourcen in die Cloud verlagert werden, wo die Kosten schnell steigen können Nehmen wir ein Beispiel. Denken Sie an William, unseren Direktor für IT-Infrastruktur. Sein Finanzinstitut möchte mithilfe von Modellen für maschinelles Lernen die Betrugserkennung in Echtzeit nutzen . Die vollständige Verlagerung des Betrugserkennungssystems in die Cloud würde erhebliche Ressourcen und Konformitätsprüfungen erfordern . Stattdessen entscheidet sich William für ein Hybridmodell. Der Mainframe wickelt weiterhin wichtige Finanztransaktionen ab, während das Betrugserkennungsmodell auf AWS basiert Datenfluss zwischen den beiden Umgebungen erfolgt reibungslos und ausgewogenes Verhältnis zwischen Sicherheit und Innovation den wichtigsten Erkenntnissen aus dieser Lektion gehört zum einen: Hybrid-Cloud-Architekturen ermöglichen es Ihnen, die Zuverlässigkeit von Mainframes mit der Flexibilität von mit der Flexibilität von Zweitens haben veraltete Systeme wie Mainframes immer noch einen immensen Wert, insbesondere in Branchen wie dem Bankwesen, in denen Verfügbarkeit Drittens ermöglicht Ihnen das Aufkommen von Cloud-Computing , unsensible Workloads in die Cloud auszulagern , die Leistung zu optimieren und die Kosten zu senken, während Sie gleichzeitig die strikte Kontrolle über geschäftskritische Abläufe behalten . Lernaktivität. Denken Sie über Ihre aktuelle Infrastruktur nach. Welche Workloads auf Ihrem Mainframe könnten von einer Cloud-Integration profitieren? Welche Herausforderungen erwarten Sie Umstellung auf eine Hybrid-Cloud Forschung. Schauen Sie sich eine Fallstudie einer Hybrid-Cloud-Architektur in der Finanzbranche an. Wie haben sie mit der Verteilung der Arbeitslast zwischen Mainframe- und Cloud-Umgebungen umgegangen? Frage zur Diskussion Pan Gedanken im Diskussionsforum zum Kurs. Was wäre der größte Vorteil für Ihr Unternehmen, wenn Sie eine Hybrid-Cloud-Architektur anpassen würden? Nächste Lektion: Mainframe versus Cloud-Infrastruktur. In der nächsten Lektion werden wir uns eingehender mit den technischen Unterschieden zwischen Mainframes und Cloud-Umgebungen Sie lernen die Kernstärken beider Systeme kennen und erfahren , warum Mainframes weiterhin eine wichtige Rolle bei unternehmenskritischen Abläufen spielen eine wichtige Rolle bei unternehmenskritischen Wir werden auch die wichtigsten Unterschiede in Bezug auf Rechenspeicher und Netzwerke zwischen lokalen und Cloud-nativen Systemen untersuchen Rechenspeicher und Netzwerke auf Rechenspeicher und Netzwerke zwischen lokalen und Cloud-nativen Systemen Wir freuen uns darauf, mehr zu erfahren. Lassen Sie uns Ihren Weg zur Hybrid-Cloud-Beherrschung fortsetzen Ihren Weg zur Hybrid-Cloud-Beherrschung 3. Lektion 2: Mainframes vs. Cloud-Infrastruktur: Lektion zwei, Mainframes versus Cloud-Infrastruktur. Willkommen zu Lektion zwei unserer Reise zur Hybrid-Cloud-Architektur. In unserer vorherigen Lektion haben wir uns mit den Grundlagen von Hybrid-Cloud-Systemen befasst und erklärt, warum sie in modernen IT-Umgebungen so unverzichtbar werden . Heute werden wir uns eingehender den technischen Unterschieden zwischen Mainframes und Cloud-Infrastruktur Für jemanden wie William, Direktor für IT-Infrastruktur, geschäftskritische Systeme in der Finanzbranche verwaltet, ist es entscheidend, die wichtigsten Stärken und Unterschiede zwischen Prem-Mainframes und Cloud-nativer Infrastruktur zu verstehen Prem-Mainframes und Cloud-nativer Infrastruktur Sie stehen wahrscheinlich vor der Herausforderung, die Systemleistung und -sicherheit aufrechtzuerhalten und gleichzeitig die Skalierbarkeit und Innovation zu nutzen , die die In dieser Lektion konzentrieren wir uns auf die technischen Unterschiede zwischen Mainframes und Cloud-Umgebungen in Bezug Rechenspeicher und Netzwerke und warum Mainframes in Branchen, in denen Zuverlässigkeit nicht verhandelbar ist, weiterhin einen Wert haben Branchen, in denen Zuverlässigkeit nicht verhandelbar ist Lassen Sie uns das aufschlüsseln. Rechnen Sie die Leistung von Mainframes mit der Flexibilität der Cloud ab Mainframes, die Titanen der Transaktionsverarbeitung. Mainframes sind auf maximale Rechenleistung und Transaction Trooper ausgelegt Trooper Wenn Ihr Unternehmen Tausende von Transaktionen pro Sekunde abwickelt , z. B. die Verarbeitung von Kreditkartenzahlungen, die Gehaltsabrechnung oder die Inventarverwaltung in Echtzeit, sind Mainframes darauf ausgelegt, dies zu bewältigen, ohne dabei ins Stocken zu geraten Vertikale Skalierung. Mainframes erzielen ihre Leistung durch vertikale Skalierung, was bedeutet, dass sie einem einzelnen System mehr Rechenleistung verleihen einem einzelnen System mehr Rechenleistung Dadurch können sie auch bei extremer Auslastung eine hohe Zuverlässigkeit aufrechterhalten auch bei extremer Auslastung eine hohe Zuverlässigkeit Zuverlässigkeit und Verfügbarkeit. Mainframes sind legendär für ihre Verfügbarkeit weisen oft eine Verfügbarkeit von 99 Prozentpunkten auf bis zu 9% auf, einer Ausfallzeit von etwa 5 Minuten pro Für Branchen wie das Bankwesen, in denen selbst Sekunden Ausfallzeiten Millionen kosten können, ist dies ein entscheidender Faktor. Nehmen wir ein Beispiel. Stellen Sie ein ATM-Netzwerk vor, das Transaktionen an Hunderten von Standorten gleichzeitig verarbeitet . Wenn das System ausfällt, kann dies zum Verlust von Transaktionen und zum Verlust des Kundenvertrauens führen. Mainframes sind so konzipiert, dass sie sicherstellen, dass dies nicht passiert, und sorgen für eine gleichbleibende Leistung in großem Maßstab. Cloud, die Meister der Flexibilität und Skalierbarkeit. Auf der anderen Seite zeichnet sich Cloud Computing durch horizontale Skalierung aus, bei der Sie mehr Server hinzufügen, um höhere Lasten zu bewältigen Cloud-Umgebungen sind so konzipiert, dass sie dynamisch skalieren, indem sie Ressourcen hinzufügen, wenn die Nachfrage steigt, und sie reduzieren, wenn sie Dies ist besonders vorteilhaft für Workloads unterschiedlicher Art, wie z. B. Webanwendungen, bei denen zu bestimmten Zeiten ein Anstieg der Benutzerzahlen auftreten kann Zeiten ein Anstieg der Benutzerzahlen Elastizität. Cloud-Plattformen wie AWS bieten flexible Rechenleistung, sodass Sie bei Bedarf nach oben oder unten skalieren können. Das bedeutet, dass Sie nur für das zahlen, was Sie tatsächlich nutzen, sodass Sie keine kostspielige, nicht ausgelastete Infrastruktur benötigen ausgelastete Infrastruktur Kosteneffizienz. Cloud-Systeme bieten ein Pay-as-you-go-Modell, das die Kostenverwaltung erleichtert , insbesondere für unkritische Workloads oder Entwicklungsumgebungen Nehmen wir ein Beispiel. Stellen Sie sich vor, Sie führen eine kundenorientierte Anwendung für die Onlinedienste Ihrer Bank aus. Während einer großen Produkteinführung oder Marketingkampagne kann der Traffic stark ansteigen. In einer Cloud-Umgebung können Sie schnell zusätzliche Server einrichten, können Sie schnell zusätzliche Server einrichten, um der Nachfrage gerecht zu werden und so sicherzustellen, dass es bei Kunden nicht zu kurzen Reaktionszeiten oder Abstürzen kommt Die wichtigste Erkenntnis dabei ist , dass Mainframes ideal für die konsistente Verarbeitung großer Transaktionsvolumen sind , während sich die Cloud durch Flexibilität und die Verarbeitung variabler Workloads auszeichnet . Speicher, zentralisierter Mainframe-Speicher versus verteilter Cloud-Speicher. Mainframe-Speicher, zentralisiert und mit hoher Geschwindigkeit. Mainframes verwenden traditionell zentralisierte Hochleistungsspeichersysteme Dieser Speicher ist häufig direkt an den Mainframe angeschlossen bietet so Zugriff mit geringer Latenz auf kritische Daten für Systeme, die Echtzeitzugriff auf riesige Datenbanken benötigen Mainframes bieten Mainframes bieten auch hierarchisches Speichermanagement oder HSM, bei dem Daten je nach Nutzungshäufigkeit automatisch zwischen Hochleistungsfestplatten und kostengünstigerem Bandspeicher migriert werden können Hochleistungsfestplatten und kostengünstigerem Bandspeicher kostengünstigerem Bandspeicher Nehmen wir ein Beispiel. In einem Finanzinstitut alle Bankdaten wie muss auf alle Bankdaten wie Kundenkontoinformationen sofort zugegriffen werden, unabhängig von der Zeit oder dem Volumen der Transaktionen. Mainframe-Speichersysteme sind für diese Art von geschäftskritischen Daten optimiert Cloud-Speicher, skalierbar und verteilt. Cloud-Umgebungen verwenden dagegen verteilte Speichersysteme. Dienste wie die drei von AWS speichern Daten mehrfach bieten so integrierte Redundanz und Das bedeutet, dass Sie riesige Datenmengen speichern können , ohne sich Sorgen machen zu müssen, dass Ihnen der Speicherplatz ausgeht Cloud-Speicher bietet auch günstige Preise, sodass Sie Daten, auf die Sie seltener zugreifen, zu geringeren Kosten speichern auf die Sie seltener zugreifen, zu geringeren Kosten Objektspeicher versus Blockspeicher. Cloud-Dienste bieten verschiedene Speicheroptionen wie Objektspeicher , der sich ideal für große Mengen unstrukturierter Daten eignet, und blockierten Speicher, der unstrukturierter Daten eignet, und blockierten Speicher, eher herkömmlichem Festplattenspeicher ähnelt sich ideal für Datenbanken oder virtuelle Maschinen Georedundanz. Cloud-Speicher kann Daten automatisch über mehrere geografische Regionen hinweg replizieren über mehrere geografische Regionen hinweg Beständigkeit und Verfügbarkeit der Daten auch bei Ausfällen sicherstellen der Daten auch bei Ausfällen Nehmen wir ein Beispiel. Stellen Sie sich vor, Sie speichern historische Transaktionsdaten, die Compliance-Gründen aufbewahrt werden müssen aus Compliance-Gründen aufbewahrt werden müssen, auf die aber nicht regelmäßig zugegriffen wird. In einer Cloud-Umgebung könnten Sie diese Daten auf kostengünstigen Archivspeicher wie AWS Glacier verschieben , wodurch Speicherplatz frei wird und die Kosten für Ihre aktiven Daten gesenkt Die wichtigste Erkenntnis daraus ist, dass Mainframe-Speicher für schnellen Echtzeitzugriff auf kritische Daten optimiert ist, während Cloud-Speicher Skalierbarkeit und Georedundanz für riesige Datenmengen bietet Mainframe-Speicher für schnellen Echtzeitzugriff auf kritische Daten optimiert ist, während Cloud-Speicher Skalierbarkeit und Georedundanz für riesige Datenmengen bietet. Funktionierende Mainframe-Netzwerke versus Cloud-Konnektivität . Mainframe-Netzwerke, hohe Bandbreite, geringe Latenz. Mainframes sind in der Regel mit Netzwerken mit hoher Bandbreite und niedriger Legitimität verbunden, oft über private Glasfaser Diese Systeme sind darauf ausgelegt, große Datenmengen mit minimaler Verzögerung zu verarbeiten , was für Transaktionssysteme , bei denen jede Millisekunde zählt, von entscheidender Bedeutung ist . Mainframes sind auch Teil älterer Netzwerke, die über Jahrzehnte aufgebaut wurden tiefe Integration mit anderen Unternehmenssystemen wie internen Datenbanken und Zahlungsgateways gewährleisten anderen Unternehmenssystemen wie älterer Netzwerke, die über Jahrzehnte aufgebaut wurden und eine tiefe Integration mit anderen Unternehmenssystemen wie internen Datenbanken und Zahlungsgateways gewährleisten. Nehmen wir ein Beispiel. Stellen Sie sich ein Echtzeit-Zahlungsabwicklungssystem für eine große Bank vor. Das Hochgeschwindigkeitsnetzwerk des Mainframes stellt sicher, dass Transaktionen sofort verarbeitet werden, sodass Kunden ohne Verzögerung Geld überweisen, Zahlungen tätigen oder Salden überprüfen Cloud-Networking, flexibel, aber abhängig von der Internetverbindung Cloud-Plattformen sind für die Konnektivität in der Regel auf das öffentliche Internet angewiesen . Private dedizierte Verbindungen wie AWS Direct Connect sind jedoch wie AWS Direct Connect sind jedoch auch für Unternehmen verfügbar , die eine schnelle und sichere Kommunikation mit ihren Cloud-Diensten benötigen . Virtuelle Netzwerke. In Cloud-Umgebungen ist das Netzwerk virtualisiert, was bedeutet, dass Sie bei Bedarf benutzerdefinierte Netzwerke erstellen, den Verkehr kontrollieren und Sicherheitsrichtlinien anwenden Diese Flexibilität ermöglicht es Ihnen, Netzwerke zu entwerfen, die auf Ihre spezifischen Anwendungsanforderungen zugeschnitten sind . Globale Reichweite. Einer der größten Vorteile von Cloud-Netzwerken ist die Möglichkeit, Anwendungen weltweit bereitzustellen und Benutzer zu Anwendungen weltweit bereitzustellen und erreichen, wo auch immer sie sich befinden, Content Delivery Network oder CDNs für einen schnelleren Zugriff genutzt oder CDNs für einen schnelleren Nehmen wir ein Beispiel. Ihre Bank könnte eine Mobile-Banking-Anwendung in der Cloud hosten, mit der Kunden aus der ganzen Welt auf ihre Konten zugreifen können. Mithilfe von CDNs und regionalen Rechenzentren stellt die Cloud sicher, dass Benutzer schnell und sicher auf ihre Daten zugreifen können, egal wo sie sich befinden Die wichtigste Erkenntnis daraus ist, dass Mainframe-Netzwerke für Transaktionen mit hoher Geschwindigkeit und geringer Latenz in einer zentralisierten Umgebung konzipiert sind, während Cloud-Netzwerke globale Reichweite und virtuelle Flexibilität für verteilte Anwendungen bieten und virtuelle Flexibilität für Warum sind Mainframes in unternehmenskritischen Systemen immer noch wertvoll Trotz des Aufschwungs von Cloud-Technologien sind Mainframes in Branchen wie dem Bankwesen, dem Gesundheitswesen und der Regierung nach wie vor von unschätzbarem Wert . Hier erfahren Sie, warum Erstens: Zuverlässigkeit. Mainframes sind auf kontinuierliche Verfügbarkeit ausgelegt und stellen sicher, dass kritische Abläufe niemals unterbrochen stellen sicher, dass kritische Abläufe niemals Zweitens, Sicherheit Mainframes bieten robuste Sicherheitsfunktionen die in Cloud-Umgebungen nur schwer zu erreichen sind, insbesondere für Daten, die vor Ort verbleiben müssen Drittens: Leistung. Für die Verarbeitung großer Mengen an Echtzeit-Transaktionen bieten Mainframes immer noch eine unübertroffene Geschwindigkeit und Effizienz Ein Beispiel: Für Finanzinstitute sind Zahlungsabwicklungssysteme der Lebensnerv des Unternehmens. Das Bedürfnis nach absoluter Zuverlässigkeit und sicherem Umgang mit sensiblen Finanzdaten macht Mainframes zu einem unverzichtbaren Bestandteil der Infrastruktur, auch wenn andere Workloads in die Cloud andere Workloads wichtigsten Erkenntnissen aus dieser Lektion gehören zum einen, dass Mainframes eine hohe Zuverlässigkeit, Leistung und Sicherheit für Transaktionssysteme bieten, und Sicherheit für Transaktionssysteme bieten, während Cloud-Umgebungen Skalierbarkeit und Flexibilität für unkritische Workloads bieten Skalierbarkeit und Flexibilität für unkritische Workloads Zweitens ist der Mainframe-Speicher zentralisiert und für den Echtzeitzugriff optimiert , während Cloud-Speicher verteilt und auf Skalierbarkeit und Redundanz ausgelegt ist verteilt und auf Skalierbarkeit und Redundanz ausgelegt Drittens konzentrieren sich Netzwerke auf Mainframes auf Kommunikation mit hoher Bandbreite und geringer Latenz, wohingegen Cloud-Netzwerke sich durch globale Reichweite und virtuelle globale Reichweite Lernaktivität, Reflexion. Überprüfen Sie Ihre aktuelle Infrastruktur. Welche Aspekte Ihres Systems hängen stark von der Mainframe-Leistung ab und welche Bereiche könnten von der Cloud-Skalierbarkeit profitieren Diskussionsfrage, Beitrag im Diskussionsforum des Kurses. Welche Komponente, welcher Rechenspeicher oder welches Netzwerk stellt für Ihr Unternehmen die größte Herausforderung dar , wenn es um Cloud-Integration geht. Nächste Lektion, Schlüsselkomponenten der Hybrid-Cloud-Architektur. In der nächsten Lektion werden wir die wichtigsten Komponenten der Hybrid-Cloud-Architektur untersuchen , darunter Rechenleistung, Speicher, Netzwerke und Sicherheit. Sie erfahren, wie diese Komponenten interagieren und wie Sie eine Hybridumgebung entwerfen , die die Stärken von Mainframe- und Cloud-Systemen nutzt die Stärken von Mainframe- und Cloud-Systemen Lassen Sie uns gespannt sein, was als Nächstes kommt, und lassen Sie uns in die technischen Einzelheiten der Hybrid-Cloud-Architektur eintauchen der Hybrid-Cloud-Architektur 4. Lektion 3: Schlüsselkomponenten einer hybriden Cloud-Architektur: Lektion drei, Schlüsselkomponenten einer Hybrid-Cloud-Architektur. Willkommen zu Lektion drei Ihrer Reise durch die Hybrid-Cloud-Architektur. Bisher haben wir die Grundlagen von Hybrid-Cloud-Systemen behandelt die Grundlagen von Hybrid-Cloud-Systemen und die technischen Unterschiede zwischen Mainframes und Cloud-Infrastrukturen untersucht zwischen Mainframes und Cloud-Infrastrukturen Jetzt ist es an der Zeit, einen genaueren Blick auf die wichtigsten Komponenten einer Hybrid-Cloud-Architektur zu und zu untersuchen, wie diese Komponenten interagieren, um eine nahtlose Integration zwischen Mainframe-Umgebungen und Cloud-Diensten zu gewährleisten Mainframe-Umgebungen und Für jemanden wie William, einen Direktor für ID-Infrastruktur ein komplexes Mainframe-Modernisierungsprojekt beaufsichtigt, ist es entscheidend zu verstehen, wie diese Komponenten zusammenpassen Ganz gleich, ob Sie sich um transaktionsintensive Mainframe-Operationen kümmern oder Cloud-Flexibilität für unkritische Workloads nutzen , die richtige Abstimmung dieser Komponenten ist die Grundlage In dieser Lektion werden wir die wesentlichen Komponenten eines Hybrid-Cloud-Systems — Rechenleistung, Speicher, Netzwerk und Sicherheit — identifizieren die wesentlichen Komponenten eines Hybrid-Cloud-Systems — Rechenleistung, Speicher, und auch die Interaktion zwischen Cloud-Diensten und Mainframe-Umgebungen erläutern die Interaktion zwischen Cloud-Diensten . Lassen Sie uns eintauchen Datenverarbeitung, Ausgleich von Workloads, Mainframes und Cloud . Mainframe-Datenverarbeitung In einem Hybridsystem Mainframes weiterhin verarbeiten Mainframes weiterhin die wichtigsten transaktionalen Diese Systeme sind für die Verarbeitung großer Datenmengen in Echtzeit optimiert , z. B. für Banktransaktionen Mainframes bieten vertikale Skalierung, was bedeutet, dass sie wachsende Workloads bewältigen können , indem sie einer einzelnen Maschine mehr Rechenleistung hinzufügen einer einzelnen Maschine mehr Rechenleistung hinzufügen Die wichtigste Stärke ist die Verarbeitung einer riesigen Anzahl von Transaktionen pro Sekunde mit nahezu keiner Ausfallzeit Anwendungsfall: Ein Kreditkartentransaktionssystem, bei dem Tausende von Transaktionen gleichzeitig mit sofortiger Überprüfung und Sicherheit verarbeitet werden müssen . Cloud-Computing. Cloud-Umgebungen wie AWS, Microsoft Azure oder bieten Cloud-Umgebungen wie AWS, Microsoft Azure oder Google Cloud horizontale Skalierung. Auf diese Weise können Sie Workloads auf mehrere Server verteilen Workloads auf mehrere Server je nach Bedarf hoch- und herunterskalieren Die Cloud ist ideal für Workloads, die dynamisch sind oder Rechenleistung bei Bedarf benötigen Entscheidende Stärke, Flexibilität und Elastizität, sodass Ressourcen sofort hinzugefügt oder reduziert werden Anwendungsfall: Durchführung von Datenanalysen zum Kaufverhalten von Computern, bei denen die Nachfrage schwanken kann , der Bedarf jedoch bei Bedarf schnell skaliert werden Wie sie interagieren. In einem Hybridsystem werden die Rechenressourcen auf der Grundlage der Workload-Merkmale aufgeteilt . Mainframe wickelt kritische Transaktionen mit hohem Volumen ab gewährleistet so Zuverlässigkeit und Sicherheit Cloud verwaltet flexible, nicht zeitkritische Workloads wie Analysen, Stapelverarbeitung oder Webdienste Nehmen wir ein Beispiel. Stellen Sie sich ein Finanzinstitut vor, bei dem Transaktionsverarbeitung in Echtzeit auf dem Mainframe verbleibt , während Modelle zur Betrugserkennung Algorithmen für maschinelles Lernen verwenden, in der Cloud ausgeführt werden Der Mainframe verarbeitet Transaktionen, während Daten zur Echtzeitanalyse in die Cloud gesendet werden, um potenzielle Betrugsmuster zu erkennen Speicher, Integration zentralisierter und verteilter Speichersysteme Mainframe-Speicher. Mainframe-Umgebungen sind für zentralisierten Hochgeschwindigkeitsspeicher konzipiert , Zugriff auf kritische Daten mit geringer Latenz bietet In einem Hybridmodell wird Ihr Mainframe-Speicher weiterhin geschäftskritische Datenbanken beherbergen , die sofortigen Zugriff und hohe Zuverlässigkeit erfordern sofortigen Zugriff und hohe Es ist eine starke, zentrale Steuerung mit hohem Datenaufkommen. Anwendungsfall: Kundenkontodaten in Banksystemen, wo Aufzeichnungen sofort und ohne Ausfallzeiten zugänglich sein müssen ohne Ausfallzeiten zugänglich Cloud-Speicher. Cloud-Speicher ist dagegen verteilt. Dienste wie AWS S Three oder Azure Blob Storage ermöglichen es Ihnen, große Datenmengen an mehreren Standorten mit integrierter Redundanz zu speichern mehreren Standorten mit integrierter Redundanz Dies gewährleistet die Beständigkeit und Verfügbarkeit der Daten auch bei Ausfällen Cloud-Speicher ist hochgradig skalierbar eignet sich daher perfekt für Archivierung, Backup und Disaster Recovery Entscheidende Stärke, Skalierbarkeit und Redundanz mit einem Pay-as-you-go-Modell. Anwendungsfall: Speicherung von Transaktionsprotokollen oder historischen Kundendaten, auf die nicht in Echtzeit zugegriffen werden muss, sondern für regulatorische Zwecke aufbewahrt werden müssen Wie sie interagieren. In einer Hybrid-Cloud-Architektur wird der Speicher häufig zwischen Hochleistungs-Mainframe-Speicher mit niedriger Latenz für kritische Daten und skalierbarem Cloud-Speicher für Archivierungs- und Backup-Zwecke aufgeteilt Hochleistungs-Mainframe-Speicher mit niedriger Latenz für kritische Daten und skalierbarem Cloud-Speicher für Archivierungs- und Backup-Zwecke Mainframes können aktive Kundendaten speichern während alle Datensätze zur Aufbewahrung in der Cloud gespeichert werden langfristigen Aufbewahrung in der Cloud gespeichert werden. Nehmen wir ein Beispiel einem Bankensystem Kundenprofile und Transaktionshistorien können Kundenprofile und Transaktionshistorien für den Echtzeitzugriff auf dem Mainframe gespeichert werden. Ältere, weniger Zugangsdaten können jedoch zur Archivierung in den Cloud-Speicher verschoben werden Dadurch werden die Kosten gesenkt und Daten, auf die häufig zugegriffen wird, dort aufbewahrt , wo sie am dringendsten benötigt werden Netzwerke, die Mainframes und die Cloud verbinden. Mainframe-Netzwerke. Mainframes sind traditionell über private Netzwerke mit hoher Bandbreite und niedriger Latenz verbunden , die sicherstellen, dass Datenübertragungen und Transaktionen mit minimaler Verzögerung verarbeitet werden Diese Netzwerke sind äußerst zuverlässig und sicher, weshalb sie für Systeme, bei denen Verfügbarkeit und Geschwindigkeit nicht verhandelbar sind, so wichtig sind. Herausragende Stärke, schnelle Verbindungen mit niedriger Latenz, die schnelle Transaktionszeiten gewährleisten Anwendungsfall für umfangreiche Finanztransaktionen , die sofort bearbeitet werden müssen. Cloud-Netzwerke. In Cloud-Umgebungen ist das Netzwerk sehr flexibel. Cloud-Anbieter bieten virtuelle Netzwerke, die Sie nach Bedarf entwerfen, konfigurieren und steuern können. Cloud-Netzwerklösungen wie AWS VPC oder Virtual Private Cloud ermöglichen es Unternehmen, isolierte Netzwerkumgebungen zu erstellen und so sicherzustellen, dass Daten und Anwendungen sicher bleiben Robust, anpassbar, skalierbar und hochgradig verteilt und weltweit verbreitet Anwendungsfall: Ausführung kundenorientierter Anwendungen wie Mobile-Banking-Plattformen, die weltweit mit schnellen Reaktionszeiten bearbeitet werden müssen weltweit mit schnellen Reaktionszeiten bearbeitet . Wie interagieren sie? In einem Hybridsystem fungiert das Netzwerk als Brücke zwischen Ihrem Mainframe vor Ort und der Cloud Tools wie AWS Direct Connect oder VPNs werden verwendet, um sichere Hochgeschwindigkeitsverbindungen zwischen Mainframes und Cloud-Infrastruktur herzustellen und so einen Datenaustausch in Echtzeit zu ermöglichen, Datenaustausch in Echtzeit zu ermöglichen ohne Nehmen wir ein Beispiel. Stellen Sie sich ein Szenario vor, in dem Ihr Mainframe Transaktionen verarbeitet, Ihre kundenorientierte Banking-App jedoch in der Cloud gehostet wird Netzwerkkomponenten stellen sicher, dass die App effizient mit dem Mainframe kommuniziert, sodass Kunden Salden und Transaktionsdaten in Echtzeit sofort einsehen Salden und Transaktionsdaten in Echtzeit sofort Sicherheit, Schutz von Daten in einer hybriden Umgebung. Mainframe-Sicherheit. Mainframes sind bekannt für ihre robusten Sicherheitsfunktionen , die in ihre Architektur integriert sind Sie unterstützen mehrschichtige Verschlüsselung, strenge Zugriffskontrolle und Auditfunktionen, wodurch sie sich gut für Branchen mit hohen regulatorischen Anforderungen wie Finanzen und Gesundheitswesen eignen Branchen mit hohen regulatorischen Anforderungen wie Finanzen und Gesundheitswesen E-Stärke, integrierte Sicherheit, die für stark regulierte Umgebungen konzipiert wurde. Anwendungsfall: Schutz sensibler Finanzdaten, Sicherstellung, dass Transaktionen und Kundeninformationen vertraulich und sicher bleiben. Cloud-Sicherheit. Cloud-Anbieter bieten auch erweiterte Sicherheitsfunktionen, darunter Verschlüsselungsadressen und während der Übertragung, Identitäts- und Zugriffsmanagement oder IAM-Tools sowie kontinuierliche Compliance-Überwachung Sicherung von Daten in der Cloud erfordert jedoch ein Modell der gemeinsamen Verantwortung. Der Cloud-Anbieter sichert die Infrastruktur, während das Unternehmen seine eigenen Anwendungen und Daten sichern muss Stärke, fortschrittliche, skalierbare Sicherheitstools mit Georedundanz Anwendungsfall: Sicherung von Datenanalyseplattformen oder kundenorientierten Anwendungen bei gleichzeitiger Einhaltung Industriestandards wie PCIDSS oder GDPR Wie sie interagieren. In einer hybriden Umgebung muss die Sicherheit ganzheitlich sein. Daten, die zwischen Ihrem Mainframe und der Cloud übertragen werden, müssen verschlüsselt werden, und Zugriffskontrolle muss in beiden Umgebungen konsistent sein in beiden Umgebungen konsistent Die Verwendung von Cloud-nativen Sicherheitstools wie AWS Key Management Service oder KMS oder Verschlüsselungs- oder IAM-Regeln oder Zugriffskontrolle stellt sicher, dass die Daten sicher bleiben Nehmen wir ein Beispiel. Stellen Sie sich vor, Ihr Mainframe verarbeitet Kundendaten für regulatorische Zwecke während Ihre Cloud-Umgebung Datenanalysen für Transaktionsdaten durchführt Sie müssen sicherstellen, dass die zwischen den beiden Umgebungen übertragenen Daten verschlüsselt sind und dass nur autorisierte Benutzer Zugriff auf vertrauliche Informationen haben wichtigsten Erkenntnissen aus dieser Lektion gehört zum einen, dass die Rechenressourcen in Hybridsystemen aufgeteilt sind Mainframes verarbeiten Transaktionen mit hohem Volumen, während Cloud-Umgebungen Flexibilität für variable Workloads bieten Flexibilität für variable Zweitens ist der Speicher in zwei Höhen aufgeteilt: Mainframe-Speicher für kritische Daten und skalierbarer Cloud-Speicher für langfristige Aufbewahrung Drittens dient das Netzwerk als Brücke zwischen Mainframes und der Cloud und gewährleistet eine sichere und effiziente Kommunikation Gleichzeitig muss die Sicherheit in beiden Umgebungen mit einer einheitlichen Strategie durchgesetzt werden in beiden Umgebungen mit einer Erwerbstätigkeit, Reflexion. Schauen Sie sich Ihre aktuelle Infrastruktur an. Welche Komponenten, seien es Computer, Speicher, Netzwerke oder Sicherheit, sind für den Erfolg Ihres Unternehmens am wichtigsten . Wie stellen Sie sich vor, dass sie in einer Hybrid-Cloud-Umgebung funktionieren Diskussionsfrage, Beitrag im Kursformular. Wie verwalten Sie in Ihrem Unternehmen derzeit die Sicherheit in Mainframe- und Cloud-Umgebungen? Mit welchen Herausforderungen rechnen Sie bei der Sicherung einer Hybridarchitektur Nächste Lektion: Vorteile der Hybrid-Cloud-Integration. In der nächsten Lektion werden wir uns mit den wichtigsten Vorteilen der Integration von Mainframes in Cloud-Plattformen befassen den wichtigsten Vorteilen der Integration von mit den wichtigsten Vorteilen der Integration von Mainframes in Cloud-Plattformen Sie erfahren, wie Hybrid-Cloud-Modelle Skalierbarkeit, Kostenoptimierung und Flexibilität bieten , und wir werden Beispiele aus der Praxis hervorheben, insbesondere aus der Finanzdienstleistungsbranche bereit, die Vorteile der Hybrid Cloud zu erkunden, gehen wir zu Lektion vier über und erfahren, wie Sie das Potenzial Ihrer Infrastruktur maximieren können. 5. Lektion 4: Vorteile der Hybrid-Cloud-Integration: Lektion vier, Vorteile der Hybrid-Cloud-Integration. Willkommen zurück zu Lektion vier unseres Kurses zur Hybrid-Cloud-Architektur. Bisher haben Sie die Grundlagen behandelt, Mainframes mit der Cloud-Infrastruktur verglichen und die wichtigsten Komponenten eines Hybridsystems identifiziert Jetzt ist es an der Zeit, die realen Vorteile der Integration von Mainframes mit Cloud-Plattformen zu erkunden die realen Vorteile der Integration von Mainframes mit Jemand wie William, unser Direktor für IT-Infrastruktur, hat die Aufgabe, die Mainframe-Systeme eines Finanzinstituts zu modernisieren eines Finanzinstituts Es ist entscheidend, den Wert der Hybrid-Cloud-Integration zu verstehen Hybrid-Cloud-Integration Warum sollten Sie von einer veralteten, zentrischen Infrastruktur zu einem Hybridmodell wechseln? Was ist für Ihr Unternehmen drin? In dieser Lektion werden wir einen der drei Vorteile der Integration von Mainframes mit Cloud-Plattformen, Skalierbarkeit, Kostenoptimierung und Flexibilität behandeln der drei Vorteile der Integration von Mainframes mit Cloud-Plattformen, Skalierbarkeit, Kostenoptimierung und Flexibilität Zwei Beispiele aus der Praxis aus der Finanzdienstleistungsbranche, die zeigen, dass Hybrid-Cloud-Architekturen bereits messbare Ergebnisse liefern Am Ende dieser Lektion werden Sie genau verstehen, warum ein hybrider Ansatz nicht nur eine Lösung, sondern auch ein Wettbewerbsvorteil ist sondern auch ein Wettbewerbsvorteil Skalierbarkeit, Erfüllung der Nachfrage ohne ins Schwitzen zu geraten. Mainframes, auf Stabilität ausgelegt, aber in ihrer Skalierbarkeit begrenzt Mainframes sind darauf ausgelegt, riesige Transaktionsvolumen zu bewältigen, tun dies jedoch mit begrenzter Flexibilität in Bezug auf die Skalierung Skalierung eines Mainframes erfordert das Hinzufügen teurer, hochspezialisierter Hardware, was einige Zeit in Anspruch nehmen kann und sich nicht einfach an unerwartete Nachfragespitzen anpassen lässt an unerwartete Nachfragespitzen anpassen Nehmen wir ein Beispiel. Stellen Sie sich ein Szenario vor, in dem Ihr Finanzinstitut ein neues Produkt wie ein Sparkonto mit Sonderzinsen auf den Markt bringt . Da der Starttermin näher rückt, erwarten Sie mehr Traffic haben aber keine genaue Prognose Mainframes allein könnten Schwierigkeiten haben, den plötzlichen Zustrom neuer Konten, Anmeldungen oder Transaktionsvolumen ohne vorherige Kapazitätsplanung zu bewältigen den plötzlichen Zustrom neuer Konten, Anmeldungen oder Transaktionsvolumen ohne Cloud, Skalierung nach Bedarf. In einer Cloud-Umgebung erfolgt die Skalierung praktisch sofort. Cloud-Plattformen wie AWS oder Azure ermöglichen Ihnen eine horizontale Skalierung, indem steigender Nachfrage weitere virtuelle Maschinen oder Ressourcen Mit anderen Skalierungsfunktionen kann die Cloud Datenverkehrsspitzen und saisonale Spitzen bewältigen , ohne dass zusätzliche Hardwareinvestitionen erforderlich sind Das bedeutet, dass Sie Ressourcen dynamisch auf der Grundlage von Echtzeitanforderungen zuweisen Vorteil für William. Die Fähigkeit, Anwendungen nach Bedarf zu skalieren und so sicherzustellen, dass unerwartete Workload-Spitzen Leistung nicht beeinträchtigen, ganz gleich, ob es sich um einen Anstieg Online-Banking-Transaktionen oder eine Werbeaktion handelt, die zu mehr Kundenaktivität führt Cloud kann den Überfluss bewältigen So funktioniert Hybrid. Mit einer Hybrid-Cloud-Architektur können Ihre wichtigsten Transaktionssysteme auf dem Mainframe stabil bleiben , während die Cloud zusätzliche Workloads übernimmt diesem Modell können Sie das Beste aus beiden Welten nutzen: der Stabilität des Mainframes und der Elastizität der Cloud Kostenoptimierung: Zahlen Sie für das, was Sie nutzen, wenn Sie es nutzen. Mainframes, zuverlässig, aber teuer in der Skalierung. Mainframes bieten zwar eine unglaubliche Zuverlässigkeit, sind aber mit erheblichen Fixkosten Diese Systeme erfordern kontinuierliche Wartung, spezialisiertes Personal und kostspielige Upgrades Jedes Mal, wenn Sie Kapazität hinzufügen müssen, Sie mit hohen Investitionsausgaben rechnen Dies macht es schwierig, schwankende Anforderungen zu bewältigen , ohne Ihre Infrastruktur übermäßig bereitzustellen. Nehmen wir ein Beispiel. Denken Sie an die Bank, die fast das ganze Jahr über eine vorhersehbare Nachfrage hat , aber während der Steuersaison oder bei Feiertagsaktionen Spitzenwerte während der Steuersaison oder bei Feiertagsaktionen Sie Ihren Mainframe übermäßig bereitstellen , um diese seltenen Leistungsspitzen zu bewältigen, müssen Sie für zusätzliche Kapazität zahlen ganze Jahr über für zusätzliche Kapazität zahlen, Cloud-basierte Preisgestaltung, nutzungsabhängig. Einer der größten Vorteile der Cloud-Plattform ist das Pay-as-you-go-Modell. Sie zahlen nur für die Ressourcen, die Sie tatsächlich nutzen. In Zeiten geringer Nachfrage bleiben Ihre Kosten niedrig. Wenn die Nachfrage steigt, passt sich die Cloud automatisch an und stellt so sicher, dass Sie über die Ressourcen verfügen, die Sie benötigen, ohne zu viel in die Infrastruktur zu investieren Davon profitiert William. Durch die Kostenoptimierung können Sie Ihr Budget effektiver verwalten. Anstatt Ressourcen für Spitzenzeiten zu beanspruchen, ermöglicht Ihnen die Cloud, Ressourcen nach oben oder unten zu skalieren Hardware- und Betriebskosten zu sparen Wie Hybrid hilft. Indem Sie wichtige Anwendungen auf dem Mainframe belassen und die Cloud für saisonale oder temporäre Workloads nutzen , können Sie Sie reduzieren Ihre Investitionskosten und wechseln für bestimmte Workloads zu einem Betriebskostenmodell, was Flexibilität, Innovation und Anpassung ohne Einschränkungen. Mainframes, Stabilität vor Flexibilität . Mainframes sind auf Stabilität und Zuverlässigkeit ausgelegt, aber sie sind nicht immer flexibel Wenn Sie neue Anwendungen entwickeln oder mit innovativen Technologien wie KI, maschinellem Lernen oder Big-Data-Analysen experimentieren möchten, Mainframes normalerweise nicht die ideale Plattform dafür Ein Beispiel: Ein Finanzinstitut möchte ein KI-gestütztes Betrugserkennungssystem entwickeln ein KI-gestütztes Betrugserkennungssystem , das Transaktionsmuster in Echtzeit analysiert Mainframes eignen sich hervorragend die Abwicklung von Echtzeittransaktionen, aber die Ausführung komplexer KI-Modelle auf einem Mainframe ist weniger effizient Die Cloud, ein Spielplatz für Innovationen. Cloud-Plattformen zeichnen sich die Unterstützung modernster Technologien aus. Mit Zugriff auf Cloud-native Dienste wie AWS Lambda oder Serverless Computing, Google Big Query oder Datenanalyse oder Azure Machine Learning oder KI und maschinelles Sie können ohne Einschränkungen experimentieren und Innovationen entwickeln. Vorteil für William Die Cloud bietet Ihnen die Flexibilität , schnell mit neuen Anwendungen und Diensten zu experimentieren , ohne den Aufwand für die Hardwareverwaltung. So kann Ihr Unternehmen agil bleiben, schneller innovieren und effektiver auf Marktveränderungen reagieren effektiver auf Marktveränderungen Wie Hybrid hilft. Eine Hybrid-Cloud-Architektur ermöglicht es Ihnen, Ihre stabilen unternehmenskritischen Anwendungen reibungslos auf dem Mainframe laufen zu lassen und gleichzeitig die Cloud als Innovationsplattform zu nutzen die Cloud als Innovationsplattform zu Während Ihr Mainframe beispielsweise Transaktionen in Echtzeit abwickelt, kann die Cloud Algorithmen zur Betrugserkennung ausführen, das Kundenverhalten analysieren oder neue kundenorientierte Apps entwickeln Nehmen wir ein Beispiel. Viele Banken führen ihre Kernbankgeschäfte heute auf Mainframes aus, nutzen aber die Cloud, um Mobile-Banking-Apps zu entwickeln, personalisierte Kundenerlebnisse zu bieten oder mit neuen Funktionen zu experimentieren ohne die Mainframe-Umgebung zu stören wichtigsten Erkenntnissen aus dieser Lektion gehören Skalierbarkeit und Hybrid Cloud, mit der Sie Anwendungen nahtlos skalieren können und so sicherstellen, Sie Anwendungen nahtlos skalieren können und so sicherstellen, dass Ihre Systeme schwankende Arbeitslasten ohne Leistungsengpässe bewältigen können schwankende Zweitens: Kostenoptimierung. Durch die Verlagerung bestimmter Workloads in die Cloud können Sie die Kapitalkosten senken und nur für die Ressourcen zahlen, die Sie tatsächlich nutzen, wodurch die Budgetierung vorhersehbarer wird Drittens: Flexibilität: Hybridumgebungen ermöglichen es Ihnen, schnell innovativ zu sein indem Sie Cloud-Plattformen für neue Dienste nutzen und gleichzeitig Stabilität kritischer Anwendungen auf Ihrem Mainframe aufrechterhalten kritischer Anwendungen auf Lernaktivität, Reflexion. Betrachten Sie die aktuelle Infrastruktur Ihres Unternehmens. Gibt es Bereiche, in denen die Skalierbarkeit der Cloud für mehr Flexibilität sorgen oder zur Kostensenkung beitragen könnte? Welche Workloads lassen sich am besten auf dem Mainframe speichern und welche würden in die Cloud verlagert? Diskussionsfrage, Beitrag im Formular. Welchen Vorteil Skalierbarkeit, Kostenoptimierung oder Flexibilität sehen Sie als den wertvollsten für Ihr Unternehmen an, und warum? Nächste Lektion: Evaluierung älterer Systeme für die Cloud-Integration. In der nächsten Lektion werden wir uns eingehender damit befassen, wie Sie Ihre Mainframe-Systeme im Hinblick auf die Cloud-Integration bewerten erste Lektion des zweiten Moduls konzentriert sich auf die Bewertung Ihrer aktuellen Mainframe-Infrastruktur und zeigt Ihnen, wie Sie Legacy-Systeme prüfen und kritische Anwendungen identifizieren, von denen die Cloud-Migration profitieren könnte bereit, den nächsten Schritt zu tun. Lassen Sie uns weitermachen und damit beginnen, Lassen Sie uns weitermachen und damit beginnen Ihre Infrastruktur im Hinblick auf eine erfolgreiche Hybrid-Cloud zu evaluieren . 6. Lektion 1: Bewertung der aktuellen Mainframe-Infrastruktur: Modul zwei, Evaluierung älterer Systeme für die Cloud-Integration Die Studierenden lernen, ihre bestehenden Mainframe-Systeme zu bewerten , um die besten Kandidaten für die Cloud-Integration zu identifizieren Dieses Modul behandelt die technischen und betrieblichen Überlegungen zur Migration älterer Anwendungen und Workloads die Cloud unter Beibehaltung von Leistung Lektion eins, Bewertung der aktuellen Mainframe-Infrastruktur Willkommen zu Modul zwei, in dem wir mit der Bewertung Ihrer bestehenden Mainframe-Infrastruktur beginnen , um zu ermitteln, wie sie durch Cloud-Integration modernisiert werden kann durch Cloud-Integration modernisiert In dieser ersten Lektion konzentrieren wir uns auf die Bewertung Ihrer aktuellen Mainframe-Systeme ein wesentlicher Schritt bei der Vorbereitung einer erfolgreichen Umstellung auf eine Hybrid-Cloud-Architektur Für jemanden wie William, den Leiter der IT-Infrastruktur, der für die Wartung der Altsysteme eines komplexen Finanzinstituts verantwortlich Wartung der Altsysteme eines komplexen ist, ist es wichtig zu verstehen, wie Sie Ihre Infrastruktur prüfen Dieser Prozess hilft Ihnen dabei kritische Anwendungen zu lokalisieren, Datenflüsse zu identifizieren und zu erkennen, welche Teile Ihres Systems sich am besten für eine Cloud-Migration eignen In dieser Lektion behandeln wir unter anderem, wie Sie Ihre älteren Mainframe-Systeme prüfen können um einen klaren Überblick über Ihre aktuelle Umgebung zu erhalten Zweitens, wie Sie kritische Anwendungen und Datenflüsse innerhalb Ihrer Infrastruktur identifizieren kritische Anwendungen und Datenflüsse innerhalb Ihrer Infrastruktur Drittens, welche Teile Ihrer Infrastruktur können für die Cloud-Migration optimiert werden? Am Ende dieser Lektion haben Sie einen Plan , mit dem Sie bestimmen können, wo die Cloud-Integration für Ihr Unternehmen am sinnvollsten Prüfung Ihrer älteren Mainframe-Systeme. Bevor Sie Entscheidungen darüber treffen , was in die Cloud migriert werden soll, ist es wichtig, eine umfassende Bestandsaufnahme Ihrer aktuellen Mainframe-Umgebung Stellen Sie sich das so vor, als würden Sie das Fundament eines Hauses inspizieren, bevor Sie mit einer Renovierung beginnen Eine gründliche Prüfung ermöglicht es Ihnen , fundierte Entscheidungen zu treffen, Risiken zu minimieren und jegliche technische Tiefe oder Einschränkungen zu ermitteln jegliche technische Tiefe oder Einschränkungen Warum Audits so wichtig sind. Mainframe-Systeme sind in der Regel sehr kundenspezifisch und haben sich im Laufe der Jahrzehnte weiterentwickelt Die Herausforderung besteht darin, dass sie zwar unglaublich zuverlässig waren, aber nicht auf Cloud-Kompatibilität ausgelegt verstehen, was Sie sowohl in Bezug auf Hardware als auch Software haben erste Schritt zur Cloud-Integration besteht darin, zu verstehen, was Sie sowohl in Bezug auf Hardware als auch Software haben. Darauf sollten Sie sich bei Ihrem Audit konzentrieren. Schritte zur Prüfung Ihres Mainframes. Erstens: Inventarisierung von Anwendungen und Workloads. Dokumentieren Sie jede Anwendung, die auf dem Mainframe ausgeführt wird, von kritischen Systemen wie der Transaktionsverarbeitung bis hin zu weniger wichtigen Workloads Notieren Sie sich für jede Anwendung, Geschäftsfunktion sie unterstützt, wie oft sie verwendet wird und wer die wichtigsten Beteiligten Zweitens: Evaluieren Sie die Hardwareressourcen bewerten Sie die Rechenleistung und Speicherkapazität derzeit genutzt werden. Wie viel Prozent Ihrer Mainframe-Ressourcen sind für verschiedene Workloads Haben Sie irgendwelche Kapazitätsprobleme? Haben Sie ungenutzte Ressourcen , die in die Cloud ausgelagert werden könnten Drittens: Beurteilen Sie Software und Lizenzierung. Notieren Sie sich die gesamte Software und Middleware in Ihrer Umgebung Viele Mainframes setzen auf ältere proprietäre Software, die möglicherweise nicht Cloud-kompatibel ist Evaluieren Sie Lizenzvereinbarungen. Manche Software kann bei der Migration in die Cloud Einschränkungen aufweisen oder bestimmte Cloud-kompatible Versionen erfordern bestimmte Cloud-kompatible Versionen oder technische Details angeben. Gibt es Teile Ihres Systems, die veraltet oder zu komplex sind? Technische Tiefe bezieht sich auf Abkürzungen oder Behelfslösungen, die sich im Laufe der Jahre angesammelt haben und die Modernisierung erschweren können Möglicherweise stellen Sie fest, dass bestimmte Anwendungen in CBO geschrieben sind, was es schwieriger macht, sie für eine Cloud-Umgebung umzugestalten oder neu zu plattformieren Identifizierung kritischer Anwendungen und Datenflüsse. Sobald Sie Ihr Audit abgeschlossen haben, der nächste Schritt darin, Ihre Anwendungen zu priorisieren und die Datenflüsse zu identifizieren , die für Ihr Unternehmen von zentraler Bedeutung sind Nicht jede Anwendung muss oder sollte in die Cloud verschoben werden Ziel ist es, festzustellen , welche Teile Ihres Systems kritisch sind und welche Teile modernisiert werden können Klassifizierung von Anwendungen, unternehmenskritische Anwendungen. diese Anwendungen Ohne diese Anwendungen kann Ihr Unternehmen nicht funktionieren In einem Finanzinstitut kann dies die Transaktionsverarbeitung in Echtzeit, Zahlungssysteme oder Kontoverwaltung umfassen . Diese Anwendungen erfordern ein Höchstmaß an Verfügbarkeit, Leistung und Sicherheit. In vielen Fällen sollten sie am besten auf dem Mainframe aufbewahrt werden , sofern keine hochsichere Cloud-Alternative verfügbar ist Zwei, unkritische Anwendungen. Diese Anwendungen sind zwar wichtig, erfordern jedoch nicht das gleiche Maß an Echtzeitverarbeitung. Beispiele hierfür können die Berichtsgenerierung, Stapelverarbeitung oder interne Mitarbeitersysteme sein. Nicht kritische Workloads eignen sich oft gut für eine Cloud-Migration, da sie die Vorteile der Cloud-Skalierbarkeit und Kosteneffizienz nutzen können der Cloud-Skalierbarkeit und Kosteneffizienz Datenflüsse abbilden. Datenflüsse beziehen sich darauf, wie Informationen zwischen verschiedenen Teilen Ihres Systems übertragen werden, sei es zwischen Anwendungen, Datenbanken oder externen Systemen. Erstens: Identifizieren Sie wichtige Dateninteraktionen. Stellen Sie fest, wie Daten zwischen Ihren Kernanwendungen übertragen werden. Interagiert Ihr kundenorientiertes Webportal beispielsweise mit Ihrem Transaktionssystem? Sie diese Abhängigkeiten verstehen, können Sie leichter entscheiden , was in die Cloud migriert werden kann und was vor Ort bleiben muss. Zweitens: Bewerten Sie die Datensensitivität. Datensicherheit ist ein wichtiges Anliegen, insbesondere in regulierten Branchen wie dem Bankwesen. Identifizieren Sie, welche Daten am sensibelsten sind, z. B. Kundendaten oder Finanztransaktionen, Kundendaten oder und stellen Sie sicher, dass sie sowohl während der Migration als auch in ihrer Cloud-Umgebung geschützt sind. Bei Transaktionsdaten, bei denen es sich um personenbezogene Daten handelt, muss BII möglicherweise vor Ort bleiben , um regulatorische Anforderungen zu erfüllen während nicht sensible Daten wie Protokolldateien oder Analysen in die Cloud verlagert werden könnten Optimieren Sie Ihre Infrastruktur für die Cloud-Migration. Nachdem Sie Ihr System geprüft und wichtige Komponenten identifiziert haben , ist es an der Zeit, festzustellen, welche Teile Ihrer Mainframe-Infrastruktur für die Cloud optimiert werden können für die Cloud optimiert werden Ziel ist es, Workloads, die von Cloud-Diensten profitieren , strategisch zu verlagern und gleichzeitig geschäftskritische Abläufe auf dem Mainframe aufrechtzuerhalten geschäftskritische Abläufe auf dem Schlüsselfaktoren für die Cloud-Optimierung. Erstens: Flexibilität bei der Arbeitslast. Anwendungen, die eine dynamische Skalierung erfordern, wie Websites mit Kundenkontakt oder mobile Apps eignen sich ideal für Cloud-Umgebungen. Diese können je nach Bedarf nach oben oder unten skaliert werden, wodurch die Kosten und die Komplexität vermieden werden, die mit der Kapazitätserweiterung Ihres Mainframes verbunden Zweitens: Stapelverarbeitung und Datenanalyse. Workloads wie Batch-Verarbeitung oder Datenanalyse eignen sich oft gut für Cloud-Plattformen Diese Prozesse können außerhalb der Spitzenzeiten in der Cloud ausgeführt werden , Mainframe-Ressourcen für kritischere Drittens: DevOps und Testumgebungen. Entwicklungs- und Testumgebungen können in die Cloud verlagert werden , wo Teams schnell neue Umgebungen einrichten, Tests durchführen und herunterfahren können Teams schnell neue Umgebungen einrichten, , ohne den Mainframe zu belasten Diese bieten mehr Flexibilität und reduzieren den Bedarf an teuren Ressourcen . Nehmen wir ein Beispiel. In einem Finanzdienstleistungsunternehmen Erstellung von Berichten und die Datenanalyse können die Erstellung von Berichten und die Datenanalyse in die Cloud verlagert werden, sodass Rechenleistung außerhalb der Spitzenzeiten genutzt wird, um den Mainframe zu entlasten In der Zwischenzeit läuft die Transaktionsverarbeitung in Echtzeit weiterhin auf dem Mainframe, um Stabilität und Leistung zu gewährleisten wichtigsten Erkenntnissen aus dieser Lektion gehört zum einen, dass die Prüfung Ihres Mainframes der erste Schritt zur Modernisierung ist Dazu gehören die Dokumentation von Anwendungen, Bewertung der Hardware und die Bewertung von Softwareabhängigkeiten Zweitens hilft Ihnen die Identifizierung kritischer Anwendungen und die Zuordnung von Datenströmen dabei, Prioritäten zu setzen, was vor Ort verbleiben sollte und was in die Cloud verlagert werden kann Drittens können bestimmte Workloads wie Batch-Verarbeitung, Datenanalyse und unkritische Anwendungen für die Cloud-Migration optimiert werden, wodurch Skalierbarkeit und Kosteneffizienz verbessert Lernaktivität, Reflexion, Durchführung einer vorläufigen Bewertung Ihrer aktuellen Infrastruktur Welche Anwendungen oder Datenflüsse sind den Betrieb Ihres Unternehmens am wichtigsten? Welche Teile Ihres Systems scheinen ideale Kandidaten für die Cloud-Migration zu sein? Eine Frage zur Störung wurde im Forum gestellt. Welche Herausforderungen erwarten Sie Prüfung Ihrer Mainframe-Systeme Gibt es bestimmte Anwendungen oder Workloads, von denen Sie glauben, dass sie schwer zu migrieren wären In der nächsten Lektion geht es um die Eignung von Workloads für die Cloud-Migration. In der nächsten Lektion werden wir uns eingehender damit befassen, wie ermittelt werden kann, welche Workloads für die Cloud-Migration am besten geeignet sind für die Cloud-Migration am besten geeignet Sie lernen, Anwendungsabhängigkeiten zu analysieren, Leistungsanforderungen zu bewerten und Sicherheitsauswirkungen zu berücksichtigen, bevor Sie die Umstellung vornehmen . Ich freue mich darauf, fortzufahren. Machen wir uns bereit, Ihre Workloads zu bewerten und herauszufinden , was sich am besten für die Cloud eignet 7. Lektion 2: Workload-Eignung für die Cloud-Migration: Lektion zwei, Eignung von Workloads für die Cloud-Migration. Willkommen zurück zu Modul zwei unseres Kurses zur Hybrid-Cloud-Architektur In der vorherigen Lektion haben wir besprochen, wie Sie Ihre aktuelle Mainframe-Infrastruktur bewerten können In Lektion zwei helfen wir Ihnen nun dabei, kluge Entscheidungen darüber zu treffen , welche Workloads für die Cloud-Migration am besten geeignet sind für die Cloud-Migration am besten geeignet Als William, Direktor für IT-Infrastruktur, haben Sie wahrscheinlich von den Vorteilen der Cloud gehört, aber alles in die Cloud zu verlagern ist immer der richtige Ansatz Nicht alle Workloads eignen sich gleichermaßen für die Cloud-Migration. Einige gedeihen in der Cloud, während andere fest in Ihrem Mainframe oder Ihren lokalen Systemen verwurzelt bleiben sollten fest in Ihrem Mainframe oder Ihren lokalen Systemen verwurzelt bleiben Ihrem Mainframe oder Ihren Ziel ist es, Anwendungsabhängigkeiten, Leistungsanforderungen und Sicherheitsaspekte zu bewerten , um sicherzustellen, dass Sie fundierte, effektive Migrationsentscheidungen treffen Am Ende dieser Lektion werden Sie in der Lage sein, die Abhängigkeiten Ihrer Anwendungen zu analysieren und zu analysieren, die Abhängigkeiten Ihrer Anwendungen zu analysieren wie sie sich auf die Cloud-Integration auswirken. Zweitens: Evaluieren Sie die Leistungsanforderungen , die für Ihre Workloads entscheidend sind Drittens sollten Sie sich mit den Sicherheitsüberlegungen vertraut , die sich darauf auswirken könnten, welche Workloads Sie in die Cloud verlagern F: Ermitteln Sie, welche Arten von Workloads besser für die Cloud geeignet sind, eine Batch-Verarbeitung oder Datenanalyse Lass uns anfangen. Analyse von Anwendungsabhängigkeiten Was muss bei der Analyse von Anwendungsabhängigkeiten zusammenbleiben? Warum sind Anwendungsabhängigkeiten wichtig? Bei der Migration in die Cloud ist es einer der wichtigsten Faktoren, einer der wichtigsten Faktoren Ihre Anwendungsabhängigkeiten zu verstehen Dies sind die miteinander verbundenen Beziehungen zwischen verschiedenen Anwendungen, Datenbanken oder Systemen, die zusammenarbeiten, um einen reibungslosen Betrieb zu gewährleisten Die Migration einer Anwendung ohne zugehörigen abhängigen Systeme kann zu Leistungsproblemen, Datenlatenz oder sogar Systemausfällen führen Datenlatenz oder sogar Systemausfällen In einer Bankumgebung könnte Ihr Kundenkontosystem beispielsweise auf die Echtzeitkommunikation mit einem Zahlungsabwicklungssystem angewiesen sein Echtzeitkommunikation mit einem Zahlungsabwicklungssystem Die Migration nur eines dieser Systeme in die Cloud ohne das andere würde zu Verzögerungen oder Integrationsherausforderungen führen oder Integrationsherausforderungen Schritte zur Identifizierung von Abhängigkeiten. Erstens, die Interaktionen zwischen den Anwendungen abbilden. Erstellen Sie zunächst eine visuelle Übersicht darüber, wie Ihre Anwendungen miteinander interagieren. Auf diese Weise können Sie die Datenflüsse und Kommunikationspunkte zwischen Systemen identifizieren . Beispielsweise kann Ihr Mainframe-Transaktionsverarbeitungssystem mehrfach älteren Datenspeichersystemen, Kundenportalen und APIs von Drittanbietern abhängig Zweitens: Beurteilen Sie den Datenfluss und die Kommunikationsanforderungen. Erfordert Ihre Anwendung einen Datenaustausch in Echtzeit? diesem Fall würde die Migration nur eines Teils des Systems die Transaktionen verlangsamen oder zu Leistungsengpässen führen Stellen Sie sicher, dass alle voneinander abhängigen Systeme zusammen betrachtet werden . Drittens: Gruppieren Sie Anwendungen nach Abhängigkeitsstufen. Unterteilen Sie Ihre Anwendungen in zwei Kategorien. Erstens, eng gekoppelte Systeme, die eine Hochgeschwindigkeitsinteraktion in Echtzeit erfordern , oder zwei lose gekoppelte Systeme, die zwar interagieren, aber keine Echtzeitkommunikation benötigen und gewissen latenten Schlaf tolerieren können Eng gekoppelte Systeme sollten oft besser zusammengehalten werden , entweder auf dem Mainframe oder zusammen in die Cloud migriert. Nehmen wir ein In einem Finanzinstitut Transaktionsverarbeitungs- und Betrugserkennungssysteme eng miteinander verknüpft sein. Transaktionsverarbeitung in Echtzeit sollte zwar auf dem Mainframe verbleiben, die Betrugserkennung kann jedoch in der Cloud ausgeführt werden, sofern eine Verbindung mit dem Mainframe mit geringer Latenz Durch das Verständnis dieser Abhängigkeiten kann William einen reibungslosen Betrieb sicherstellen, kann William einen reibungslosen Betrieb sicherstellen ohne dass es bei der Migration zu neuen Problemen kommt Leistungsanforderungen. Kann die Cloud Ihre Arbeitslast bewältigen? Definition von Leistungsanforderungen. Leistung ist oft der entscheidende Faktor dafür ob ein Workload in die Cloud verlagert werden sollte. Cloud-Plattformen eignen sich zwar hervorragend für viele Arten von Workloads, einige Anwendungen erfordern jedoch spezifische Leistungskennzahlen wie hohen Durchsatz, geringe Latenz oder konstante Verfügbarkeit die von Ihrem Mainframe möglicherweise effektiver verarbeitet werden können Fragen, die Sie zur Leistung stellen sollten. Erstens, wie ist die aktuelle Reaktionszeit der Anwendung? Einige Anwendungen, wie z. B. Handelsplattformen in Echtzeit oder Systeme zur Transaktionsverarbeitung erfordern sofortige Reaktionszeiten Verlagerung dieser Workloads in die Cloud kann zu Latenz führen, wenn die Cloud-Infrastruktur nicht für dieses Leistungsniveau optimiert Zweitens, welches Maß an Verfügbarkeit ist erforderlich? Bei geschäftskritischen Anwendungen kann jede Ausfallzeit zu Umsatzeinbußen, Unzufriedenheit der Kunden oder sogar zu behördlichen Sanktionen führen Unzufriedenheit der Kunden oder sogar zu behördlichen Sanktionen Mainframes sind bekannt für ihre Verfügbarkeit von 90 bis 9,39 Prozent, was sich in einer Public-Cloud-Umgebung nur schwer replizieren lässt replizieren Drittens, benötigt die Anwendung intensive Rechenleistung? Einige Workloads wie Datenanalysen profitieren von der Skalierbarkeit von Cloud-Plattformen denen Sie die Rechenleistung problemlos erhöhen können Für Systeme mit intensiven Transaktionen ist die reine Rechenleistung eines Mainframes jedoch die reine Rechenleistung eines möglicherweise immer noch die beste Option Workloads, die in der Cloud gedeihen. Stapelverarbeitung Aufgaben, die kein sofortiges Feedback erfordern und in bestimmten Intervallen ausgeführt werden können bestimmten Intervallen ausgeführt eignen sich ideal für Cloud-Umgebungen. Diese Workloads können während der Verarbeitung nach oben und dann wieder herunterskaliert werden, was Kosten spart. Datenanalyse Große Datenanalyseaufgaben profitieren von der Cloud-Skalierbarkeit. In der Cloud können Sie fortschrittliche Tools wie Amazon Redshift oder Google BigQuery für die schnelle und effiziente Analyse großer Datensätze nutzen wie Amazon Redshift oder Google BigQuery für die schnelle effiziente Analyse großer Nehmen wir ein Beispiel. In einer Bank würden die täglichen Transaktionsabstimmungen in die Cloud verlagert, da sie nicht in Echtzeit verarbeitet werden müssen und für Zeiten außerhalb der Hauptverkehrszeiten geplant werden können für Zeiten außerhalb der Hauptverkehrszeiten geplant werden In der Zwischenzeit sollte die Betrugserkennung in Echtzeit auf dem Mainframe verbleiben, wo sie in Transaktionsverarbeitungssysteme integriert werden kann Transaktionsverarbeitungssysteme integriert werden , um sofortige Benachrichtigungen und Entscheidungen bereitzustellen Sicherheitsüberlegungen, um Ihre Daten zu schützen. Das Modell der geteilten Verantwortung. Wenn Sie Workloads in die Cloud verlagern, treten Sie in das sogenannte Modell der gemeinsamen Verantwortung Das bedeutet, dass der Cloud-Anbieter, beispielsweise AWS oder Azure, für die Sicherung der Infrastruktur verantwortlich ist , Sie jedoch dafür verantwortlich sind, Ihre Daten zu sichern und sicherzustellen, dass die Zugriffskontrollen ordnungsgemäß konfiguriert sind Sicherheit ist besonders wichtig beim Umgang mit sensiblen Daten wie Finanztransaktionen oder personenbezogenen Daten oder PII Schauen wir uns einige wichtige Überlegungen an. Wichtige Sicherheitsfragen , die es zu berücksichtigen gilt. Erstens, wie sensibel sind die Daten? Verarbeitet die Anwendung personenbezogene Daten, Finanzdaten oder andere gesetzlich vorgeschriebene Informationen Workloads, die Bankinformationen von Kunden verwalten, können beispielsweise Bankinformationen von Kunden verwalten Compliance-Anforderungen wie PCI DSS oder GDPR unterliegen , die strenge Kontrollen darüber vorschreiben, wie und wo Daten Ist Verschlüsselung verfügbar und erforderlich, stellen Sie sicher, dass Ihre Daten sowohl adressiert als auch während der Übertragung verschlüsselt werden können sowohl adressiert als auch während der Übertragung verschlüsselt Laute Anbieter bieten häufig Verschlüsselungsdienste an, aber Sie müssen sie richtig konfigurieren und wissen, welche Daten verschlüsselt werden sollen. Drittens, welche Zugriffskontrollen gibt es? Cloud-Umgebungen bieten Ihnen die Flexibilität, gründliche Zugangskontrollen zu implementieren . Sie müssen sicherstellen , dass nur autorisierte Benutzer und Systeme auf sensible Workloads zugreifen können Verwenden Sie Multifaktor-Authentifizierung und Identitäts- und Zugriffsmanagement oder Best Practices für IAM, um Ihre Cloud-Umgebung zu schützen Nehmen wir ein Beispiel. Für die Williams-Organisation müssen sensible Transaktionsdaten möglicherweise auf dem Mainframe verbleiben, um den Gesetzen zur Datenspeicherung und den regulatorischen Anforderungen zu entsprechen Gesetzen zur Datenspeicherung Weniger sensible Daten, wie z. B. Analysen von Marketingkampagnen, würden jedoch wie z. B. Analysen von Marketingkampagnen, sicher in die Cloud migriert , wo Verschlüsselung und Zugriffskontrollen den Verschlüsselung und Zugriffskontrollen Feststellen, welche Workloads am besten für die Cloud geeignet sind am besten für die Cloud geeignet Sie nun verstanden haben, wie Abhängigkeiten, Leistung und Sicherheit bewertet werden, lassen Sie uns einige Workload-Typen zusammenfassen lassen Sie uns einige Workload-Typen zusammenfassen , die sich üblicherweise für die Cloud-Migration eignen Workloads, die sich am besten für eine Cloud-Migration eignen , gehört die Stapelverarbeitung Dabei handelt es sich nicht um Echtzeitaufgaben wie Generierung von Berichten oder den Datenabgleich , die nach einem Zeitplan ausgeführt und bei Bedarf skaliert werden können und bei Bedarf skaliert Zweitens: Datenanalyse und Big Data. Workloads, die eine intensive Datenverarbeitung erfordern, aber keine Echtzeitergebnisse benötigen wie z. B. Analysen des Kundenverhaltens, Algorithmen zur Betrugserkennung oder Business Intelligence-Dashboards Drei, Entwicklungs- und Testumgebungen. Cloud-Plattformen bieten die Flexibilität , Entwicklungsumgebungen schnell hochzufahren, Tests durchzuführen und sie dann herunterzufahren. Dies reduziert die Belastung Ihres Mainframes und bietet eine agile, kostengünstige Lösung für Ihre Entwicklungsteams oder kundenorientierte Webanwendungen Frontend-Anwendungen wie Mobile-Banking-Plattformen können von der Cloud-Skalierbarkeit profitieren, sodass Sie hohen Datenverkehr bewältigen können, ohne den Mainframe zu beeinträchtigen Workloads werden am besten auf dem Mainframe aufbewahrt. Dazu gehört eine Transaktionsverarbeitung in Echtzeit. Hochgeschwindigkeits-Transaktionslasten wie ATM-Transaktionen oder Verarbeitung von Kreditkartenzahlungen lassen sich am besten über den Mainframe abwickeln , um eine geringe Latenz und hohe Zuverlässigkeit zu gewährleisten Zwei, oder Bankanwendungen. Anwendungen, die eine Verfügbarkeit von 99 bis 39 Prozent erfordern und geschäftskritische Daten verarbeiten, sollten aus Stabilitätsgründen auf dem Mainframe verbleiben Zu den wichtigsten Erkenntnissen aus dieser Lektion gehört zum einen die Analyse von Anwendungsabhängigkeiten, um eine reibungslose Integration zwischen Mainframe und Cloud sicherzustellen , insbesondere bei Zweitens bestimmen die Leistungsanforderungen, wo die Arbeitslast ausgeführt werden soll Workloads, die nicht in Echtzeit ablaufen, wie Batch-Verarbeitung oder Datenanalyse eignen sich ideal für die Cloud, während die Transaktionsverarbeitung in Echtzeit am besten für den Mainframe geeignet ist Drittens sind Sicherheitsaspekte bei Migration von Workloads von entscheidender Bedeutung Prüfen Sie stets die Datensensibilität und die Compliance-Anforderungen bevor Sie Entscheidungen treffen Lernaktivität, Reflexion. Schauen Sie sich Ihre bestehenden Workloads an. Welche Workloads sind eng mit anderen verknüpft? Welche könnten entkoppelt und in die Cloud verlagert werden , ohne dass es zu Leistungseinbußen kommt. Im Forum gestellte Diskussionsfrage. Welche Arten von Workloads in Ihrem Unternehmen sind Ihrer Meinung nach ideale Kandidaten für die Cloud-Migration Gibt es Sicherheitsbedenken Sie davon abhalten, bestimmte Anwendungen zu migrieren? Nächste Lektion, Kosten-Nutzen-Analyse der Cloud-Migration. In der nächsten Lektion werden wir die Kostenauswirkungen untersuchen, die sich aus der Verlagerung von Workloads vom Mainframe in die Cloud Wir werden erörtern, wie betriebliche Einsparungen mit den Kosten für die Wartung kritischer Systeme vor Ort in Einklang betriebliche Einsparungen mit den Kosten für die Wartung kritischer Systeme vor Ort Wartung kritischer Systeme bereit zu lernen, wie Sie bei der Umstellung auf die Cloud finanziell fundierte Entscheidungen treffen Lassen Sie uns nun in Lektion drei die Kosten-Nutzen-Analyse der Cloud-Migration untersuchen . 8. Lektion 3: Kosten-Nutzen-Analyse der Cloud-Migration: Lektion drei, Kosten-Nutzen-Analyse der Cloud-Migration. Willkommen zu Lektion drei von Modul zwei, in der wir uns mit der finanziellen Seite der Migration von Workloads von Ihrem Mainframe in die Cloud befassen Migration von Workloads von Ihrem Mainframe in die Als Leiter der IT-Infrastruktur, ein Mainframe-Modernisierungsprojekt leitet, kennt William die betrieblichen Vorteile der Cloud. Er muss aber auch abwägen, ob die finanziellen Kosten mit den Zielen der Organisation in Einklang mit den Zielen der Organisation In dieser Lektion helfen wir Ihnen bei der Beantwortung einer wichtigen Frage. Ist die Migration bestimmter Workloads in die Cloud die Kosten wert? Die Cloud verspricht zwar Skalierbarkeit, Flexibilität und Kosteneinsparungen, es gibt wichtige Vorabkosten, versteckte Ausgaben und langfristige Investitionen, die Wartung kritischer Systeme auf Ihrem Mainframe zu verstehen es wichtig, das Gleichgewicht zwischen den betrieblichen Einsparungen durch die Cloud und den laufenden Kosten Wartung kritischer Systeme auf die Wartung kritischer Systeme auf Ihrem Mainframe fundierte Geschäftsentscheidungen treffen zu können, ist es wichtig, das Gleichgewicht zwischen den betrieblichen Einsparungen durch die Cloud und den laufenden Kosten für Am Ende dieser Lektion werden Sie in der Lage sein, die Kostenauswirkungen der Verlagerung von Workloads von Mainframe - in Cloud-Umgebungen zu untersuchen die Kostenauswirkungen der Verlagerung von Workloads von Mainframe und das Gleichgewicht zwischen potenziellen betrieblichen Einsparungen in der Cloud und den Kosten für die Wartung von Mainframe-Systemen vor Ort zu verstehen potenziellen betrieblichen Einsparungen in der Cloud und den Kosten für die Wartung von Mainframe-Systemen vor Ort Lass uns anfangen. Die Kosten der Cloud-Migration, was Sie wissen müssen. Vorabkosten der Migration. Die Migration von Workloads von einem Mainframe in die Cloud ist nicht ohne Die Cloud kann zwar zu langfristigen Einsparungen führen, doch um diese zu erreichen , sind Investitionen in Infrastruktur, Planung und Ausführung erforderlich Infrastruktur, Planung und Ausführung Hier finden Sie eine Aufschlüsselung der üblichen Vorabkosten, mit denen Sie rechnen müssen Erstens: Migrationsstrategie und Planung. Die Entwicklung einer Cloud-Migrationsstrategie erfordert Zeit und Fachwissen. Möglicherweise müssen Sie in Berater oder Cloud-Migrationsexperten investieren , um eine detaillierte Roadmap zu erstellen , die auf Ihre Geschäftsziele abgestimmt Dies hat Auswirkungen auf die Kosten. Die Beauftragung externer Unterstützung für Planung und Strategie kann teuer sein, verringert jedoch das Risiko kostspieliger Fehler während des Migrationsprozesses. Zweitens: Rehosting, Refactoring oder Austausch von Anwendungen. Einige Workloads können verschoben und in die Cloud verlagert oder erneut gehostet werden , während andere umgestaltet oder komplett neu geschrieben werden müssen, um effektiv neu geschrieben Auswirkungen auf die Kosten. Das Refactoring älterer Anwendungen kann zeitaufwändig und teuer sein Wenn Sie sich dazu entschließen, Anwendungen von Grund auf neu zu schreiben, fallen zusätzliche Entwicklungs - und Drittens, Datenübertragung und Cloud-Setup. Übertragung von Daten von Ihrem lokalen Mainframe in die Cloud ist mit Datenübertragungskosten verbunden, insbesondere wenn es sich um große Datenmengen handelt Außerdem erheben Cloud-Anbieter wie AWS Gebühren für ausgehende Daten. Das bedeutet, dass Gebühren anfallen, wenn Sie Daten aus ihren Cloud-Diensten verschieben z. B. zwischen Regionen oder von der Cloud Daten aus ihren Cloud-Diensten verschieben, z. B. zwischen Regionen oder von der Cloud Nehmen wir ein Beispiel. Für das Williams-Finanzinstitut kann die Migration eines Kundenkontos in die Cloud sichere Datenübertragungsmechanismen erfordern, um die Einhaltung gesetzlicher Vorschriften zu gewährleisten, was die Kosten in die Höhe treibt Darüber hinaus kann das Refactoring älterer Anwendungen für die Ausführung in einer modernen Cloud-Umgebung ein Entwicklerteam und mehrere Monate Aufwand erfordern ein Entwicklerteam und mehrere Monate Betriebliche Einsparungen in der Cloud, das Pay-as-you-go-Modell, zahlen nur für das, was Sie Einer der größten Vorteile der Cloud ist ihre betriebliche Kosteneffizienz durch ein Pay-as-you-go-Modell. Im Gegensatz zu einer Infrastruktur vor Ort, bei der Sie für Kapazität zahlen, unabhängig davon, ob Sie sie nutzen oder nicht, können Sie mit der Cloud nur für die Ressourcen bezahlen, die Sie tatsächlich verbrauchen. Dazu gehören Rechenleistung, Speicher, Netzwerke und mehr. Schauen wir uns einige der wichtigsten betrieblichen Einsparungen an. Die erste ist Elastizität und Skalierbarkeit. Die Cloud ermöglicht es Ihnen, Ressourcen je nach Bedarf hoch und runter zu skalieren . Das bedeutet, dass Sie saisonale Spitzen wie Steuern und für Banken bewältigen können saisonale Spitzen wie Steuern und für Banken ohne teure Hardware vor Ort übermäßig bereitstellen zu müssen. Kosteneinsparungen Sie vermeiden es, für ungenutzte Kapazität zu zahlen, was bei lokalen Infrastrukturen häufig der Fall ist Dies ist besonders vorteilhaft für Workloads mit schwankenden Anforderungen Zweitens, Ressourcenoptimierung. In einer Cloud-Umgebung können Sie Auto Scaling nutzen, um sicherzustellen, dass Sie nur genau die Menge an Ressourcen verwenden, die Sie benötigen. Darüber hinaus sorgen Spot-Instances für langfristige Workloads und Reserved Instances langfristige Workloads und Reserved Instances für langfristige Verpflichtungen für weitere Einsparungen Kosteneinsparungen. Durch die Optimierung der Nutzung von Cloud-Ressourcen können Unternehmen unnötige Ausgaben reduzieren und ihre Gesamtbetriebskosten (TCO) optimieren ihre Gesamtbetriebskosten (TCO Drittens Wartung und Infrastrukturmanagement. Bei einer Cloud verlagert sich die Verantwortung für Wartung physischer Hardware wie Server, Speichersysteme und Netzwerkausrüstung die Wartung physischer Hardware wie Server, Speichersysteme und Netzwerkausrüstung auf den Cloud-Anbieter. Dies reduziert den Bedarf an einem großen internen IT-Betriebsteam. Kosteneinsparungen. Durch die Auslagerung des Infrastrukturmanagements reduzieren Sie die Betriebskosten im Zusammenhang mit Hardwarewartung, Upgrades und physischem Speicherplatz in Ihren Rechenzentren. Nehmen wir ein Beispiel. Stellen Sie sich vor, das Finanzinstitut Williams migriert Workloads für die Stapelverarbeitung in die Cloud Anstatt zusätzliche Mainframe-Kapazitäten für ein paar Mal im Jahr aufrechtzuerhalten , wenn die Anzahl der Batch-Jobs stark ansteigt, kann die Cloud bei diesen Problemen automatisch skalieren Sobald die Verarbeitung abgeschlossen ist, die Ressourcen reduziert, wodurch die Kosten gesenkt werden nur für die Rechenleistung während der eigentlichen Auftragsausführung bezahlt während der Die laufenden Kosten für Wartung kritischer Mainframe-Systeme Die Migration einiger Workloads die Cloud wird zwar die Betriebskosten senken, es ist jedoch wichtig zu wissen, dass die Wartung kritischer Anwendungen auf Ihrem Mainframe immer noch mit erheblichen Kosten verbunden ist Nicht alle Workloads sollten in die Cloud verlagert werden, und Ihr Mainframe wird möglicherweise auch in den kommenden Jahren geschäftskritische Systeme verarbeiten geschäftskritische Systeme verarbeiten. Mainframe-Kosten Erstens die Fixkosten der Mainframe-Infrastruktur. Mainframes erfordern Vorfeld erhebliche Kapitalinvestitionen, einschließlich der Kosten für Hardware, Software und Einrichtungen für die Unterbringung der Infrastruktur Darüber hinaus muss die Mainframe-Hardware regelmäßig aktualisiert werden, was die Investitionskosten erhöht Betriebskosten. Sie müssen weiterhin ein Budget für Mainframe-Support-Teams, Hardwarewartung und Softwarelizenzierung bereitstellen ein Budget für Mainframe-Support-Teams, Hardwarewartung und Softwarelizenzierung Zweitens spezialisiertes Personal. Mainframe-Umgebungen erfordern hochqualifizierte Systemadministratoren und Mainframe-Techniker, damit alles reibungslos läuft Da sich diese Fachkräfte immer spezialisieren, kann es teuer werden, Talente zu finden und zu Betriebskosten und die Aufrechterhaltung eines engagierten Mainframe-Teams mit Fachkenntnissen in Legacy-Systemen wie COBOL werden auch weiterhin Teil Ihres IT-Budgets sein Drittens, Compliance und Sicherheit. Viele Organisationen in regulierten Branchen wie Finanzwesen müssen strenge Compliance-Standards einhalten. Aufbewahrung sensibler Daten und Echtzeit-Transaktionssysteme auf dem Mainframe kann das Compliance-Risiko verringern , das mit der Verlagerung aller Daten in die Cloud verbunden ist. sicher, dass Ihr Mainframe die Compliance-Standards erfüllt und regelmäßig geprüft wird , was Ihre Betriebskosten erhöht Balance zwischen Cloud-Einsparungen und Mainframe-Investitionen Ziel ist es, ein Gleichgewicht zwischen der Verlagerung von Workloads in die Cloud zu finden , wo Sie betriebliche Einsparungen erzielen können , und der Wartung kritischer Systeme auf dem Mainframe, wo Leistungs-, Sicherheits- und Compliance-Anforderungen dies erfordern könnten Dieser Ansatz ermöglicht es Ihnen, Ihre IT-Ausgaben zu optimieren und gleichzeitig Sicherheit und Zuverlässigkeit wichtiger Abläufe zu gewährleisten . Nehmen wir ein Beispiel. Williams-Unternehmen, das unkritische Workloads in die Cloud verlagert, wie z. B. kundenorientierte Anwendungen und Datenanalysen, kann Ressourcen freisetzen und Kosten senken Die Kosten, die wichtigsten Transaktionsverarbeitungssysteme und die Betrugserkennung in Echtzeit müssen jedoch wichtigsten Transaktionsverarbeitungssysteme und die Betrugserkennung in Echtzeit möglicherweise auf dem Mainframe verbleiben, um die Verfügbarkeit und die regulatorischen Anforderungen zu erfüllen und ein Gleichgewicht zwischen Cloud-Einsparungen und den laufenden Kosten kritischer Abläufe zu gewährleisten den laufenden Kosten kritischer Erstellung eines Kostenmodells, Berechnung der Gesamtbetriebskosten Um fundierte Entscheidungen treffen zu können, müssen Sie die Gesamtbetriebskosten (TCO) sowohl für Ihre Mainframe-Infrastruktur als auch für Ihre Cloud-Migrationsstrategie berechnen sowohl für Ihre Mainframe-Infrastruktur als auch für Ihre Cloud-Migrationsstrategie Dies hilft Ihnen, die langfristigen finanziellen Auswirkungen Ihrer IT-Investitionen zu verstehen die langfristigen finanziellen Auswirkungen Ihrer IT-Investitionen zu Schritte zur Erstellung eines TCO-Modells. Berechnen Sie zunächst die Mainframe-Kosten. Berücksichtigen Sie Investitionskosten wie Hardware- und Softwarelizenzen berücksichtigen Sie Betriebskosten wie Personal, Wartung und Stromverbrauch Vergessen Sie nicht die Kosten für Compliance und Audits oder die regulierte Umgebung — schätzen Sie die Cloud-Kosten Verwenden Sie Cloud-Rechner, die von AWS, Azure und anderen Anbietern erhältlich sind, um die Kosten für Rechenspeicher und Netzwerke auf der Grundlage Ihrer erwarteten Nutzung zu schätzen Kosten für Rechenspeicher und Netzwerke auf der Grundlage Ihrer Berücksichtigen Sie die Kosten für die Datenübertragung und alle Kosten mit der Skalierung oder Größenänderung von Workloads verbunden Berücksichtigen Sie die Migrationskosten, einschließlich des Refactorings von Anwendungen und der ersten Datenübertragung Drittens: Vergleichen Sie die Kosten im Zeitverlauf. Berücksichtigen Sie den Zeithorizont für Ihre Kostenanalyse. Zum Beispiel drei Jahre, fünf Jahre. Was sind die langfristigen Einsparungen durch die Umstellung auf die Cloud im Vergleich zur die Cloud im Vergleich zur Wartung der Infrastruktur vor Ort? Berücksichtigung potenzieller Kostenspitzen wie Hardware-Aktualisierungszyklen oder Cloud-Nutzung Nehmen wir ein Beispiel. William kann anhand eines Gesamtbetriebskostenmodells die Kosten vergleichen, die entstehen, wenn Kernbankanwendungen auf dem Mainframe verbleiben, und die Kosten für die Verlagerung unkritischer Workloads wie Kundenanalysen in die Cloud Durch die Berechnung der laufenden Betriebskosten für die Wartung älterer Systeme und der potenziellen Einsparungen durch Cloud-Elastizität kann er ermitteln, welche Workloads in einer Hybrid-Cloud-Umgebung den größten Nutzen bieten in einer Hybrid-Cloud-Umgebung den größten Nutzen Zu den wichtigsten Erkenntnissen aus dieser Lektion gehören die folgenden. Erstens umfassen die Vorabkosten der Cloud-Migration Planung, Refactoring und Datenübertragung Diese werden jedoch häufig durch betriebliche Einsparungen in der Cloud durch Elastizität und Ressourcenoptimierung ausgeglichen betriebliche Einsparungen in der Cloud durch Elastizität und Zweitens müssen die laufenden Mainframe-Kosten wie die Wartung von Hardware, wie die Wartung von Hardware, Spezialsoftware und Compliance gegen die potenziellen Einsparungen durch die Cloud-Migration abgewogen werden gegen die potenziellen Einsparungen durch die Cloud-Migration abgewogen Einsparungen durch die Cloud-Migration abgewogen Drittens hilft der Aufbau eines Gesamtbetriebskosten - oder Gesamtbetriebskostenmodells dabei die langfristigen finanziellen Auswirkungen Ihrer Migrationsstrategie zu quantifizieren und sicherzustellen, dass Sie fundierte, kosteneffiziente Lernaktivität, Reflexion. Betrachten Sie Ihre aktuellen Mainframe-Workloads. Welche Workloads scheinen Kosteneffizienz der Cloud-Migration profitieren Welche sind aufgrund kritischer Leistungs- oder Sicherheitsanforderungen am besten geeignet, um auf dem Mainframe zu bleiben aufgrund kritischer Leistungs- oder Sicherheitsanforderungen am besten geeignet, um Im Forum gestellte Diskussionsfrage. Wie bewertet Ihr Unternehmen derzeit die Kosten des Mainframe-Betriebs im Vergleich zur Cloud-Infrastruktur Mit welchen Herausforderungen rechnen Sie bei der Berechnung Ihrer Gesamtbetriebskosten Nächste Lektion, technische Machbarkeit der Cloud-Integration. In der nächsten Lektion werden wir uns mit den technischen Herausforderungen befassen, die Verlagerung von Workloads in die Cloud verbunden sind, wie z. B. den Umgang mit veraltetem Code, Bewertung der Systemkompatibilität und Berücksichtigung von Modernisierungsansätzen wie Rehosting, Refactoring Refactoring bereit, die technische Hürde der Cloud-Integration zu überwinden, fahren wir mit Lektion vier fort und untersuchen, wie Sie die technische Durchführbarkeit Ihrer Cloud-Migrationsstrategie bewerten können Sind wir bereit, die technische Hürde der Cloud-Integration zu überwinden, fahren wir mit Lektion vier fort und untersuchen, wie Sie die technische Durchführbarkeit Ihrer Cloud-Migrationsstrategie bewerten können. 9. Lektion 4: Technische Machbarkeit für die Cloud-Integration: Lektion vier, technische Machbarkeit der Cloud-Integration. Willkommen zurück zu Modul zwei unseres Kurses zur Bewertung älterer Systeme für die Cloud-Integration. In dieser Lektion konzentrieren wir uns auf einen der wichtigsten Aspekte Ihrer Cloud-Migration, die technische Machbarkeit. Als William, der Leiter der IT-Infrastruktur, vor einem Mainframe-Modernisierungsprojekt steht, wissen Sie bereits, welchen Wert die Cloud bietet Bevor Sie das tun können, müssen Sie jedoch unbedingt die technischen Herausforderungen abschätzen , die mit der Verlagerung von Altsystemen in die Cloud verbunden sind Verlagerung von Altsystemen in die Cloud Legacy-Systeme, insbesondere solche, die mit Cobalt, EL oder einer anderen älteren Sprache betrieben EL oder einer anderen älteren Sprache stellen besondere Herausforderungen dar, wenn es um die Cloud-Integration geht. Am Ende dieser Lektion werden Sie in der Lage sein, die technischen Herausforderungen wie Legacy-Code, Leistungsanforderungen und Systemkompatibilität bei der Cloud-Migration zu bewerten Leistungsanforderungen und Modernisierungsansätze, Rehosting, Refactoring und den Austausch von Anwendungen zu untersuchen, Refactoring und den Austausch von Anwendungen um Ihnen bei der Entscheidung für die beste Strategie für jeden Workload zu helfen Lassen Sie uns in die Einzelheiten der technischen Machbarkeit eintauchen . Bewertung der technischen Herausforderungen in Altsystemen. Wenn eine Cloud-Migration in Betracht gezogen wird, einer der ersten Schritte darin, die technischen Hindernisse zu identifizieren , die den Prozess verlangsamen oder erschweren könnten Ältere Systeme sind oft stark bestimmte Hardware angepasst und optimiert , was die Migration zur Cloud zu einer komplexen Aufgabe macht Ein veralteter Code, der sich in alten Sprachen zurechtfindet. Mainframes verlassen sich oft auf Legacy-Code, der vor Jahrzehnten in Sprachen wie CBO, PL One oder Assembler geschrieben wurde PL One Diese Sprachen sind zwar immer noch leistungsfähig, wurden aber nicht für Cloud-Umgebungen entwickelt Tatsächlich sind sie oft eng an die spezifische Hardware gebunden, auf der sie ausgeführt werden, was die Migration in eine virtualisierte Cloud-Umgebung zu einer Herausforderung Die Herausforderung besteht darin, Legacy-Code zu überarbeiten kann zeitaufwändig und kostspielig sein, insbesondere wenn es an internem Fachwissen mangelt Es kann auch schwierig sein, Entwickler mit fundierten Kenntnissen dieser älteren Sprachen dieser älteren Sprachen zu finden, da viele dieser Talente kurz vor dem Ruhestand stehen Nehmen wir ein Beispiel. Williams Team verwendet möglicherweise ein CBL-basiertes Transaktionsverarbeitungssystem , das täglich Millionen von Transaktionen abwickelt Dieses System wurde auf die spezifische Hardware des Mainframes zugeschnitten , und die Verlagerung in die Cloud würde wahrscheinlich umfangreiche Umgestaltungen erfordern, um die Cloud würde wahrscheinlich umfangreiche Umgestaltungen erfordern effizient in der Cloud-Infrastruktur zu arbeiten effizient B, Leistung, passende Mainframe-Rechenleistung. Mainframes sind für die Verarbeitung von Hochgeschwindigkeitstransaktionen mit hohem Volumen zuständig Bei Anwendungen, die Tausende von Transaktionen pro Sekunde verarbeiten , ist Leistung nicht Die Cloud kann skaliert werden, um viele Workloads zu bewältigen, aber es ist ein allgemeines Anliegen, sicherzustellen, dass die Cloud-Infrastruktur mit der Rechenleistung und Zuverlässigkeit eines Mainframes mithalten kann die Cloud-Infrastruktur mit der Rechenleistung und ist ein allgemeines Anliegen, sicherzustellen, dass die Cloud-Infrastruktur mit der Rechenleistung und Zuverlässigkeit eines Mainframes Die Herausforderung besteht darin, dass Cloud-Umgebungen horizontale Skalierung verwenden. Das bedeutet, dass mehr Server hinzugefügt werden, wohingegen Mainframes auf vertikale Skalierung angewiesen sind Das bedeutet, die Leistung einer einzelnen Maschine zu erhöhen. Dieser Unterschied in der Architektur kann zu Leistungsproblemen führen , wenn die Cloud nicht richtig für Workloads optimiert ist , die einen hohen Durchsatz und eine geringe Latenz erfordern Nehmen wir ein Beispiel. Stellen Sie sich vor, die Williams-Organisation betreibt ein Echtzeit-Zahlungssystem auf dem Mainframe Das System verarbeitet Tausende von Kreditkartentransaktionen pro Sekunde Verlagerung dieser Arbeitslast in die Cloud kann zu Leistungsengpässen führen, wenn die Cloud-Infrastruktur nicht darauf abgestimmt ist, dieselbe Transaktionsintensität zu bewältigen C, Systemkompatibilität. Kann es mit einer Cloud funktionieren? Eine weitere Herausforderung besteht darin, sicherzustellen, dass Ihre vorhandenen Systeme und Software mit Cloud-Umgebungen kompatibel sind. Viele ältere Anwendungen sind eng in andere Systeme, Datenbanken oder APIs integriert , die möglicherweise nicht einfach auf Cloud-Plattformen übertragen werden können. Die Herausforderung besteht darin, sicherzustellen, dass alle miteinander verbundenen Systeme, z. B. Datenbanken oder externe Geräte weiterhin wie vorgesehen funktionieren , sobald ein Teil der Infrastruktur in die Cloud verlagert wurde. Möglicherweise stoßen Sie auch auf Schwierigkeiten mit Softwarelizenzen, die Cloud-basierte Bereitstellungen nicht zulassen Nehmen wir ein Beispiel. William verwaltet möglicherweise ein Kernbankensystem , das in Zahlungsabwickler von Drittanbietern und externe Compliance-Tools integriert Zahlungsabwickler von Drittanbietern ist. Wenn diese Abhängigkeiten nicht vollständig Cloud-kompatibel sind, könnte die Umstellung zu Störungen kritischer Geschäftsfunktionen führen zu Störungen kritischer Geschäftsfunktionen Erkundung von Modernisierungsansätzen. Es gibt verschiedene Strategien, mit denen Sie migrieren Ihre Altsysteme modernisieren und in die Cloud Diese reichen vom einfachen Rehosting hin zur vollständigen Neuarchitektur von Anwendungen Die Wahl des richtigen Ansatzes hängt von der Komplexität der Anwendung, den Geschäftsanforderungen und der technischen Machbarkeit Der erste ist das Rehosting oder der sogenannte Lift-and-Shift-Ansatz Beim Rehsting, auch bekannt als Lift and Shift Anwendungen in die Cloud verschoben ohne wesentliche Änderungen am Code vorzunehmen Dieser Ansatz ist in der Regel der schnellste und kostengünstigste, aber möglicherweise nicht alle Vorteile der Cloud-Funktionen Es eignet sich am besten für Anwendungen , die nicht neu konzipiert werden müssen und unverändert in einer Cloud-Umgebung ausgeführt werden können Rhosting ist nützlich, wenn Sie schnell migrieren müssen und nur wenig Zeit oder Budget für größere Änderungen zur Verfügung haben oder Budget für größere Nehmen wir ein Beispiel. Die Organisation Williams könnte ihre Stapelverarbeitungssysteme in der Cloud hosten , wo sie keine hohe Leistung oder wesentliche Änderungen benötigen , um die Vorteile der Cloud-Infrastruktur nutzen zu können. Auf diese Weise kann das Unternehmen schnell handeln und gleichzeitig eine komplette Systemüberholung vermeiden An zweiter Stelle steht das Refactoring, die Optimierung für die Cloud. Beim Refactoring wird die bestehende Codebasis geändert um sie besser an die Cloud-Umgebung anzupassen Auf diese Weise können Sie die Anwendung im Hinblick auf Skalierbarkeit, Belastbarkeit und Cloud-native Funktionen optimieren , Belastbarkeit und Cloud-native Funktionen zwar zeitaufwändiger als ein Rehosting, Refactoring ist zwar zeitaufwändiger als ein Rehosting, kann aber langfristige Vorteile bieten Es eignet sich am besten für geschäftskritische Anwendungen , die Cloud-native Funktionen wie automatische Skalierung, Redundanz und nutzen müssen Cloud-native Funktionen wie automatische Skalierung, Redundanz Nehmen wir ein Beispiel. Für Transaktionsverarbeitungssysteme von Williams kann ein Refactoring erforderlich sein, um sicherzustellen, dass die Anwendung in der Cloud skaliert werden kann und gleichzeitig eine hohe Leistung Die umgestaltete Anwendung kann Cloud-native Dienste wie AWS Lambda oder serverlose Funktionen oder Amazon RDS oder skalierbares Datenbankmanagement nutzen AWS Lambda oder serverlose Funktionen oder Amazon RDS oder skalierbares Datenbankmanagement Cloud-native Dienste wie AWS Lambda oder serverlose Funktionen oder Amazon RDS oder skalierbares Datenbankmanagement nutzen. Die dritte ersetzt oder fängt neu an. In einigen Fällen kann es sinnvoll sein , ältere Anwendungen vollständig zu ersetzen. Dies beinhaltet den Aufbau oder die Anpassung einer neuen Cloud-nativen Anwendung , die das alte System ersetzt. Dies ist zwar oft die teuerste und zeitaufwändigste Option, kann aber langfristig den größten Nutzen bieten. Sie eignet sich am besten für Anwendungen , die sich nur schwer umgestalten lassen oder die nicht mehr den Anforderungen des Unternehmens Austausch ist ideal , wenn eine neue Lösung eine deutlich verbesserte Funktionalität und Leistung bieten kann deutlich verbesserte Funktionalität und Leistung bieten verbesserte Funktionalität und Leistung Das Williams-Team könnte beispielsweise erwägen, ein veraltetes internes Berichtssystem durch eine moderne cloudbasierte Analyseplattform wie AWS, Red Shift oder Google BigQuery zu ersetzen ein veraltetes internes Berichtssystem durch eine moderne cloudbasierte Analyseplattform wie AWS, , bessere Einblicke zu erhalten, Leistung zu verbessern und die Abhängigkeit von veralteter Technologie zu verringern Abhängigkeit von veralteter Die vierte ist die Neuausrichtung der Plattform, die irgendwo dazwischen liegt Ein hybrider Ansatz zwischen Rehosting und Refactoring ist das Re-Platforming, bei dem Sie einige kleine Änderungen vornehmen, um die Anwendung für die Cloud zu optimieren , ohne ein vollständiges Refactoring durchführen ohne Dies könnte die Umstellung auf einen verwalteten Dienst beinhalten, anstatt einfach die Infrastruktur zu einen verwalteten Dienst beinhalten, anstatt migrieren. Dies ist am besten für Anwendungen geeignet, die von einigen Cloud-nativen Funktionen profitieren könnten , aber keine vollständige Neuarchitektur benötigen. Nehmen wir ein Beispiel Williams Team könnte eine ältere Datenbank auf eine neue Plattform umstellen, indem es sie zu Amazon RDS, einem verwalteten Datenbankservice, verschiebt . Dies würde den Aufwand für die Verwaltung der Datenbank reduzieren und gleichzeitig von der Cloud-Skalierbarkeit profitieren Wichtige Überlegungen für jeden Ansatz. Entscheidung, ob Sie Ihre Legacy-Anwendungen rehosten , umgestalten oder ersetzen sollten, Bei der Entscheidung, ob Sie Ihre Legacy-Anwendungen rehosten, umgestalten oder ersetzen sollten, sollten Sie mehrere wichtige Überlegungen berücksichtigen Der erste ist der Zeitrahmen. Rhosting bietet den schnellsten Migrationspfad, jedoch möglicherweise nicht die langfristigen Leistungsvorteile eines Refactorings Refactoring nimmt mehr Zeit in Anspruch, optimiert jedoch Anwendungen im Hinblick auf die Elastizität und Skalierbarkeit der Cloud Das Refactoring nimmt mehr Zeit in Anspruch, optimiert jedoch Anwendungen im Hinblick auf die Elastizität und Skalierbarkeit der Cloud . Das Ersetzen erfordert einen erheblichen Zeitaufwand da neue Anwendungen erstellt oder angepasst werden müssen Zweitens sind es die Kosten. Rehosting ist kurzfristig am kostengünstigsten, aber möglicherweise nicht die Kosten auf lange Sicht Refactoring erfordert eine Vorabinvestition in die Entwicklung, kann jedoch zu erheblichen betrieblichen Einsparungen in der Cloud führen betrieblichen Einsparungen Ein Austausch ist zwar mit den höchsten Vorabkosten verbunden, kann aber den größten Nutzen bringen, wenn ältere Systeme aktualisiert werden oder sich dem Ende ihrer Nutzungsdauer nähern Drittens ist das Risiko. Rhosting birgt das Listenrisiko, da Sie die Anwendung nicht ändern, aber es verbessert möglicherweise weder die Leistung noch die Sicherheit Refactoring birgt ein gewisses Risiko während des Migrationsprozesses, das jedoch durch sorgfältige Planung gemindert werden kann Ersetzen ist mit dem größten Risiko verbunden, da Sie Systeme, auf die sich das Unternehmen möglicherweise verlassen kann, komplett überarbeiten Das Ersetzen ist mit dem größten Risiko verbunden, da Sie Systeme, auf die sich das Unternehmen möglicherweise verlassen kann, komplett überarbeiten. Eine sorgfältige Planung des Übergangs ist von entscheidender Bedeutung. den wichtigsten Erkenntnissen aus dieser Lektion gehören Technische Herausforderungen wie Legacy-Code, Leistungsanforderungen und Systemkompatibilität müssen vor der Migration zur Cloud bewertet werden Diese Hindernisse können sich auf die Durchführbarkeit der Cloud-Migration auswirken die Durchführbarkeit der Cloud-Migration Zweitens sind Rehosting, Refactoring und Replacement drei gängige Modernisierungsansätze, die jeweils mit unterschiedlichen Kosten, jeweils mit unterschiedlichen Kosten, Risiken und Die Wahl des richtigen Ansatzes hängt von Ihren spezifischen geschäftlichen und Drittens erfordert eine erfolgreiche Cloud-Migration eine sorgfältige Planung, um Geschwindigkeit, Kosten und Leistung in Einklang zu bringen und sicherzustellen, dass die technische Machbarkeit jeder Anwendung gründlich geprüft wird. Erwerbstätigkeit, Reflexion. Sehen Sie sich die Anwendungen an, die Sie für eine Cloud-Migration in Betracht ziehen. Sind sie besser für Rehosting, Refactoring oder Ersatz geeignet ? Berücksichtigen Sie den Zeit -, Kosten - und Risikoaufwand jedes Ansatzes Diskussion, Frage, Beitrag im Forum. Welche technischen Herausforderungen erwarten Sie bei der Migration Ihrer Altsysteme in die Cloud Wie planen Sie, diese Herausforderungen zu bewältigen? Nächste Lektion: Strategische Planung für die Hybrid-Cloud-Integration. Im nächsten Modul werden wir uns damit befassen, wie die Hybrid-Cloud-Integration strategisch geplant werden kann. In der ersten Lektion von Modul drei lernen wir, wie Sie geschäftliche und technische Ziele für die Hybrid-Cloud-Anpassung definieren geschäftliche und technische Ziele für und sicherstellen , dass Ihre Strategie mit umfassenderen Unternehmenszielen wie Skalierbarkeit und Innovation übereinstimmt umfassenderen Unternehmenszielen wie Skalierbarkeit und Sie bereit sind, mit der Entwicklung Ihrer Hybrid-Cloud-Strategie zu beginnen, wir mit Modul drei fort und stellen Sie sicher, dass Ihr Migrationsplan Ihren Geschäftszielen entspricht. Ein 10. Lektion 1: Strategische Planung für die Hybrid Cloud-Integration: Willkommen zur Modulstudie Entwurf einer Hybrid-Cloud-Strategie und -Architektur. Dieses Modul konzentriert sich auf Entwicklung einer maßgeschneiderten Hybrid-Cloud-Strategie. Die Teilnehmer lernen, hybride Umgebungen zu entwerfen, einschließlich der Frage, welche Dienste lokal und welche in der Cloud gehostet werden sollen. Sie werden sich auch mit K-Entwurfsmustern und Tools für Hybridumgebungen befassen , Schwerpunkt insbesondere auf der AWS-Integration liegt. Lektion eins, strategische Planung für die Hybrid-Cloud-Integration. Willkommen zu Modul drei Ihrer Hybrid-Cloud-Reise. In diesem Modul legen wir zunächst den Grundstein für eine erfolgreiche Hybrid-Cloud-Strategie. Der erste Schritt beim Entwurf einer Hybrid-Cloud-Architektur ist die strategische Planung, sichergestellt wird, dass Ihre Cloud-Integrationsziele mit Ihren allgemeinen Geschäftszielen übereinstimmen. Für jemanden wie William, unseren Direktor für IT-Infrastruktur, bedeutet dies, klare Ziele zu definieren , wie die Hybrid Cloud dem Unternehmen zugute kommen und sowohl den kurzfristigen Betrieb als auch das langfristige Wachstum unterstützt . Am Ende dieser Lektion werden Sie in der Lage sein, geschäftliche und technische Ziele für die Einführung der Hybrid Cloud zu definieren . Um zu verstehen, wie wichtig es ist, Ihre Hybrid-Cloud-Strategie an umfassenderen Geschäftszielen wie Skalierbarkeit, Innovation und Kosteneffizienz auszurichten Ihre Hybrid-Cloud-Strategie an umfassenderen Geschäftszielen wie Skalierbarkeit, Innovation und Kosteneffizienz Definition geschäftlicher und technischer Ziele oder Einführung einer Hybrid-Cloud erfolgreiche Hybrid-Cloud-Strategie beginnt mit einer klaren Definition Ihrer geschäftlichen und technischen Ziele. der Umstellung auf die Cloud geht es nicht nur um die Einführung neuer Technologien. Es geht darum sicherzustellen , dass die Technologie die Mission und die langfristigen Ziele Ihres Unternehmens unterstützt . Hallo, Geschäftsziele. Was möchtest du erreichen? Geschäftsziele liefern ein Warum hinter Ihrer Hybrid-Cloud-Strategie. Diese Ziele konzentrieren sich auf das, was das Unternehmen durch die Integration von Cloud-Technologien in Mainframe-Systeme erreichen Cloud-Technologien in Mainframe-Systeme Hier sind einige typische Geschäftsziele, auf die Unternehmen wie Williams konzentrieren könnten Skalierbarkeit, das ist die Fähigkeit, IT-Ressourcen schnell und kostengünstig zu erweitern IT-Ressourcen schnell und , wenn das Unternehmen wächst. Beispielsweise kann eine Hybrid-Cloud in Zeiten hoher Besucherzahlen, wie z. B. in der Weihnachtszeit, dazu beitragen, kundenorientierte Anwendungen zu skalieren und gleichzeitig Kernbankbetrieb auf dem Mainframe stabil zu halten Innovation, die eine schnellere Entwicklung neuer Dienstleistungen und Produkte Die Cloud kann als Plattform für Experimentieren mit neuen Technologien wie maschinellem Lernen, Big-Data-Analysen oder Blockchain Im Bereich Finanzdienstleistungen könnte das Williams-Team beispielsweise eine Cloud nutzen, um KI-gestützte Systeme zur Betrugserkennung aufzubauen KI-gestützte Systeme zur Betrugserkennung ohne den Kernbankbetrieb auf dem Mainframe zu stören Kernbankbetrieb auf dem Kosteneffizienz, ein ausgewogenes Verhältnis der Betriebskosten bei gleichzeitiger Aufrechterhaltung einer hohen Cloud-Umgebungen bieten On-Demand-Preise, bei denen Sie nur für die Ressourcen zahlen, die Sie tatsächlich nutzen, wodurch die hohen Fixkosten für lokale Systeme vermieden werden. Williams Organization kann unkritische Workloads wie Stapelverarbeitung außerhalb der Spitzenzeiten in die Cloud verlagern und so die Gesamtkosten senken Risikomanagement zur Reduzierung betrieblicher Risiken, einschließlich Ausfallzeiten, Systemausfällen und Sicherheitsverletzungen Hybrid-Cloud-Modelle bieten Failover-Optionen , mit denen Workloads im Notfall zwischen Mainframe - und Cloud-Diensten vor Ort wechseln können im Notfall zwischen Mainframe - und Cloud-Diensten vor Ort wechseln - und Cloud-Diensten B, technische Ziele. Wie wirst du es erreichen? Technische Ziele stellen sicher, dass Ihre Hybrid-Cloud-Strategie technisch durchführbar ist und sich in ihrer Architektur an Ihre bestehende IT-Architektur Bei diesen Zielen geht es häufig um Leistung, Sicherheit und Integration Leistungsoptimierung, um sicherzustellen, dass die Hybrid Cloud sowohl für Mainframe- als auch für Cloud-basierte Workloads eine hohe Leistung bietet Workloads eine hohe Leistung sowohl für Mainframe- als auch für Cloud-basierte Für das Williams-Unternehmen bedeutet dies, sicherzustellen, dass die Transaktionsverarbeitung in Echtzeit weiterhin reibungslos auf dem Mainframe läuft und gleichzeitig die Cloud für Analysen und kundenorientierte Dienste genutzt und Sicherheit und Compliance, Aufrechterhaltung der Datensicherheit und Sicherstellung, dass die Hybrid Cloud branchenübliche Compliance-Anforderungen wie PCIDSS oder GDPR erfüllt branchenübliche Compliance-Anforderungen wie PCIDSS Organisation Williams muss sicherstellen , dass sensible Kundendaten sicher bleiben, unabhängig davon, ob sie auf dem Mainframe verarbeitet oder in der Cloud gespeichert werden Stimulus-Integration, die sicherstellt, dass die Mainframe- und Cloud-Umgebungen reibungslos zusammenarbeiten , ohne den täglichen Betrieb zu stören Dazu gehören die Konfiguration von Netzwerkverbindungen, Synchronisation von Datenflüssen und die Verwaltung von Anwendungsabhängigkeiten und die Verwaltung von Ausrichtung der Hybrid-Cloud-Strategie auf die Geschäftsziele. Eine Hybrid-Cloud-Strategie kann nur erfolgreich sein, wenn sie auf die allgemeinen Geschäftsziele Ihres Unternehmens abgestimmt allgemeinen Geschäftsziele Die Cloud ist keine Einheitslösung. Sie muss so konzipiert sein, die individuellen Bedürfnisse Ihres Unternehmens erfüllt, unabhängig davon, dass sie die individuellen Bedürfnisse Ihres Unternehmens erfüllt, unabhängig davon, ob es darum geht, das Wachstum voranzutreiben, das Kundenerlebnis zu verbessern oder die Kosten zu senken. A: Skalierbarkeit als Wettbewerbsvorteil. Für Unternehmen, die in sich schnell verändernden Märkten tätig sind, ist Skalierbarkeit von entscheidender Bedeutung. Bei Finanzdienstleistungen, bei denen die Kundennachfrage schwankt, eine skalierbare Infrastruktur ist eine skalierbare Infrastruktur der Schlüssel, um wettbewerbsfähig zu bleiben Für die Organisation Williams bedeutet die Fähigkeit, mit der Cloud schnell zu skalieren, dass sie neue Produkteinführungen wie ein neues Kreditkartenangebot unterstützen oder Verkehrsspitzen in Zeiten hoher Nachfrage auffangen kann ein neues Kreditkartenangebot unterstützen oder Verkehrsspitzen in Zeiten hoher Nachfrage auffangen Beispielsweise könnte eine Bank während eines Aktionszeitraums für ein neues Produkt eine höhere Aktivität als normal verzeichnen während eines Aktionszeitraums für ein neues Produkt eine höhere Aktivität als normal Aktionszeitraums für ein neues Produkt eine Mit der Hybrid Cloud kann William die Cloud-Infrastruktur skalieren, um die erhöhte Last zu bewältigen, ohne Änderungen am Mainframe-Kernsystem vornehmen zu müssen B, Innovation durch die Cloud. Unternehmen, die wettbewerbsfähig bleiben wollen , müssen innovativ sein. Die Cloud bietet Möglichkeiten für schnelle Experimente und Produktentwicklung ohne den Mainframe zu gefährden William könnte beispielsweise Cloud-Dienste nutzen, um neue Mobile-Banking-Funktionen zu testen neue Mobile-Banking-Funktionen oder ein Kundenbindungsprogramm zu entwickeln Beispielsweise könnte Williams Team beschließen, einen Algorithmus für maschinelles Lernen in der Cloud zu implementieren , um Kunden personalisierte Einblicke in ihr Ausgabenverhalten zu bieten Kunden personalisierte Einblicke . Durch die Beibehaltung dieser innovativen Funktion in der Cloud kann das Team schnell handeln, ohne die Einschränkungen älterer Mainframe-Systeme C, Kosteneffizienz zur Steigerung des ROI. Hybrid-Cloud-Modelle ermöglichen es Unternehmen, sich auf Kosteneffizienz zu konzentrieren und sicherzustellen, dass Ressourcen dort eingesetzt werden , wo sie am sinnvollsten sind. Cloud-Dienste ermöglichen ein Pay-as-you-go-Modell, während der Mainframe geschäftskritische Workloads mit garantierter Verfügbarkeit abwickelt geschäftskritische Workloads mit garantierter Ein Beispiel: Ein Williams-Unternehmen könnte tägliche Batch-Verarbeitungsaufträge in der Cloud ausführen und dabei von niedrigeren Kosten profitieren und gleichzeitig Mainframe-Ressourcen für die Echtzeitverarbeitung freigeben könnte tägliche Batch-Verarbeitungsaufträge in der Cloud ausführen und dabei von niedrigeren Kosten profitieren und gleichzeitig Mainframe-Ressourcen für die Echtzeitverarbeitung freigeben. Dadurch werden die Betriebskosten gesenkt und gleichzeitig sichergestellt, dass wichtige Systeme rund um die Uhr betriebsbereit bleiben B, Risikomanagement und Geschäftskontinuität. Hybrid-Cloud-Strategien tragen auch zur Verbesserung Geschäftskontinuität bei, indem sie eine schnelle Wiederherstellung nach Katastrophen oder Systemausfällen ermöglichen. Durch die Implementierung der Hybrid Cloud kann William sicherstellen, dass bei Problemen mit dem lokalen Mainframe die Cloud als Backup zur Aufrechterhaltung des Geschäftsbetriebs dienen kann als Backup zur Aufrechterhaltung des Geschäftsbetriebs Beispielsweise kann Williams Organisation im Falle einer Naturkatastrophe, die das Rechenzentrum betrifft , in dem sich der Mainframe befindet, wichtige Dienste in die Cloud verlagern und so sicherstellen, dass Kunden weiterhin auf wichtige Dienste wie Online-Banking zugreifen können wichtige Dienste in die Cloud verlagern und so sicherstellen, dass Kunden weiterhin auf wichtige Dienste wie Online-Banking zugreifen Schritte zur Definition einer erfolgreichen Hybrid-Cloud-Strategie. Um eine Hybrid-Cloud-Strategie effektiv zu definieren, ist es wichtig, einen strukturierten Ansatz zu verfolgen. Hier sind die Schritte, die William ergreifen kann, um einen strategischen Plan für die Einführung der Hybrid Cloud zu erstellen. Erstens: Führen Sie eine Analyse der Geschäftsanforderungen durch. Machen Sie sich mit den Hauptzielen der Organisation vertraut, unabhängig davon, ob es sich um Wachstum, Kosteneinsparungen oder Innovation handelt. Identifizieren Sie, welche Workloads für das Erreichen dieser Ziele am wichtigsten sind Erreichen dieser Ziele am wichtigsten Zweitens: Legen Sie technische Ziele fest. Definieren Sie die Leistungskennzahlen, Sicherheitsanforderungen und Integrationspunkte, die den Migrationsprozess leiten werden. Stellen Sie sicher, dass die Hybrid-Cloud-Umgebung skaliert und gesichert werden kann und Zeit für unternehmenskritische Anwendungen eingehalten werden kann. Drittens: Entwickeln Sie einen schrittweisen Implementierungsplan. Verlagern Sie zunächst unkritische Workloads in die Cloud, z. B. Stapelverarbeitung und Datenanalyse, gefolgt von komplexeren, eng gekoppelten Anwendungen Sorgen Sie für einen reibungslosen Übergang, indem Sie mithilfe von Pilotprojekten testen , wie gut Cloud-Ressourcen in einer Mainframe-Umgebung funktionieren F, kontinuierlich überwachen und optimieren. Sobald die Hybrid Cloud eingerichtet ist, sollten Sie wichtige Kennzahlen wie Leistung, Kosten und Skalierbarkeit überwachen , um sicherzustellen, dass die Strategie weiterhin auf die Geschäftsziele abgestimmt ist. Verfeinern und optimieren Sie die Hybrid-Cloud-Umgebung kontinuierlich , während sich das Unternehmen weiterentwickelt den wichtigsten Erkenntnissen aus dieser Lektion gehören die folgenden Erstens ist die Definition klarer geschäftlicher und technischer Ziele entscheidend um sicherzustellen, dass Ihre Hybrid-Cloud-Strategie die Wachstums -, Innovations- und Kosteneffizienzziele Ihres Unternehmens unterstützt -, Innovations- und Kosteneffizienzziele Zweitens stellt die Ausrichtung Ihres Hybrid-Cloud-Ansatzes umfassendere Geschäftsziele sicher, dass die Cloud strategisch genutzt wird, um den Betrieb zu skalieren, Innovationen voranzutreiben und Risiken zu managen Drittens sollte eine erfolgreiche Hybrid-Cloud-Strategie schrittweise eingeführt werden, wobei mit unkritischen Workloads begonnen und kontinuierlich auf Leistung und Kosteneffizienz hin überwacht werden Leistung und Erwerbstätigkeit, Reflexion. Denken Sie über die Ziele Ihrer Organisation nach. Welche Geschäftsziele würden durch eine Hybrid-Cloud-Strategie am besten unterstützt? Ziehen Sie Bereiche wie Skalierbarkeit, Innovation oder Kosteneinsparungen in Betracht. Diskussionsfrage, Beitrag im Formular. Welche Geschäftsziele sollten Ihrer Meinung nach bei der Entwicklung einer Hybrid-Cloud-Strategie für Ihr Unternehmen priorisiert werden? bei der Entwicklung einer Hybrid-Cloud-Strategie für Ihr Unternehmen Wie kann die Cloud Ihnen helfen, diese Ziele zu erreichen? Nächste Lektion, Architekturmuster für das Hybrid-Cloud-Design. In der nächsten Lektion werden wir die verschiedenen Architekturmuster für das Hybrid-Cloud-Design untersuchen die verschiedenen Architekturmuster . Sie lernen die Ansätze Data First, Process First und Lift and Shift kennen und erfahren, wie Sie das richtige Muster für die Bedürfnisse Ihres Unternehmens auswählen können. bereit, die Architektur hinter einer erfolgreichen Hybrid Cloud zu erkunden , und fahren wir mit Lektion zwei von Modul drei fort. 11. Lektion 2: Architekturmuster für hybrides Cloud-Design: Lektion zwei, Architekturmuster für das Hybrid-Cloud-Design. Willkommen zu Lektion zwei von Modul drei, in der wir uns eingehend Architekturmustern für das Hybrid-Cloud-Design befassen. Als IT-Infrastrukturdirektor wie William Ihre größte Herausforderung bei der Modernisierung von Altsystemen und Anpassung von Cloud-Technologien darin den richtigen architektonischen Ansatz zu finden Nicht alle Workloads und Anwendungen sind gleich und Ihre geschäftlichen und technischen Anforderungen bestimmen welche Hybrid-Cloud-Architektur für Ihr Unternehmen am besten geeignet ist Am Ende dieser Lektion werden Sie eines der drei wichtigsten Muster der Hybrid-Cloud-Architektur verstehen : Daten zuerst, Prozess zuerst und Lift and Shift Zweitens, wann Sie die einzelnen Muster auf der Grundlage der Geschäftsziele und technischen Anforderungen Ihres Unternehmens verwenden auf der Grundlage der Geschäftsziele und sollten. In dieser Lektion erhalten Sie die Tools die richtigen Architekturentscheidungen treffen und sicherstellen können, dass sich Ihre Hybrid Cloud nahtlos in Ihre Mainframe-Systeme integrieren lässt und gleichzeitig Skalierbarkeit, Innovation und Leistung unterstützt Skalierbarkeit, Innovation und Leistung Data First-Ansatz, Zentralisierung des Datenmanagements. Was ist der Data-First-Ansatz? Der Ansatz, bei dem Daten an erster Stelle konzentriert sich auf die Zentralisierung Datenmanagements bei gleichzeitiger Aufrechterhaltung der Anwendungsverarbeitung sowohl in Mainframe- als auch in Cloud-Umgebungen Bei diesem Muster werden Daten zentral gespeichert und verwaltet, entweder auf dem Mainframe oder in der Cloud, und der Zugriff verschiedene Anwendungen, die über beide Umgebungen verteilt Dieser Ansatz wird häufig von Unternehmen mit geschäftskritischen Daten gewählt , die hochsicher und verfügbar bleiben müssen hochsicher und verfügbar bleiben müssen In diesem Fall sind Anwendungen so konzipiert, dass sie Daten von diesem zentralen Hub abrufen, unabhängig davon, ob sie in der Cloud oder vor Ort ausgeführt werden. Wann der Data-First-Ansatz verwendet werden sollte, Anforderungen an Datensicherheit und Compliance. Wenn Ihr Unternehmen mit sensiblen Daten wie Finanzunterlagen, personenbezogenen Daten von Kunden oder personenbezogenen und die Aufbewahrung der Daten sicherstellen muss, ist die Zentralisierung der Daten Konsistente Daten in allen Systemen. Dieser Ansatz stellt sicher , dass alle Anwendungen, unabhängig davon, wo sie ausgeführt werden, auf dieselben konsistenten Daten zugreifen. Wenn ein Finanzinstitut beispielsweise Kundendaten auf seinem Mainframe verarbeitet, kann es diese Daten zentral speichern und verwalten, während Cloud-basierte Dienste für Echtzeitanalysen darauf zugreifen Ein Beispiel: Das Finanzinstitut Williams könnte den Data-First-Ansatz wählen wenn es die zentrale Kontrolle über Transaktionsdaten behalten und gleichzeitig Cloud-Anwendungen ermöglichen muss , Datenanalysen , Datenanalysen Echtzeit durchzuführen Die Daten bleiben aus Sicherheitsgründen vor Ort, während Cloud-Apps sicher darauf zugreifen oder Berichte oder prädiktive Analysen ausführen können sicher darauf zugreifen oder Berichte oder prädiktive Analysen ausführen , ohne Daten an mehreren Standorten replizieren zu Daten Hauptvorteile des Data-First-Ansatzes. Erstens verbesserte Datensicherheit. Sensible Daten werden zentral verwaltet, sodass die Einhaltung gesetzlicher Standards einfacher gewährleistet werden kann. Zweitens: Konsistenz. Dies führt zu Problemen bei der Datenduplizierung oder -fragmentierung, da alle Anwendungen auf dieselbe Durchgangsquelle zugreifen Prozessorientierter Ansatz, Optimierung der Anwendungsworkflows. Was ist der prozessorientierte Ansatz? Beim prozessorientierten Ansatz verlagert sich der Fokus von den Daten auf die Geschäftsprozesse oder Anwendungsworkflows. Hier werden die Arbeitslast, die Prozesse oder der Durchlauf zwischen dem Mainframe und der Cloud verteilt , je nachdem wo sie am effizientesten ausgeführt werden können Der Mainframe übernimmt die geschäftskritische Transaktionsverarbeitung mit hohem Volumen, Transaktionsverarbeitung mit hohem Volumen während die Cloud für Workflows verwendet wird , die Elastizität, Skalierbarkeit oder Modernisierung erfordern Elastizität, Skalierbarkeit oder Modernisierung Dieses Muster wird in der Regel verwendet, wenn Unternehmen ihre wichtigsten Transaktionssysteme auf dem Mainframe behalten , die Cloud aber für Workloads wie Batch-Verarbeitung, kundenorientierte Anwendungen oder Datenanalysen nutzen Workloads wie Batch-Verarbeitung, kundenorientierte Anwendungen Wann sollte der Process-First-Ansatz verwendet werden ? Erstens, Transaktionen mit hohem Volumen. Wenn Ihr Unternehmen stark auf die Transaktionsverarbeitung in Echtzeit angewiesen ist, z. B. bei Finanztransaktionen, sollten Sie diese Prozesse auf dem Mainframe belassen und gleichzeitig die Cloud für andere Aufgaben nutzen Zweitens: Workflow-Segmentierung: Anwendungen, die in kleinere Workflows oder Aufgaben unterteilt werden können , von denen einige in der Cloud ausgeführt werden können , profitieren von Nehmen wir ein Beispiel. Williams Bank könnte sich für den Prozess-First-Ansatz entscheiden , um die Kernbanktransaktionen auf dem Mainframe zu speichern , wo sie mit der erforderlichen Zuverlässigkeit und Sicherheit verarbeitet werden können der erforderlichen Zuverlässigkeit und Sicherheit Derweil könnten kundenorientierte Anwendungen wie die Mobile-Banking-App in der Cloud laufen und auf Transaktionsdaten vom Mainframe zugreifen, auf Transaktionsdaten vom Mainframe zugreifen, aber weniger kritische Workloads in Cloud-Umgebungen auslagern aber weniger kritische Workloads in Cloud-Umgebungen auslagern. Hauptvorteile des Process-First-Ansatzes. Erstens: effiziente Ressourcenzuweisung. Jeder Prozess wird dort ausgeführt, wo er am effizientesten ist. Echtzeittransaktionen verbleiben auf dem Mainframe, während die Cloud elastische Workloads verarbeitet Zweitens: Nach der Markteinführung. Cloud-basierte Anwendungen können häufiger aktualisiert werden, was schnellere Innovationen ohne Beeinträchtigung oder Verarbeitung ermöglicht ohne Beeinträchtigung oder Verarbeitung Lift-and-Shift-Ansatz, schnelle und einfache Cloud-Migration Was ist der Lift-and-Shift-Ansatz? Der Lift-and-Shift-Ansatz beinhaltet die Migration vorhandener Anwendungen in die Cloud ohne die zugrunde liegende Architektur zu ändern Dieser Ansatz wird häufig für ältere Anwendungen verwendet , die schnell und mit minimalem Aufwand in die Cloud migriert werden müssen , wobei das Hauptziel darin besteht, die Infrastrukturkosten zu senken oder Cloud-Skalierbarkeit zu nutzen Dies ist eine gute Option für Unternehmen, die ihren Online-Fußabdruck schnell reduzieren oder Cloud-Ressourcen nutzen möchten ihren Online-Fußabdruck schnell reduzieren oder Cloud-Ressourcen nutzen , ohne Anwendungen neu zu gestalten Wann sollte der Lift-and-Shift-Ansatz verwendet werden? Erstens, es sind nur minimale Änderungen erforderlich. Wenn Ihr Unternehmen über Workloads verfügt, die mit wenigen oder gar keinen Änderungen in die Cloud verlagert werden können und das Ziel lediglich darin besteht, die Betriebskosten zu senken Dies ist eine effiziente Methode. Zwei Zeitbeschränkungen. Wenn Sie schnell handeln müssen, aufgrund von Zeitplänen für die Migration von Rechenzentren oder aufgrund von Infrastrukturbeschränkungen, kann Lift and Shift eine schnelle Lösung Ein Beispiel: Williams Team könnte sich für eine Lift-and-Shift-Lösung für unkritische Stapelverarbeitungs-Workloads entscheiden , bei denen das Unternehmen die Kosten senken kann , indem es diese Jobs in der Cloud ausführt Die Anwendung selbst wurde nicht für die Cloud neu konzipiert, sondern die bestehende Umgebung wird in einem Cloud-basierten Infrastructure-as-a-Service-IAAS-Modell wurde nicht für die Cloud neu konzipiert, sondern die repliziert einem Cloud-basierten Infrastructure-as-a-Service-IAAS-Modell Hauptvorteil des Lift-and-Shift-Ansatzes. Eine, schnelle Migration. Dies ist der schnellste Weg zur Cloud-Migration, da Sie die Anwendung nicht ändern müssen. Zweitens, reduzieren Sie das Risiko. Durch die Beibehaltung der Anwendungsarchitektur reduzieren Sie das Risiko, dass während der Migration neue Fehler oder Leistungsprobleme auftreten. Analysieren Sie, wann jedes Muster verwendet werden sollte. Das richtige Hybrid-Cloud-Architekturmuster hängt von Ihren Geschäftszielen, technischen Anforderungen und Ressourcenbeschränkungen ab. Lassen Sie uns erläutern, wie Sie entscheiden können , welcher Ansatz für verschiedene Szenarien am besten geeignet ist. Erstens: Verwenden Sie den Ansatz „Daten zuerst“, wenn Datensicherheit und Compliance Ihre Hauptanliegen sind. Zweitens benötigt Ihre Anwendung einen konsistenten, zentralen Zugriff auf wichtige Daten. Zweitens: Verwenden Sie den Prozess-First-Ansatz, wenn Sie Workflows optimieren möchten , indem Sie verschiedene Prozesse in der Cloud und vor Ort ausführen . Wenn Skalierbarkeit und Elastizität für unkritische Aufgaben wichtig sind, Kerntransaktionen jedoch auf dem Mainframe verbleiben müssen Drittens: Verwenden Sie den List-and-Shift-Ansatz, wenn Sie schnell und mit minimalen Änderungen an bestehenden Anwendungen migrieren müssen minimalen Änderungen an bestehenden Anwendungen Wenn das Ziel darin besteht, die Infrastrukturkosten zu senken , ohne die Anwendung umzugestalten den wichtigsten Erkenntnissen aus dieser Lektion gehören: Erstens konzentriert sich der Ansatz „Data First“ auf die Zentralisierung von Daten ermöglicht gleichzeitig Anwendungen in beiden Umgebungen den Zugriff auf diese Daten, gewährleistet Zweitens optimiert der prozessorientierte Ansatz die Anwendungsabläufe, sodass geschäftskritische Aufgaben vor Ort bleiben können, während andere Prozesse in die Cloud ausgelagert Drittens ist der Lift-and-Shift-Ansatz ideal für eine schnelle Migration, bestehende Anwendungen in die Cloud verschoben werden, ohne ihre Architektur zu ändern Erwerbstätigkeit, Reflexion. Überprüfen Sie Ihre aktuellen Workloads und Prozesse. Welches Hybrid-Cloud-Modell, Data First, Process First oder Lift and Shift würde die Anforderungen Ihres Unternehmens am besten erfüllen Warum? Im Forum gestellte Diskussionsfrage. Welches Hybrid-Cloud-Architekturmuster würde Ihrer Meinung nach den unmittelbarsten Nutzen für Ihr Unternehmen bieten ? Was sind die potenziellen Risiken oder Herausforderungen bei der Implementierung dieses Ansatzes? Nächste Lektion, Hybrid-Workload-Platzierung. In der nächsten Lektion werden wir besprechen, wie bestimmt werden kann, welche Anwendungen und Dienste lokal und nicht in der Cloud verbleiben sollen . Sie lernen, Workload-Merkmale wie Latenzanforderungen, Compliance-Bedenken und Leistungsanforderungen zu analysieren Workload-Merkmale wie Latenzanforderungen, , um fundierte Entscheidungen zu treffen. bereit, uns eingehender mit der Platzierung hybrider Workloads Lassen Sie uns nun zu Lektion drei übergehen und untersuchen, wie Sie entscheiden können, wo Ihre Anwendungen hingehören 12. Lektion 3: Hybride Workload-Platzierung: Lektion drei, Hybrid-Workload-Platzierung. Willkommen zurück zu Modul drei unseres Kurses zur Gestaltung einer Hybrid-Cloud-Strategie. In den vorherigen Lektionen haben wir verschiedene Architekturmuster und Strategien für die Integration Ihrer Mainframe- und Cloud-Umgebungen untersucht Strategien für die Integration Ihrer Mainframe- und Cloud-Umgebungen Heute werden wir uns in Lektion drei mit einem der wichtigsten Aspekte des Hybrid-Cloud-Designs befassen wichtigsten Aspekte des Hybrid-Cloud-Designs Platzierung hybrider Workloads. Als IT-Infrastrukturdirektor wie William müssen Sie fundierte Entscheidungen darüber treffen, müssen Sie fundierte Entscheidungen darüber treffen welche Anwendungen und Dienste lokal auf Ihrem Mainframe verbleiben und welche in die Cloud verlagert werden sollten Nicht jeder Workload eignet sich gut für die Cloud, und eine falsche Platzierung kann zu Leistungsproblemen, Sicherheitsrisiken und Kostenineffizienzen führen Sicherheitsrisiken und Kostenineffizienzen Der Schlüssel liegt darin, die Workload-Merkmale bei Entscheidungen zur Festplattenplatzierung zu verstehen die Workload-Merkmale bei Entscheidungen zur Festplattenplatzierung Am Ende dieser Lektion werden Sie wissen, wie Sie Workload-Merkmale wie Latenz, Konformität und Leistungsanforderungen bewerten Workload-Merkmale wie Latenz, , um die beste Platzierung für jede Arbeitslast zu ermitteln. Zweitens müssen Sie entscheiden, ob eine Anwendung oder Dienst lokal bleiben oder in die Cloud migriert werden soll lokal bleiben oder in die Cloud migriert werden Lass uns anfangen. Grundlegendes zu den Merkmalen der Arbeitslast Bevor Sie entscheiden , wo ein Workload platziert werden soll, müssen Sie seine wichtigsten Merkmale analysieren. Anhand dieser Merkmale können Sie beurteilen, ob eine Anwendung auf Ihrem Mainframe verbleiben oder in die Cloud migrieren sollte Ihrem Mainframe verbleiben oder in die Cloud migrieren A, Latenz, wie empfindlich reagiert Ihr Workload auf Verzögerungen? Latenz bezieht sich auf die Zeit, die Daten benötigen , um zwischen verschiedenen Systemen oder Anwendungen zu übertragen. Bei bestimmten Anwendungen kann bereits eine geringfügige Verzögerung zu schwerwiegenden Problemen führen, insbesondere bei Anwendungen, die eine Verarbeitung in Echtzeit erfordern. Empfindliche Workloads mit hoher Latenz. Diese Workloads erfordern Leistung in Echtzeit oder nahezu in Echtzeit. Bei Finanzdienstleistungen reagieren Transaktionsverarbeitungssysteme beispielsweise empfindlich auf Latenz Wenn ein Kunde eine Kreditkartenzahlung tätigt, muss das System die Transaktion sofort verarbeiten. Für diese Art von Workloads ist es oft die beste Wahl, sie auf dem Mainframe zu lassen, um eine geringe Latenz und hohe Zuverlässigkeit zu gewährleisten Tolerante Workloads mit niedriger Latenz. Andere Workloads wie Datenanalysen oder Batch-Verarbeitung können höhere Latenzen tolerieren Diese Prozesse erfordern kein sofortiges Feedback und können außerhalb der Spitzenzeiten ausgeführt werden. Sie eignen sich daher gut für die Cloud, daher gut für die wo sie effizient skaliert werden können Das Team von William kümmert sich beispielsweise um die Betrugserkennung in Echtzeit auf seinem Mainframe, da Verzögerungen bei der Identifizierung betrügerischer Aktivitäten zu erheblichen finanziellen Verlusten führen können erheblichen finanziellen Verlusten Das Tagesabschlussberichtssystem der Bank, das Transaktionsdaten aggregiert und Berichte generiert, kann jedoch das Transaktionsdaten aggregiert und Berichte generiert mit einer Latenz von einigen Minuten oder sogar Stunden laufen , was es zu einem perfekten Kandidaten für die Cloud-Migration macht B, Einhaltung der Vorschriften. Gibt es regulatorische Einschränkungen? In Branchen wie dem Finanzwesen, dem Gesundheitswesen und der Regierung spielt die Einhaltung von Vorschriften eine wichtige Rolle bei der Festlegung, wo Arbeitslasten platziert werden können Vorschriften können vorschreiben , dass bestimmte Daten vor Ort verbleiben müssen, um den Speicherort, die Sicherheit oder den Datenschutz der Daten zu gewährleisten Sensible und regulierte Workloads. Workloads, die personenbezogene Daten oder PII, Finanzdaten oder Patientenakten verarbeiten , müssen aufgrund strenger Vorschriften wie PCIDSS, HIPAA oder GDPR häufig vor Ort verbleiben strenger Vorschriften wie PCIDSS, HIPAA oder GDPR Diese Vorschriften können vorschreiben, wo Daten gespeichert werden können, wer darauf zugreifen kann In solchen Fällen kann es notwendig sein, Daten auf Ihrem Mainframe oder Ihrer privaten Cloud zu speichern , um die Einhaltung der Vorschriften sicherzustellen Nicht regulierte Workloads. Andererseits Workloads, die keine sensiblen Daten beinhalten können Workloads, die keine sensiblen Daten beinhalten, in der Regel in die Public Cloud migriert werden Dazu können kundenorientierte Anwendungen, Marketinganalysen oder interne Business Intelligence-Plattformen Nehmen wir ein Beispiel. Bei Williams Financial Institution müssen Kundenkontoinformationen auf dem Mainframe verbleiben , um den PCI-DSS-Vorschriften zu entsprechen Es wird sichergestellt, dass die Daten sicher aufbewahrt werden und die Anforderungen an den Wohnsitz erfüllt Analyse des Kundenverhaltens ohne personenbezogene Daten können jedoch Daten zur Analyse des Kundenverhaltens ohne personenbezogene Daten können jedoch in der Cloud verarbeitet werden, um Einblicke in das Ausgabenverhalten und die Trends der Kunden zu gewinnen Einblicke in das Ausgabenverhalten und die Trends der Kunden C, Leistungsanforderungen. Welche Ressourcen benötigen Ihre Anwendungen? Verschiedene Workloads erfordern unterschiedliche Mengen an Rechenleistung, Arbeitsspeicher und Speicherplatz Die Bewertung der Leistungsanforderungen Ihrer Anwendungen ist wichtig, um festzustellen, wo sie am besten funktionieren Leistungsstarke Workloads. Anwendungen, die einen hohen Verarbeitungsdurchsatz oder garantierte Verfügbarkeit erfordern oder garantierte Verfügbarkeit eignen sich häufig am besten für Mainframes Diese Systeme sind für geschäftskritische Workloads konzipiert , die eine Verfügbarkeit von 99 bis zu 9% und eine robuste Transaktionsverarbeitung erfordern 99 bis zu 9% Verfügbarkeit von 99 bis zu 9% und eine robuste Skalierbare Workloads. Workloads, die eine elastische Skalierung erfordern, wie Webanwendungen oder saisonale Batch-Jobs profitieren von der Skalierbarkeit der Cloud. Die Cloud kann Ressourcen nach Bedarf bereitstellen, sodass Sie in Zeiten mit hoher Auslastung nach oben und in langsameren Zeiten nach unten skalieren können, was zur Kostenoptimierung beiträgt Nehmen wir ein Beispiel. Das Williams-Team führt Transaktionsverarbeitung in Echtzeit auf dem Mainframe durch, da dafür eine schnelle Verarbeitung mit hoher Verfügbarkeit erforderlich ist Die kundenorientierte mobile App der Bank, die variablen Traffic erfasst, läuft jedoch in der Cloud, wo sie in geschäftigen Zeiten, wie z. B. bei Werbeaktionen, automatisch skaliert werden kann , ohne den Mainframe zu belasten den Mainframe zu belasten Entscheidend ist die Entscheidung vor Ort oder in der Cloud. wir nun die Merkmale der Workloads verstanden haben, wollen wir untersuchen, wie entschieden werden kann, wo einzelnen Workloads platziert werden sollen. A: Anwendungen, die lokal bleiben sollten. Bestimmte Workloads sind immer besser geeignet, um auf Ihrem Mainframe zu verbleiben Dazu gehören zum einen geschäftskritische Transaktionen. Jede Anwendung, die Transaktionsverarbeitung in Echtzeit abwickelt , wie ATM-Netzwerke, Zahlungsgateways oder Finanzhandelsplattformen, sollte auf dem Mainframe bleiben, wo die Latenz minimal ist und die Verfügbarkeit garantiert Zwei stark regulierte Workloads. Anwendungen, die sensible Kundendaten wie Kreditkartenverarbeitung oder Krankenakten verarbeiten , unterliegen behördlichen Beschränkungen, sollten vor Ort bleiben , um Datensicherheit und Compliance zu gewährleisten Drittens: Verarbeitung mit hohem Durchsatz. Workloads, die eine erhebliche Rechenleistung für eine schnelle Datenverarbeitung benötigen , wie z. B. die Betrugserkennung in Echtzeit sollten auf dem Mainframe verbleiben, ausgelegt ist , hohe Transaktionsvolumen mit minimaler Latenz zu bewältigen hohe Transaktionsvolumen mit minimaler B, Anwendungen, die in die Cloud migriert werden sollten. Andere Workloads eignen sich besser für die Cloud. Dazu gehört eine, nicht kritische Batch-Verarbeitung. Anwendungen, die Batch-Verarbeitung wie Tagesabschlussberichte oder umfangreiche Datenaggregationen durchführen wie Tagesabschlussberichte oder , können die Cloud verlagert werden, wo sie außerhalb der Spitzenzeiten geplant und nach Bedarf skaliert werden können Spitzenzeiten geplant und nach Bedarf skaliert Zweitens: Datenanalyse und maschinelles Lernen. Workloads, die Datenanalyse, Business Intelligence oder maschinelles Lernen beinhalten Business Intelligence oder maschinelles Lernen können in die Cloud migriert werden, um die Skalierbarkeit und Rechenleistung von Cloud-Plattformen wie AWS oder Azure zu nutzen die Skalierbarkeit und Rechenleistung von Cloud-Plattformen wie AWS oder Drei, kundenorientierte Webanwendungen. Anwendungen wie Mobile-Banking-Apps oder Kundensupport-Portale eignen sich gut für die Cloud, wo sie in Zeiten hoher Auslastung hochskaliert und in Backend-Services integriert werden können, die auf dem Mainframe ausgeführt Nehmen wir ein Beispiel. Williams Bank hält Kernbankensysteme wie Zahlungsabwicklung auf dem Mainframe Leistung und Compliance zu gewährleisten, während Mobile-Banking-Dienste in der Cloud laufen, während Mobile-Banking-Dienste in der Cloud laufen um die schwankende Nachfrage und die schwankende Nachfrage der Nutzer zu bewältigen und so das Beste aus beiden Welten zu gewährleisten, was Leistung Bewährte Methoden für die Verteilung hybrider Workloads. Bei der Festlegung der Workload-Platzierung ist es wichtig, einige bewährte Methoden zu beachten. Erstens: Beurteilen Sie die Latenz und die Leistungsempfindlichkeit. Priorisieren Sie latenzempfindliche Anwendungen für lokale Infrastrukturen immer , während weniger sensible oder weniger zeitkritische Workloads ausgelagert werden können Zweitens: Beurteilen Sie die Einhaltung von Vorschriften und Sicherheit. Stellen Sie sicher, dass alle Daten, die den Branchenvorschriften entsprechen müssen, vor Ort verbleiben Branchenvorschriften entsprechen müssen, vor Ort verbleiben , während weniger sensible Daten in die Cloud verschoben werden können. Drittens: Nutzen Sie die Cloud für mehr Flexibilität. Nutzen Sie die Cloud für skalierbare Workloads wie kundenorientierte Anwendungen, Datenanalysen und Batch-Verarbeitung, bei denen Elastizität und Kosteneffizienz entscheidend sind Nehmen wir ein Beispiel. Williams Organization verwendet diese Best Practices um zu bestimmen, welche Workloads auf dem Mainframe verbleiben sollen, z. B. leistungsstarke Transaktionsverarbeitung und welche Workloads in die Cloud migriert werden sollen, wie z. B. unkritische Batch-Verarbeitung und Kundenanalysen, um ein Gleichgewicht zwischen Sicherheit, Leistung und Skalierbarkeit zu gewährleisten Sicherheit, Leistung und Skalierbarkeit den wichtigsten Erkenntnissen aus dieser Lektion gehört, latenzempfindliche und geschäftskritische Workloads wie Transaktionsverarbeitung auf dem Mainframe verbleiben sollten , um eine geringe Latenz und eine hohe und Zweitens sollten regelkonforme Workloads, insbesondere solche, die strengen regulatorischen Anforderungen unterliegen die strengen regulatorischen Anforderungen Ort verbleiben, während nicht regulierte Workloads in die Cloud verlagert werden können Drittens: Nutzen Sie die Cloud für skalierbare, unkritische Workloads wie kundenorientierte Anwendungen und Datenanalysen bei denen Elastizität und Kostenoptimierung Erwerbstätigkeit, Reflexion und Bewertung der Arbeitsbelastung in Ihrem Unternehmen Bei denen es um Latenz- und Compliance-Anforderungen geht, sollten sie vor Ort bleiben Welche könnten von der Skalierbarkeit und Kosteneffizienz der Cloud profitieren . Im Forum gestellte Diskussionsfrage. Wie bestimmt Ihr Unternehmen derzeit, ob ein Workload vor Ort verbleiben oder in die Cloud verlagert werden soll ? Was sind die wichtigsten Faktoren, die diese Entscheidungen beeinflussen? Nächste Lektion, Auswahl des Cloud-Dienstes. In der nächsten Lektion werden wir besprechen, wie Sie die geeigneten Cloud-Dienste für Ihre Hybrid-Cloud-Strategie auswählen die geeigneten Cloud-Dienste . Sie erfahren, wie Sie zwischen Anbietern wie AWS, Azure und Google Cloud wählen können, und erfahren, welche Rolle Cloud-native Tools wie Container, Microservices und Serverlistenarchitekturen in Hybridumgebungen gespannt darauf, mehr über die Auswahl der richtigen Cloud-Dienste zu erfahren , mehr über die Auswahl der richtigen Cloud-Dienste Lassen Sie uns in Lektion vier herausfinden, wie Sie die beste Wahl für Ihre Hybrid-Cloud-Umgebung treffen können. Ähm, 13. Lektion 4: Cloud-Service-Auswahl: Lektion vier, Auswahl des Cloud-Dienstes. Willkommen zu Lektion vier von Modul drei. In dieser Lektion werden wir untersuchen, wie Sie die geeigneten Cloud-Dienste für Ihre Hybrid-Cloud-Architektur auswählen die geeigneten Cloud-Dienste können. Als IT-Infrastrukturdirektor wie William ist die Auswahl der richtigen Cloud-Plattform eine der wichtigsten Entscheidungen, die Sie während der Cloud-Modernisierung Ihres Unternehmens treffen werden. Sie müssen verstehen, wie Services von AWS, Microsoft Azure oder Google Cloud auf die Bedürfnisse Ihres Unternehmens abgestimmt sind und wie Cloud-native Tools wie Container, Microservices und serverlose Architekturen in hybriden Umgebungen genutzt werden können Am Ende dieser Lektion werden Sie in der Lage sein, die geeigneten Cloud-Dienste für Ihren Anwendungsfall und Ihre Leistungsziele auszuwählen die geeigneten Cloud-Dienste für Ihren Anwendungsfall und Ihre Zweitens sollten Sie lernen, wie Sie Cloud-native Tools wie Container, Microservices und serverlose Architekturen in Ihre Hybrid-Cloud-Umgebung integrieren Microservices und serverlose Architekturen in Ihre Hybrid-Cloud-Umgebung Lassen Sie uns eintauchen. Auswahl der richtigen Cloud-Plattform, AWS, Azure oder Google Cloud. Die drei großen Cloud-Anbieter, Amazon Web Services oder AWS, Microsoft Azure und Google Cloud Platform oder GCP, bieten jeweils eine breite Palette von Diensten an, ihre Stärken unterscheiden sich jedoch je nach den spezifischen Anforderungen Ihres Unternehmens geringfügig je nach den spezifischen Anforderungen Ihres Unternehmens Die Wahl der richtigen Plattform für Ihre Hybrid-Cloud-Architektur hängt von Ihren Workload-Anforderungen, Leistungszielen und der vorhandenen Infrastruktur A, Amazon Web Services oder AWS, der Marktführer im Cloud-Bereich. AWS gilt weithin als Marktführer für Cloud-Dienste bietet eine breite Palette von Tools und Services für nahezu jeden Anwendungsfall. AWU bietet flexible, skalierbare Lösungen für Unternehmen jeder Größe und ist eine hervorragende Wahl für Unternehmen, die ein robustes Serviceangebot nutzen möchten . Stärken. AWS ist bekannt für seine Skalierbarkeit, umfangreiches Toolset und seine globale Ausrichtung. Es verfügt über einen riesigen Markt an Cloud-Diensten und -Tools, einschließlich Rechenleistung, Datenbanken und Datenspeicherung. AWS lässt sich dank Services wie AWS Outpost, die native AWS-Services in Ihre lokale Umgebung integrieren , auch gut in hybride Umgebungen native AWS-Services in Ihre lokale Umgebung integrieren , in Beste Anwendungsfälle. AWS ist ideal für Unternehmen, die Skalierbarkeit benötigen, weltweit tätig sind oder spezielle Tools wie KI-ML-Funktionen, IOT-Services oder Big-Data-Analysen benötigen spezielle Tools wie KI-ML-Funktionen, . Nehmen wir ein Beispiel. Organisation Williams könnte sich für AWS entscheiden , wenn sie nach Skalierbarkeit für Cloud-native Apps wie ihre Mobile-Banking-App sucht Skalierbarkeit für Cloud-native Apps oder die Big-Data-Tools von AWS zur Analyse von Kundentransaktionsdaten nutzen möchte. Microsoft Azure eignet sich am besten für die Hybridintegration. Microsoft Azure ist bekannt für seine tiefe Integration mit lokalen Systemen und Unternehmensanwendungen, insbesondere für Unternehmen, die bereits über eine Windows-basierte Infrastruktur verfügen. Azure hat sich dank seiner robusten Hybrid-Integrationstools zu einem starken Konkurrenten im Cloud-Bereich entwickelt, insbesondere bei Hybrid-Cloud-Setups insbesondere bei Hybrid-Cloud-Setups Stärke Azure ist in Hybrid-Cloud-Umgebungen stark bietet Dienste wie Azure Arc für die Verwaltung Cloud - und lokalen Ressourcen von einer einzigen Kontrollebene aus Die enge Integration mit Microsoft-Produkten wie Active Directory, Windows Server und SQL Server macht Azure zu einer überzeugenden Wahl für Unternehmen, und SQL Server macht Azure zu einer überzeugenden Wahl die bereits auf Microsoft-Technologien setzen. Beste Anwendungsfälle. Azure ist ideal für Unternehmen, die ihre bestehenden Microsoft-Umgebungen vor Ort auf die Cloud ausweiten möchten ihre bestehenden Microsoft-Umgebungen vor Ort auf die Cloud ausweiten , z. B. für Unternehmen, die webbasierte Anwendungen oder Office 365 verwenden. Es ist auch ein starker Konkurrent für Branchen, die Hybrid-Cloud-Funktionen für die Verwaltung sowohl vor Ort als auch für Cloud-Umgebungen benötigen Hybrid-Cloud-Funktionen für Verwaltung sowohl vor Ort als auch für Cloud-Umgebungen Nehmen wir ein Beispiel. Für William wenn sein Finanzinstitut stark auf Windows-basierte Infrastruktur und Active Directory angewiesen ist, wäre Azure eine hervorragende Wahl, wenn sein Finanzinstitut stark auf Windows-basierte Infrastruktur und Active Directory angewiesen ist, um seine Hybridumgebung zu verwalten und eine seine Hybridumgebung zu verwalten und nahtlose Integration zwischen seinen Mainframe- und Cloud-Anwendungen sicherzustellen seinen Mainframe- und Cloud-Anwendungen Google Cloud Platform oder GCP, der Innovator im Bereich Daten Google Cloud ist vor allem für seine führende Position in den Bereichen Datenanalyse, maschinelles Lernen und KI bekannt seine führende Position in den Bereichen Datenanalyse, maschinelles Lernen und KI Die Cloud-Dienste von Google bieten eine Reihe von Tools , die für die Datenverarbeitung und -analyse hochoptimiert sind , was sie zu einer guten Wahl für Unternehmen macht , die modernste Technologien nutzen möchten . Stärken. GCP zeichnet sich durch Datenmanagement, Analytik und maschinelles Lernen Dienste wie Big Query, Data Flow und AutoML machen GCP zur Plattform für datenintensive Workloads und AutoML machen GCP zur idealen Plattform für datenintensive Workloads und KI-gestützte Innovationen. GCP ist auch bekannt für seine entwicklerfreundlichen Tools und Open-Source-Integrationen Beste Anwendungsfälle. Google Cloud eignet sich am besten für Unternehmen, die sich auf Datenanalysen, KI-ML-Projekte oder Datenverarbeitung in Echtzeit konzentrieren . Aufgrund seiner Flexibilität und Open-Source-Unterstützung ist es eine hervorragende Wahl für Unternehmen, die schnell innovieren möchten Nehmen wir ein Beispiel. Das Williams-Team kann sich für GCP entscheiden , wenn es sich auf Big-Data-Analysen konzentriert oder die Implementierung fortschrittlicher Modelle für maschinelles Lernen plant , um Erkenntnisse aus Kundendaten Die Tools von ApS würden der Bank helfen, riesige Mengen an Kundentransaktionsdaten für personalisiertes Marketing und Betrugserkennung zu analysieren von ApS würden der Bank helfen, riesige Mengen an Kundentransaktionsdaten für personalisiertes Marketing und Betrugserkennung Cloud-native Tools für hybride Umgebungen. In einer Hybrid-Cloud-Architektur ist es entscheidend, Cloud-native Tools zu nutzen, die Flexibilität, Skalierbarkeit und Effizienz bieten. Klicken Sie auf drei wichtige Cloud-native Technologien: Container, Microservices und serverlose Architekturen Diese Tools wurden entwickelt, um die Agilität und Leistung in einer Hybridumgebung zu verbessern Agilität und Leistung in einer Hybridumgebung nahtlose Integration zwischen Ihren Mainframe-Systemen vor Ort und Cloud-Diensten A, Container, Portabilität und Konsistenz. Container, wie sie beispielsweise von Docker verwaltet und von Kubernetis orchestriert werden , ermöglichen es Ihnen, Anwendungen mit ihren Abhängigkeiten in isolierte Umgebungen zu packen Anwendungen mit ihren Container sind portabel, leicht und ermöglichen einen konsistenten Betrieb in verschiedenen Umgebungen, egal ob vor Ort oder in der Cloud Stärken. Container bieten Portabilität und erleichtern das Verschieben von Anwendungen zwischen der Cloud und Ihrer Mainframe-Umgebung Sie fördern auch die Skalierbarkeit, indem sie es Entwicklern ermöglichen, Updates schnell bereitzustellen, ohne das Gesamtsystem zu beeinträchtigen Beste Anwendungsfälle. Container eignen sich ideal für Unternehmen , die Anwendungen in mehreren Umgebungen bereitstellen oder Microservices dynamisch skalieren müssen Sie eignen sich besonders für Cloud-native Anwendungen oder Anwendungen, die schrittweise in die Cloud migriert werden müssen schrittweise in die Cloud migriert werden Ein Beispiel: Das Williams-Team könnte Kubernetes verwenden, um Container für seine kundenorientierte Bankanwendung zu verwalten und so sicherzustellen, dass Updates einfach in der Cloud bereitgestellt werden können , während die wichtigsten Bankdienstleistungen auf dem wichtigsten Bankdienstleistungen Microservices, bei denen Anwendungen in kleinere unabhängige Anwendungen in Eine Microservices-Architektur unterteilt Anwendungen in kleine unabhängige Dienste , die über APIs kommunizieren Jeder Microservice kann unabhängig entwickelt, bereitgestellt und skaliert werden, wodurch Agilität und Fehlertoleranz verbessert Vorteile: Microservices bieten Flexibilität und Skalierbarkeit und ermöglichen es Unternehmen, bestimmte Dienste zu aktualisieren oder zu skalieren, ohne die gesamte Anwendung zu beeinträchtigen Diese Architektur ist ideal für Hybridumgebungen, in denen bestimmte Microservices vor Ort und andere in der Cloud ausgeführt werden können vor Ort und andere in der Beste Anwendungsfälle. Microservices eignen sich ideal für Anwendungen , die häufig aktualisiert werden müssen oder die aus vielen unabhängigen Funktionen bestehen Sie werden häufig in Cloud-nativen Entwicklungen verwendet , um die Leistung und Zuverlässigkeit zu verbessern Nehmen wir ein Beispiel. Das Williams-Team könnte Microservices nutzen und seine Online-Banking-Plattform in kleinere Dienste wie Anmeldung, Kontoverwaltung und Transaktionsverlauf aufteilen seine Online-Banking-Plattform in kleinere Dienste wie Anmeldung, Kontoverwaltung und Transaktionsverlauf Einige Microservices können in der Cloud ausgeführt werden, während andere, wie die Zahlungsabwicklung, auf dem Mainframe verbleiben Serverlose Architektur: Sie zahlen nur für das, was Sie tatsächlich nutzen. serverlose Architektur entfällt die Notwendigkeit , die zugrunde liegenden Server zu verwalten Bei serverlosen Plattformen wie AWS Lambda, Azure Functions oder Google Cloud-Funktionen schreiben Sie Code, der als Reaktion auf Ereignisse ausgeführt wird , und der Cloud-Anbieter verwaltet die Infrastruktur und skaliert die Ressourcen automatisch nach Bedarf Stärken von Server LS gehören Kosteneinsparungen und automatische Skalierbarkeit, da Sie nur für die Ressourcen zahlen , die Sie tatsächlich nutzen, wenn die Funktion ausgeführt wird Es eignet sich perfekt für ereignisgesteuerte Aufgaben und kurzlebige Operationen, für die keine kontinuierlich laufende Infrastruktur erforderlich ist. Beste Anwendungsfälle. Die serverlose Architektur eignet sich gut für ereignisgesteuerte Anwendungen, z. B. die Verarbeitung von Transaktionen, Reaktion auf Benutzerereignisse oder Auslösen von Aktionen auf der Grundlage von API-Aufrufen Nehmen wir ein Beispiel. Die Williams-Organisation könnte AWS Lambda verwenden, um bestimmte Aufgaben zu erledigen, z. B. Auslösen von Benachrichtigungen, wenn ein Benutzer bestimmte Aktionen in der Mobile-Banking-App ausführt , oder Ausführen von serverlosem Code zur Bearbeitung von Betrugswarnungen in Echtzeit Bewährte Methoden für die Auswahl von Cloud-Services in einer hybriden Umgebung Bei der Auswahl von Cloud-Diensten für eine Hybridumgebung ist es wichtig, dass Sie Ihre Auswahl an Ihren Geschäftszielen und technischen Anforderungen ausrichten Sie Ihre Auswahl . Im Folgenden finden Sie einige bewährte Methoden, die Sie befolgen sollten. Erstens: Evaluieren Sie die Integrationsmöglichkeiten. Wählen Sie eine Cloud-Plattform , die sich gut in Ihre bestehenden Mainframe - und On-Premise-Systeme integrieren lässt gut in Ihre bestehenden Mainframe - und On-Premise-Systeme Dienste wie AWS Outposts oder Azure Art sind so konzipiert, dass sie eine nahtlose Integration zwischen Cloud- und lokalen Umgebungen ermöglichen . Zweitens: Priorisieren Sie Sicherheit und Compliance. Stellen Sie sicher, dass die von Ihnen ausgewählten Cloud-Dienste die Compliance-Anforderungen Ihrer Branche erfüllen Wenn Sie beispielsweise im Finanzbereich tätig sind, leiten Sie Dienste, die PCI DSS- oder DSGVO-konform sind Drittens: Nutzen Sie Cloud-native Tools. Integrieren Sie Container, Mikroservices und serverlose Architekturen, um die Skalierbarkeit und Agilität Ihrer Hybridumgebung zu maximieren Skalierbarkeit und Agilität Ihrer Hybridumgebung Diese Tools wurden entwickelt , um die Leistung, Portabilität und Bereitstellungsgeschwindigkeit von Anwendungen zu verbessern Portabilität und Bereitstellungsgeschwindigkeit Nehmen wir ein Beispiel. William Stein kann Ubernatsp-Container und AWS Lambda für serverlose Funktionen verwenden Ubernatsp-Container und AWS Lambda für , um sicherzustellen, dass seine Hybrid-Cloud-Umgebung skalierbar, agil und kosteneffizient bleibt agil Durch den Einsatz der besten Cloud-Native-Tools können sie sicherstellen, dass sich ihre Cloud-Services nahtlos in ihre Mainframe-Infrastruktur integrieren lassen den wichtigsten Erkenntnissen aus dieser Lektion gehören zum einen, AWS, Azure und GCP, die jeweils ihre Stärken haben, die von den Zielen Ihres Unternehmens abhängen Ihres Unternehmens AWS eignet sich am besten für Skalierbarkeit, Azure für Hybrid-Integration und GCP für Datenanalyse Zweitens sind Cloud-native Tools wie Container, Microservices und serverlose Architekturen wie Container, Microservices und serverlose Architekturen der Schlüssel zur Verbesserung der Skalierbarkeit, Portabilität und Agilität in Hybridumgebungen Drittens sollten Sie bei der Auswahl von Cloud-Diensten darauf achten, dass sie sich gut in Ihre lokalen Systeme integrieren lassen, Sicherheits- und Compliance-Anforderungen erfüllen und Ihre Leistungsziele unterstützen Lernaktivität, Reflexion. Berücksichtigen Sie die Ziele Ihrer Organisation. Welche Cloud-Plattform, AWS, Azure oder GCP, passt Ihrer Meinung nach am besten zu Ihrer Hybrid-Cloud-Strategie Wie würden Cloud-Native-Tools wie Container oder weniger Server dazu beitragen, die Leistung Ihrer Anwendungen zu verbessern Diskussionsfrage im Forum gestellt. Was sind die wichtigsten Faktoren, die Ihr Unternehmen bei der Auswahl von Cloud-Diensten für Hybridumgebungen berücksichtigt ? Wie planen Sie, Cloud-native Tools wie Microservices oder Container in Ihrer Strategie zu nutzen Cloud-native Tools wie Microservices oder Container in Ihrer Strategie zu Nächste Lektion, Entwicklung einer Datenmigrationsstrategie. Im nächsten Modul werden wir unseren Fokus auf die Migration von Daten und Anwendungen in die Cloud verlagern In der ersten Lektion von Modul vier werden wir untersuchen, wie eine Datenmigrationsstrategie entwickelt werden kann, einschließlich der Wahl zwischen verschiedenen Migrationsmethoden Zum Beispiel Big Bang versus Basismigration und Verständnis der Vor- und Nachteile. Bereit, Ihre Cloud-Migration zu planen. Lassen Sie uns mit Modul vier fortfahren und mit der Entwicklung Ihrer Datenmigrationsstrategie beginnen . Ähm, 14. Lektion 1: Entwicklung einer Datenmigrationsstrategie: Modul vier, Migration von Daten und Anwendungen in die Cloud In diesem Modul lernen die Studierenden den Prozess der Migration von Daten, Anwendungen und Workloads von Mainframes Es behandelt bewährte Methoden für die sichere Datenmigration, Minimierung von Ausfallzeiten und die Aufrechterhaltung Datenintegrität während des reale Migrationstools Es werden auch reale Migrationstools und -techniken untersucht Lektion eins, Entwicklung einer Datenmigrationsstrategie. Willkommen zu Modul vier, in dem wir mit dem kritischen Prozess der Migration von Daten und Anwendungen in die Cloud beginnen Migration von Daten und Anwendungen in die Cloud In dieser ersten Lektion konzentrieren wir uns auf Entwicklung einer soliden Datenmigrationsstrategie Für jemanden wie William, einen Direktor für IT-Infrastruktur, mit der Modernisierung älterer Mainframe-Systeme beauftragt ist, ist eine klare Datenmigrationsstrategie unerlässlich, um einen reibungslosen Übergang zur Cloud zu gewährleisten Ganz gleich, ob Sie große Mengen sensibler Kundendaten verschieben oder Anwendungen migrieren, die richtige Strategie kann Ihnen helfen, Ausfallzeiten zu minimieren, Risiken zu minimieren und die Datenintegrität zu Am Ende dieser Lektion werden Sie die wichtigsten Komponenten eines Datenmigrationsplans verstehen eines Datenmigrationsplans Zweitens müssen Sie in der Lage sein, verschiedene Migrationsmethoden wie Big Bang und Faced Migration zu bewerten und die jeweiligen Vorteile und Herausforderungen zu verstehen. Lass uns anfangen. Die Grundlagen eines Datenmigrationsplans Eine Datenmigrationsstrategie ist eine Blaupause für die Übertragung von Daten von einer Umgebung in eine andere, sei es von Ihrem lokalen Mainframe in die Cloud oder zwischen verschiedenen Eine erfolgreiche Strategie stellt sicher , dass die Migration pünktlich und mit minimalen Unterbrechungen abgeschlossen wird und die Datenintegrität Im Folgenden finden Sie die wichtigsten Elemente , die Sie in Ihren Plan aufnehmen sollten. A: Definieren Sie Ihre Migrationsziele. Bevor Sie mit der Migration beginnen, müssen Sie sich über Ihre Ziele im Klaren sein. Was möchten Sie mit dieser Migration erreichen ? Verbesserung der Leistung. Migrieren Sie, um die Anwendungsleistung zu verbessern oder die Latenz zu reduzieren? Skalierbarkeit. Verschieben Sie Daten in die Cloud, um den Betrieb bei steigender Nachfrage zu skalieren ? Kostenoptimierung. Möchten Sie die Infrastrukturkosten senken, indem Sie unkritische Daten in die Cloud verlagern ? Diese Ziele prägen Ihre Gesamtstrategie und bestimmen, welche Daten bei der Migration priorisiert werden Nehmen wir ein Beispiel. Für Williams Team könnte das Ziel darin bestehen, unkritische Daten wie historische Kundentransaktionsprotokolle zur Langzeitspeicherung in die Cloud auszulagern unkritische Daten wie historische Kundentransaktionsprotokolle zur und gleichzeitig Echtzeit-Transaktionsdaten aus Performancegründen auf dem Mainframe zu B, Inventar und Datenauswertung. Sobald Sie Ihre Ziele definiert haben, müssen Sie eine gründliche Bestandsaufnahme Ihrer Daten durchführen. In diesem Schritt müssen Sie ermitteln welche Daten migriert werden müssen, aktuelle Speicherort, welche Größe, welches Format und welche Abhängigkeiten Fragen Sie sich, welche Datensätze geschäftskritisch sind und zuerst migriert werden müssen Gibt es Datenabhängigkeiten zwischen Anwendungen, die berücksichtigt werden müssen? Wie hoch ist das Datenvolumen? Migrieren Sie Gigabyte, Terabyte oder Parabite an Daten? Beurteilen Sie das Datenformat. Beispielsweise können strukturierte, unstrukturierte und qualitativ hochwertige, schlechte Datenqualität den Migrationsprozess erschweren Erwägen Sie daher, Daten vor der Migration zu bereinigen, um Genauigkeit und Konsistenz zu gewährleisten . Nehmen wir ein Beispiel In einer Bankumgebung könnte William feststellen, dass einige Daten, wie z. B. personenbezogene Daten von Kunden, zusätzliche Verschlüsselungsmaßnahmen erfordern , während unsensible Archivdaten einfacher übertragen werden können Planung von Ausfallzeiten und Risikomanagement. Ein wichtiger Teil Ihrer Strategie ist die Planung potenzieller Ausfallzeiten während des Migrationsprozesses. Je nachdem, welche Methode Sie wählen, können einige Ausfallzeiten unvermeidlich sein Um dies zu minimieren, müssen Sie Daten mit hohem Risiko identifizieren, die sich auf den Betrieb auswirken könnten, Betrieb auswirken könnten Planen Sie die Migration in Zeiten mit geringem Datenverkehr, um Unterbrechungen zu minimieren Halten Sie einen Notfallplan für den Fall bereit, dass bei der Migration Probleme wie Datenverlust oder Beschädigung Durch die sorgfältige Planung von Ausfallzeitfenstern und die Erstellung von Backups können Sie das Risiko einer Unterbrechung des Geschäftsbetriebs verringern einer Unterbrechung des Geschäftsbetriebs William könnte beispielsweise die Migration unkritischer Kundendienstdaten außerhalb der Spitzenzeiten planen unkritischer Kundendienstdaten außerhalb , um die Auswirkungen auf kundenseitige Anwendungen zu minimieren . Untersuchung von Datenmigrationsmethoden, Urknall versus Phasenmigration. Es gibt zwei primäre Datenmigrationsmethoden Big-Bang-Migration und die Phasenmigration. Jede Methode hat ihre Vorteile und Herausforderungen, und die richtige Methode für Ihr Unternehmen hängt von Faktoren wie Datenvolumen, Komplexität und Risikotoleranz ab. Urknall-Migration, alles auf einmal verschieben. Bei einer Big-Bang-Migration werden alle Daten auf einmal migriert, normalerweise innerhalb eines kurzen Zeitfensters. Diese Methode ist schnell und kann schnell abgeschlossen werden , wenn das Datenvolumen überschaubar ist Es erfordert jedoch eine gründliche Planung und Vorbereitung, um Probleme zu vermeiden, da es zu erheblichen Ausfallzeiten und Risiken führen kann , wenn etwas schief geht Vorteile. Schnell. Die gesamte Migration erfolgt innerhalb eines einzigen Ereignisses, wodurch der Gesamtzeitplan minimiert wird Geringere Komplexität nur ein Migrationsprozess verwaltet werden muss, sodass Sie nicht mehrere Phasen bewältigen müssen Herausforderungen, Risiko von Ausfallzeiten. Ein Big-Bang-Ansatz führt oft zu längeren Ausfallzeiten, die den Betrieb ganz oder gar nicht stören können Wenn während der Migration Probleme auftreten, kann sich dies auf alle Daten auswirken und zu Datenverlust oder -beschädigung führen Nehmen wir ein Beispiel. Williams-Organisation könnte eine Big-Bang-Migration für einen relativ kleinen Datensatz verwenden , wie z. B. die Übertragung archivierter Finanzdaten Cloud-Speichersystem, wo Ausfallzeiten keine kritischen Abläufe beeinträchtigen würden. Phasenmigration, schrittweiser Kontrollübergang. Eine Phasenmigration verteilt den Migrationsprozess auf mehrere Phasen, Workloads oder Datensätze häufig inkrementell migriert Diese Methode ist für große, komplexe Umgebungen einfacher zu handhaben , in denen Minimierung von Risiken und die Aufrechterhaltung die Minimierung von Risiken und die Aufrechterhaltung des laufenden Betriebs oberste Priorität haben. Vorteile, geringeres Risiko. Durch die phasenweise Migration von Daten verringern Sie die Wahrscheinlichkeit kritischer Ausfälle, verringern Sie die Wahrscheinlichkeit kritischer Ausfälle die sich auf das gesamte System auswirken. Begrenzte Ausfallzeiten Da die Migration schrittweise erfolgt, ist es einfacher, Ausfallzeiten in kleinen Schritten zu verwalten Betriebsunterbrechungen zu begrenzen. Einfacheres Rollback Wenn in einer bestimmten Phase Probleme auftreten, ist es einfacher, ein Rollback ohne dass sich dies auf die gesamte Migration auswirkt Herausforderungen, verlängerter Zeitplan. Durchführung von Phasenmigrationen dauert länger und erfordert eine sorgfältige Abstimmung zwischen den Komplexität. Die Verwaltung mehrerer Migrationsphasen erhöht die betriebliche Komplexität und erfordert viel Liebe zum Detail. Nehmen wir ein Beispiel. Das Finanzinstitut Williams könnte sich für eine schrittweise Migration entscheiden, um dynamische Anwendungen schrittweise in die Cloud zu verlagern und gleichzeitig unternehmenskritische Systeme wie die Zahlungsabwicklung während unternehmenskritische Systeme wie der Übergangsphase auf dem Mainframe zu belassen Dies gewährleistet minimale Ausfallzeiten für Kunden. Wichtige Überlegungen bei der Auswahl einer Migrationsmethode. Bei der Entscheidung zwischen Urknall- und Phasenmigration sollten Sie die folgenden Faktoren berücksichtigen. Datenvolumen. Große Datenmengen eignen sich eher für die Phasenmigration, während kleinere Datensätze mit einem Big-Bang-Ansatz möglicherweise verwaltet werden Komplexität. Komplexe Datenarchitekturen mit vielen Abhängigkeiten lassen sich am besten phasenweise migrieren, um sicherzustellen, dass während des Prozesses nichts unterbrochen wird Toleranz gegenüber Ausfallzeiten. Wenn sich Ihr Unternehmen keine nennenswerten Ausfallzeiten leisten kann, ist die Phasenmigration die bessere Wahl. Bei Systemen, bei denen Ausfallzeiten weniger kritisch sind, könnte eine Big-Bang-Migration schneller sein. Risikobereitschaft. Phasenmigration senkt das Gesamtrisiko, insbesondere für Unternehmen, die mit sensiblen Daten oder unternehmenskritischen Systemen umgehen . den wichtigsten Erkenntnissen aus dieser Lektion gehört zum einen, eine solide Datenmigrationsstrategie unerlässlich ist, um sicherzustellen , dass Ihre Daten sicher, pünktlich und mit minimalen Unterbrechungen übertragen werden sicher, pünktlich und mit minimalen Unterbrechungen Zweitens bietet die Big-Bang-Migration einen schnellen Komplettansatz, ist jedoch mit einem höheren Risiko und der Möglichkeit von Ausfallzeiten verbunden, während die Phasenmigration mehr Kontrolle und ein geringeres Risiko bietet, aber länger dauert, bis sie abgeschlossen Drittens sollten Faktoren wie Datenvolumen, Komplexität und Ausfallsicherheit Ihre Entscheidung bei der Auswahl der geeigneten Migrationsmethode beeinflussen. Erwerbstätigkeit, Reflexion. Berücksichtigen Sie die Anforderungen Ihres Unternehmens an die Datenmigration. Ist eine Big Bang- oder Phasenmigration besser für Ihre aktuellen Workloads und betrieblichen Ziele geeignet und betrieblichen Ziele Warum? Im Forum gestellte Diskussionsfrage. Wie plant Ihr Unternehmen Ausfallzeiten während einer Migration? Waren Sie bei einer früheren Migration auf Herausforderungen gestoßen, was hätte anders gemacht werden können? Nächste Lektion: Tools und Techniken zur Datenmigration. In der nächsten Lektion werden wir uns mit den Tools und Techniken befassen, die Ihnen bei der Umsetzung Ihrer Datenmigrationsstrategie zur Verfügung stehen . Wir befassen uns mit Migrationstools wie AWS Direct Connect, VPNs und Lösungen von Drittanbietern sowie mit der sicheren Übertragung von Daten von Ihrem Mainframe in Cloud-Umgebungen Bereit, mit der Erstellung Ihres Migrations-Toolkits zu beginnen. Lassen Sie uns mit Lektion zwei von Modul vier fortfahren. 15. Lektion 2: Datenmigrationstools und Techniken: Und Lektion zwei, Tools und Techniken für die Datenmigration. Willkommen zu Lektion zwei von Modul vier. Wir werden uns mit den Tools und Techniken befassen, die für die Migration von Daten von Ihren Mainframe-Systemen in die Cloud verfügbar für die Migration von Daten von Ihren Mainframe-Systemen in die Die Auswahl der richtigen Tools ist entscheidend für einen sicheren, effizienten und zuverlässigen Migrationsprozess Als IT-Infrastrukturdirektor wie William müssen Sie verschiedene Tools evaluieren, müssen Sie verschiedene Tools evaluieren von Cloud-nativen Lösungen bis hin zu Migrationsplattformen von Drittanbietern, die Ihnen helfen , Ihre Migrationsziele mit minimalen Unterbrechungen zu erreichen. Am Ende dieser Lektion werden Sie die verschiedenen Datenmigrationstools wie AWS Direct Connect, VPNs und Lösungen von Drittanbietern verstehen wie AWS Direct Connect, VPNs und Lösungen von Drittanbietern Erfahren Sie, wie Sie Cloud-native Tools für die sichere Übertragung von Daten von Mainframe-Systemen in Cloud-Umgebungen nutzen sichere Übertragung von Daten von können Lassen Sie uns diese Tools und Techniken im Detail untersuchen. Überblick über gängige Tools zur Datenmigration. Bei der Verlagerung von Daten von lokalen Standorten in die Cloud benötigen Unternehmen sichere und skalierbare Verbindungen. Abhängig von Ihrem Datenvolumen, Ihren Netzwerkanforderungen und Ihren Sicherheitsanforderungen müssen Sie zwischen verschiedenen Migrationstools wählen. Im Folgenden sind einige der am häufigsten verwendeten Optionen aufgeführt. A, AWS Direct Connect , privat und zuverlässig. AWS Direct Connect ist eine dedizierte Netzwerkverbindung , die es Unternehmen ermöglicht eine direkte Verbindung zwischen ihrem lokalen Rechenzentrum und den Amazon Web Services herzustellen . Dies ist eine hervorragende Wahl für Unternehmen, die Hochgeschwindigkeitsdatenübertragungen benötigen und die Nutzung des öffentlichen Internets vermeiden möchten, wodurch das Risiko einer Datenexposition verringert wird. Zu den Vorteilen gehören Sicherheit und Datenschutz. Direct Connect stellt eine eigene Leitung zu AWS bereit, die das Internet umgeht , was für mehr Sicherheit sorgt . Hohe Bandbreite Es bietet eine höhere Bandbreite für schnellere Datenübertragungen und ist somit ideal für groß angelegte Migrationen Konsistente Leistung, Direct Connect bietet eine konsistente Netzwerkleistung, was für unternehmenskritische Migrationen, bei denen Ausfallzeiten minimiert werden müssen, unerlässlich ist unternehmenskritische Migrationen, bei denen Ausfallzeiten minimiert den besten Anwendungsfällen gehört sichere Verschieben großer Datensätze. Unternehmen, die hochsichere Verbindungen mit garantierter Leistung für sensible Daten benötigen mit garantierter Leistung für , wie Finanzinstitute oder Regierungsbehörden Nehmen wir ein Beispiel. Finanzinstitut Williams könnte AWS Direct Connect verwenden, um Kundentransaktionsdaten und historische Aufzeichnungen sicher in die Cloud zu so ein hohes Maß an Sicherheit zu gewährleisten und das Risiko einer Gefährdung während der Migration zu verringern. VPNs, sicher, aber leichter zugänglich. Ein virtuelles privates Netzwerk oder VPN bietet eine sichere, verschlüsselte Verbindung über das öffentliche Internet VPNs sind nützlich, wenn Sie eine flexible, aber sichere Möglichkeit benötigen , Ihr Rechenzentrum vor Ort mit einer Cloud zu verbinden Ihr Rechenzentrum vor Ort mit einer Cloud VPNs sind zwar im Allgemeinen langsamer als Direktverbindungen wie AWS Direct Connect, werden aber häufig für kleinere Migrationen oder kontinuierliche Konnektivität verwendet kleinere Migrationen Zu den Vorteilen gehört die Kosteneffizienz . VPNs sind oft günstiger als dedizierte Netzwerkverbindungen wie Direct Connect Sicherheit: VPNs verwenden Verschlüsselung, um sicherzustellen, dass Daten sicher über das öffentliche Internet übertragen werden Barrierefreiheit: VPNs können einfacher eingerichtet werden als dedizierte Verbindungen und eignen ideal für Migrationen kleiner bis mittlerer Größe besten Anwendungsfällen gehören Unternehmen mit kleineren Datenmengen oder die keine Verbindungen mit hoher Bandbreite benötigen sowie Unternehmen, die nach einer erschwinglichen, sicheren Verbindung für laufende Datensenken oder kleinere Migrationen suchen sicheren Verbindung für laufende Datensenken oder kleinere Migrationen Nehmen wir ein Beispiel. Für weniger geschäftskritische Daten könnte das Williams-Team ein VPN verwenden um sichere Cloud-Verbindungen herzustellen und unsensible Daten wie Systemprotokolle oder Analyseberichte zu geringeren Kosten als AWS Direct Connect zu übertragen. Migrationslösungen von Drittanbietern, Flexibilität und umfangreiche Tools. Es gibt viele Datenmigrationsplattformen von Drittanbietern speziell dafür entwickelt wurden, Unternehmen bei der Übertragung von Daten zwischen lokalen Umgebungen und der Cloud zu unterstützen. Diese Tools bieten häufig erweiterte Funktionen wie Datenreplikation, Echtzeitmigration und integrierte Sicherheit. Zu den beliebten Plattformen gehören Cloud Azure ZRTO und Azure Migrate Zu den Vorteilen gehört ein großer Funktionsumfang. Viele Lösungen von Drittanbietern bieten Funktionen wie kontinuierliche Datenreplikation, Echtzeitanalysen und Notfallwiederherstellung. Cloud-übergreifende Funktionen. Lösungen ermöglichen also Multi-Cloud- oder Hybrid-Cloud-Migrationen und sind damit flexibler als anbieterspezifische Tools Reduzieren Sie die Komplexität. Diese Plattformen automatisieren häufig Großteil des Migrationsprozesses und erleichtern Unternehmen so die Verwaltung komplexer Migrationen besten Anwendungsfällen gehören Unternehmen , die Multi-Cloud-Funktionen benötigen oder eine Mischung aus lokalen und Cloud-Umgebungen migrieren , sowie Unternehmen , die eine kontinuierliche Replikation und Datensenkung in Echtzeit während der Migration benötigen Datensenkung in Echtzeit während Ein Beispiel: Das Williams-Team könnte CloudEndure verwenden, um während des Migrationsprozesses kontinuierlich Daten vom Mainframe nach AWS zu replizieren des Migrationsprozesses kontinuierlich Daten vom Mainframe nach AWS zu und so sicherzustellen, dass das Unternehmen auch während der Migration mit minimalen Ausfallzeiten arbeiten kann. Erkunden Sie Cloud-native Tools für Für Unternehmen, die Daten von Mainframe-Systemen in die Cloud verlagern , gibt es spezielle Cloud-native Tools die diesen Prozess erleichtern und gleichzeitig Datenintegrität, Sicherheit und Compliance gewährleisten sollen diesen Prozess erleichtern und gleichzeitig Datenintegrität, Sicherheit und Compliance Diese Tools gewährleisten eine reibungslose, sichere und effiziente Datenmigration, ohne täglichen Betrieb Ihres Mainframes zu stören A: AWS-Mainframe-Modernisierung, Brücke zwischen AWS Mainframe Modernization ist eine Reihe von Services, die von AWS angeboten werden, um Unternehmen bei der Migration und Modernisierung von Mainframe-Anwendungen zu unterstützen Migration und Modernisierung Es bietet Tools zur Analyse, Umgestaltung, Neugestaltung und Automatisierung der Migration von Daten und Anwendungen von Mainframes Zu den wichtigsten Funktionen gehört die automatisierte Migration. AWS-Mainframe-Modernisierung bietet automatisierte Tools, um die Komplexität der Migration von Mainframe-Anwendungen und -Daten zu reduzieren Migration von Mainframe-Anwendungen Integration mit AWS-Services. Sobald sich die Daten in der Cloud befinden, können sie problemlos in andere AWS-Services wie AWS Lambda, serverloses Computing , oder Amazon RDS, eine verwaltete relationale Datenbank , integriert andere AWS-Services wie AWS Lambda, serverloses Computing , oder Amazon RDS, eine verwaltete relationale Datenbank , verwaltete relationale Datenbank , Kostenoptimierung. Durch die Migration von Mainframe-Workloads zu AWS können Unternehmen von nutzungsabhängigen Preisen profitieren und die Infrastrukturkosten senken Ein Beispiel: Das Finanzinstitut Williams könnte die Modernisierung des AWS-Mainframes nutzen , um Kundendaten und ältere Anwendungen von ihrem Mainframe in die Cloud auszulagern ältere Anwendungen von ihrem Durch das Refactoring kritischer Anwendungen für die Cloud können sie die Betriebskosten senken und können sie die Betriebskosten senken gleichzeitig eine hohe Leistung aufrechterhalten. B, Azure-Datenbox, die große Datenmengen verschiebt Azure Data Boox ist ein Microsoft-Dienst, der Unternehmen dabei unterstützt , große Datenmengen sicher in die Cloud zu verschieben Datenmengen sicher in die Cloud zu Die Datenbox ist eine physische Appliance, die Microsoft an Ihr Rechenzentrum sendet, sodass Sie Daten direkt darauf laden bevor Sie sie zur Cloud-Integration an Microsoft zurücksenden zur Cloud-Integration an Microsoft Zu den wichtigsten Funktionen gehört die Offline-Datenübertragung. Durch die physische Übertragung von Daten vermeidet Azure Data Box die Verzögerungen und das Sicherheitsrisiko internetbasierter Datenübertragungen. Hochgradig sicher. während der Übertragung verschlüsselt und geschützt, wodurch sichergestellt wird, dass vertrauliche Informationen nicht offengelegt werden. Ideal für große Datensätze. Diese Lösung eignet sich hervorragend für die Übertragung von Petabytes an Daten die Cloud , wo Online-Übertragungen möglicherweise Ein Beispiel: Die Williams-Organisation könnte Azure Data Box verwenden, um umfangreiche Datensätze, wie z. B. historische Transaktionsaufzeichnungen, in den Azure-Cloud-Speicher zu übertragen wie z. B. historische Transaktionsaufzeichnungen, in den Azure-Cloud-Speicher zu , wo sie archiviert werden können C, Google Transfer Appliance, Massendatenübertragung an Google Cloud Google Transfer Appliance funktioniert ähnlich wie Azure Data Box und bietet eine physische Appliance zum Verschieben großer Datensätze von Ihrem Rechenzentrum in die Google Cloud Es wurde für Unternehmen mit riesigen Datenmengen entwickelt , die effizient und sicher in die Cloud verschoben werden müssen effizient und sicher in die Cloud Zu den wichtigsten Funktionen gehört die Unterstützung großer Datenmengen. Transfer Appliance kann Terabyte bis Petabyte an Daten verarbeiten Die Transfer Appliance kann Terabyte bis Petabyte an Daten verarbeiten und eignet sich daher für groß eignet sich daher für Es ist sicher und effizient. Die Appliance ist verschlüsselt und sobald sie gefüllt ist, wird sie zum Hochladen von Daten an Google zurückgesendet Dies reduziert den Bedarf an längeren Datenübertragungszeiten über das Netzwerk Wenn das Finanzinstitut Williams beispielsweise zu Google Cloud migrieren würde, könnte es die Google Transfer Appliance verwenden um riesige Mengen an Kundendaten und historischen Aufzeichnungen sicher und schnell in die Cloud zu übertragen in die Cloud zu Bewährte Methoden für die Auswahl von Tools zur Datenmigration. Sie bei der Auswahl der richtigen Migrationstools für Ihr Unternehmen Beachten Sie bei der Auswahl der richtigen Migrationstools für Ihr Unternehmen die folgenden bewährten Methoden. Erstens: Beurteilen Sie die Anforderungen an Datenvolumen und Übertragungsgeschwindigkeit. Für kleinere Datensätze können VPNs ausreichend sein, aber für größere Migrationen sollten Sie Tools wie AWS Direct Connect, Azure Data Box oder Google Transfer Appliance für schnellere und sicherere Übertragungen in Betracht ziehen Azure Data Box oder Google Transfer Appliance für schnellere Zweitens sollten Sie die Sicherheits - und Compliance-Anforderungen berücksichtigen. Wenn Sie sensible Daten wie personenbezogene Daten von Kunden oder Finanztransaktionen migrieren , stellen Sie sicher, dass Ihre Tools Ende-zu-Ende-Verschlüsselung bieten und Compliance-Standards wie PCI-DSS oder GDPR erfüllen Compliance-Standards wie PCI-DSS Drittens: Nutzen Sie Cloud-native Cloud-native Tools wie die Modernisierung von AWS-Mainframes oder Azure Migrate vereinfachen den Prozess der Integration Ihrer migrierten Daten in Cloud-Dienste, sodass Sie das volle Potenzial von Cloud den wichtigsten Erkenntnissen aus dieser Lektion gehören zum einen, AWS Direct, Direct Connect, VPNs und Migrationstools von Drittanbietern bieten unterschiedliche Sicherheits-, Geschwindigkeits- und Flexibilitätsstufen Wählen Sie das richtige Tool auf der Grundlage Ihres Datenvolumens, Sicherheitsanforderungen und Ihres Migrationszeitplans Zweitens sind Cloud-native Tools wie Modernisierung des AWS-Mainframes, die Joe Data Box und die Google Transfer Appliance darauf ausgelegt, und die Google Transfer Appliance die Modernisierung des AWS-Mainframes, die Joe Data Box und die Google Transfer Appliance darauf ausgelegt, Daten sicher und mit minimaler Unterbrechung von Mainframe-Systemen in die Cloud zu übertragen mit minimaler Unterbrechung von Mainframe-Systemen in die Cloud zu Drittens sollten Sie bei der Auswahl eines Migrationstools Datensicherheit, Geschwindigkeit und Integrationsfähigkeit Priorität einräumen, um einen reibungslosen Übergang zur Cloud zu gewährleisten Lernaktivität, Reflexion. Welche Migrationstools eignen sich am besten für Ihr Unternehmen? Berücksichtigen Sie bei Ihrer Auswahl Ihr Datenvolumen, Ihre Sicherheitsanforderungen und Ihren Zeitplan. Im Forum gestellte Diskussionsfrage. Hat Ihre Organisation schon einmal ein Migrationstool eines Drittanbieters verwendet ? Was waren die wichtigsten Herausforderungen und Vorteile, mit denen Sie konfrontiert wurden? Nächste Lektion: Minimierung der Ausfallzeiten während der Migration. In der nächsten Lektion konzentrieren wir uns auf Strategien zur Minimierung von Ausfallzeiten während Ihrer Datenmigration Sie lernen bewährte Methoden zur Aufrechterhaltung der Betriebskontinuität kennen und Techniken wie Live-Migration und Schattendatenbanken kennen, damit Ihr Unternehmen während der Umstellung reibungslos läuft Um eine reibungslose Migration zu gewährleisten, fahren wir mit Lektion drei von Modul vier fort. 16. Lektion 3: Ausfallzeiten während der Migration minimieren: Drei. Lektion drei, Minimierung der Ausfallzeiten während der Migration Willkommen zu Lektion drei von Modul vier. In dieser Lektion werden wir untersuchen, wie Sie Ausfallzeiten minimieren und dafür sorgen können, dass Ihre Systeme während der Daten- und Anwendungsmigration in die Cloud reibungslos funktionieren . Für einen IT-Infrastrukturdirektor wie William ist die Minimierung von Ausfallzeiten von entscheidender Bedeutung, insbesondere in Umgebungen wie Finanzdienstleistungen, in denen jede Sekunde der Unterbrechung das Kundenerlebnis beeinträchtigen und zu Umsatzeinbußen führen kann Kundenerlebnis beeinträchtigen und zu Umsatzeinbußen führen Wir werden bewährte Verfahren zur Reduzierung von Ausfallzeiten behandeln und uns mit fortschrittlichen Techniken wie Live-Migration und Schattendatenbanken befassen , die eine kontinuierliche Verfügbarkeit während der Migration gewährleisten Am Ende dieser Lektion werden Sie besten Methoden zur Minimierung von Ausfallzeiten während der Migration verstehen . Zweitens müssen Sie Techniken wie Live-Migration und Schattendatenbanken anwenden können Live-Migration und Schattendatenbanken , um die Betriebskontinuität zu gewährleisten. Lass uns anfangen. Bewährte Methoden zur Minimierung von Ausfallzeiten während der Migration. Minimierung von Ausfallzeiten während der Migration erfordert die Planung, Auswahl der richtigen Tools und die Implementierung von Strategien , die es Ihrem Unternehmen ermöglichen, Betrieb während der Datenübertragung fortzusetzen Im Folgenden finden Sie die bewährten Methoden, die Sie bei der Migration von Daten vor Ort in die Cloud berücksichtigen sollten bei der Migration von Daten vor Ort in die Cloud A: Planen Sie Ausfallzeiten frühzeitig ein. Einer der wichtigsten Aspekte bei der Minimierung von Ausfallzeiten ist eine sorgfältige Planung Dazu gehört die Analyse Ihrer Workloads und Bestimmung, wie viele Ausfallzeiten für jeden Systemtyp akzeptabel Nicht jedes System benötigt keinerlei Ausfallzeiten. Daher ist es wichtig, die unternehmenskritischen Systeme zu identifizieren die unternehmenskritischen Systeme , die betriebsbereit bleiben müssen Identifizieren Sie kritische Workloads. Klassifizieren Sie Ihre Workloads zunächst in unkritische Prozesse und Batch-Prozesse Kritische Workloads, wie die Transaktionsverarbeitung in Echtzeit in einer Bankumgebung, müssen mit geringen bis keinen Ausfallzeiten verfügbar Legen Sie ein Ausfallbudget fest und legen Sie eine maximale Ausfallzeit , die für jedes System akzeptabel ist Dies sollte in Zusammenarbeit mit den Geschäftsbeteiligten geschehen mit den Geschäftsbeteiligten um sicherzustellen, dass sowohl die IT als auch die Geschäftsbereiche aufeinander abgestimmt sind. Nehmen wir ein Beispiel. Für William wird es bei Zahlungsabwicklungs- und Online-Banking-Diensten künftig keine Ausfallzeiten geben, wohingegen historische Berichts - und Batch-Verarbeitungsaufträge mehr Ausfallzeiten tolerieren können , da sie die Kunden nicht in Echtzeit betreffen. B, testen Sie Migrationspläne mit Probeläufen. Bevor Sie eine vollständige Migration durchführen, führen Sie immer Testmigrationen oder Testmigrationen Dabei handelt es sich um kleine Tests, die den Migrationsprozess simulieren , um potenzielle Probleme im Voraus zu identifizieren Identifizieren Sie Engpässe frühzeitig. Probeläufe helfen dabei, Leistungsengpässe, Datenübertragungsprobleme und Systeminkompatibilitäten zu erkennen , bevor sie sich auf die eigentliche Migration auswirken. Testen Sie Rollback-Verfahren. Im Falle eines Migrationsfehlers sollten Sie wissen, wie Sie zum ursprünglichen System zurückkehren können, ohne dass es zu Störungen kommt Testen der Rollback-Verfahren während eines Probelaufs stellt sicher, dass Sie auf alle Probleme vorbereitet sind , während der Live-Migration auftreten können Nehmen wir ein Beispiel. Williams Team könnte die Migration eines kleinen Datensatzes oder einer unkritischen Anwendung zu AWS simulieren , um den Datenübertragungsprozess zu testen und sicherzustellen, dass die Systeme stabil und betriebsbereit bleiben C, Migration außerhalb der Spitzenzeiten. Planen Sie Migrationen wann immer möglich außerhalb der Spitzenzeiten Dadurch werden die Auswirkungen auf Benutzer und Geschäftsabläufe minimiert , da die Wahrscheinlichkeit von Serviceunterbrechungen in Spitzenzeiten verringert wird die Wahrscheinlichkeit von Serviceunterbrechungen in Spitzenzeiten . Überwachen Sie die Verkehrsmuster. Verwenden Sie Tools zur Verkehrsüberwachung , um die Spitzennutzungszeiten zu verstehen. Bei Finanzinstituten wie Williams kann der Traffic während der Geschäftszeiten oder nach Zahlungsschluss Planung von Migrationen in den frühen Morgenstunden oder an einem Wochenende kann das Risiko einer Serviceunterbrechung verringern Kündigen Sie Wartungsfenster an. Informieren Sie Kunden und Mitarbeiter rechtzeitig über mögliche Ausfallzeiten. Dadurch wird sichergestellt, dass sich jeder über den Zeitpunkt im Klaren ist , und unerwartete Störungen werden minimiert Nehmen wir ein Beispiel. Williams Team könnte die Migration unwichtiger Dienste wie Chat-Logs oder Marketingdaten für den Kundensupport in der Nacht oder am Wochenende planen unwichtiger Dienste wie Chat-Logs oder Marketingdaten für den Kundensupport in der Nacht oder am , um zu vermeiden, dass die Systeme mit Kundenkontakt beeinträchtigt Techniken für die kontinuierliche Verfügbarkeit während der Migration. Für geschäftskritische Workloads , die sich keine Ausfallzeiten leisten können, müssen Sie fortschrittliche Techniken implementieren, um das System während der Migration betriebsbereit zu halten. Zwei gängige Techniken sind Live-Migration und Schattendatenbanken Live-Migration, um Systeme online zu halten. Live-Migration ist eine Technik , bei der Daten oder Anwendungen von einer Umgebung in eine andere verschoben werden , ohne das Quellsystem herunterzufahren Dadurch kann das Quellsystem während des Migrationsprozesses wie gewohnt weiterarbeiten . So funktioniert es. Bei der Live-Migration läuft das System weiterhin in der Quellumgebung, während Daten in die Cloud kopiert werden. Sobald die Daten vollständig übertragen wurden, wird das System mit minimaler Unterbrechung auf die Cloud-Umgebung umgestellt . Beste Anwendungsfälle. Live-Migration ist ideal für virtuelle Maschinen oder VMs, Echtzeitanwendungen oder Datenbanken, bei denen Ausfallzeiten auf ein absolutes Minimum beschränkt werden müssen auf ein absolutes Minimum beschränkt werden Ein Beispiel: Für das Finanzinstitut Williams könnte die Live-Migration verwendet werden, um Echtzeit-Transaktionsverarbeitungssysteme in die Cloud zu Die Migration würde erfolgen, während das System betriebsbereit bleibt , um sicherzustellen, dass die Kundenzahlungen und Kontozugriff nicht unterbrochen werden. Schattendatenbanken, die Daten in Echtzeit synchronisieren. Schattendatenbank ist eine Technik, bei ein Replikat Ihrer Hauptdatenbank in der Cloud erstellt wird Die Shadow-Datenbank bleibt mit Ihrem Primärsystem synchronisiert und empfängt Updates in Echtzeit. Sobald die Migration abgeschlossen ist, kann die Shadow-Datenbank ohne Ausfallzeiten die Rolle der primären Datenbank übernehmen . So funktioniert es. Schattendatenbank repliziert Transaktionen und Datenänderungen aus Ihrem lokalen System in Echtzeit. Sobald die lokalen Daten vollständig repliziert sind, kann die cloudbasierte Datenbank zur primären Datenbank werden Beste Anwendungsfälle. Schattendatenbanken eignen sich perfekt für Systeme, die kontinuierliche Updates und Datenreplikation in Echtzeit erfordern , wie z. B. Bank- und E-Commerce-Plattformen. Ein Beispiel: Williams Team würde eine Schattendatenbank verwenden, um die Transaktionsaufzeichnungen von Kunden synchron zu halten und sie gleichzeitig in die Cloud zu migrieren Sobald die Datenmigration abgeschlossen ist, kann die Cloud-basierte Datenbank nahtlos übernehmen, was einen reibungslosen Übergang ohne Ausfallzeiten ermöglicht Verwaltung hybrider Workloads während der Migration. Wenn Sie nur einen Teil Ihrer Systeme in die Cloud migrieren , während andere vor Ort bleiben, müssen Sie während des Migrationsprozesses hybride Workloads verwalten des Dadurch wird sichergestellt, dass sowohl cloudbasierte lokale Systeme weiterhin effektiv kommunizieren Halten Sie die Synchronisation aufrecht. Stellen Sie sicher, dass Daten und Anwendungen, die sowohl in der Cloud als auch vor Ort ausgeführt werden, während des gesamten Migrationsprozesses synchronisiert werden während des gesamten Migrationsprozesses synchronisiert Verwenden Sie Tools und Middleware zur Datenreplikation , um den Informationsfluss zwischen Umgebungen zu verwalten . Überwachen Sie die Leistung Überwachen Sie die Leistung sowohl cloudbasierter primärer Systeme während der Migration, um sicherzustellen, dass der Migrationsprozess nicht zu einer Verschlechterung der Antwortzeiten oder der Verfügbarkeit führt. Zum Beispiel könnte Williams Team die analytischen Workloads von Kunden in die Cloud migrieren und gleichzeitig die Transaktionsverarbeitung während des Migrationsprozesses auf dem Mainframe beibehalten Indem sichergestellt wird, dass die beiden Systeme synchronisiert bleiben, können Verzögerungen oder Inkonsistenzen bei den Kundendaten vermieden Inkonsistenzen Validierung und Tests nach der Migration. Nach der Migration ist es wichtig , gründliche Tests durchzuführen, um sicherzustellen, dass alle Systeme in der neuen Cloud-Umgebung erwartungsgemäß funktionieren . Dieser Schritt hilft dabei, Dateninkonsistenzen, Leistungsprobleme oder Verbindungsprobleme zu erkennen , bevor sie sich auf die Benutzer auswirken Überprüfen Sie die Datengenauigkeit. Stellen Sie sicher, dass alle in die Cloud übertragenen Daten mit den Daten im Originalsystem übereinstimmen. Dies kann Vollständigkeitsprüfungen, die Validierung der Datenintegrität und Leistungstests umfassen Validierung der Datenintegrität und . Testen Sie Workflows. Führen Sie einen End-to-End-Test um sicherzustellen, dass Ihre Geschäftsprozesse und Workflows in der neuen Umgebung weiterhin ordnungsgemäß funktionieren. Überwachen Sie die Leistung. Überwachen Sie die Systemleistung weiterhin auf Anzeichen von Latenz, Engpässen oder anderen Problemen, die Ihren Betrieb beeinträchtigen könnten. Ein Beispiel Nach Abschluss der Migration der kundenorientierten Anwendungen zu AWS führte das Williams-Team Leistungstests durch, um sicherzustellen, dass das System effizient funktioniert, und Datenintegritätsprüfungen durchführen um sicherzustellen, dass das System effizient funktioniert , um zu überprüfen, ob alle Transaktionsratendatensätze korrekt migriert wurden den wichtigsten Erkenntnissen aus dieser Lektion gehören zum einen die frühzeitige Planung von Ausfallzeiten, die Durchführung von Probeläufen und die Planung von Migrationen außerhalb der Spitzenzeiten, um Betriebsunterbrechungen zu Zweitens sind Live-Migration und Schattendatenbanken fortschrittliche Techniken , die die kontinuierliche Verfügbarkeit unternehmenskritischer Systeme während der Migration sicherstellen unternehmenskritischer Systeme während Drittens: Führen Sie nach der Migration immer Validierungen und Tests durch, um die Datenintegrität und Systemleistung in der neuen Cloud-Umgebung sicherzustellen . Erwerbstätigkeit, Reflexion. Denken Sie an die kritischsten Systeme Ihres Unternehmens. Wie würden Sie Techniken wie Live-Migration oder Schattendatenbanken implementieren wie Live-Migration oder Schattendatenbanken , um sicherzustellen, dass diese Systeme während der Migration betriebsbereit bleiben Diskussionsfrage, die im Formular gestellt wurde. Gab es bei einer früheren Migration Ausfallzeiten ? Welche Strategien oder Techniken hätten eingesetzt werden können , um sie zu minimieren? Nächste Lektion, Gewährleistung der Datenintegrität und -sicherheit. In der nächsten Lektion werden wir besprechen, wie Datenintegrität und Sicherheit während der Migration gewährleistet werden können. Wir werden Strategien zur Aufrechterhaltung der Datenkonsistenz, zur Implementierung von Verschlüsselung und zur Sicherstellung der Einhaltung gesetzlicher Standards während des Migrationsprozesses untersuchen zur Aufrechterhaltung der Datenkonsistenz, zur Implementierung von Verschlüsselung und zur Sicherstellung der Einhaltung . bereit sind, Ihre Daten während der Migration zu schützen, schauen wir uns die vierte Lektion von Modul vier an. 17. Lektion 4: Datenintegrität und Sicherheit gewährleisten: Lektion vier, Gewährleistung der Datenintegrität und -sicherheit. Willkommen zu Lektion vier, Modul vier. In dieser Lektion konzentrieren wir uns auf einen der wichtigsten Aspekte der Migration von Daten und Anwendungen in die Cloud, nämlich die Gewährleistung der Datenintegrität und -sicherheit Für IT-Infrastrukturleiter wie William ist es wichtig, die Genauigkeit, Konsistenz und Sicherheit der Daten während der Migration aufrechtzuerhalten die Genauigkeit, Konsistenz und Sicherheit der Daten während der Migration aufrechtzuerhalten, insbesondere beim Umgang mit sensiblen Finanz- oder Kundeninformationen Wir werden untersuchen, wie Datenkonsistenz gewährleistet, Verschlüsselung implementiert und die Einhaltung gesetzlicher Standards während des gesamten Migrationsprozesses sichergestellt Einhaltung gesetzlicher Standards werden kann. Am Ende dieser Lektion lernen Sie zunächst Strategien kennen, um Datenkonsistenz, Integrität und Sicherheit während der Migration zu gewährleisten . Um zu verstehen, wie wichtig Verschlüsselung ist und wie gesetzliche Standards bei der Übertragung sensibler Daten eingehalten werden können. Lass uns anfangen. Sicherstellung der Datenkonsistenz und Integrität während der Migration. Die Wahrung der Datenkonsistenz und -integrität ist während der Migration von entscheidender Bedeutung , um Probleme wie Datenverlust, Beschädigung oder Duplizierung zu verhindern Datenverlust, Beschädigung oder Duplizierung Dies ist besonders wichtig, wenn kritische Systeme von lokalen Mainframes in Cloud-Umgebungen migriert kritische Systeme von lokalen Mainframes in Cloud-Umgebungen lokalen Mainframes Im Folgenden finden Sie Strategien, mit denen Sie sicherstellen können, dass Ihre Daten während des gesamten Migrationsprozesses korrekt und zuverlässig bleiben während des gesamten Migrationsprozesses korrekt und zuverlässig Datenkonsistenz, damit die Daten aufeinander abgestimmt sind. Datenkonsistenz bedeutet, sicherzustellen, dass Ihre Daten während der Migration sowohl in der lokalen Quellumgebung als auch in der Cloud-Zielumgebung synchronisiert und kohärent bleiben sowohl in der lokalen Quellumgebung als auch in der . Implementieren Sie die Synchronisation in Echtzeit. Verwenden Sie Tools für die Replikation in Echtzeit, um die Daten zwischen Ihren lokalen Umgebungen und Ihrer Cloud-Umgebung synchron zu halten . Dadurch wird sichergestellt, dass alle Änderungen, die während der Migration an den Daten vor Ort vorgenommen werden, in der Cloud-Umgebung widergespiegelt werden . Beispieltools wie AWS Database Migration Service oder DMS oder Azure Data Sync können dabei helfen, Änderungen in Echtzeit zu replizieren , um Konsistenz während der Migration aufrechtzuerhalten Überwachen Sie die Datenkonsistenz. Verwenden Sie automatisierte Datenvalidierungsprüfungen, um die Daten in Ihrem Quellsystem mit denen im Ziel-Cloud-System zu vergleichen die Daten in Ihrem Quellsystem . Dies kann während und nach der Migration erfolgen , um sicherzustellen, dass keine Daten verloren gehen oder beschädigt werden. Nehmen wir ein Beispiel. Williams-Finanzinstitut könnte die Echtzeitsynchronisierung verwenden , um sicherzustellen, dass die Transaktionsdaten der Kunden während der Migration zwischen dem Mainframe und AWS konsistent bleiben , sodass keine Transaktionen verpasst oder verzögert werden Datenintegrität, Schutz vor Korruption. Datenintegrität stellt sicher , dass die Daten während des gesamten Migrationsprozesses korrekt und vollständig bleiben gesamten Migrationsprozesses korrekt und vollständig Um Probleme wie Datenbeschädigung oder -verlust zu vermeiden, ist es wichtig, einen Validierungs- und Fehlerprüfungsmechanismus zu implementieren . Verwenden Sie Prüfsummen für die Validierung. Implementieren Sie Prüfsummenmechanismen, um zu überprüfen, ob die in die Cloud übertragenen Daten die Cloud übertragenen mit den ursprünglichen Daten vor Ort übereinstimmen Prüfsummen ermöglichen es Ihnen, alle Inkonsistenzen oder Beschädigungen zu erkennen alle Inkonsistenzen oder Beschädigungen , die während der Migration auftreten können. Datenvalidierung nach der Migration. Sobald die Daten vollständig migriert sind, führen Sie Validierungsprozesse durch, um sicherzustellen, dass den migrierten Daten um eine exakte Kopie des Originals handelt Dazu gehört die Überprüfung auf fehlende Datensätze, beschädigte Dateien und inkonsistente Nehmen wir ein Beispiel. Für das Williams-Team stellt die Überprüfung, dass alle Kundenkontodaten ohne Beschädigung in die Cloud migriert wurden , sicher , dass wichtige Bankgeschäfte fehlerfrei weitergeführt werden Sicherstellung der Datenverschlüsselung und des Schutzes während der Übertragung. Datensicherheit hat bei der Migration oberste Priorität, insbesondere bei der Übertragung sensibler Kundeninformationen, Finanztransaktionen oder persönlich identifizierbarer Informationen oder PII Ziel ist es, sicherzustellen, dass die Daten während des gesamten Migrationsprozesses verschlüsselt, geschützt und konform bleiben , geschützt und gesamten Migrationsprozesses verschlüsselt, geschützt und konform Verschlüsselung, Sicherung von Daten bei der Übertragung und Adresse. Verschlüsselung ist für den Schutz von Daten bei der Übertragung zwischen lokalen Umgebungen und der Cloud unerlässlich bei der Übertragung zwischen . Sie stellt sicher, dass Daten, selbst wenn sie während der Übertragung abgefangen werden, nicht abgerufen oder manipuliert werden können Verschlüsseln Sie Daten während der Übertragung. Stellen Sie sicher, dass alle migrierten Daten während der Übertragung verschlüsselt werden Verwendung von VPNs oder dedizierten Verbindungen wie AWS Direct Connect oder Azure Express Route können sichere, verschlüsselte Verbindungen zwischen Ihren lokalen Systemen und der Sie können auch Protokolle wie SSL TLS verwenden , um Daten zu verschlüsseln , während sie über das Netzwerk übertragen werden Beispieltools für AWS: Sie können die SSL-Verschlüsselung für Daten aktivieren, die zwischen Prime-Systemen und Cloud-Diensten wie S Three oder RDS Datenadresse verschlüsseln. Sobald die Daten eine Cloud erreicht haben, stellen Sie sicher, dass sie eine verschlüsselte Adresse bleiben Dazu gehören Cloud-native Verschlüsselungsdienste wie AWS KMS oder Azure Key Vault zur Verwaltung von Verschlüsselungsschlüsseln und zum Schutz vertraulicher Informationen in der Cloud-Umgebung gespeichert sind. Nehmen wir ein Beispiel. Williams Team könnte SSL/TLS-Verschlüsselung oder Data Intransit verwenden, um die Finanzdaten von Kunden zu schützen während sie in die Cloud übertragen werden Sobald sich die Daten in AWS befinden, kann die AMS-Verschlüsselung die Adresse sichern und so einen kontinuierlichen Schutz gewährleisten Sicherung des Zugriffs während der Migration. Sicherung von Daten während der Migration geht es nicht nur um Verschlüsselung. Es geht auch darum zu kontrollieren, wer während des Migrationsprozesses Zugriff auf die Daten hat . Implementieren Sie eine rollenbasierte Zugriffskontrolle oder RBAC. Verwenden Sie RBAC, um den Zugriff auf den Migrationsprozess zu beschränken. Nur autorisiertes Personal wie Dateningenieure oder Sicherheitsadministratoren sollte während der Migration Zugriff auf sensible Daten haben während der Migration Zugriff auf sensible Daten Verwenden Sie Multifaktor-Authentifizierung oder MFA. Implementieren Sie MFA für zusätzliche Sicherheit für jeden, der auf die Migrationstools oder die Cloud-Umgebung zugreift oder die Dies bietet eine zusätzliche Schutzebene und verhindert unbefugten Zugriff Nehmen wir ein Beispiel. Das Williams-Team könnte RBAC implementieren, um sicherzustellen, dass nur erfahrene Dateningenieure und Sicherheitspersonal Zugriff auf das Migrationssystem haben MFA könnte auch für alle erforderlich sein Übertragung sensibler Kundendaten beteiligt sind Einhaltung gesetzlicher Standards. Für viele Unternehmen, insbesondere in stark regulierten Branchen wie dem Bankwesen, ist es wichtig, die Einhaltung der Datenschutzbestimmungen bei der Migration sicherzustellen . Nichteinhaltung von Vorschriften wie PCIDSS, GDPR oder HIPA kann zu rechtlichen Konsequenzen und erheblichen Bußgeldern führen Einhaltung gesetzlicher Vorschriften bei der Datenübertragung. Um die Einhaltung der Vorschriften zu gewährleisten, muss unbedingt überprüft werden, ob der Cloud-Dienstanbieter und der Migrationsprozess selbst die regulatorischen Standards für Datensicherheit und Datenschutz erfüllen . Stellen Sie die Einhaltung der Vorschriften durch Cloud-Anbieter sicher. Sie vor der Migration sicher, dass der von Ihnen gewählte Cloud-Anbieter die erforderlichen Industriestandards und Zertifizierungen einhält die erforderlichen Industriestandards und Zertifizierungen AWS und Azure sind beispielsweise PCIDSS- und DSGVO-konform und eignen sich daher für den Umgang mit Finanzdaten und personenbezogenen Daten oder Verwenden Sie Verschlüsselung und Maskierung zur Einhaltung der Vorschriften. Viele Vorschriften schreiben vor, dass sensible Daten bei der Übertragung verschlüsselt oder maskiert Verschlüsselung wird sichergestellt , dass Daten auch dann nicht lesbar sind, wenn sie abgefangen werden Datenmaskierung können Daten weiter geschützt werden, indem sensible Informationen wie Kreditkarten - oder Sozialversicherungsnummern verschleiert sensible Informationen wie Kreditkarten Durch Datenmaskierung können Daten weiter geschützt werden, indem sensible Informationen wie Kreditkarten - oder Sozialversicherungsnummern verschleiert werden. Nehmen wir ein Beispiel. Wenn das Williams-Team Kundentransaktionsdaten zu AWS migriert , muss es sicherstellen, dass die AWS-Services PCI-DSS-konform sind und dass Datenmaskierungstechniken verwendet werden um sensible Datenfelder während der Migration zu schützen Anforderungen an den Wohnsitz der Daten. Bestimmte Vorschriften können auch Anforderungen an die Datenresidenz enthalten, die vorschreiben, wo Daten gespeichert und verarbeitet werden müssen DSGVO verlangt beispielsweise, dass Daten von EU-Bürgern innerhalb der Europäischen Union gespeichert werden , während Finanzdaten möglicherweise an bestimmten geografischen Standorten gespeichert werden müssen Wählen Sie Datenregionen sorgfältig aus. Achten Sie bei der Datenmigration darauf, dass Sie Cloud-Regionen wählen , die den Vorschriften zur Datenresidenz entsprechen Datenresidenz entsprechen Sowohl AWS als auch Azure bieten bestimmte Regionen in verschiedenen Ländern , die die Anforderungen an den Wohnsitz erfüllen können Beispielsweise muss die Williams-Institution möglicherweise sicherstellen, dass Kundendaten europäischer Kunden innerhalb der AWS-Regionen der EU verbleiben , um der DSGVO zu entsprechen, während Daten für US-Kunden möglicherweise in Cloud-Regionen mit während Daten für US-Kunden Sitz in den USA gespeichert werden Implementierung von Prüfprotokollen und Überwachung. Um Sicherheit und Compliance weiter zu verbessern, ist es wichtig, während des gesamten Migrationsprozesses Prüfpfade und Überwachung zu implementieren . Aktivieren Sie die Protokollierung und Prüfung. Cloud-Plattformen wie AWS CloudTrail oder Azure Monitor ermöglichen es Ihnen, alle Aktionen und Änderungen zu verfolgen , die während des Migrationsprozesses vorgenommen wurden Diese Protokolle helfen Ihnen dabei, unbefugte Zugriffsversuche oder potenzielle Sicherheitsverletzungen zu identifizieren unbefugte Zugriffsversuche oder potenzielle Sicherheitsverletzungen Überwachen Sie den Migrationsprozess. kontinuierliche Überwachung des Migrationsprozesses hilft dabei, Leistungsengpässe, Fehler oder potenzielle Bedrohungen in Echtzeit zu identifizieren Fehler oder potenzielle Bedrohungen , was eine schnelle Mediation ermöglicht Zum Beispiel könnte Williams Team AWS CloudTrail in die Lage versetzen, alle während des Migrationsprozesses ergriffenen Maßnahmen zu überprüfen alle während des Migrationsprozesses ergriffenen Maßnahmen so vollständige Transparenz zu gewährleisten und Aufzeichnungen zu Compliance-Zwecken bereitzustellen wichtigsten Erkenntnissen aus dieser Lektion gehört zum einen, Datenintegrität und Konsistenz während der Migration durch Techniken wie Echtzeitsynchronisierung und Prüfsummen zur Datenvalidierung gewährleistet werden können durch Techniken wie Echtzeitsynchronisierung und Prüfsummen zur Zweitens ist die Verschlüsselung von Daten während der Übertragung und Adresse entscheidend für Schutz sensibler Informationen Rollenbasierte Zugriffskontrolle oder RBAC und Multifaktor-Authentifizierung oder MFA sichern den Migrationsprozess zusätzlich Drittens ist die Einhaltung gesetzlicher Standards wie PCI DSS oder GDPR bei der Migration oder GDPR sicher, dass Cloud-Anbieter die Standards erfüllen und bei Bedarf die Anforderungen an die Datenresidenz umsetzen Erwerbstätigkeit, Reflexion. Erteilen Sie Ihrer Organisation eine regulatorische Verpflichtung. Zum Beispiel PCI DSS und GDPR. Wie würden Sie Datenverschlüsselung und Compliance während Ihrer Cloud-Migration sicherstellen Compliance während Ihrer Cloud-Migration Diskussion, Frage, Beitrag im Forum, wie gewährleistet Ihr Unternehmen Datenintegrität und Sicherheit während der Migration? Welche Tools oder Praktiken haben Sie als am effektivsten empfunden? Nächste Lektion, Einführung in DevOps in Hybridsystemen. Im nächsten Modul konzentrieren wir uns auf die Rolle von DevOps bei der Verwaltung hybrider Cloud-Umgebungen In der ersten Lektion von Modul fünf werden wir untersuchen, wie DevOps-Praktiken wie Continuous Integration und Continuous Delivery, Abläufe in Hybridsystemen rationalisieren und Abläufe in Hybridsystemen rationalisieren und bereit sind, das Potenzial der Automatisierung in Ihrer Hybrid-Cloud-Umgebung auszuschöpfen, gehen wir zu Modul fünf über und untersuchen, wie DevOps Ihre Cloud-Strategie optimieren kann 18. Lektion 1: Einführung in DevOps in hybriden Systemen: Willkommen zu Modul fünf, Implementierung von Automatisierung und DevOps in hybriden Umgebungen In diesem Modul erfahren Sie, wie Sie DevOps-Praktiken und Automatisierungstools in einer hybriden Mainframe-Cloud-Architektur implementieren Automatisierungstools in einer hybriden Mainframe-Cloud-Architektur Es behandelt Automatisierungstechniken wie CICD-Pipelines, Orchestrierung mit Kubernetes und AWS-Automatisierungstools wie CloudFormation, die einen effizienten und AWS-Automatisierungstools wie CloudFormation Orchestrierung mit Kubernetes und AWS-Automatisierungstools wie CloudFormation, die einen effizienten und optimierten Betrieb ermöglichen. Lektion eins, Einführung in DevOps in Hybridsystemen. Willkommen zu Modul fünf. In dieser Lektion stellen wir die Rolle von DevOps bei der Verwaltung von Hybrid-Cloud-Umgebungen Für IT-Infrastrukturleiter wie William, die die Modernisierung von Altsystemen beaufsichtigen, kann die Einführung von DevOps-Praktiken entscheidend sein DevOps kombiniert Entwicklung und Betrieb, um eine Kultur der Zusammenarbeit zu schaffen , in der Automatisierung, kontinuierliche Integration und kontinuierliche Bereitstellung Schlüssel zur Optimierung von Hybrid-Cloud-Workflows sind Am Ende dieser Lektion werden Sie zum einen Rolle von DevOps bei der Verwaltung von Hybrid-Cloud-Umgebungen verstehen Verwaltung von Hybrid-Cloud-Umgebungen Erkennen Sie die Vorteile der Anpassung von CICD-Pipelines zur Automatisierung Bereitstellung und Optimierung Lassen Sie uns untersuchen, wie DevOps die Art und Weise, wie Sie Ihre Hybrid-Cloud-Infrastruktur verwalten, verändern kann die Art und Weise, wie Sie Ihre Hybrid-Cloud-Infrastruktur verwalten, verändern Ihre Hybrid-Cloud-Infrastruktur verwalten Definition der Rolle von DevOps in Hybrid-Cloud-Umgebungen. DevOps ist eine Reihe von Praktiken, die die Zusammenarbeit zwischen Entwicklungs- und IT-Betriebsteams fördern Zusammenarbeit zwischen Entwicklungs- und IT-Betriebsteams Es zielt darauf ab, den Entwicklungszyklus zu verkürzen, qualitativ hochwertige Anwendungen schnell bereitzustellen und sicherzustellen, dass Infrastrukturänderungen reibungslos und automatisch erfolgen In Hybrid-Cloud-Umgebungen , in denen Anwendungen sowohl auf Mainframe-Systemen als auch auf Cloud-Plattformen ausgeführt werden, spielt DevOps eine entscheidende Rolle bei der Integration und Automatisierung DevOps, Abbau von Silos. Traditionell arbeiten Entwicklungs- und IT-Betriebsteams getrennt Dies führte häufig zu Engpässen, langsamen Bereitstellungen und Fehlkommunikation. DevOps durchbricht die Silos indem es eine Kultur der Zusammenarbeit fördert, in der Entwickler und Betriebsteams gesamten Lebenszyklus einer Anwendung, von der Entwicklung und dem Testen bis hin zur Bereitstellung und Überwachung, eng zusammenarbeiten Lebenszyklus einer Anwendung, von der Entwicklung und dem Testen bis Entwicklung In einer Hybrid-Cloud-Umgebung, in der Legacy-Systeme Mainframes mit Cloud-nativen Anwendungen interagieren müssen , kann DevOps die Lücke zwischen Es stellt sicher, dass sowohl lokale als auch Cloud-Systeme nahtlos verwaltet werden und Änderungen konsistent in beiden Umgebungen implementiert werden können konsistent in beiden Nehmen wir ein Beispiel. William geht davon aus, dass Devos-Praktiken implementiert werden müssen, um die Bereitstellung cloudbasierter kundenorientierter Anwendungen wie Mobile-Banking-Apps zu optimieren cloudbasierter kundenorientierter Anwendungen und gleichzeitig sicherzustellen, dass diese Anwendungen nahtlos mit Mainframe-Systemen vor Ort interagieren , die Echtzeittransaktionen abwickeln DevOps in der Hybrid-Cloud-Automatisierung in mehreren Umgebungen. In Hybrid-Cloud-Umgebungen Verwaltung von Anwendungen über mehrere Infrastrukturen hinweg kann die Verwaltung von Anwendungen über mehrere Infrastrukturen hinweg komplex sein DevOps ermöglicht es Ihnen wichtige Aufgaben wie Bereitstellung, Überwachung und Skalierung sowohl in Ihren lokalen als auch in Ihren Cloud-Umgebungen zu automatisieren , Überwachung und Skalierung sowohl in Ihren lokalen als auch in Ihren Cloud-Umgebungen Dies ist besonders nützlich in Hybridsystemen, bei denen verschiedene Teile einer Anwendung in der Cloud ausgeführt werden können , während andere vor Ort bleiben Mit entwickelten Tools und Methoden können Sie die Infrastruktur als Code oder IAC implementieren, wobei Ihre Infrastruktur wie Netzwerke, virtuelle Maschinen und Datenbanken über maschinenlesbare Skripts verwaltet und bereitgestellt wird, und Datenbanken über maschinenlesbare Skripts verwaltet und bereitgestellt wird anstatt Hardware oder Systeme manuell zu konfigurieren Nehmen wir ein Beispiel. Das Williams-Team könnte IAC nutzen , um die Bereitstellung von Cloud-Servern für kundenorientierte Anwendungen zu automatisieren und gleichzeitig den Kernbankbetrieb auf dem Mainframe laufen DevOps-Tools können sicherstellen , dass beide Systeme je nach Workload-Anforderungen automatisch aktualisiert und skaliert werden automatisch aktualisiert und skaliert werden . Die Einführung von CICD zur Automatisierung von Hybrid-Cloud-Prozessen bietet Continuous Integration, CI und Continuous Delivery CD sind zwei Schlüsselkomponenten der DevOps-Methodik Zusammen helfen sie Unternehmen dabei, den gesamten Softwareveröffentlichungsprozess von der Codeentwicklung bis zur Bereitstellung zu automatisieren den gesamten Softwareveröffentlichungsprozess , wodurch er schneller, zuverlässiger und weniger anfällig für menschliche Fehler In Hybrid-Cloud-Umgebungen können CICD-Pipelines verwendet werden, um die Bereitstellung von Anwendungen sowohl auf lokalen Mainframes als auch auf Cloud-Plattformen zu automatisieren von Anwendungen sowohl auf lokalen Mainframes als auch auf Cloud-Plattformen Kontinuierliche Integration, automatisches Zusammenführen von Code. Kontinuierliche Integration bezieht sich auf die Praxis Codeänderungen von mehreren Entwicklern regelmäßig in einem gemeinsamen Repository zusammenzuführen mehreren Entwicklern regelmäßig in einem gemeinsamen Jedes Mal, wenn neuer Code zusammengeführt wird, werden automatisierte Tests ausgelöst, um zu überprüfen, ob der Code erwartungsgemäß funktioniert Dies hilft Teams dabei, Probleme frühzeitig zu erkennen und zu beheben und größere Probleme später im Entwicklungszyklus zu verhindern . Zu den wichtigsten Vorteilen gehört eine schnellere Entwicklung. Entwickler können kleine inkrementelle Updates vornehmen , die häufig getestet und bereitgestellt werden Es wurden Fehler hinzugefügt. Automatisierte Tests stellen sicher, dass neue Änderungen bestehende Funktionalität nicht beeinträchtigen systemlosen Zusammenarbeit können mehrere Teams effizienter zusammenarbeiten, selbst in komplexen Hybridumgebungen Nehmen wir ein Beispiel. Im Hybrid-Cloud-System von Williams könnte das DevOp-Team CI nutzen, um die Integration von Code für Cloud-basierte Anwendungen wie die mobile App der Bank zu automatisieren die Integration von Code für Cloud-basierte Anwendungen und gleichzeitig sicherzustellen, dass durch Änderungen die Backend-Systeme des gleichzeitig sicherzustellen, dass durch Änderungen die Mainframes, die Transaktionen abwickeln, nicht gestört Mainframes, die Transaktionen abwickeln, Kontinuierliche Bereitstellung, Automatisierung von Bereitstellungen . Continuous Delivery ist die Praxis, Codeänderungen automatisch in einer Staging-Umgebung bereitzustellen , nachdem sie die CI-Pipeline passiert haben TD ermöglicht es Teams, Softwareupdates schneller und zuverlässiger zu veröffentlichen , indem der Bereitstellungsprozess automatisiert wird Es stellt sicher, dass Änderungen immer bereit sind, mit minimalem menschlichem Eingreifen in die Produktion implementiert zu werden mit minimalem menschlichem Eingreifen in die Produktion implementiert zu Zu den wichtigsten Vorteilen gehören schnellere Releases. CD ermöglicht häufigere Veröffentlichungen neuer Funktionen, Bugfixes und Updates. Automatisierte Rollbacks. Wenn bei der Bereitstellung ein Problem festgestellt wird, können CD-Systeme automatisch zur vorherigen Version zurückkehren , wodurch Ausfallzeiten minimiert werden Skalierbarkeit: CD-Pipelines können auf Hybridsysteme skaliert werden, wodurch sichergestellt wird, dass Änderungen sowohl auf lokalen Systemen als auch in der Cloud konsistent implementiert werden sowohl auf lokalen Systemen als auch in der Cloud konsistent Ein Beispiel: Die Organisation Williams könnte CID implementieren, um den Einsatz von Cloud-basierten Analysetools zu automatisieren , die dabei helfen, die Ausgabegewohnheiten der Kunden zu verfolgen und gleichzeitig sicherzustellen, dass diese Tools in die Mainframe-Vorsysteme integriert bleiben die Mainframe-Vorsysteme Dies würde es der Bank ermöglichen, Updates häufiger zu veröffentlichen und gleichzeitig das Risiko von Betriebsunterbrechungen zu minimieren das Risiko von Betriebsunterbrechungen CICD-Pipelines funktionieren in hybriden Umgebungen. In einem Hybrid-Cloud-Setup können CICD-Pipelines so konfiguriert werden, können CICD-Pipelines so konfiguriert werden der gesamte Prozess der Entwicklung, des Testens und der Bereitstellung von Anwendungen in mehreren Umgebungen automatisiert Testens und der Bereitstellung von Anwendungen in mehreren Anwendungen So funktioniert es. Code ist ein verbindliches und integriertes CI. Entwickler übertragen Code in ein gemeinsam genutztes Repository wie Git. Dies löst die CI-Pipeline aus. Automatisierte Tests werden ausgeführt, um sicherzustellen, dass der neue Code keine Fehler verursacht. Der Code wird dann in andere Teile der Anwendung integriert , z. B. den Mainframe oder in Cloud-basierte Dienste Der Code wird automatisch für CD bereitgestellt. Sobald der Test bestanden wurde, wird der Code automatisch einer Staging-Umgebung bereitgestellt Wenn alles wie erwartet funktioniert, wird der Code zur Produktion weitergeleitet, wodurch sichergestellt wird, dass sowohl das Mainframe- als auch das Cloud-System aktualisiert werden Wenn Probleme auftreten, kann die CD-Pipeline automatisch auf eine stabile Version der Anwendung zurückgesetzt werden, wodurch Ausfallzeiten und Auswirkungen auf die Benutzer minimiert Ein Beispiel: In Williams Hybrid-Cloud-System würde dieser Prozess es seinem Team ermöglichen, würde dieser Prozess es seinem Team ermöglichen schnell Updates für mobile Anwendungen mit Kundenkontakt bereitzustellen und gleichzeitig sicherzustellen, dass diese Anwendungen vollständig in die Transaktionssysteme integriert bleiben , die auf dem Mainframe laufen den wichtigsten Erkenntnissen aus dieser Lektion gehört, DevOps eine entscheidende Rolle bei der Verwaltung hybrider Cloud-Umgebungen spielt , indem es Silos zwischen Entwicklung und Betrieb aufbricht und Zusammenarbeit und Automatisierung ermöglicht Zu den wichtigsten Erkenntnissen aus dieser Lektion gehört, dass DevOps eine entscheidende Rolle bei der Verwaltung hybrider Cloud-Umgebungen spielt, indem es Silos zwischen Entwicklung und Betrieb aufbricht und Zusammenarbeit und Automatisierung ermöglicht. Zweitens automatisieren CICD-Pipelines den Prozess der Integration, des Testens und der Bereitstellung von Code in Hybridsystemen, wodurch Fehler reduziert, die Geschwindigkeit verbessert und die Skalierbarkeit verbessert den Prozess der Integration, des Testens und der Bereitstellung von Code in Hybridsystemen, wodurch Fehler reduziert, die Geschwindigkeit verbessert und die Skalierbarkeit verbessert werden. Drittens sorgt DevOps in hybriden Umgebungen für eine konsistente und zuverlässige Bereitstellung von Anwendungen sowohl auf lokalen Systemen als auch auf Cloud-Plattformen lokalen Systemen Erwerbstätigkeit, Reflexion. Überlegen Sie, wie DevOps-Praktiken wie CICD das Management Ihrer Hybrid-Cloud-Umgebung verbessern könnten Ihrer Hybrid-Cloud-Umgebung Was sind die potenziellen Vorteile für Ihr Team? Im Forum gestellte Diskussionsfrage. Wie könnte die Einführung von CICD-Pipelines Ihrem Unternehmen helfen Bereitstellungsprozesse zu automatisieren und die betriebliche Effizienz hybrider Systeme zu verbessern Nächste Lektion: Wichtige DevOps-Tools für Hybrid-Cloud-Management In der nächsten Lektion werden wir uns eingehender mit den spezifischen DevOp-Tools befassen , mit denen Sie Hybrid-Cloud-Systeme automatisieren und verwalten können Hybrid-Cloud-Systeme automatisieren und verwalten Wir werden beliebte Tools wie Jenkins, Terraform, AWS Lambda und Kubernetes untersuchen und erläutern, AWS Lambda und Kubernetes untersuchen und wie sie verwendet werden können, um die Bereitstellung, Überwachung und Skalierung in Hybridumgebungen zu optimieren . Wir freuen uns darauf, die Tools kennenzulernen, die die Automatisierung in Ihrer Hybrid Cloud vorantreiben werden. Lassen Sie uns mit Lektion zwei von Modul fünf fortfahren. Ein, 19. Lektion 2: Die wichtigsten DevOps-Tools für Hybrid Cloud-Management: Lektion zwei, wichtige DevOps-Tools für Hybrid-Cloud-Management. Willkommen zu Lektion zwei von Modul fünf. In dieser Lektion werden wir uns eingehend mit einigen der beliebtesten und leistungsstärksten DevOps-Tools für die Verwaltung von Hybrid-Cloud-Umgebungen Als IT-Infrastrukturdirektor wie William ist die Auswahl der richtigen Tools unerlässlich, ist die Auswahl der richtigen Tools um Ihre Arbeitsabläufe sowohl auf lokalen Mainframes als auch in Cloud-Umgebungen zu automatisieren und zu optimieren Ihre Arbeitsabläufe sowohl auf lokalen Mainframes als auch in Cloud-Umgebungen zu automatisieren und Wir werden uns mit Tools wie Jenkins, Perra Form, AWS Lambda und Kubernetes befassen und untersuchen, wie sie zur Verwaltung der Bereitstellung, Überwachung und Skalierung in Ihren Hybridsystemen verwendet werden können Überwachung Am Ende dieser Lektion werden Sie Rolle der wichtigsten DevOps-Tools bei der Automatisierung und Verwaltung von Hybrid-Cloud-Umgebungen verstehen die Rolle der wichtigsten DevOps-Tools bei der Automatisierung und Verwaltung von Hybrid-Cloud-Umgebungen verstehen. Zweitens müssen Sie wissen, wie Sie Tools wie Jenkins, Terraform, AWS Lambda und Kubernetes einsetzen können, um die Bereitstellung, Überwachung und Skalierung in Hybridsystemen zu automatisieren . Lass uns anfangen. Jenkins, Automatisierung Continuous Integration und Continuous Delivery CICD Was ist Jenkins? Jenkins ist einer der am häufigsten verwendeten Open-Source-Automatisierungsserver Continuous Integration , CI und Continuous Delivery CD ermöglicht CI und Continuous Delivery CD Jenkins automatisiert die sich wiederholenden Aufgaben beim Erstellen, Testen und Bereitstellen von Anwendungen. Es ist hochgradig erweiterbar und bietet Hunderte von Plugins, die sich in andere DevOps-Tools und Cloud-Dienste integrieren lassen , sodass es sich ideal für Hybrid-Cloud-Umgebungen eignet Zu den wichtigsten Funktionen gehört die Automatisierung von Builds und Tests. Jenkins automatisiert den Prozess der Integration von Codeänderungen, Ausführung von Tests und der Bereitstellung von Anwendungen in der Cloud und in der Erweiterbarkeit. Jenkins stellt Plugins für fast alle wichtigen Entwickler von Tools bereit, sodass es sich nahtlos in Tools wie Docker, Ubernets und Terraform integrieren lässt wie Docker, Flexibilität: Jenkins arbeitet mit mehreren Cloud-Plattformen, sodass Sie Pipelines für die Bereitstellung von Code in hybriden Umgebungen, einschließlich Mainframes und Cloud-nativen Systemen, erstellen Code können. Nehmen wir ein Beispiel. Williams Team kann Jenkins verwenden, um die CICD-Pipeline für Anwendungen zu automatisieren , die in ihrer Hybrid-Cloud-Umgebung ausgeführt können sie beispielsweise die Bereitstellung cloudbasierter kundenorientierter Apps automatisieren und gleichzeitig sicherstellen, dass die Backend-Prozesse auf dem Mainframe Wie kann Jenkins in Hybrid-Cloud-Umgebungen eingesetzt werden? In einer Hybrid-Cloud-Umgebung kann Jenkins verwendet werden, um die gesamte CI City-Pipeline von der Codeintegration über das Testen bis hin zur Bereitstellung zu automatisieren gesamte CI City-Pipeline von der Codeintegration über das Testen bis hin zur Bereitstellung zu Es ermöglicht Entwicklern, Code zu schreiben, der sich nahtlos sowohl in die lokale als auch in die Cloud-Infrastruktur Anwendungsfall: Das Williams-Team kann eine Jenkins-Pipeline einrichten , die automatisch Updates für Cloud-Anwendungen wie ihre Mobile-Banking-App bereitstellt und gleichzeitig sicherstellt, dass die Kernbankensysteme, die auf dem Mainframe laufen , auch ohne manuelles Eingreifen getestet und bereitgestellt werden und bereitgestellt Terraform, Infrastruktur als Code, IAC für Hybridsysteme. Terraform, Infrastruktur als Code, IAC für Hybridsysteme. Was ist Traform? Terraform, entwickelt von HashiCorp, ist ein Infrastruktur- und IAC-Tool, mit dem Sie Ihre Infrastruktur mithilfe von Code definieren und verwalten können definieren Das bedeutet, dass Sie Ressourcen für mehrere Cloud-Anbieter und lokale Systeme auf konsistente, wiederholbare Weise bereitstellen , konfigurieren und verwalten , konfigurieren und lokale Systeme Zu den wichtigsten Funktionen gehört die Multi-Cloud-Unterstützung. Terraform unterstützt eine Vielzahl von Cloud-Plattformen, darunter AWS, Azure, Google Cloud und lokale Umgebungen, wodurch es sich ideal für deklarativer Sprache definieren Sie, wie Ihre Infrastruktur aussehen soll, und Theraform nimmt automatisch die erforderlichen Änderungen vor, um den gewünschten Zustand zu erreichen Versionskontrolle. Infrastrukturänderungen können in Versionskontrollsystemen wie Git nachverfolgt werden, sodass sichergestellt wird, dass Ihre Infrastruktur in allen Umgebungen konsistent bleibt. Ein Beispiel: Das Williams-Team kann Terraform verwenden, um Ressourcen sowohl in der Mainframe-Umgebung als auch in der Cloud-Infrastruktur bereitzustellen sowohl in der Mainframe-Umgebung als auch Ressourcen sowohl in der Mainframe-Umgebung als auch in der Cloud-Infrastruktur bereitzustellen. Beispielsweise könnten sie Terraform verwenden, um einen Kubernet-Cluster auf AWS bereitzustellen und gleichzeitig die bestehende Infrastruktur auf ihrem lokalen Mainframe beizubehalten um einen Kubernet-Cluster auf AWS bereitzustellen und gleichzeitig die bestehende Infrastruktur auf ihrem lokalen Mainframe beizubehalten. Wie Terraform in Hybrid-Cloud-Umgebungen eingesetzt werden kann. In einer Hybrid-Cloud-Umgebung ermöglicht Terraform Teams, ihre Infrastruktur als Code zu verwalten und so sicherzustellen, dass Ressourcen auf Mainframes und Cloud-Umgebungen vor Ort konsistent konfiguriert und verwaltet werden . Anwendungsfall: Das Williams-Team könnte Terraform verwenden, um die Bereitstellung von Cloud-Ressourcen zu automatisieren die Zum Beispiel Speicher- und Rechendienste für Kundendaten bei gleichzeitiger Wartung des Mainframes für die Transaktionsverarbeitung in Echtzeit AWS Lambda, serverlose Automatisierung für Cloud-fähige Prozesse Was ist AWS Lambda? AWS Lambda ist ein serverloser Rechenservice, der automatisch Codes als Reaktion auf Ereignisse ausführt und Ressourcen nach Bedarf skaliert Mit Lambda müssen Sie keine Server bereitstellen oder verwalten Es skaliert automatisch je nach Bedarf Ihrer Anwendungen, sodass Sie sich auf das Schreiben und Bereitstellen von Code konzentrieren Zu den wichtigsten Funktionen gehört Serverless. AWS Lambda übernimmt das gesamte Infrastrukturmanagement für Sie, sodass Sie Code ausführen können, ohne Server bereitstellen oder verwalten zu müssen Ereignisgesteuerte Lambda-Funktionen werden durch Ereignisse aus anderen AWS-Services ausgelöst eignen sich daher ideal für Automatisierung von Aufgaben wie Datenverarbeitung, Anwendungsüberwachung Skalierbarkeit: Lambda skaliert automatisch als Reaktion auf die Anzahl der Anfragen und stellt so sicher, dass Ihre Anwendungen Bedarfsspitzen ohne manuelles Eingreifen bewältigen können Bedarfsspitzen Ein Beispiel: Das Williams-Team könnte AWS Lambda verwenden, um Datenverarbeitungsaufgaben in Echtzeit zu automatisieren durch Ereignisse wie übliche Transaktionen ausgelöst werden Lambda könnte beispielsweise Algorithmen zur Betrugserkennung auslösen Algorithmen zur Betrugserkennung wenn verdächtige Transaktionen stattfinden, sodass das System nach Bedarf ohne manuelles Eingreifen skaliert Bedarf ohne manuelles Wie kann AWSamda in Hybrid-Cloud-Umgebungen eingesetzt werden? In einem Hybrid-Cloud-Setup kann AWS Lambda verwendet werden, um bestimmte Aufgaben in die Cloud auszulagern und gleichzeitig unternehmenskritische Systeme auf dem Mainframe zu unternehmenskritische Systeme auf dem Mainframe Lambda kann auch in andere AWS-Services integriert werden, sodass Sie Aufgaben sowohl vor Ort als auch in Cloud-Umgebungen automatisieren sowohl vor Ort als auch in Anwendungsfall. Das Williams-Team könnte Lambda verwenden, um Batch-Verarbeitungsaufträge in der Cloud zu automatisieren und gleichzeitig den Kernbankbetrieb auf dem Mainframe beizubehalten Lambda könnte unkritische Aufgaben wie die Analyse des Kundenverhaltens Mainframe-Ressourcen für Echtzeittransaktionen freisetzen wie die Analyse des Kundenverhaltens übernehmen und so Mainframe-Ressourcen für Echtzeittransaktionen freisetzen. Kubernetes, Orchestrierung von Containern über Hybridsysteme hinweg. Was ist Kubernetes? Kubernetes ist eine Open-Source-Container-Orchestrierungsplattform Open-Source-Container-Orchestrierungsplattform , die die Bereitstellung, Skalierung und Verwaltung von containerisierten Anwendungen automatisiert Skalierung stellt sicher, dass Ihre Anwendung in einer konsistenten, skalierbaren Umgebung ausgeführt wird, egal ob vor Ort oder in der Zu den wichtigsten Funktionen gehört die Container-Orchestrierung. Kubernetes verwaltet Container clusterübergreifend und automatisiert Aufgaben wie Bereitstellung, Skalierung Skalierbarkeit: Kubernetes skaliert die Anwendung automatisch je nach Bedarf und stellt so sicher, dass Ihr System mit Schwankungen der Arbeitslast umgehen kann . Hybrid-Cloud-Unterstützung. Kubernetes kann vor Ort in der Cloud oder in beiden Umgebungen ausgeführt werden, was es zu einem leistungsstarken Tool für die Verwaltung der Hybrid-Cloud-Infrastruktur macht Verwaltung der Hybrid-Cloud-Infrastruktur Nehmen wir ein Beispiel. könnte Kubernetes verwenden, um containerisierte Anwendungen zu verwalten , die sowohl in ihrem lokalen Rechenzentrum als auch in ihrer Cloud-Infrastruktur ausgeführt sowohl in ihrem lokalen Rechenzentrum als auch in ihrer Cloud-Infrastruktur Williams Team könnte Kubernetes verwenden, um containerisierte Anwendungen zu verwalten , die sowohl in ihrem lokalen Rechenzentrum als auch in ihrer Cloud-Infrastruktur ausgeführt werden. Kubernetes könnte beispielsweise den Einsatz von Microservices orchestrieren, die Kundendaten in der Cloud verarbeiten und gleichzeitig mit Backend-Systemen auf dem Mainframe interagieren gleichzeitig Wie Kubernetes in Hybrid-Cloud-Umgebungen eingesetzt werden kann. In Hybrid-Cloud-Systemen ermöglicht Kubernetes Teams, containerisierte Anwendungen in mehreren Umgebungen auszuführen und so sicherzustellen, dass Anwendungen sowohl auf Prime-Systemen als auch in der Cloud dynamisch skaliert werden können sowohl auf Prime-Systemen als auch in der Cloud dynamisch Im Anwendungsfall würde das Williams-Team Kubernetes verwenden, um in der Cloud ausgeführte Microservices für kundenorientierte Apps zu verwalten und gleichzeitig sicherzustellen, dass diese Microservices in und gleichzeitig sicherzustellen, dass die Transaktionssysteme auf dem Mainframe integriert bleiben . Kombination von DevOps-Tools für eine umfassende Automatisierung. Die genannten Tools Jenkins, Terraform, AWS Lambda und Kubernts arbeiten zusammen, um eine umfassende Automatisierung für Hybrid-Cloud-Umgebungen bereitzustellen. eine umfassende Automatisierung für Hybrid-Cloud-Umgebungen bereitzustellen. Durch die Kombination dieser Tools können Sie alles automatisieren, können Sie alles automatisieren Infrastruktur bis hin zur Anwendungsbereitstellung, Skalierung von der Bereitstellung der Infrastruktur bis hin zur Anwendungsbereitstellung, Skalierung und Überwachung. Ein Beispiel für einen Workflow. Terraform stellt die notwendige Cloud-Infrastruktur für neue Jenkins automatisiert die CICD-Pipeline und stellt sicher, dass der Anwendungscode sowohl vor Ort als auch in Cloud-Umgebungen erstellt, getestet und bereitgestellt wird sowohl vor Ort als auch in Cloud-Umgebungen erstellt, getestet und bereitgestellt wird . Kubernetes verwaltet die containerisierte Anwendung und stellt sicher, dass sie je nach Bedarf automatisch skaliert wird. Anschließend automatisiert AWS Lambda spezifische Aufgaben wie ereignisgesteuerte Verarbeitung oder Echtzeitüberwachung , ohne dass Beispielsweise könnte Williams Team Terraform zur Verwaltung von Cloud-Ressourcen, Jenkins für automatisierte Bereitstellungen, Ubernts für die Autokratierung von Containern in der Cloud und auf erstklassigen Systemen und AwAMDA zur Auslösung ereignisgesteuerter Prozesse für kundenorientierte Anwendungen verwenden Jenkins für automatisierte Bereitstellungen, Ubernts für die Autokratierung von Containern in der Cloud und auf erstklassigen Systemen und AwAMDA zur Cloud und auf erstklassigen Systemen und AwAMDA . . den Erkenntnissen aus dieser Lektion gehört zum einen, dass Jenkins den CICD-Prozess automatisiert und so sicherstellt, dass Code in hybriden Umgebungen nahtlos integriert Zu den Erkenntnissen aus dieser Lektion gehört zum einen, dass Jenkins den CICD-Prozess automatisiert und so sicherstellt, dass Code in hybriden Umgebungen nahtlos integriert, getestet und bereitgestellt wird. Zu den Erkenntnissen aus dieser Lektion gehört zum einen, dass Jenkins den CICD-Prozess automatisiert und so sicherstellt, dass Code in hybriden Umgebungen nahtlos integriert, getestet und bereitgestellt wird. Zu den Erkenntnissen aus dieser Lektion gehört zum einen, dass Jenkins den CICD-Prozess automatisiert und so sicherstellt, dass Code in hybriden Umgebungen nahtlos integriert, getestet und bereitgestellt wird. Zweitens ermöglicht Ihnen das Formular die Verwaltung der Infrastruktur als Code und ermöglicht Ihnen das Formular die Verwaltung der Infrastruktur als Code konsistente Bereitstellung und Konfiguration für Cloud- und Konfiguration Drittens bietet AWS Lambda serverlose Automatisierung für Aufgaben wie die Datenverarbeitung in Echtzeit, während Kubernetes containerisierte Anwendungen in Hybridsystemen orchestriert serverlose Automatisierung für Aufgaben wie die Datenverarbeitung in Echtzeit, während Kubernetes containerisierte Anwendungen in Hybridsystemen orchestriert . Lernaktivität, Reflexion. Überlegen Sie, wie Tools wie Terraform, Jenkins und Kubernetes den Betrieb in Ihrer Hybrid-Cloud-Umgebung optimieren würden optimieren Welche Aufgabe würden Sie mit diesen Tools automatisieren? Diskussion, Frage, Beitrag im Forum. Welche Entwicklungstools haben Sie für die Verwaltung Ihrer Hybrid-Cloud-Umgebung verwendet oder planen zu verwenden? Wie würden diese Tools Ihren Arbeitsablauf verbessern? Nächste Lektion, Aufbau einer CICD-Pipeline für Hybrid Cloud. In der nächsten Lektion konzentrieren wir uns auf den Aufbau einer CICD-Pipeline für Hybrid-Cloud-Umgebungen Sie lernen Schritt für Schritt, wie Sie eine CICD-Pipeline erstellen und implementieren , und wir werden untersuchen, wie Sie Bereitstellungen sowohl in Mainframe - als auch in Cloud-Umgebungen automatisieren sowohl in Mainframe - als auch in Cloud-Umgebungen Sie bereit sind, eine vollautomatische Pipeline aufzubauen, schauen wir uns die dritte Lektion von 20. Lektion 3: Aufbau einer CI/CD-Pipeline für die Hybrid Cloud: Lektion drei, Aufbau einer CICD-Pipeline für die Hybrid Cloud. Kommen Sie zu Lektion drei von Modul fünf. In dieser Lektion werden wir den Prozess des Aufbaus den Prozess des Aufbaus einer CICD-Pipeline erläutern, die auf Hybrid-Cloud-Umgebungen zugeschnitten Für IT-Infrastrukturleiter wie William, die neben der Cloud-Infrastruktur auch Mainframe-Systeme verwalten , ist die Implementierung einer CICD-Pipeline entscheidend für Automatisierung von Bereitstellungen Am Ende dieser Lektion werden Sie wissen, wie Sie eine CICD-Pipeline entwerfen und aufbauen , die Mainframe-Anwendungen mit Cloud-nativen Systemen integriert und so eine schnellere und zuverlässigere Bereitstellung gewährleistet Am Ende dieser Lektion werden Sie zunächst den schrittweisen Prozess der Erstellung und Implementierung einer CICD-Pipeline für Hybrid-Cloud-Umgebungen verstehen CICD-Pipeline für Hybrid-Cloud-Umgebungen für Hybrid-Cloud-Umgebungen Erfahren Sie, wie Sie die Bereitstellung sowohl auf Mainframe-Systemen als auch auf Cloud-Plattformen automatisieren sowohl auf Mainframe-Systemen können. Lass uns anfangen Was ist eine CICD-Pipeline? Eine CICD-Pipeline ist ein automatisierter Prozess, Continuous Integration, CI und Continuous Delivery CD integriert , um sicherzustellen, dass Codeänderungen automatisch getestet, validiert und bereitgestellt werden getestet, validiert und bereitgestellt In einer Hybrid-Cloud-Umgebung, in der Teile der Anwendung auf dem Mainframe ausgeführt werden können , während andere Teile in der Cloud ausgeführt werden Eine CICD-Pipeline stellt sicher, dass Updates ohne manuelles Eingreifen konsistent in beiden Infrastrukturen bereitgestellt werden können bereitgestellt ohne manuelles Eingreifen konsistent in beiden Infrastrukturen Continuous Integration CI führt Codeänderungen von mehreren Entwicklern automatisch in einem gemeinsamen Repository zusammen und testet in einem gemeinsamen Continuous Delivery CD automatisiert die Bereitstellung von bestem Code in Produktionsumgebungen und stellt so sicher, dass Anwendungen immer bereit für die Veröffentlichung sind Nehmen wir ein Beispiel. Das Williams-Team könnte eine CICD-Pipeline nutzen , um die Bereitstellung kundenorientierter Webanwendungen, die in der Cloud laufen, zu automatisieren kundenorientierter Webanwendungen und gleichzeitig diese und Mainframe-Systeme, die die Transaktionsverarbeitung übernehmen, zu aktualisieren Mainframe-Systeme, die die Transaktionsverarbeitung übernehmen, Er beteiligt sich am Aufbau einer CICD-Pipeline für die Hybrid Cloud. Der Aufbau einer CICD-Pipeline umfasst mehrere wichtige Schritte von Codeintegration bis zur automatisierten Bereitstellung Hier finden Sie eine schrittweise Anleitung zum Aufbau einer CICD-Pipeline für Hybrid-Cloud-Umgebungen Schritt eins: Richten Sie ein gemeinsames Code-Repository ein. Der erste Schritt beim Aufbau einer CICD-Pipeline ist die Einrichtung eines gemeinsamen Code-Repositorys Hier speichern und verwalten Entwickler ihren Code, was die Zusammenarbeit und Versionskontrolle ermöglicht beliebten Repositorys gehören Git Hub, GitLab und Bit Bucket Struktur des Repositorys. Organisieren Sie Ihr Repository so, dass Mainframe-Code vom Cloud-basierten Anwendungscode getrennt wird und beide gleichzeitig in dieselbe Pipeline integriert werden Mainframe-Code, speichert Cobble-JCL - oder Assembler-Code Cloud-Code, speichert Code der in modernen Sprachen wie JavaScript, Python oder GO geschrieben wurde und auf Cloud-Plattformen läuft. Nehmen wir ein Beispiel. Williams Team kann Github als gemeinsames Repository verwenden, um sowohl die Mainframe-Transaktionsverarbeitungsskripte als auch den Cloud-basierten Code für die Mobile-Banking-App zu speichern den Cloud-basierten Code für die Mobile-Banking-App Schritt zwei: Integrieren Sie die kontinuierliche Integration. Der nächste Schritt besteht darin, Continuous Integration CI in Ihre Pipeline zu integrieren. CI beinhaltet das automatische Erstellen und Testen von Code jedes Mal, wenn ein Entwickler eine Änderung vornimmt. Dadurch wird sichergestellt, dass neuer Code das System nicht beschädigt und dass Fehler früh im Entwicklungszyklus erkannt werden . Automatisierung erstellen. Verwenden Sie Tools wie Jenkins oder Gitlab CI, um den Build-Prozess sowohl für Mainframe- als auch für Cloud-Code zu automatisieren den Build-Prozess sowohl für Mainframe- als auch für Cloud-Code Jenkins kann Builds auf der Grundlage von Codeänderungen auslösen und automatisierte Tests ausführen . Testen. Implementieren Sie automatisierte Tests für beide Umgebungen. Verwenden Sie für Mainframe-Code CA Endeavor oder IBM Z Unit zum Testen Verwenden Sie für Cloud-Anwendungen Test-Frameworks wie J Unit oder Nehmen wir ein Beispiel. Wenn ein Entwickler im Williams-Team Änderungen Code der Mobile-Banking-App vornimmt, löst Jenkins automatisch einen Build- und Run-Test aus, um sicherzustellen , dass die App reibungslos in das Mainframe-Backend integriert reibungslos in das Mainframe-Backend integriert Schritt drei: Automatisieren Sie Continuous Delivery. Continuous Delivery CD automatisiert den Bereitstellungsprozess und stellt sicher, dass sich Ihre Anwendungen immer in einem bereitstellbaren Zustand befinden In einer Hybrid Cloud kümmert sich CD um die Bereitstellung sowohl in Mainframe - Verwenden Sie bei der Mainframe-Bereitstellung Tools wie IBM Urban C Deploy oder CarLease Automation, um die Bereitstellung von Mainframe-Anwendungen zu automatisieren die Bereitstellung von Cloud-Bereitstellung. Für Cloud-Umgebungen Tools wie AWS C Deploy oder Azure DevOps können Tools wie AWS C Deploy oder Azure DevOps die Bereitstellung von Anwendungen über mehrere Cloud-Instanzen hinweg automatisieren Anwendungen über mehrere Cloud-Instanzen hinweg Für das Williams-Team stellt CD beispielsweise sicher, dass alle an der mobilen App vorgenommenen Code-Updates automatisch in AWS bereitgestellt werden, während die entsprechenden Updates auf den Mainframe angewendet werden, um die Transaktionsverarbeitung synchron zu halten Schritt vier: Richten Sie automatisierte Rollbacks ein. Automatisierte Rollback-Mechanismen sind in CICD-Pipelines von entscheidender Bedeutung, insbesondere in Hybridumgebungen denen sich ein Ausfall in einem System, beispielsweise auf dem Mainframe, auf die gesamte Anwendung auswirken kann Rollbacks ermöglichen es Ihnen , schnell zu einer früheren stabilen Version zurückzukehren, einer früheren stabilen Version falls Mainframe-Rollbacks. Verwenden Sie Tools zur Versionskontrolle wie Endeavor, um zu früheren Versionen von Mainframe-Anwendungen zurückzukehren früheren Versionen von . Cloud-Rollbacks In Cloud-Umgebungen CD-Tools wie AWS Lambda oder Kubernetes können CD-Tools wie AWS Lambda oder Kubernetes automatisch ein Rollback durchführen, um sicherzustellen, dass fehlgeschlagene Bereitstellungen Wenn beispielsweise ein Update der mobilen App von William ein Problem mit der Transaktionsverarbeitung verursacht , die CICD-Pipeline die Änderungen automatisch rückgängig und stellt so sicher, dass die Mainframe - und macht die CICD-Pipeline die Änderungen automatisch rückgängig und stellt so sicher, dass die Mainframe - und Cloud-Systeme ohne Ausfallzeiten betriebsbereit bleiben. Schritt fünf: Überwachen und optimieren Sie die Pipeline. Sobald die CICD-Pipeline eingerichtet ist, müssen Sie sie kontinuierlich überwachen und optimieren, um sicherzustellen, dass sie reibungslos läuft Überwachungstools bieten Einblick in den Zustand Ihrer Anwendungen, sodass Sie potenzielle Probleme erkennen bevor sie sich auf Benutzer auswirken Überwachungstools: Verwenden Sie Überwachungstools wie Prometheus Grafana oder New Relic, um die Leistungskennzahlen sowohl in der Cloud als auch in lokalen Systemen im Auge zu behalten Leistungskennzahlen sowohl in der Cloud als auch in lokalen Systemen im Überwachungstools wie Prometheus Grafana oder New Relic, um die Leistungskennzahlen sowohl in der Cloud als auch in lokalen Systemen im Auge zu behalten. Optimierung der Pipeline. Optimieren Sie Ihre Pipeline kontinuierlich indem Sie die Build-Zeiten reduzieren, die Testabdeckung verbessern und die Bereitstellungsstrategien verfeinern Beispielsweise könnte Williams Team Grafana verwenden, um wichtige Leistungskennzahlen wie die Reaktionszeit der mobilen App und die Geschwindigkeit der Transaktionsverarbeitung auf dem Mainframe zu überwachen wichtige Leistungskennzahlen wie die Reaktionszeit der mobilen App und die Geschwindigkeit der und so sicherzustellen, dass beide Umgebungen Herausforderungen und bewährte Verfahren für Hybrid-Cloud-CICD-Pipelines Der Aufbau und die Verwaltung einer CICD-Pipeline in Hybrid-Cloud-Umgebungen mit eigenen Herausforderungen verbunden Befolgung von Best Practices kann jedoch dazu beitragen, diese Herausforderungen zu bewältigen Synchronisation zwischen Mainframe und Cloud. Eine der größten Herausforderungen besteht darin , sicherzustellen, dass Code-Updates sowohl für die Mainframe - als auch für die Cloud-Systeme synchron bereitgestellt werden Eine Diskrepanz beim Bereitstellungszeitpunkt kann Anwendungsausfällen oder Inkonsistenzen führen Bewährtes Verfahren. Implementieren Sie eine enge Synchronisation zwischen Mainframe- und Cloud-Bereitstellungen, indem Sie sicherstellen, dass beide Mainframes dieselben Pipeline-Tools und -Prozesse verwenden dieselben Pipeline-Tools Sicherheit und Compliance. In hybriden Umgebungen, insbesondere in Branchen wie dem Bankwesen, sind Sicherheit und Compliance von entscheidender Bedeutung. Ihre CICD-Pipeline sollte Sicherheitschecks beinhalten, um sicherzustellen , dass sowohl die Cloud- lokalen Systeme den Vorschriften entsprechen Bewährte Methode: Verwenden Sie DebSecppPractices, um Sicherheitsüberprüfungen in die CICD-Pipeline einzubetten Verwenden Sie beispielsweise AWS Security Hub oder Azure Security Center, um Sicherheits- und Konformitätsprüfungen während des Bereitstellungsprozesses zu automatisieren und Konformitätsprüfungen während des Komplexität bei der Verwaltung älterer Systeme. Mainframes sind oft komplex und weniger flexibel als Cloud-Umgebungen. Die Integration von Mainframes in eine moderne CICD-Pipeline kann aufgrund der erforderlichen speziellen Tools und Prozesse eine Herausforderung sein der erforderlichen speziellen Tools und Bewährte Verfahren: Nutzen Sie spezielle Tools wie Urban Co Deploy oder Mainframe-Implementierungen und sicher, dass die CICD-Pipeline auf die spezifischen Bedürfnisse sowohl der Mainframe- als auch der Cloud-Umgebung zugeschnitten ist spezifischen Bedürfnisse sowohl der Mainframe- als auch der Cloud-Umgebung sowohl der Mainframe- als auch der wichtigsten Erkenntnissen aus dieser Lektion gehört zum einen, dass eine CICD-Pipeline den Prozess der Integration, des Testens und der Bereitstellung von Code in hybriden Umgebungen automatisiert und so sicherstellt, dass Updates konsistent sowohl auf Mainframes als auch auf Cloud-Systemen bereitgestellt werden konsistent Zweitens sind Tools wie Jenkins, IBM Urban C Deploy IBM Urban C Deploy und AWS Codploy für die Verwaltung von CICD-Pipelines in Hybrid-Cloud-Umgebungen unverzichtbar und ermöglichen nahtlose Updates in beiden Infrastrukturen. Drittens stellt die Überwachung und Optimierung der CICD-Pipeline sicher, dass die Anwendungen leistungsfähig und belastbar bleiben automatisierte Rollback-Mechanismen zur Behebung von Ausfällen vorhanden CICD-Pipeline sicher, dass die Anwendungen leistungsfähig und belastbar bleiben, da automatisierte Rollback-Mechanismen zur Behebung von Ausfällen vorhanden sind. Erwerbstätigkeit, Reflexion. Stellen Sie sich vor, wie eine CICD-Pipeline mit optimierten Bereitstellungen sowohl in Ihren Mainframe- als auch in Ihrer Cloud-Umgebung aussieht Welche Herausforderungen erwarten Sie bei der Implementierung dieser Automatisierung optimierten Bereitstellungen sowohl in Ihren Mainframe- als auch in Ihrer Cloud-Umgebung aussieht. Welche Herausforderungen erwarten Sie bei der Implementierung dieser Automatisierung ? Frage zur Diskussion. Poste im Forum, welche Tools würden Sie verwenden, um CICD in Ihrer Hybrid-Cloud-Umgebung zu automatisieren CICD in Ihrer Hybrid-Cloud-Umgebung Wie würden Sie Updates zwischen lokalen Systemen und Cloud-Plattformen synchronisieren zwischen lokalen Systemen und Cloud-Plattformen Nächste Lektion: Automatisierungsstrategien für hybride Umgebungen. In der nächsten Lektion werden wir Automatisierungsstrategien für die effiziente Verwaltung hybrider Umgebungen untersuchen Automatisierungsstrategien für . Sie lernen, wie Sie Infrastruktur als Code oder IAC verwenden , um komplexe Hybridsysteme zu verwalten , und erörtern häufig auftretende Automatisierungsherausforderungen und deren Bewältigung bereit, uns mit fortgeschrittenen Automatisierungsstrategien zu befassen, und fahren wir mit Lektion vier von Modul fünf 21. Lektion 4: Automationsstrategien für hybride Umgebungen: Lektion vier, Automatisierungsstrategien für Hybridumgebungen. Willkommen zu Lektion vier von Modul fünf. In dieser Lektion werden wir Automatisierungsstrategien untersuchen, die auf Hybridumgebungen zugeschnitten sind. Unsere Systeme sind auf Mainframes und Cloud-Plattformen vor Ort verteilt Mainframes und Cloud-Plattformen vor Für einen IT-Infrastrukturdirektor wie William die Implementierung der richtigen Automatisierungsstrategie kann die Implementierung der richtigen Automatisierungsstrategie die betriebliche Effizienz erheblich verbessern, Fehler reduzieren und eine nahtlose Verwaltung beider Umgebungen ermöglichen nahtlose Verwaltung beider Umgebungen Wir werden uns darauf konzentrieren, wie Infrastrukturcode verwendet werden kann, um diese komplexen Systeme zu verwalten , und wir werden allgemeine Automatisierungsherausforderungen erörtern und erläutern, wie sie gelöst werden können. Am Ende dieser Lektion werden Sie verstehen, wie Sie Infrastrukturcode verwenden können, um Hybridumgebungen effizient zu verwalten. Zweitens: Identifizieren Sie häufig auftretende Automatisierungsherausforderungen in Hybridsystemen und lernen Sie Strategien zu deren Überwindung kennen. Lassen Sie uns einen Blick auf Automatisierungsstrategien werfen, die Ihre Hybrid-Cloud-Umgebung stärken werden Den Infrastrukturcode für Hybridumgebungen verstehen für Hybridumgebungen Infrastrukturcode oder IAC ist die Praxis, Infrastruktur mithilfe maschinenlesbarer Konfigurationsdateien zu verwalten und Infrastruktur mithilfe maschinenlesbarer Konfigurationsdateien anstatt Hardware und Systeme manuell zu konfigurieren In Hybrid-Cloud-Umgebungen , in denen die Infrastruktur sowohl Mainframe-Systeme als auch Cloud-Plattformen umfasst, ist IAC ein leistungsstarkes Tool zur Sicherstellung von Konsistenz, Skalierbarkeit und ist IAC ein leistungsstarkes Tool zur Sicherstellung Konsistenz, Was ist Infrastruktur als Code? IAC können Sie Infrastrukturen wie Server, Netzwerke, Datenbanken und Load Balancer mithilfe von Code definieren und verwalten und Dies erleichtert die Automatisierung der Erstellung und Verwaltung von Ressourcen in lokalen und Cloud-Umgebungen Mithilfe von IAC können Sie die Infrastruktur wie Software behandeln, Infrastruktur wie Software sodass Sie sie versionieren, testen und automatisieren Deklarativer Ansatz. In IAC beschreiben Sie, wie Ihre Infrastruktur aussehen soll, und das System stellt automatisch sicher , dass Ihre Umgebung dem gewünschten Status entspricht Wiederholbarkeit und Konsistenz. IAC macht den manuellen Prozess der Infrastrukturkonfiguration überflüssig , reduziert menschliche Fehler und stellt sicher, dass Umgebungen konsistent konfiguriert sind Nehmen wir ein Beispiel. Das Williams-Team könnte IAC nutzen, um die Bereitstellung sowohl von Cloud-Ressourcen für ihre kundenorientierten Bankanwendungen als auch von Mainframe-Ressourcen zu automatisieren die Bereitstellung sowohl von Cloud-Ressourcen für ihre kundenorientierten , die Transaktionen in Echtzeit abwickeln Terraform kann beispielsweise verwendet werden, um die Infrastruktur in beiden Umgebungen zu definieren und zu verwalten und so eine konsistente Konfiguration über Hybridsysteme hinweg sicherzustellen Implementierung von IAC in hybriden Umgebungen . Bei der Verwendung von Infrastruktur als Code oder IAC in Hybridumgebungen besteht das Ziel darin, die Bereitstellung, Konfiguration und Verwaltung von Ressourcen sowohl auf erstklassigen Systemen wie Mainframes als auch auf Cloud-Plattformen wie AWS, Azure oder Google Cloud zu automatisieren und Verwaltung von Ressourcen sowohl auf erstklassigen Systemen wie Mainframes als auch auf Cloud-Plattformen wie AWS, Azure oder Google Cloud Azure So können Sie IAC effektiv in einer Hybridumgebung implementieren IAC effektiv Werkzeugauswahl für Hybrid-IAD. Um Hybridumgebungen zu automatisieren, benötigen Sie Tools, die sowohl mit Cloud-Ressourcen als auch mit der lokalen Infrastruktur umgehen können sowohl mit Cloud-Ressourcen als auch mit der lokalen Infrastruktur Hier sind einige gängige Tools für IAC- und Hybridumgebungen. Terraform, eines der beliebtesten IAC-Tools, unterstützt mehrere Cloud-Plattformen unterstützt mehrere Cloud-Plattformen und lokale Umgebungen. Es ermöglicht Ihnen, die Infrastruktur in einer deklarativen Sprache zu definieren und Ressourcen in einer deklarativen Sprache zu definieren und Hybridsystemen zu verwalten. Answerable ist ein Open-Source-Automatisierungstool, mit dem die Bereitstellung sowohl auf erstklassigen Systemen als auch in Cloud-Umgebungen automatisiert werden kann dem die Bereitstellung sowohl auf erstklassigen Systemen als auch in Cloud-Umgebungen automatisiert auf erstklassigen Systemen Es ist besonders nützlich für die Automatisierung des Konfigurationsmanagements in Hybridumgebungen AWS CloudFormation. Für AWS-spezifische Hybridumgebungen kann Cloud Formation zur Definition und Verwaltung von Ressourcen verwendet werden Definition und Verwaltung von Ressourcen Es lässt sich über Dienste wie AWS Outpost gut in erstklassige Systeme Nehmen wir ein Beispiel. Das Williams-Team kann Terraform verwenden, um sowohl Cloud-basierte Ressourcen wie AWS EC-Instances und RDS-Datenbanken als auch die Mainframe-Infrastruktur vor Ort zu definieren AWS EC-Instances und RDS-Datenbanken als auch die Mainframe-Infrastruktur vor Ort Durch das Schreiben des Infrastrukturcodes kann das Team Ressourcen in beiden Umgebungen konsistent bereitstellen und verwalten Ressourcen in beiden Umgebungen konsistent Automatisierung der Bereitstellung und Konfiguration. Sobald Sie Ihre IAC-Tools ausgewählt haben, der nächste Schritt darin, die Bereitstellung und Konfiguration von Ressourcen zu automatisieren die Bereitstellung und IAC können Sie Skripts erstellen , die die Bereitstellung von Servern, Netzwerken, Speichern und anderen Infrastrukturkomponenten automatisieren Netzwerken, Speichern und anderen Automatisierte Bereitstellung, Schreiben von Skripten zur Automatisierung der Erstellung von Cloud-Umgebungen und Mainframe-Ressourcen Diese Skripte können die Infrastruktur innerhalb von Minuten bereitstellen, sodass keine manuellen Konfigurationen erforderlich Automatisierte Konfiguration. Verwenden Sie Tools wie Ansibl oder Puppet, um die Konfiguration von Servern und Anwendungen zu automatisieren und sicherzustellen, dass sie korrekt eingerichtet und auf Ihre Geschäftsanforderungen abgestimmt sind eingerichtet und auf Ihre Geschäftsanforderungen abgestimmt Nehmen wir ein Beispiel. Wenn Williams Financial Institute ein neues Bankprodukt auf den Markt bringt, kann sein Team TerraForm Provision nutzen, die Cloud-Infrastruktur, die für das Hosten des Produkts erforderlich ist, und Ansibl das Mainframe-System konfigurieren , das die , Versionskontrolle und Zusammenarbeit mit IAC. Einer der Hauptvorteile von IAC besteht darin, dass Infrastrukturcode in Versionskontrollsystemen wie Git gespeichert werden kann in Versionskontrollsystemen wie Dies ermöglicht die Zusammenarbeit zwischen mehreren Teams und Änderungen an der Infrastruktur können genau wie der Anwendungscode verfolgt und überprüft Versionskontrolle, Speicherung von IAC-Skripten in Repositorys wie GitHub oder Gitlab, sodass Ihr Team zusammenarbeiten und Infrastrukturänderungen überprüfen kann, bevor sie angewendet werden Kontinuierliche Integration. Integrieren Sie IAC in Ihre CICD-Pipelines, um Infrastrukturänderungen automatisch zu testen und zu validieren , bevor sie implementiert werden Nehmen wir ein Beispiel. Williams Team würde ihre Terraform-Skripte auf GitHub speichern , wo Teammitglieder vorgeschlagene Änderungen an der Cloud-Infrastruktur oder den Mainframe-Konfigurationen überprüfen können der Cloud-Infrastruktur oder den , bevor sie sie bereitstellen Dadurch wird sichergestellt, dass alle Änderungen geprüft und genehmigt werden. Überwindung gängiger Automatisierungsherausforderungen in Hybridumgebungen Automatisierung ist in hybriden Umgebungen zwar von entscheidender Bedeutung, es gibt jedoch häufig spezifische Herausforderungen, mit denen Teams konfrontiert Hier werden wir einige der häufigsten Herausforderungen untersuchen und herausfinden, wie sie überwunden werden können. Sicherstellung der Konsistenz zwischen lokalen und Cloud-Umgebungen. Eine der größten Herausforderungen in Hybridumgebungen ist die Sicherstellung Konsistenz zwischen den Mainframe-Systemen vor Ort und der Cloud-Infrastruktur Verschiedene Umgebungen können unterschiedliche Konfigurationen erfordern, was zu potenziellen Diskrepanzen führen Verwenden Sie zur Lösung IAC-Tools wie Terraform, die mehrere Plattformen unterstützen, um eine konsistente Infrastruktur sowohl in lokalen als auch in Cloud-Umgebungen zu definieren eine konsistente Infrastruktur sowohl in lokalen als auch in Cloud-Umgebungen sowohl in lokalen als auch Dadurch wird sichergestellt, dass die Konfigurationen auch bei der Weiterentwicklung der Infrastruktur aufeinander abgestimmt bleiben auch bei der Weiterentwicklung der Infrastruktur aufeinander abgestimmt Beispielsweise kann das Williams-Team Terraform verwenden, um Infrastrukturressourcen sowohl für die Cloud als auch für lokale Systeme zu definieren und so sicherzustellen, dass Netzwerkkonfigurationen, Sicherheitsrichtlinien und Rechenressourcen konsistent angewendet werden Verwaltung komplexer Abhängigkeiten. In hybriden Umgebungen weisen Systeme häufig komplexe Abhängigkeiten auf, die sich sowohl auf die Cloud- als auch auf die lokale Infrastruktur erstrecken. Beispielsweise kann eine cloudbasierte Anwendung auf eine Mainframe-Datenbank zurückgreifen für die Transaktionsverarbeitung in Echtzeit Die Verwaltung dieser Abhängigkeiten kann sich bei automatisierten Bereitstellungen als schwierig Lösung: Verwenden Sie Orchestrierungstools wie Kubernetes oder Jenkins, um Bereitstellungen in hybriden Umgebungen zu koordinieren und sicherzustellen, dass alle Abhängigkeiten Kubernetes oder Jenkins, um Bereitstellungen in hybriden Umgebungen zu koordinieren und sicherzustellen, dass alle Abhängigkeiten berücksichtigt und ordnungsgemäß behandelt werden. Das Williams-Team kann beispielsweise Jenkins verwenden, um die Bereitstellung neuer Funktionen in der Mobile-Banking-App zu orchestrieren und so sicherzustellen, dass die Updates reibungslos in das Mainframe-basierte Transaktionsverarbeitungssystem integriert die Bereitstellung neuer Funktionen in der Mobile-Banking-App zu orchestrieren und so sicherzustellen, dass die Updates reibungslos in das Mainframe-basierte Transaktionsverarbeitungssystem integriert werden. Sicherheit und Compliance. Automatisierung hybrider Umgebungen bringt neue Sicherheitsherausforderungen mit sich, insbesondere im Hinblick auf den Schutz sensibler Daten und die Einhaltung von Branchenvorschriften wie PCIDSS Lösung: Implementieren Sie bewährte Sicherheitsmethoden in Ihre IAC-Skripts, z. B. die Definition sicherer Netzwerkkonfigurationen, Verschlüsselung Integrieren Sie außerdem Sicherheitsprüfungen in Ihre Automatisierungspipeline, um die Einhaltung gesetzlicher Anforderungen sicherzustellen Ein Beispiel: Das Williams-Team kann NSB verwenden, um die Konfiguration von Firewalls, Verschlüsselungsrichtlinien und Zugriffskontrollen sowohl in der Mainframe- als auch in der Cloud-Infrastruktur zu automatisieren Verschlüsselungsrichtlinien und Zugriffskontrollen und so sicherzustellen, dass das Bankensystem weiterhin den Sicherheitsstandards entspricht Bewährte Methoden für die Automatisierung in der Hybrid Cloud. Um das Beste aus der Automatisierung in Hybrid-Cloud-Umgebungen herauszuholen, ist es wichtig, bewährte Verfahren zu befolgen, die Skalierbarkeit, Sicherheit und Effizienz gewährleisten . Modularisieren Sie den Infrastrukturcode. Aufteilung Ihres IAC in kleinere modulare Komponenten ermöglicht eine bessere Wiederverwendbarkeit und Wartbarkeit Jedes Modul kann einen bestimmten Teil Ihrer Infrastruktur repräsentieren , z. B. eine Netzwerkkonfiguration oder eine Datenbankeinrichtung , der in mehreren Umgebungen wiederverwendet werden kann Das Williams-Team kann beispielsweise ein Modul oder Datenbankkonfigurationen erstellen , die sowohl für die Mainframe- als auch für die Cloud-Datenbank angewendet werden können , um sicherzustellen, dass beide Systeme eine ähnliche Konfiguration verwenden Integrieren Sie Tests in Automatisierungspipelines. Testen Sie Infrastrukturänderungen immer bevor sie implementiert werden Verwenden Sie Tools wie T test oder inspect, um automatisierte Tests für Ihre Infrastruktur zu schreiben und sicherzustellen, dass alles korrekt und sicher konfiguriert ist . Das Williams-Team kann beispielsweise automatisierte Tests in seine CICD-Pipeline integrieren , um sicherzustellen, dass Änderungen an Cloud- und Mainframe-Ressourcen validiert werden, bevor sie bereitgestellt werden Überwachen und optimieren Sie die Automatisierung. Überwachen Sie schließlich kontinuierlich Ihre Automatisierungsprozesse, um Engpässe oder Ineffizienzen zu identifizieren Verwenden Sie Überwachungstools wie Prometheus oder AWS Cloud Watch, um sich einen Überblick über die Leistung Ihrer Infrastruktur und Ihres Automatisierungsworkflows zu verschaffen die Leistung Watch, um sich einen Überblick über die Leistung Ihrer Infrastruktur und Ihres Automatisierungsworkflows zu verschaffen. Das Williams-Team kann Prometheus beispielsweise verwenden, um die Leistung der Infrastruktur zu überwachen und Bereiche zu identifizieren, in denen Automatisierungsskripte optimiert werden müssen , um die Bereitstellungszeiten zu verkürzen oder den wichtigsten Erkenntnissen aus dieser Lektion gehören zum einen Infrastrukturcode IAC können Sie die Bereitstellung und Verwaltung von Ressourcen in Hybrid-Cloud-Umgebungen automatisieren und so Konsistenz Zu den wichtigsten Erkenntnissen aus dieser Lektion gehören zum einen: Mit dem Infrastrukturcode IAC können Sie die Bereitstellung und Verwaltung von Ressourcen in Hybrid-Cloud-Umgebungen automatisieren und so Konsistenz und Skalierbarkeit sicherstellen. Zweitens: Überwinden Sie die häufigsten Herausforderungen bei der hybriden Automatisierung, wie z. B. die Verwaltung von Abhängigkeiten, Sicherstellung der Konsistenz und die Bewältigung von Sicherheitsbedenken, indem Sie Orchestrierungstools und bewährte Methoden für die Automatisierung verwenden Orchestrierungstools und Drittens: Folgen Sie bewährten Methoden wie der Modularisierung des Infrastrukturcodes, Integration automatisierter Tests und der kontinuierlichen Überwachung Ihrer Automatisierungsprozesse oder Erwerbstätigkeit, Reflexion. Wie würden Sie IAC einsetzen, um sowohl Primis- als auch Plowd-Umgebungen in Ihrem Unternehmen zu automatisieren und zu verwalten Plowd-Umgebungen Welche spezifischen Herausforderungen erwarten Sie und wie würden Sie sie Diskussion, Frage, Beitrag im Forum, welche IAC-Tools haben Sie zur Automatisierung Ihrer Hybrid-Cloud-Infrastruktur verwendet oder planen zu verwenden Wie haben diese Tools die betriebliche Effizienz verbessert? Nächste Lektion: Sicherheitsherausforderungen in Hybrid-Cloud-Systemen. Im nächsten Modul werden wir unseren Fokus auf Sicherheit, Compliance und Governance in Hybridsystemen verlagern. In der ersten Lektion von Modul sechs werden wir die einzigartigen Sicherheitsherausforderungen untersuchen, die sich in hybriden Umgebungen ergeben, insbesondere in Branchen wie dem Finanzwesen, und erörtern, wie Sicherheit lokalen und Cloud-Umgebungen gewährleistet werden kann. Wir freuen uns darauf, Ihre hybride Infrastruktur zu schützen Lassen Sie uns zu Modul 6 übergehen und lernen, wie Sie die Sicherheitsherausforderungen in Hybrid-Cloud-Systemen bewältigen können. 22. Lektion 1: Sicherheitsherausforderungen in hybriden Cloud-Systemen: Willkommen zu Modul sechs, der Sicherstellung von Compliance und Governance in Hybridsystemen befasst. Sicherheit und Compliance sind für Hybrid-Cloud-Architekturen von entscheidender Bedeutung, insbesondere in regulierten Branchen wie dem Bankwesen Dieses Modul behandelt Sicherheitsframeworks, Verschlüsselungsmethoden und Compliance-Strategien Die Teilnehmer lernen auch, wie man Governance-Richtlinien implementiert, die gesetzlichen Anforderungen sowohl in Mainframe- als auch in Cloud-Umgebungen Lektion eins: Sicherheitsherausforderungen in Hybrid-Cloud-Systemen. Willkommen zu Modul sechs, in dem wir uns auf Sicherheit, Compliance und Governance in Hybrid-Cloud-Umgebungen konzentrieren werden. Für einen Leiter der IT-Infrastruktur wie William die einzigartige Natur von Hybridsystemen, bei denen lokale Mainframes und Cloud-Umgebungen kombiniert werden, eine Reihe von Sicherheitsherausforderungen dar eine Reihe von Sicherheitsherausforderungen Diese Lektion bietet einen Überblick über diese Herausforderungen, insbesondere in regulierten Branchen wie dem Finanzwesen, in denen die Aufrechterhaltung der Sicherheit sowohl von lokalen als auch von Cloud-Systemen von größter Bedeutung ist Am Ende dieser Lektion werden Sie zunächst die einzigartigen Sicherheitsherausforderungen in Hybrid-Cloud-Umgebungen verstehen . Zweitens lernen Sie, wie Sie die Sicherheit sowohl in lokalen als auch in Cloud-Infrastrukturen aufrechterhalten Sicherheit sowohl in können, insbesondere in Branchen mit strengen regulatorischen Anforderungen. Lassen Sie uns zunächst die Sicherheitslandschaft in Hybridsystemen untersuchen und die kritischen Herausforderungen identifizieren, Unternehmen wie Ihres auseinandersetzen müssen. Überblick über die Sicherheitsherausforderungen in Hybrid-Cloud-Umgebungen. In Hybridumgebungen müssen Unternehmen zwei unterschiedliche Infrastrukturen vor Ort sichern, z. B. auf Mainframes und Cloud-basierten Plattformen wie AWS, Azure oder Google Cloud Jede Infrastruktur hat ihre eigenen Sicherheitsanforderungen, und deren Kombination zu einem einzigen zusammenhängenden System führt zu neuen Lassen Sie uns die wichtigsten Sicherheitsherausforderungen aufschlüsseln. Erweiterung der Angriffsfläche. Hybridumgebungen vergrößern die Angriffsfläche , da sie sowohl lokale als auch Cloud-Systeme umfassen Dies schafft mehr Einstiegspunkte für potenzielle Angreifer. Die Notwendigkeit, Daten und die Übertragung zwischen lokalen und Cloud-Umgebungen zu schützen und Anwendungen so zu schützen, dass sie sich über beide Infrastrukturen erstrecken, macht die Sicherung dass sie sich über beide Infrastrukturen erstrecken, hybrider Systeme von Natur aus komplexer Sicherheit vor Ort. Systeme vor Ort wie Mainframes werden häufig durch Netzwerk-Firewalls, Systeme zur Erkennung von Eindringlingen und physische Zugriffskontrollen gesichert Systeme zur Erkennung von Eindringlingen und physische Zugriffskontrollen und physische Cloud-Sicherheit. In Cloud-Umgebungen verlassen sich Unternehmen auf Modelle der gemeinsamen Verantwortung mit Cloud-Anbietern, bei denen der Cloud-Anbieter einige Sicherheitsvorkehrungen wie die Sicherheit des physischen Rechenzentrums übernimmt einige Sicherheitsvorkehrungen wie die Sicherheit , die Organisation jedoch für die Sicherung der Datenanwendung und des Zugriffs verantwortlich ist . Nehmen wir ein Beispiel. Finanzinstitut Williams verarbeitet Kundentransaktionen in Echtzeit auf dem Mainframe und speichert gleichzeitig Kundendaten in der Cloud Beide Systeme müssen in beiden Infrastrukturen vor Angriffen wie Datenschutzverletzungen oder Dios-Angriffen geschützt werden . Datensicherheit und Compliance. regulierten Branchen wie dem Finanzwesen Einhaltung von Vorschriften wie PCIDSS, erhöht die Einhaltung von Vorschriften wie PCIDSS, GDPR und HIPA die Komplexität Diese Vorschriften erfordern strenge Kontrollen Umgangs mit sensiblen Daten, einschließlich Verschlüsselung, einschließlich Verschlüsselung, Zugriffsverwaltung Die Herausforderung in hybriden Umgebungen besteht darin, sicherzustellen, dass die Datensicherheitsrichtlinien sowohl in lokalen als auch in Cloud-Umgebungen einheitlich durchgesetzt werden einheitlich durchgesetzt sowohl in lokalen als auch in Cloud-Umgebungen Daten im Transit. Daten, die zwischen Primärsystemen und der Cloud übertragen werden, müssen verschlüsselt werden , um ein Abfangen während der Übertragung zu verhindern Datenadresse. Sowohl Daten in der Cloud als auch vor Ort müssen mithilfe von Verschlüsselungs - und Zugriffskontrollrichtlinien gesichert , um sie vor unbefugtem Zugriff zu schützen. Nehmen wir ein Beispiel. Williams Institution muss die Finanzdaten der Kunden verschlüsseln , wenn sie übertragen werden zur Verarbeitung vom Mainframe in die Cloud Sie müssen außerdem sicherstellen, dass die in Cloud-Umgebungen gespeicherten Daten den PCIDSS-Standards in Cloud-Umgebungen gespeicherten Daten den PCIDSS-Standards zur Sicherung von Zahlungsinformationen entsprechen. Identitäts- und Zugriffsmanagement. Eine weitere große Herausforderung in hybriden Umgebungen ist die Verwaltung Identitäts- und Zugriffskontrolle in zwei unterschiedlichen Infrastrukturen. In lokalen Umgebungen verwenden Unternehmen in der Regel Systeme wie Active Directory oder EDAP zur Authentifizierung In der Cloud verlassen sie sich auf Dienste wie AWS IAM oder Azure 8.0 zu verhindern unbefugten Zugriff in kann schwierig sein, eine konsistente Zugriffskontrolle sicherzustellen und unbefugten Zugriff in beiden Umgebungen Multifaktor-Authentifizierung oder MFA. Verwendung von MFA ist unerlässlich, um den Zugriff auf lokale und Cloud-Ressourcen zu sichern und sicherzustellen, dass Angreifer auch dann nicht einfach darauf zugreifen können , wenn Anmeldeinformationen kompromittiert werden Angreifer auch dann nicht einfach darauf zugreifen können Rollenbasierte Zugriffskontrolle oder RBAC. Implementieren Sie RBAC, um zu kontrollieren , wer Zugriff auf bestimmte Systeme hat, und um sicherzustellen, dass Benutzer nur über die für ihre Rolle erforderlichen Berechtigungen verfügen Nehmen wir ein Beispiel. In Williams Organisation benötigt das DevOps-Team Zugriff sowohl auf Cloud-Umgebungen für Anwendungsbereitstellung als auch auf Mainframe-Systeme für die Backend-Verarbeitung Implementierung von MFA und RBAC wird sichergestellt, dass der Zugriff streng kontrolliert wird und dass nur autorisiertes Durch die Implementierung von MFA und RBAC wird sichergestellt, dass der Zugriff streng kontrolliert wird und dass nur autorisiertes Personal kritische Systeme ändern kann. Ähm, Aufrechterhaltung der Sicherheit in lokalen und Cloud-Umgebungen wir nun die Herausforderungen identifiziert haben, schauen wir uns einige Strategien zur Aufrechterhaltung der Sicherheit sowohl in lokalen als auch in Cloud-Infrastrukturen in einer Hybridumgebung an . Sicherung von Daten während der Übertragung. Eine der wichtigsten Sicherheitsmaßnahmen in Hybridsystemen ist die Sicherung von Daten bei der Übertragung zwischen lokalen Systemen und Cloud-Plattformen. Ohne angemessene Sicherheit könnten Daten während der Übertragung abgefangen werden, was zu potenziellen Datenschutzverletzungen führen zu potenziellen Datenschutzverletzungen Verschlüsselung bei der Übertragung. Verwenden Sie die SSL-TLS-Verschlüsselung, um Daten zu schützen , wenn sie zwischen lokalen Umgebungen und Cloud-Umgebungen übertragen werden. Die gesamte Kommunikation zwischen Systemen sollte verschlüsselt werden , um sicherzustellen, dass vertrauliche Informationen sicher bleiben. Sichere Netzwerkverbindungen. Verwenden Sie VPNs oder dedizierte Verbindungen wie AWS Direct Connect oder Azure Express Route, um sichere private Verbindungen zwischen Ihren lokalen Systemen und der Cloud-Umgebung herzustellen sichere private Verbindungen zwischen Ihren lokalen Systemen und der Cloud-Umgebung Diese Verbindungen umgehen das öffentliche Internet und reduzieren so das Risiko, dass sie abgefangen Nehmen wir ein Beispiel. Das Williams-Team kann AWS Direct Connect implementieren, um Kundentransaktionsdaten sicher von seinem Mainframe an AWS zur Cloud-Verarbeitung zu übertragen von seinem Mainframe an AWS zur Cloud-Verarbeitung Diese spezielle Verbindung stellt sicher, dass Daten verschlüsselt und sicher übertragen werden ohne dass sie dem öffentlichen Internet ausgesetzt Konsistente Sicherheitsrichtlinien in allen Umgebungen. Die Einhaltung konsistenter Sicherheitsrichtlinien sowohl in lokalen als auch in Cloud-Umgebungen ist unerlässlich, um Sicherheitslücken zu vermeiden Diese Richtlinien sollten die Zugriffskontrolle, Verschlüsselung, Datenschutz und Prüfung regeln Verschlüsselung, Datenschutz und Prüfung Einheitliches Sicherheitsmanagement. Verwenden Sie Tools wie Azure Security Center, AWS Security Hub oder Lösungen von Drittanbietern, um das Sicherheitsmanagement sowohl in lokalen als auch in Cloud-Umgebungen zu zentralisieren sowohl in lokalen als auch in Cloud-Umgebungen Diese Tools bieten eine zentrale Oberfläche zur Überwachung und Durchsetzung von Sicherheitsrichtlinien in allen Infrastrukturen Automatisierte Sicherheitsaudits, regelmäßige Sicherheitsrichtlinien und stellen sicher, dass sowohl lokale als auch Cloud-Umgebungen den gesetzlichen Anforderungen entsprechen. Automatisierungstools können dabei helfen, die Einhaltung von Vorschriften zu überwachen und Teams vor Sicherheitsverstößen zu warnen Beispielsweise kann das Williams-Team den AWS Security Hub verwenden, um konsistente Sicherheitsrichtlinien sowohl in der Cloud als auch in den Mainframe-Systemen vor Ort zu überwachen und durchzusetzen sowohl in der Cloud als auch in den Mainframe-Systemen vor Ort zu überwachen und Mainframe-Systemen vor Ort zu Dadurch wird sichergestellt, dass Umgebungen dieselben Verschlüsselungs- und Zugriffskontrollrichtlinien beiden Umgebungen dieselben Verschlüsselungs- und Zugriffskontrollrichtlinien durchgesetzt werden Sicherung hybrider Workloads mit einer Zero-Trust-Architektur. Durch die Einführung einer Zero-Trust-Architektur wird sichergestellt, dass jede Zugriffsanfrage, unabhängig davon, ob sie von innerhalb oder außerhalb des Netzwerks stammt, verifiziert wird, bevor der Zugriff gewährt wird Dies ist besonders wichtig in Hybridumgebungen, in denen sich Workloads über mehrere Infrastrukturen erstrecken Zero-Trust-Prinzipien. Implementieren Sie Zero-Trust-Prinzipien wie den Zugriff mit den geringsten Rechten, kontinuierliche Authentifizierung und Mikrosegmentierung, um sicherzustellen, dass auch interne Benutzer verifiziert werden , bevor sie auf sensible Ressourcen zugreifen Mikrosegmentierung. Verwenden Sie die Mikrosegmentierung, um Ihre Hybridumgebung in kleinere Segmente zu unterteilen, Workloads zu isolieren und die Auswirkungen von Sicherheitsverletzungen zu begrenzen die Auswirkungen In der Organisation Williams kann die Mikrosegmentierung beispielsweise verwendet werden, um verschiedene Teile der hybriden Infrastruktur zu isolieren und so sicherzustellen, dass das Mainframe-System auch bei einem Angriff auf die Cloud-Umgebung sicher bleibt . Bewährte Methoden für Hybrid-Cloud-Sicherheit. Um Hybridumgebungen effektiv zu schützen, ist es wichtig, bewährte Verfahren zu befolgen, die den besonderen Herausforderungen bei der Verwaltung sowohl lokaler als auch Cloud-Infrastrukturen Rechnung tragen. Implementieren Sie mehrschichtige Sicherheit. Verwenden Sie einen mehrschichtigen Sicherheitsansatz , der Verschlüsselung, Zugriffskontrolle, Überwachung und Bedrohungserkennung umfasst . Dieser mehrschichtige Ansatz stellt sicher , dass selbst wenn eine Ebene gefährdet ist, die verbleibenden Schichten das System weiterhin schützen Verschlüsselung. Verwenden Sie Verschlüsselung sowohl für die Übertragung von Daten als auch für die Datenadresse Identitätsmanagement. Verwenden Sie starke Authentifizierungsmechanismen wie MFA und RBAC Überwachung: Überwachen Sie Ihre Hybridumgebung kontinuierlich mit Tools wie AWS CloudWatch, Azure Monitor oder Splunk, um in Echtzeit Einblick in Sicherheitsbedrohungen zu erhalten Echtzeit Zentralisierte Sicherheitsüberwachung und Reaktion. Implementieren Sie ein zentralisiertes Sicherheitsüberwachungssystem , um sowohl Ihre Cloud - als auch Ihre lokalen Umgebungen zu Mit einem zentralen Kontrollpunkt können Sicherheitsteams Bedrohungen überwachen und schnell darauf reagieren. Reaktion auf Vorfälle. sicher, dass Ihr Plan zur Reaktion auf Vorfälle Verfahren sowohl für Cloud- als auch für lokale Systeme umfasst , damit Sicherheitsteams auf Bedrohungen in der gesamten hybriden Infrastruktur reagieren können . Regelmäßige Sicherheitsaudits und Konformitätsprüfungen. Führen Sie regelmäßige Sicherheitsaudits und Konformitätsprüfungen durch, um sicherzustellen, dass Ihre Hybridumgebung den Branchenvorschriften und internen Sicherheitsrichtlinien Automatisierungstools können bei der kontinuierlichen Überwachung der Einhaltung von Vorschriften helfen kontinuierlichen Überwachung der Einhaltung Überwachung der Einhaltung der Vorschriften. Verwenden Sie automatisierte Tools, um die Einhaltung von Vorschriften wie PCIDSS, GDPR und HIPAA kontinuierlich zu überwachen Vorschriften wie PCIDSS, GDPR und HIPAA den wichtigsten Erkenntnissen aus dieser Lektion gehören zum einen, dass hybride Umgebungen einzigartige Sicherheitsherausforderungen mit sich bringen, darunter eine erweiterte Angriffsfläche, Datensicherheitsanforderungen und die Identitäts - und Zugriffsverwaltung für lokale und Cloud-Systeme Zweitens sind die sichere Übertragung von Daten mit Verschlüsselung und die Verwendung dedizierter Netzwerkverbindungen entscheidend für den Schutz sensibler Daten bei Übertragung zwischen Umgebungen Drittens sollten Sie eine Zero-Trust-Architektur einführen und konsistente Sicherheitsrichtlinien sowohl in lokalen als auch in Cloud-Umgebungen , um einen umfassenden Schutz zu gewährleisten. Erwerbstätigkeit, Reflexion. Wie würden Sie Daten während der Übertragung schützen und konsistente Sicherheitsrichtlinien in Ihrer gesamten Hybridumgebung sicherstellen konsistente Sicherheitsrichtlinien ? Vor welchen Herausforderungen könnten Sie stehen und wie würden Sie sie bewältigen? Diskussionsfrage, Beitrag im Forum Wie verwaltet Ihr Unternehmen Identitäts- und Zugriffskontrolle sowohl in der Cloud als auch in der lokalen Umgebung? Wie stellen Sie die Konsistenz der Sicherheitsrichtlinien sicher? Nächste Lektion, Entwicklung eines Hybrid-Cloud-Sicherheitsframeworks. In der nächsten Lektion werden wir untersuchen, wie ein umfassendes Sicherheitsframework für Hybridumgebungen entwickelt ein umfassendes Sicherheitsframework werden kann. Sie lernen, wie Sie Schlüsselelemente wie Verschlüsselung, Multifaktor-Authentifizierung und Zero-Trust-Architekturen integrieren können, und wir werden bewährte Methoden für den Schutz von Daten sowohl bei der Übertragung als auch bei der Adresse besprechen Schutz von Daten sowohl bei der Übertragung als auch bei der Adresse Bereit, ein Sicherheitsframework für Ihre Hybrid Cloud zu erstellen für Ihre Hybrid Fahren wir mit Lektion zwei von Modul sechs fort. Ähm, 23. Lektion 2: Entwicklung eines hybriden Cloud-Sicherheitsframeworks: Lektion zwei, Entwicklung eines Hybrid-Cloud-Sicherheitsframeworks. Willkommen zu Lektion zwei von Modul sechs. In dieser Lektion konzentrieren wir uns darauf, wie Sie ein umfassendes Sicherheitsframework entwickeln ein umfassendes Sicherheitsframework Hybrid-Cloud-Umgebungen zugeschnitten ist. Für einen Leiter der IT-Infrastruktur wie William ist der Aufbau eines Sicherheitsframeworks, das Schlüsselelemente wie Verschlüsselung, Multifaktor-Authentifizierung und Zero-Trust-Architekturen beinhaltet , entscheidend, um sowohl erstklassige Systeme als auch Cloud-Umgebungen zu schützen erstklassige Systeme als auch Cloud-Umgebungen Wir werden uns auch mit bewährten Methoden zur Sicherung von Daten während der Übertragung und der Datenadresse befassen, um ein Höchstmaß an Sicherheit in Ihrer hybriden Infrastruktur zu gewährleisten Ihrer hybriden Am Ende dieser Lektion werden Sie zunächst lernen, wie Sie ein umfassendes Hybrid-Cloud-Sicherheitsframework mit Schlüsselelementen wie Verschlüsselung, MFA und Zero Trust erstellen umfassendes Hybrid-Cloud-Sicherheitsframework mit Schlüsselelementen wie Verschlüsselung, MFA und Zero Trust Informieren Sie sich außerdem über bewährte Verfahren zur Sicherung von Daten während der Übertragung und der Adresse Sehen wir uns die wesentlichen Komponenten des Hybrid Cloud-Sicherheitsframeworks und erfahren Sie, wie Sie diese effektiv implementieren können. Schlüsselelemente eines umfassenden Hybrid-Cloud-Sicherheitsframeworks. Ein starkes Sicherheitsframework für Hybridumgebungen muss den spezifischen Herausforderungen Rechnung tragen , die mit der Verwaltung von Mainframes vor Ort und Cloud-Plattformen Lassen Sie uns die wichtigsten Elemente dieses Frameworks und ihre Implementierung erläutern. Verschlüsselung, Schutz von Daten bei der Übertragung und Adresse. Verschlüsselung ist für jedes Sicherheitsframework von grundlegender Bedeutung . In einer Hybrid-Cloud-Umgebung stellt die Verschlüsselung sicher, dass sensible Daten geschützt bleiben , wenn sie zwischen lokalen Systemen und Cloud-Plattformen übertragen werden und wenn sie in einer der Umgebungen gespeichert werden. Verschlüsselung bei der Übertragung. Verschlüsselung von Daten während der Übertragung zwischen Ihren lokalen und Cloud-Systemen ist entscheidend, um unbefugten Zugriff zu verhindern Verwenden Sie SSL-TLS-Verschlüsselungsprotokolle für alle Datenübertragungen. Beispieltools verwenden AWS Direct Connect oder Azure Express Route für sichere, verschlüsselte Verbindungen zwischen lokalen Rechenzentren und der Cloud. Verschlüsselungsadresse. Stellen Sie sicher, dass Daten verschlüsselt sind, wenn sie sowohl auf Ihren Mainframe-Systemen vor Ort als auch auf Ihrem Cloud-Speicher gespeichert werden sowohl auf Ihren Mainframe-Systemen vor Ort als auch auf Ihrem Cloud-Speicher Verwenden Sie Cloud-native Tools wie AWS KMS oder Azure Key Volt, um Verschlüsselungsschlüssel zu verwalten und in der Cloud gespeicherte Daten zu schützen Beispiel: Implementierung: Verschlüsseln Sie sensible Finanzdaten und Kundendaten, Verschlüsseln Sie sensible Finanzdaten und Kundendaten in AWS gespeichert sind, mithilfe von KMS um sicherzustellen, dass die Daten auch dann, wenn der Cloud-Speicher kompromittiert wird, ohne die richtigen Entschlüsselungsschlüssel nicht zugänglich bleiben ohne die richtigen Entschlüsselungsschlüssel nicht Nehmen wir ein Beispiel. Das Williams-Team kann die DLS-Verschlüsselung verwenden, um die Übertragung von Kundenfinanzdaten vom Mainframe zu AWS und KMS zu sichern Kundenfinanzdaten vom Mainframe zu AWS und KMS zu , um sicherzustellen, dass die Daten, sobald sie in der Cloud gespeichert sind Dadurch wird sichergestellt, dass sowohl die Daten als auch die Übertragung und die adressierten Daten vollständig geschützt sind Multifaktor-Authentifizierung oder MFA zur Stärkung des Identitätsschutzes Multi-Faktor-Authentifizierung MFA bietet eine zusätzliche Sicherheitsebene , da Benutzer ihre Identität anhand mehrerer Faktoren überprüfen müssen ihre Identität anhand mehrerer Faktoren überprüfen In der Regel etwas, das sie kennen, wie ein Passwort, etwas, das sie haben, ein Sicherheitstoken oder Telefon und etwas, das sie biometrisch Cloud-MFA-Lösungen. In Cloud-Umgebungen kann MFA mithilfe von Diensten wie AWS MFA, Azure MFA oder Tools von Drittanbietern wie Octa implementiert werden Azure MFA oder Tools von Drittanbietern wie Octa MFA stellt sicher, dass Angreifer ohne den zweiten Authentifizierungsfaktor nicht auf kritische Systeme zugreifen können, selbst wenn die Anmeldeinformationen eines Benutzers kompromittiert werden Angreifer ohne den zweiten Authentifizierungsfaktor nicht auf kritische Systeme zugreifen können . Beispiel: Bei der Implementierung ist MFA für alle Anmeldungen sowohl bei Cloud-Anwendungen als auch bei lokalen Systemen erforderlich für alle Anmeldungen sowohl bei Cloud-Anwendungen , insbesondere für Benutzer mit privilegiertem Zugriff, wie Administratoren und insbesondere für Benutzer mit privilegiertem Zugriff, wie Administratoren MFA vor Ort. Erweitern Sie die MFA-Lösungen auch auf Ihre lokalen Systeme. Durch die Integration von Active Directory oder LDAP mit MFA können Sie wichtige lokale Anwendungen schützen, z. B. solche, die auf Ihrem Mainframe laufen Nehmen wir ein Beispiel. Für Williams Institution kann MFA für jeden Mitarbeiter erforderlich sein, der remote auf die Mainframe- oder Cloud-Systeme zugreift . Dadurch wird sichergestellt, dass nur autorisiertes Personal auf sensible Systeme zugreifen kann Zero-Trust-Architektur, vertraue niemandem, verifiziere immer. Ein Zero-Trust-Sicherheitsmodell basiert auf dem Prinzip „Niemals vertrauen, immer verifizieren“, was bedeutet, dass niemandem, egal ob innerhalb oder außerhalb des Unternehmens, standardmäßig vertraut wird. Jede Zugriffsanfrage muss authentifiziert, autorisiert und kontinuierlich validiert Zugriff mit den geringsten Rechten. Wenden Sie das Prinzip der geringsten Rechte indem Sie sicherstellen, dass Benutzer nur Zugriff auf die Ressourcen haben, die sie für ihre Arbeit benötigen, und nicht mehr. Dadurch wird das Potenzial einer Sicherheitsverletzung begrenzt , indem die Anzahl der Systeme reduziert wird , auf die ein Angreifer zugreifen kann , wenn er ein Konto kompromittiert. Beispielimplementierung: Verwenden Sie AWS IAM oder Azure AD, um rollenbasierte Zugriffskontrollen (RBAC) zu erstellen , die basierend auf den Rollen der Benutzer innerhalb der Organisation eingeschränkten Zugriff auf Cloud-Ressourcen gewähren , die basierend auf den Rollen der Benutzer innerhalb der Organisation eingeschränkten Zugriff auf Cloud-Ressourcen basierend auf den Rollen der Benutzer innerhalb der Organisation eingeschränkten Zugriff auf Kontinuierliche Authentifizierung. Implementieren Sie eine kontinuierliche Authentifizierung, um sicherzustellen, dass Benutzer während ihrer gesamten Sitzung verifiziert bleiben , insbesondere beim Zugriff auf sensible Daten oder Anwendungen. Implementieren Sie ein Beispiel, integrieren Sie biometrische Verifizierung oder kontextbasierte Authentifizierung, um beispielsweise ungewöhnliche Anmeldeorte oder Geräte zu erkennen , um eine zusätzliche Schutzebene zu schaffen Nehmen wir ein Beispiel. Das Williams-Team könnte AWSIAM verwenden , um einen strikten regelbasierten Zugriff für verschiedene Teams zu schaffen DevOps-Techniker beschränken sich auf die Ressourcen, die sie für die Verwaltung von Cloud-Implementierungen benötigen, und stellen gleichzeitig sicher, dass Mainframe-Administratoren nur Zugriff auf Mainframe-Systeme haben Bewährte Methoden für die Sicherung von Daten in Hybridumgebungen. Daten sind das wertvollste Gut in jedem Unternehmen, insbesondere in Branchen wie dem Finanzwesen, denen der Schutz von Kunden- und Transaktionsdaten von entscheidender Bedeutung ist. Folgenden finden Sie bewährte Verfahren zum Schutz von Daten während der Übertragung und Adresse. Sicherung von Daten während der Übertragung. Daten, die zwischen Ihren lokalen Systemen und Cloud-Umgebungen übertragen werden, sind während der Übertragung besonders gefährdet. Hier erfahren Sie, wie Sie es sichern und alle Übertragungen verschlüsseln können. Verschlüsseln Sie Datenübertragungen immer mit SSL-TLS-Verschlüsselungsprotokollen , um ein Abfangen durch unbefugte Parteien zu verhindern Für Williams Financial Institution kann DLS beispielsweise verwendet werden, um Daten zu verschlüsseln, die von Mainframe-Datenbanken in die drei oder andere Cloud-Speicherlösungen von AWS übertragen werden drei Verwenden Sie private Netzwerkverbindungen. Anstatt sich für die Übertragung sensibler Daten auf das öffentliche Internet zu verlassen , verwenden Sie dedizierte Verbindungen wie AWS Direct Connect oder Azure Express Route, um private Hochgeschwindigkeitsverbindungen zwischen lokalen und Cloud-Systemen herzustellen . Nehmen wir ein Beispiel. Das Williams-Team kann AWS Direct Connect einrichten, um Transaktionsaufzeichnungen sicher vom Mainframe in die Cloud zu übertragen vom Mainframe in die Cloud zu und so das mit einem öffentlichen Internet verbundene Risiko zu umgehen mit einem öffentlichen Internet verbundene Sicherung der Datenadresse. Daten, die in Cloud-Umgebungen oder auf erstklassigen Systemen gespeichert sind, müssen verschlüsselt und vor unbefugtem Zugriff geschützt werden. Cloud-Verschlüsselung: Verschlüsseln Sie alle in der Cloud gespeicherten Daten mit Tools wie AWSKMS oder Azure Keyvolt und stellen Sie sicher, dass die Verschlüsselungsschlüssel ordnungsgemäß verwaltet und rotiert werden Verschlüsseln Sie beispielsweise alle in der AWSRDS- oder Azure SQL-Datenbank gespeicherten Kundenkontodaten mit KMS oder Tastatur Verschlüsselung vor Ort. bei Mainframe-Systemen Implementieren Sie bei Mainframe-Systemen die Datenverschlüsselung auf Speicherebene mithilfe integrierter Verschlüsselungstools, um lokale Datenbanken zu schützen Verwenden Sie beispielsweise die ZOS-Verschlüsselungsfunktion von IBM um die Mainframe-Datenadresse zu verschlüsseln und so sicherzustellen, dass die auf dem Mainframe gespeicherten Finanzdaten der Kunden gespeicherten Finanzdaten der Beispielsweise kann das Williams-Team sicherstellen, dass Kundendaten auf dem Mainframe gespeichert sind mithilfe der IBM ZOS-Verschlüsselung verschlüsselt werden, während in der Cloud gespeicherte Daten , die auf dem Mainframe gespeichert sind, mithilfe der IBM ZOS-Verschlüsselung verschlüsselt werden, während in der Cloud gespeicherte Daten mit AWS KMS geschützt werden. Dadurch wird gewährleistet, dass beide Umgebungen die erforderlichen Verschlüsselungsstandards erfüllen Überwachung und Prüfung Ihres hybriden Sicherheitsframeworks. Regelmäßige Überwachung und Prüfung sind entscheidend, um sicherzustellen, dass Ihr Sicherheitsframework wirksam bleibt und den Vorschriften entspricht. So implementieren Sie diese Kontrollen. Zentralisierte Überwachung. Verwenden Sie eine zentralisierte Sicherheitsüberwachungslösung, um Aktivitäten sowohl in lokalen als auch in Cloud-Umgebungen zu verfolgen . Lösungen wie AWS Cloud Watch, Azure Security Center und Splunk ermöglichen Echtzeitüberwachung von Sicherheitsereignissen, sodass Ihr Team potenzielle Bedrohungen schnell erkennen und darauf reagieren Implementieren Sie beispielsweise AWS Cloud Watch zur Überwachung von Cloud-Aktivitäten verwenden Sie Splunk, um allgemeine Ereignisse zu verfolgen und Sicherheitswarnungen für jedes verdächtige Verhalten zu generieren Kontinuierliche Prüfungen und Konformitätsprüfungen. Regelmäßige Audits stellen sicher, dass Ihr Sicherheitsframework den gesetzlichen Standards und den internen Sicherheitsrichtlinien entspricht gesetzlichen Standards und den internen Sicherheitsrichtlinien Automatisierte Audits. Verwenden Sie Tools wie AWS Config oder Azure Policy , um Konfigurationen automatisch zu prüfen und die Einhaltung von PCIDSS, GDPR und anderen Branchenvorschriften sicherzustellen , GDPR und anderen Das Williams-Team kann beispielsweise AWS Config verwenden, um automatisch zu überprüfen, ob alle Cloud-Ressourcen PCI-DSS-Anforderungen entsprechen, und gleichzeitig regelmäßige Audits auf Mainframe-Systemen durchführen regelmäßige Audits auf Mainframe-Systemen überprüfen, ob alle Cloud-Ressourcen den PCI-DSS-Anforderungen entsprechen, und gleichzeitig regelmäßige Audits auf Mainframe-Systemen durchführen, um die DSGVO-Konformität sicherzustellen. den wichtigsten Erkenntnissen aus dieser Lektion gehört zum einen, ein umfassendes Sicherheitsframework für Hybridumgebungen Schlüsselelemente wie Verschlüsselung, Multifaktor-Authentifizierung und Zero-Trust-Architekturen beinhalten muss Schlüsselelemente wie Verschlüsselung, , um den Datenschutz und den sicheren Zugriff auf lokale und Cloud-Systeme zu gewährleisten Zugriff auf lokale und Cloud-Systeme Zweitens ist die Verschlüsselung sowohl der Daten bei der Übertragung als auch der Datenadresse unerlässlich unbefugten Zugriff auf vertrauliche Informationen zu verhindern zu Drittens sind regelmäßige Überwachungen, Prüfungen und Konformitätsprüfungen erforderlich, um sicherzustellen, dass Ihr Sicherheitsrahmen wirksam bleibt und den gesetzlichen Anforderungen entspricht. Lernaktivität, Reflexion. Berücksichtigen Sie die spezifischen Anforderungen der Hybridumgebung Ihres Unternehmens. Wie implementieren Sie Verschlüsselung, MFA und Zero Trust, um sowohl lokale als auch Cloud-Systeme zu schützen sowohl lokale als auch Cloud-Systeme Diskussionsfrage, Beitrag im Forum. Welche Strategien haben Sie implementiert, um Daten während der Übertragung und das Vertrauen in Daten in Ihrer Hybridumgebung zu schützen Daten während der Übertragung und das Vertrauen in Daten ? Wie stellen Sie die Konsistenz zwischen beiden Infrastrukturen sicher? Nächste Lektion, Compliance in einer Hybridumgebung. In der nächsten Lektion konzentrieren wir uns auf die Einhaltung von Vorschriften in Hybridsystemen. Wir werden die regulatorischen Anforderungen für Finanzinstitute, das Gesundheitswesen und andere regulierte Branchen untersuchen und erörtern, und wie eine kontinuierliche Compliance-Überwachung sowohl in der Cloud als auch in Mainframe-Systemen implementiert kontinuierliche Compliance-Überwachung sowohl in der Cloud als auch in Mainframe-Systemen Bereit dafür zu sorgen, dass Ihre Hybridumgebung die regulatorischen Standards erfüllt Fahren wir mit Lektion drei von Modul sechs fort. 24. Lektion 3: Compliance in einer hybriden Umgebung: Einhaltung von Vorschriften in einer Hybridumgebung. Willkommen zu Lektion drei von Modul sechs. In dieser Lektion werden wir uns mit den regulatorischen Anforderungen für hybride Umgebungen befassen den regulatorischen Anforderungen für hybride Umgebungen uns dabei auf Branchen wie Finanzen und Gesundheitswesen konzentrieren, denen strenge Compliance-Vorschriften gelten Compliance-Management in Hybridsystemen , in denen Daten und Anwendungen zwischen lokalen Mainframes und Cloud-Umgebungen verteilt sind zwischen lokalen Mainframes und , stellt besondere Wir werden erörtern, wie wichtig kontinuierliche Compliance-Überwachung ist und wie Systeme implementiert werden können , die die Einhaltung der Vorschriften sowohl in der Cloud als auch in der lokalen Infrastruktur sicherstellen sowohl in der Cloud als auch in der lokalen Infrastruktur Am Ende dieser Lektion werden Sie die regulatorischen Anforderungen für Finanzinstitute, das Gesundheitswesen und andere regulierte Branchen in hybriden Umgebungen verstehen für Finanzinstitute, Gesundheitswesen und andere regulierte Branchen . Zweitens lernen Sie, wie Sie kontinuierliche Compliance-Überwachung sowohl in Cloud- als auch in Mainframe-Systemen implementieren sowohl in Cloud- als auch in Mainframe-Systemen können, um die Einhaltung gesetzlicher Standards sicherzustellen Lassen Sie uns zunächst die spezifischen Compliance-Herausforderungen untersuchen , mit denen Hybridsysteme konfrontiert sind, und wie sie angegangen werden können Verständnis der regulatorischen Anforderungen für Hybridsysteme. In hybriden Umgebungen, in denen sowohl ältere Systeme wie Mainframes als auch Cloud-Plattformen verwendet werden, müssen Unternehmen je nach Branche eine Vielzahl von regulatorischen Anforderungen erfüllen je nach Branche eine Vielzahl von regulatorischen Anforderungen wichtigsten Compliance-Vorschriften gehören PCIDSS, GDPR und HIPA, was strenge Datenschutz-, Datenschutzkontrollen und Auditfunktionen erfordert Datenschutzkontrollen PCI DSS, Datensicherheitsstandard der Zahlungskartenbranche Für Unternehmen, die mit Zahlungskartendaten umgehen wie Williams Financial Institution, ist die Einhaltung von PCI DSS verpflichtend Diese Verordnung stellt sicher, dass die Zahlungsinformationen der Kunden vor Betrug, Verstößen und unbefugtem Zugriff geschützt Verstößen und unbefugtem Zugriff Anforderungen an die Verschlüsselung. PCIDSS schreibt die Verschlüsselung sensibler Karteninhaberdaten bei der Übertragung über offene Netzwerke und während der Übertragung über offene Sowohl Cloud- als auch On-Premise-Umgebungen müssen Verschlüsselungstechnologien implementieren. Verschlüsseln Sie beispielsweise alle Karteninhaberdaten, die auf Mainframes gespeichert sind , und stellen Sie sicher, dass alle an Cloud-Systeme übertragenen Zahlungsdaten ebenfalls verschlüsselt sind Zugriffskontrolle, Implementierung rollenbasierten Zugriffskontrolle (RBAC), um den Zugriff auf Karteninhaberdaten auf diejenigen Mitarbeiter oder Systeme zu beschränken , die für die Ausführung ihrer einer rollenbasierten Zugriffskontrolle (RBAC), um den Zugriff auf Karteninhaberdaten auf diejenigen Mitarbeiter oder Systeme zu beschränken, die für die Ausführung ihrer Aufgaben benötigt werden. Nehmen wir ein Beispiel. Das Williams-Team muss sicherstellen, dass alle Zahlungsdaten von Kunden die in der Cloud gespeichert und vom Mainframe verarbeitet werden , mithilfe starker Kryptografie wie AS 256 verschlüsselt starker Kryptografie wie AS werden und dass in beiden Umgebungen Zugriffskontrollen durchgesetzt werden , um PCI DSS zu entsprechen DSGVO, Allgemeine Datenschutzverordnung. Für Organisationen, die innerhalb der Europäischen Union tätig sind oder mit Daten von EU-Bürgern umgehen, verlangt die DSGVO eine strikte Kontrolle darüber, wie personenbezogene Daten gespeichert, verarbeitet und übertragen werden. Rechte der betroffenen Person. DSGVO gewährt betroffenen Personen Rechte wie das Recht, vergessen zu werden und das Recht, auf ihre Daten zuzugreifen. Unternehmen müssen sicherstellen dass sie personenbezogene Daten auf Anfrage lokalisieren, abrufen und löschen können , unabhängig davon, ob diese Daten auf einem Mainframe oder in der Cloud gespeichert Benachrichtigung über Datenschutzverletzungen. DSGVO schreibt vor, dass jede Datenschutzverletzung, personenbezogene Daten betrifft, innerhalb von 72 Stunden den zuständigen Behörden gemeldet werden muss innerhalb von 72 Stunden den zuständigen Behörden Hybride Umgebungen müssen in der Lage sein, Verstöße schnell zu erkennen, zu protokollieren und darauf zu reagieren Nehmen wir ein Beispiel. Williams Institution muss sicherstellen, dass alle Kundendaten DSGVO-konform gespeichert werden. Das bedeutet, dass es möglich sein muss, die personenbezogenen Daten eines Kunden auf Anfrage sowohl aus Mainframe-Datenbanken als auch aus Cloud-Speichern abzurufen oder zu löschen personenbezogenen Daten eines Kunden auf Anfrage sowohl aus Mainframe-Datenbanken als auch aus Cloud-Speichern HIPAA, Portabilität und Rechenschaftspflicht von Krankenversicherungen Im Gesundheitswesen legt HIPAA Anforderungen zum Schutz geschützter Organisationen im Gesundheitswesen, die Hybrid-Cloud-Umgebungen verwenden , müssen sicherstellen, dass PHI sowohl in lokalen als auch in Cloud-Systemen ordnungsgemäß gesichert ist sowohl in lokalen als auch in Cloud-Systemen ordnungsgemäß gesichert Datenverschlüsselung. HIPAA erfordert die Verschlüsselung von PHI, sowohl bei der Adresse als auch bei der Übertragung, unabhängig davon, ob die Daten auf Mainframes oder in Cloud-Plattformen gespeichert sind Mainframes oder in Prüfpfade. HIPA schreibt die Erstellung von Prüfprotokollen vor, um nachzuverfolgen, wer auf PHI zugegriffen hat, wann und zu welchem Zweck darauf zugegriffen wurde Diese Auditprotokolle müssen sowohl in der Cloud als auch in lokalen Systemen verfügbar sein sowohl in der Cloud als auch in lokalen Systemen Nehmen wir ein Beispiel. Gesundheitsorganisationen wie Krankenhäuser oder Kliniken, die Mainframes für Patientenakten und Cloud-Dienste für die Tally-Medizin verwenden Mainframes für Patientenakten und , müssen sicherstellen, dass PHI in allen Phasen verschlüsselt ist und dass der Zugriff auf Patientendaten vollständig protokolliert und rückverfolgbar ist, um die HIPA-Anforderungen zu erfüllen Implementierung einer kontinuierlichen Compliance-Überwachung in Sicherstellung der kontinuierlichen Einhaltung von Vorschriften in hybriden Umgebungen ist eine herausfordernde, aber notwendige Aufgabe. Da Daten und Anwendungen zwischen lokalen Mainframes und Cloud-Plattformen verteilt sind, müssen Unternehmen Monitoring-Lösungen implementieren, Echtzeiteinblicke in den Compliance-Status bieten und potenzielle Verstöße erkennen, und potenzielle Verstöße erkennen bevor sie mit behördlichen Sanktionen rechnen Zentralisierte Überwachungslösungen. Eine der effektivsten Methoden zur Überwachung der Einhaltung von Vorschriften in Hybridumgebungen ist Implementierung zentraler Überwachungslösungen. Diese Tools bieten einen einheitlichen Überblick über die Einhaltung von Vorschriften sowohl auf lokalen als auch auf Cloud-Systemen, sodass Sicherheitsteams Verstöße erkennen und in Echtzeit auf Bedrohungen reagieren können. Cloud-basierte Überwachung. Tools wie AWS CloudTrail, Azor und Google Cloud Operations bieten Einblicke in Cloud-Ressourcenkonfigurationen, Zugriffsprotokolle und Sicherheitsereignisse Diese Tools helfen dabei, die Einhaltung der Pflichten der Cloud-Dienstanbieter im Rahmen des Modells der gemeinsamen Verantwortung zu überwachen Pflichten der Cloud-Dienstanbieter im Rahmen des Modells der gemeinsamen Verantwortung Das Williams-Team kann beispielsweise AWS Cloud Trail verwenden, um den Zugriff und die Änderungen an sensiblen Finanzdaten in der Cloud zu überwachen und so sicherzustellen, dass nur autorisierte Benutzer Änderungen vornehmen und dass jeder Zugriff aus Compliance-Gründen protokolliert wird. Überwachung vor Ort. Für Mainframe-Systeme können Tools wie Splunk oder IBM Z Secure Compliance-Ereignisse verfolgen und potenzielle Verstöße aufdecken Diese Tools helfen bei der Überwachung von Benutzeraktivitäten, Datenzugriffen und Sicherheitsvorfällen in älteren Systemen Verwenden Sie beispielsweise IBM Z Secure, um den Zugriff auf Mainframe-Datenbanken zu überwachen und Warnung zu generieren, wenn unbefugte Versuche erkannt werden Automatisieren Sie die Einhaltung von Richtlinien und Warnmeldungen. Um eine kontinuierliche Einhaltung der Vorschriften zu gewährleisten, sollten Unternehmen die Durchsetzung von Sicherheitsrichtlinien automatisieren und zeitnahe Warnmeldungen einrichten , um Verstöße zu erkennen Automatisierung der Einhaltung von Vorschriften reduziert das Risiko menschlicher Fehler und trägt dazu bei , dass alle Systeme gesetzlichen Anforderungen konsistent erfüllen Automatisierte Durchsetzung von Richtlinien. Tools wie AWS Config oder Azure Policy zur Automatisierung der Durchsetzung von Sicherheits- und Compliance-Richtlinien. Diese Tools können Konfigurationen automatisch überprüfen, z. B. ob die Verschlüsselung aktiviert ist oder ob sensible Daten sicher gespeichert werden. Das Williams-Team kann beispielsweise AWS Config verwenden, um automatisch Verschlüsselungsrichtlinien für alle in der Cloud gespeicherten Finanzdaten durchzusetzen und so sicherzustellen, dass die PCI-DSS-Anforderungen alle Cloud-Ressourcen erfüllt werden Benachrichtigungen in Echtzeit: Richten Sie Warnmeldungen ein, die das Sicherheitsteam benachrichtigen , wenn Compliance-Verstöße auftreten Diese Benachrichtigungen können auf bestimmten Ereignissen basieren, z. B. auf unberechtigtem Zugriff auf Kundendaten oder Fehlkonfigurationen in Cloud-Umgebungen Verwenden Sie Plank beispielsweise, um Warnmeldungen zu generieren, wenn unbefugte Benutzer versuchen, auf sensible Daten zuzugreifen , die auf dem Mainframe gespeichert sind, um sicherzustellen, dass sofort Maßnahmen ergriffen werden können , um Verstöße zu Kontinuierliche Prüfung und Berichterstattung. Die Einhaltung der Vorschriften erfordert eine kontinuierliche Prüfung und Berichterstattung, um Lücken zu identifizieren und die Einhaltung der regulatorischen Standards sicherzustellen Regelmäßige Audits helfen Unternehmen auch dabei, sich auf externe Prüfungen durch Aufsichtsbehörden vorzubereiten Unternehmen auch dabei, sich auf externe Prüfungen durch Aufsichtsbehörden Automatisierte Prüfungstools. Verwenden Sie Tools wie AWS Audit Manager, Azure Security Center oder Google Cloud Audit Logs, um Compliance-Audits zu automatisieren. Diese Tools generieren Berichte, mit deren Hilfe der Compliance-Status des Unternehmens im Laufe der Zeit verfolgt Compliance-Status des Unternehmens im Laufe und Verbesserungspotenziale identifiziert werden können. Das Williams-Team kann beispielsweise AWS Audit Manager verwenden, um automatisierte Prüfberichte zu erstellen , Einhaltung von PCIDSS verfolgen und so sicherstellen, dass alle Systeme, die Zahlungsdaten verarbeiten , den gesetzlichen Standards entsprechen Nehmen wir ein Beispiel. Um HIPAA zu erfüllen, könnte eine Organisation im Gesundheitswesen Azure Security Center verwenden , um den Verschlüsselungsstatus der in der Cloud gespeicherten Patientendaten kontinuierlich zu überprüfen und gleichzeitig IBM Z Secure für die Prüfung von Mainframe-Protokollen oder den Zugriff auf vertrauliche Patientendaten zu verwenden Mainframe-Protokollen oder Zugriff auf vertrauliche Patientendaten zu Bewährte Methoden für die Einhaltung von Vorschriften in hybriden Umgebungen. den Best Practices, um Compliance und Hybridumgebungen erfolgreich zu verwalten , um Compliance und Hybridumgebungen Folgen Sie den Best Practices, um Compliance und Hybridumgebungen erfolgreich zu verwalten. Implementieren Sie das Modell der gemeinsamen Verantwortung. In Cloud-Umgebungen ist die Einhaltung eine gemeinsame Verantwortung zwischen dem Cloud-Anbieter und der Organisation. Während Cloud-Anbieter die Sicherheit der Cloud-Infrastruktur verwalten , sind Unternehmen für die Sicherung ihrer Datenanwendungen und Zugriffskontrollen verantwortlich . Bewährtes Verfahren. Machen Sie sich mit dem Modell der gemeinsamen Verantwortung für jeden Cloud-Anbieter vertraut und stellen Sie sicher, dass Compliance-Pflichten Ihres Unternehmens wie Datenverschlüsselung und Identitätsmanagement vollständig umgesetzt werden. Standardisierte Sicherheitsrichtlinien für alle Umgebungen. Um Inkonsistenzen zu vermeiden, müssen Sicherheits- und Compliance-Richtlinien sowohl für lokale Systeme als auch für Cloud-Plattformen standardisiert werden lokale Systeme als auch für Cloud-Plattformen Einheitliche Richtlinien stellen sicher, dass dieselben Sicherheitskontrollen angewendet werden unabhängig davon, wo die Daten gespeichert oder verarbeitet werden . Bewährtes Verfahren. Verwenden Sie einheitliche Sicherheitsmanagement-Tools, um konsistente Richtlinien in beiden Umgebungen anzuwenden. Auf diese Weise können Sie sicherstellen, dass Verschlüsselung, Zugriffskontrolle und Protokollierung auf jeder Ebene Ihrer Infrastruktur durchgesetzt werden auf jeder Ebene Ihrer Infrastruktur Sorgen Sie für Transparenz und Prüfung in allen Systemen. Einhaltung der Vorschriften zu erreichen, ist ein kontinuierlicher Einblick in Ihre Cloud- und On-Premise-Umgebung erforderlich . Implementieren Sie Prüfungstools, die Echtzeit Einblicke in den Datenzugriff, Systemkonfiguration und die Benutzeraktivitäten auf allen Systemen bieten. Bewährtes Verfahren. Implementieren Sie zentralisierte Überwachungs- und Auditlösungen, um Compliance-Ereignisse zu verfolgen und Verstöße in Echtzeit zu erkennen. den wichtigsten Erkenntnissen aus dieser Lektion gehört zum einen, Einhaltung von Vorschriften in hybriden Umgebungen für regulierte Branchen wie Finanzen und Gesundheitswesen unerlässlich ist für regulierte Branchen wie Finanzen und Gesundheitswesen unerlässlich , die Standards wie PCI DSS, GDPR und HIPA sowohl für lokale als auch für Cloud-Systeme erfüllen müssen , GDPR und HIPA sowohl für lokale als auch für Cloud-Systeme Zweitens: Implementieren Sie eine kontinuierliche Compliance-Überwachung mithilfe zentralisierter Tools, die Echtzeit Einblick in Compliance-Status sowohl in der Mainframe - als auch in sowohl in der Mainframe Drittens: Automatisieren Sie Compliance-Audits, die Durchsetzung von Richtlinien und Warnmeldungen in Echtzeit, um sicherzustellen, dass die Sicherheitskontrollen einheitlich angewendet und Verstöße schnell erkannt werden Erwerbstätigkeit, Reflexion. Wie würden Sie eine kontinuierliche Compliance-Überwachung in Ihrer Hybridumgebung implementieren kontinuierliche Compliance-Überwachung ? Welche Herausforderungen könnten sich bei der Standardisierung von Sicherheitsrichtlinien für lokale und Cloud-Systeme ergeben Sicherheitsrichtlinien für lokale und Cloud-Systeme Diskussion, Frage, Beitrag im Formular, wie geht Ihr Unternehmen mit der Einhaltung von Vorschriften in Hybridsystemen Welche Tools verwenden Sie für die kontinuierliche Überwachung und Prüfung und wie effektiv sind sie in der nächsten Lektion, Unternehmensführung und Richtlinienmanagement In der nächsten Lektion konzentrieren wir uns auf Governance und Richtlinienmanagement in hybriden Umgebungen. Sie lernen, wie Sie Richtlinien sowohl in Cloud - als auch in Legacy-Systemen durchsetzen können, wobei der Schwerpunkt auf Datenschutz, Risikomanagement und Disaster Recovery liegt. bereit sein, die Herausforderungen der Unternehmensführung anzugehen Lassen Sie uns bereit sein, die Herausforderungen der Unternehmensführung anzugehen, und fahren wir mit Lektion vier von Modul sechs fort. 25. Lektion 4: Governance und Richtlinienmanagement: Lektion vier, Regierungsführung und Politikmanagement. Willkommen zu Lektion vier von Modul sechs. In dieser Lektion werden wir die entscheidende Rolle von Governance und Richtlinienmanagement in Hybrid-Cloud-Umgebungen untersuchen Governance und Richtlinienmanagement . Für einen IT-Infrastrukturdirektor wie William Verwaltung einer Mischung aus lokalen Mainframes und erfordert die Verwaltung einer Mischung aus lokalen Mainframes und Cloud-Plattformen eine starke Steuerung um Datenschutz, Risikomanagement und Notfallwiederherstellung in beiden Infrastrukturen sicherzustellen Risikomanagement und Notfallwiederherstellung in beiden Infrastrukturen In dieser Lektion lernen Sie Strategien zur Erstellung und Durchsetzung Governance-Richtlinien kennen , die konsistent sind und sowohl auf Cloud - als auch auf Legacy-Systeme abgestimmt Am Ende dieser Lektion werden Sie zunächst die Bedeutung von Governance in Hybrid-Cloud-Umgebungen verstehen, einschließlich der Verwaltung von Datenschutz, Risiko und Notfallwiederherstellung, um zu erfahren, wie Sie Governance und Richtlinienmanagement in der Cloud und auf Primärsystemen konsistent durchsetzen Governance und Richtlinienmanagement in der Cloud und können Lassen Sie uns zunächst verstehen warum Governance in Hybrid-Cloud-Umgebungen so wichtig ist und wie Sie Governance-Frameworks entwickeln können , die sowohl für ältere als auch für moderne Systeme funktionieren sowohl für ältere als auch für moderne Systeme Warum Governance in hybriden Umgebungen unverzichtbar ist. Bei der Steuerung in hybriden Umgebungen geht es darum sicherzustellen, dass die Richtlinien, Prozesse und Risikomanagement-Frameworks Ihres Unternehmens sowohl auf lokalen Mainframes als auch auf Cloud-Plattformen einheitlich angewendet werden sowohl auf lokalen Mainframes als auch auf Cloud-Plattformen Die Komplexität der gleichzeitigen Verwaltung beider Infrastrukturen erfordert ein robustes Governance-Framework, das den besonderen Herausforderungen einer hybriden Umgebung Rechnung Datenschutz, Schutz sensibler Informationen. In hybriden Umgebungen gelten Datenschutzbestimmungen wie GDPR, PCIDSS und HIPA gleichermaßen für lokale Daten und in der Cloud gespeicherte Daten Es ist wichtig, über Governance-Richtlinien zu verfügen , die die Einhaltung dieser Vorschriften sicherstellen, indem strenge Datenzugriffskontrollen, Verschlüsselungsstandards Richtlinien zur Zugriffskontrolle. Implementieren Sie konsistente, rollenbasierte Zugriffskontrollen (RBAC) sowohl in der Cloud als auch in älteren Systemen um einzuschränken, wer auf sensible Daten zugreifen kann Dadurch wird das Risiko von Datenschutzverletzungen und unbefugtem Zugriff minimiert Datenschutzverletzungen Das Williams-Team kann beispielsweise einheitliche Richtlinien für die Zugriffskontrolle erstellen , die Azure als auch auf Mainframe-Systeme vor Ort regeln den Zugriff sowohl auf Cloud-Anwendungen wie AWS und und so sicherstellen, dass Kundendaten nur autorisiertem Personal zugänglich sind Datenschutzprüfungen. Überprüfen Sie Ihre Datenschutzrichtlinien regelmäßig , um sicherzustellen, dass sie den Vorschriften entsprechen und in beiden Umgebungen einheitlich angewendet werden . Tools wie AWS Config und Azure Security Center können dabei helfen, die Einhaltung der Datenschutzbestimmungen zu automatisieren. Nehmen wir ein Beispiel. Für das Finanzinstitut Williams müssen die auf dem Mainframe gespeicherten Finanzdaten der Kunden genauso sicher und vertraulich sein genauso sicher und vertraulich wie dieselben Daten, die in der Cloud gespeichert sind Ein einheitliches Governance-Framework stellt sicher, dass sowohl lokale als auch Cloud-Umgebungen die PCI-DSS-Anforderungen für Datenschutz und Verschlüsselung erfüllen für Datenschutz und Risikomanagement, proaktives Management von Sicherheits- und Compliance-Risiken Risikomanagement in hybriden Umgebungen umfasst die Identifizierung, Bewertung und Minderung der Sicherheits - und Compliance-Risiken , die sich aus der Nutzung von Altsystemen und Cloud-Plattformen ergeben Altsystemen und Cloud-Plattformen Governance-Rahmenbedingungen sollten klare Richtlinien für Risikobewertung, Reaktion auf Vorfälle und Notfallwiederherstellung beinhalten klare Richtlinien für Risikobewertung, Reaktion auf , um vor potenziellen Ausfällen oder Sicherheitsvorfällen zu schützen Rahmenbedingungen für die Risikobewertung. Implementieren Sie ein Risikomanagement-Framework, das die spezifischen Risiken abdeckt , die mit beiden Mainframe-Systemen verbunden sind, z. B. veraltete Software, eingeschränkte Agilität und Cloud-Plattformen Zum Beispiel das Sicherheitsrisiko Dritter, Datenschutzverletzungen. Eine regelmäßige Risikobewertung hilft Unternehmen dabei, Sicherheitslücken zu antizipieren und sie proaktiv Das Williams-Team kann beispielsweise vierteljährliche Risikobewertungen durchführen, bei denen sowohl die Infrastruktur vor Ort (z. B. Mainframe-Sicherheitspatches) als auch Cloud-Dienste (z. B. die Überwachung von Drittanbietern) bewertet z. B. Mainframe-Sicherheitspatches ) als auch Cloud-Dienste (z. B. die Überwachung von Drittanbietern Pläne zur Reaktion auf Vorfälle. Governance-Rahmenbedingungen sollten detaillierte Verfahren zur Reaktion auf Vorfälle beinhalten , in denen dargelegt wird, wie das Unternehmen mit Sicherheitsverletzungen oder Systemausfällen in einer hybriden Umgebung umgeht Dieser Plan sollte sowohl lokale als auch Cloud-Vorfälle abdecken lokale als auch Cloud-Vorfälle Nehmen wir ein Beispiel. Für das Williams-Team kann das Risiko einer Datenschutzverletzung in einer in der Cloud gehosteten Anwendung Echtzeit-Überwachungstools wie AWS Cloud Lodge erfordern , während das Risiko eines Systemausfalls auf dem Mainframe etablierte Wiederherstellungsverfahren und einen Notfallwiederherstellungsplan erfordern kann etablierte Wiederherstellungsverfahren und einen Notfallwiederherstellungsplan erfordern und einen Notfallwiederherstellungsplan Notfallwiederherstellung zur Sicherstellung der Geschäftskontinuität. Hybride Cloud-Umgebungen erhöhen die Komplexität der Notfallwiederherstellung , da Systeme und Daten auf mehrere Standorte verteilt sind. Governance-Rahmenbedingungen müssen umfassende Notfallwiederherstellungspläne beinhalten , die Datenverlusts oder einer Naturkatastrophe gewährleisten die Geschäftskontinuität im Falle eines Systemausfalls, . Backup-Richtlinien. Legen Sie klare Backup-Richtlinien , die sicherstellen, dass regelmäßig Datensicherungen sowohl für lokale Mainframes als auch für Cloud-Systeme erstellt lokale Mainframes als auch für Cloud-Systeme Regelmäßige Backups sollten verschlüsselt und an sicheren Orten wie externen Rechenzentren oder Kühlhäusern in der Cloud gespeichert an sicheren Orten wie externen Rechenzentren oder Kühlhäusern in der Das Williams-Team kann beispielsweise tägliche Backups von Mainframe-Datenbanken und wöchentliche Cloud-Backups planen , um sicherzustellen, dass geschäftskritische Daten immer für die Wiederherstellung verfügbar sind Wiederherstellung mehrerer Umgebungen. Notfallwiederherstellungspläne sollten der Komplexität der Wiederherstellung von Systemen sowohl in lokalen als auch in Cloud-Infrastrukturen Rechnung tragen Wiederherstellung von Systemen sowohl in lokalen als auch in . Automatisieren Sie nach Möglichkeit Wiederherstellungsprozesse, um Ausfallzeiten zu reduzieren und eine schnelle Wiederherstellung der Dienste sicherzustellen. Verwenden Sie beispielsweise Tools wie AWS Elastic Disaster Recovery, um die Wiederherstellung von Cloud-Services zu automatisieren , und kombinieren Sie diese mit manuellen Wiederherstellungsprozessen für den Mainframe, um einen einheitlichen Notfallwiederherstellungsplan zu erstellen Nehmen wir ein Beispiel. Das Williams-Team könnte einen Disaster-Recovery-Plan entwickeln , der regelmäßige Backups von Kundendaten sowohl vom Mainframe als auch von der Cloud umfasst und die Möglichkeit bietet, diese auf Backup-Systeme zu übertragen, falls es in einer der Umgebungen zu Ausfallzeiten kommt . Durchsetzung von Governance-Richtlinien für Cloud- und Altsysteme Implementierung und Durchsetzung von Governance-Richtlinien konsistente Implementierung und Durchsetzung von Governance-Richtlinien in Cloud- und Legacy-Systemen erfordert den Einsatz von Governance-Frameworks und -Tools , die die Lücke zwischen beiden Umgebungen schließen können Im Folgenden finden Sie wichtige Strategien, um sicherzustellen, dass Richtlinien in allen Infrastrukturen durchgesetzt werden Einheitliches Richtlinienmanagement. Um die Governance in hybriden Umgebungen zu verwalten, müssen Unternehmen einheitliche Tools zur Richtlinienverwaltung implementieren , die eine zentrale Kontrolle über Richtlinien und Konfigurationen sowohl vor Ort als auch in Cloud-Systemen ermöglichen. Tools zur Durchsetzung von Richtlinien. Verwenden Sie Tools wie Azure Policy, AWS Organizations und IBM Z Security Server um Sicherheits- und Governance-Richtlinien in allen Systemen einheitlich durchzusetzen . diesen Tools können Administratoren Richtlinienvorlagen definieren , die auf Cloud-Dienste und Mainframe-Ressourcen angewendet werden können Cloud-Dienste und Mainframe-Ressourcen angewendet Das Williams-Team kann beispielsweise die Azure-Richtlinie verwenden, um Datenverschlüsselungsrichtlinien für alle Cloud-Speicherdienste durchzusetzen , und gleichzeitig den IBM Z-Sicherheitsserver verwenden , um dieselben Richtlinien auf lokale Mainframe-Datenbanken anzuwenden dieselben Richtlinien auf lokale Mainframe-Datenbanken Einhaltung der Policy-Frameworks. Organisation sollte ihre Unternehmensführungsrichtlinien an allgemein anerkannten Rahmenbedingungen wie COVID oder ISO IEC 27 001 ausrichten allgemein anerkannten Rahmenbedingungen wie COVID oder ISO IEC 27 001 um sicherzustellen, dass die Unternehmensführungspraktiken Industriestandards entsprechen Nehmen wir ein Beispiel. Für das Finanzinstitut Williams Anwendung konsistenter Zugriffskontrollrichtlinien Cloud- und Altsysteme sicher , dass sensible Kundeninformationen unabhängig davon, wo sie gespeichert sind, geschützt bleiben. Automatisierung der Einhaltung von Richtlinien. Automatisierung ist der Schlüssel zur konsistenten Durchsetzung Governance-Richtlinien in Hybridsystemen Automatisierungstools können Systemkonfigurationen überwachen, Richtlinienverstöße erkennen und Korrekturmaßnahmen ergreifen, ohne dass manuelles Automatisierte Prüfung. Verwenden Sie AWS Config oder Azure Monitor, um kontinuierliche Konformitätsprüfungen durchzuführen und Konfigurationen Ihrer Cloud-Umgebung zu prüfen. So stellen Sie sicher, dass das System stets Governance- und Sicherheitsanforderungen erfüllt. Verwenden Sie auf ähnliche Weise Mainframe-Überwachungstools wie Splunk oder Z Secure, um sicherzustellen, dass die Richtliniensysteme den Unternehmensrichtlinien entsprechen Das Williams-Team kann beispielsweise AWS-Konfigurationsregeln einrichten , die automatisch überprüfen ob Cloud-basierte Speichersysteme die Verschlüsselungsrichtlinien erfüllen Jeder Verstoß löst eine Warnung die sicherstellt, dass sofort Maßnahmen ergriffen werden können. Abhilfemaßnahmen. Automatisieren Sie Korrekturmaßnahmen , wenn Richtlinienverstöße festgestellt werden Wenn beispielsweise eine Verschlüsselungsrichtlinie verletzt wird, können Tools wie AWS Systems Manager oder Azure Automation automatisch die richtige Konfiguration anwenden, um die Systeme wieder an die Vorschriften anzupassen Nehmen wir ein Beispiel. Das Williams-Team kann mithilfe von Azure-Richtlinien automatisch alle Konfigurationen in der Cloud korrigieren , die gegen Verschlüsselungs- oder Zugriffskontrollrichtlinien verstoßen, Einhaltung der Vorschriften ohne manuelles Eingreifen sicherstellen. Plattformübergreifende Überwachung der Unternehmensführung. Verwaltung in hybriden Umgebungen erfordert Tools, die einen zentralen Überblick über Sicherheit, Compliance und Richtlinieneinhaltung sowohl in der Cloud als auch in lokalen Systemen bieten , Compliance und Richtlinieneinhaltung über Sicherheit, Compliance und Richtlinieneinhaltung sowohl in der Cloud als auch in lokalen Systemen Zentralisierte Dashboards. Verwenden Sie zentralisierte Governance-Dashboards , die einen ganzheitlichen Überblick über den Sicherheits - und Compliance-Status des Unternehmens in allen Systemen bieten den Sicherheits - und Compliance-Status des Unternehmens in allen Systemen Tools wie AWS Control Tower, ein Security Center oder Splunk können Daten sowohl aus Cloud- als auch aus älteren Umgebungen aggregieren , um Administratoren einen vollständigen Überblick über die Einhaltung von Richtlinien zu geben Administratoren einen vollständigen Überblick Das Williams-Team kann beispielsweise AWS Control Tower verwenden, um die Einhaltung mehrerer Cloud-Konten zu überwachen Einhaltung mehrerer Cloud-Konten gleichzeitig Splunk zur Nachverfolgung von Sicherheitsvorfällen und Richtlinienverstößen auf dem Mainframe zu verwenden Richtlinienverstößen Nehmen wir ein Beispiel. Durch die Integration von Daten aus AWS und dem Mainframe in ein zentrales Dashboard kann Williams die Einhaltung von Richtlinien überwachen und sicherstellen, kann Williams die Einhaltung von Richtlinien überwachen dass beide Umgebungen den Governance-Standards entsprechen Bewährte Methoden für Hybrid-Cloud-Governance. Um die Governance in Hybridumgebungen sicherzustellen, sollten Unternehmen diese bewährten Methoden befolgen. Richten Sie frühzeitig einen Governance-Rahmen ein. Richten Sie von Anfang an ein Governance-Framework ein, das die wichtigsten Richtlinien, Rollen und Verantwortlichkeiten für die Verwaltung von Cloud- und lokalen Systemen umreißt Rollen und Verantwortlichkeiten für die . Dadurch wird sichergestellt, dass jeder in der Organisation seine Rolle bei der Aufrechterhaltung von Unternehmensführung und Compliance versteht . Bewährte Methode: Entwicklung eines Governance-Frameworks, Industriestandards wie COBIT oder NIST abgestimmt als Grundlage für das Risikomanagement, die Einhaltung von Risiken und den Datenschutz in hybriden Umgebungen dienen kann für das Risikomanagement, die Einhaltung und den Datenschutz in hybriden Sorgen Sie für Konsistenz in allen Systemen. Stellen Sie sicher, dass behördliche Richtlinien, sei es in Bezug auf Datenschutz, Risikomanagement oder Disaster Recovery, sowohl auf Cloud-Plattformen als auch auf älteren Systemen einheitlich angewendet werden auf älteren Systemen einheitlich . Dies reduziert das Risiko von Sicherheitsverstößen oder Nichteinhaltung von Vorschriften aufgrund einer inkonsistenten Durchsetzung von Richtlinien Bewährte Methode: Verwenden Sie einheitliche Tools für die Richtlinienverwaltung, um Richtlinien auf alle Systeme anzuwenden , und Konfigurationen regelmäßig, um die Konsistenz sicherzustellen Automatisierte Durchsetzung von Richtlinien. Die Automatisierung von Governance und Richtlinienmanagement in hybriden Umgebungen ist entscheidend, um manuelle Fehler zu reduzieren und die Einhaltung von Vorschriften sicherzustellen Bewährtes Verfahren. Implementieren Sie automatisierte Tools , mit denen Governance-Richtlinien in Echtzeit überwacht, geprüft und durchgesetzt werden können, sodass das Unternehmen Richtlinienverstöße sofort erkennen und darauf reagieren kann. Die wichtigsten Erkenntnisse aus dieser Lektion sind die folgenden. Erstens müssen Governance-Frameworks in hybriden Umgebungen Datenschutz, Risikomanagement und Notfallwiederherstellung berücksichtigen, um sowohl Cloud - als auch lokale Systeme zu schützen Zweitens: Verwenden Sie einheitliche Tools für die Richtlinienverwaltung, um die Governance in allen Systemen einheitlich durchzusetzen und Compliance-Prüfungen zu automatisieren, um das Risiko menschlicher Fehler zu verringern. Drittens ermöglicht die zentralisierte Überwachung es Unternehmen den Überblick über die Einhaltung von Richtlinien in hybriden Infrastrukturen zu behalten und so sicherzustellen, dass sowohl Cloud-Plattformen als auch ältere Systeme effektiv verwaltet werden . Erwerbstätigkeit Spiegelung. Wie würden Sie Governance-Richtlinien implementieren , die sich sowohl auf lokale als auch auf Cloud-Systeme in Ihrer Hybridumgebung beziehen? Was sind die wichtigsten Herausforderungen, die Sie erwarten, und wie würden Sie sie bewältigen? Diskussion, Frage, Beitrag im Forum Wie setzt Ihr Unternehmen Governance-Richtlinien in hybriden Umgebungen durch? Welche Tools oder Strategien sind Ihrer Meinung nach am effektivsten, um die Einhaltung von Vorschriften und Richtlinien Nächste Lektion: Überwachungstools für Hybridumgebungen. Im nächsten Modul werden wir uns Leistungsüberwachung in Hybrid-Cloud-Umgebungen befassen. Sie lernen, wie Sie Tools wie AWS Cloud Watch, Datadog und Splunk verwenden, um Dashboards einzurichten und den Systemzustand sowohl auf Cloud- als auch auf Mainframe-Systemen zu verfolgen sowohl Ich freue mich darauf zu erfahren, wie Sie Ihre Hybridsysteme überwachen und optimieren können . Fahren wir mit Modul sieben fort. 26. Lektion 1: Monitoring-Tools für hybride Umgebungen: Willkommen zu Modul 7, Optimierung und Verwaltung von Hybrid-Cloud-Systemen im Hinblick auf die Leistung. Im letzten Modul lernen die Studierenden, wie sie die kontinuierlich überwachen und optimieren Leistung ihrer Hybrid-Cloud-Systeme kontinuierlich überwachen und optimieren können. Zu den Themen gehören Leistungsüberwachung, Lastausgleich zwischen Mainframes und Cloud, Kostenoptimierung und die Behebung häufiger Probleme Das Modul behandelt auch Strategien für Disaster Recovery und Geschäftskontinuität in hybriden Umgebungen Lektion eins, Überwachungstools für Hybridumgebungen. Willkommen zu Lektion eins von Modul 7. In dieser Lektion werden wir uns den wichtigsten Überwachungstools zur Leistungsverfolgung in Hybrid-Cloud-Umgebungen befassen. Für einen IT-Infrastrukturdirektor wie William Verwaltung von Mainframes vor Ort und Cloud-Plattformen erfordert die Verwaltung von Mainframes vor Ort und Cloud-Plattformen einen umfassenden Einblick in die Leistung beider Infrastrukturen In dieser Lektion stellen wir uns Tools wie AWS, CloudWatch, Datadog und Splunk vor und zeigen, wie sie zur Überwachung des Systemzustands und der Leistung hybrider Systeme eingesetzt werden können Überwachung des Systemzustands Tools wie AWS, CloudWatch, Datadog und Splunk vor und zeigen, wie sie zur Überwachung des Systemzustands und der Leistung hybrider Systeme eingesetzt werden können. Außerdem lernen wir, wie man Dashboards und Warnmeldungen einrichtet , um Leistungsproblemen immer einen Schritt voraus zu Am Ende dieser Lektion werden Sie zunächst verstehen, wie Sie mithilfe von E-Tools zur Leistungsüberwachung den Systemzustand sowohl in der Cloud als auch in lokalen Systemen verfolgen sowohl in der Cloud als auch in lokalen Systemen Erfahren Sie, wie Sie Dashboards und Benachrichtigungen einrichten , um die Leistung und den Systemzustand in Echtzeit zu überwachen Leistung und den Systemzustand in Echtzeit Sehen wir uns die Tools und Best Practices für Leistungsüberwachung in Hybridumgebungen Überblick über die wichtigsten Überwachungstools für Hybridumgebungen. Hybridumgebungen führen zu Komplexität bei der Überwachung, da Leistungsdaten sowohl auf Cloud-Plattformen als auch auf Mainframes vor Ort verteilt sowohl auf Cloud-Plattformen auf Mainframes vor Ort verteilt Um eine lückenlose Überwachung zu gewährleisten, benötigen Unternehmen Tools, die Einblick in beide Umgebungen bieten Hier sind drei der leistungsstärksten und am häufigsten verwendeten Tools für die Überwachung hybrider Umgebungen: AWS CloudWatch, Datadog Native Cloud-Überwachung mit AWS Cloud Watch. AWS CloudWatch ist der native Überwachungs- und Beobachtbarkeitsservice von Amazon , der Echtzeit-Metriken, Protokolle und Alarme für Ihre AWS-Infrastruktur bereitstellt , Protokolle und Alarme für Ihre AWS-Infrastruktur Es ist ein leistungsstarkes Tool zur Überwachung des Zustands und der Leistung von Cloud-basierten Anwendungen, Diensten und Ressourcen Metriken und Protokolle. CloudWatch sammelt und verfolgt Metriken allem, von der CPU-Auslastung und DiO bis hin zur Latenz bei API-Aufrufen Es kann auch Anwendungsprotokolle überwachen bietet so Einblicke in Fehler, Warnungen und Leistungsengpässe Das Williams-Team kann CloudWatch beispielsweise verwenden, um die Leistung seiner auf AWS EC Two gehosteten Webanwendungen für Kunden zu überwachen seiner auf AWS EC Two gehosteten Webanwendungen für Kunden , CPU-Auslastung zu verfolgen und Alarme für plötzliche Leistungsspitzen einzurichten Dashboards und Alarme. CloudWatch können Sie benutzerdefinierte Dashboards erstellen , die wichtige Leistungskennzahlen visualisieren und Alarme einrichten, um Benachrichtigungen auszulösen, wenn ein Schwellenwert überschritten Sie können beispielsweise Benachrichtigungen erhalten, wenn CPU-Auslastung einer Datenbank über einen längeren Zeitraum einen bestimmten Prozentsatz überschreitet Erstellen Sie beispielsweise ein CloudWatch-Dashboard , das die Soforthilfe von EC Two, die RDS-Leistung und die S3 Storage-Metriken überwacht , damit die Williams Cloud-Infrastruktur reibungslos funktioniert Nehmen wir ein Beispiel aus der realen Welt. Williams Team kann CloudWatch verwenden, um die Leistung seiner cloudbasierten Mobile-Banking-Anwendung zu überwachen die Leistung seiner cloudbasierten und so sicherzustellen, dass Latenz und CPU-Auslastung innerhalb akzeptabler Bereiche bleiben Wenn Leistungsprobleme auftreten, kann das Team schnell erkennen, ob das Problem in der Cloud-Infrastruktur oder einer anderen Systemkomponente liegt oder einer anderen Systemkomponente Datadog Full-Stack-Überwachung für Hybridumgebungen. Datadog ist eine Cloud-native Überwachungsplattform , die eine vollständige Stack-Transparenz in Cloud-Umgebungen vor Ort bietet, vollständige Stack-Transparenz in die Infrastruktur und die Anwendungen vor Ort Ort Es eignet sich besonders gut für hybride Umgebungen, da es in Hunderte von Tools integriert darunter Cloud-Plattformen und ältere Plattformübergreifende Überwachung. Mit Datadog können Sie Ihre gesamte Hybrid-Infrastruktur von einer einzigen Plattform aus überwachen Ihre gesamte Hybrid-Infrastruktur von einer einzigen Plattform aus Es kann Metriken von AWS, Azure, Google Cloud und lokalen Systemen verfolgen Google Cloud und lokalen Systemen bietet Ihnen so einen einheitlichen Überblick Leistung in allen Umgebungen Das Williams-Team kann beispielsweise Datadog verwenden, um sowohl die Leistung von Cloud-Workloads als auch der Mainframe-Systeme zu überwachen sowohl die Leistung von Cloud-Workloads als auch der , die für die Backend-Verarbeitung verantwortlich sind, um sicherzustellen, dass beide Systeme um sicherzustellen, dass Überwachung der Anwendungsleistung, APM. Datadog enthält integrierte APM-Funktionen zur Überwachung der Leistung auf Anwendungsebene, einschließlich Reaktionszeit, Datenbankabfragen Datenbankabfragen Dies ist nützlich für die Überwachung komplexer verteilter Anwendungen, die sich sowohl auf lokale als auch auf Cloud-Infrastrukturen erstrecken Das Williams-Team kann beispielsweise APM verwenden, um die Leistung der Mobile-Banking-App zu verfolgen und gleichzeitig sicherzustellen, dass Mainframe-Interaktionen schnell und effizient abgewickelt werden schnell und effizient abgewickelt Dashboards und Benachrichtigungen. Wie CloudWatch können Sie mit Datadog benutzerdefinierte Dashboards erstellen und Benachrichtigungen einrichten, um Sie zu benachrichtigen, wenn Leistungsschwellenwerte überschritten wenn Das Williams-Team kann beispielsweise Dashboards erstellen, um sowohl Cloud-Leistungskennzahlen wie Netzwerklatenz und Ressourcennutzung als auch Mainframe-Workload-Metriken wie Transaktionsgeschwindigkeit und Verarbeitungslast zu visualisieren sowohl Cloud-Leistungskennzahlen wie Netzwerklatenz und Ressourcennutzung als auch Mainframe-Workload-Metriken wie Transaktionsgeschwindigkeit und Verarbeitungslast . Nehmen wir ein Beispiel. Für William bietet Beta Dog die Möglichkeit, Anfang bis Ende in der Hybridumgebung zu überwachen Leistung von Anfang bis Ende in der Hybridumgebung zu überwachen. Sein Team kann die Cloud-API-Latenz zusammen mit der Mainframe-Transaktionsgeschwindigkeit verfolgen und so sicherstellen, dass beide Systeme optimal funktionieren, um ihre kundenorientierten Anwendungen zu unterstützen Splunk, analysiert Logs und überwacht Ereignisse. Splunk ist eine fortschrittliche Plattform für Protokollmanagement, Ereignisüberwachung und Datenanalyse in Echtzeit Sie ist besonders leistungsstark für die Mainframe-Überwachung, aber auch gut in Cloud-Umgebungen integrieren lässt sich aber auch gut in Cloud-Umgebungen integrieren . Protokollanalyse Splunk sammelt Protokolle aus Ihrer gesamten Hybridumgebung, sodass Sie sie auf Leistungsprobleme, Sicherheitsbedrohungen und Systemereignisse hin analysieren Sicherheitsbedrohungen und Systemereignisse seiner leistungsstarken Such- und Korrelationsfunktionen können Sie Probleme schnell untersuchen Das Williams-Team kann Splunk beispielsweise verwenden, um Mainframe-Protokolle oder Transaktionsfehler oder Leistungsengpässe zu analysieren und gleichzeitig Protokolle von AWS-Services zu analysieren Protokolle von AWS-Services Überwachung und Warnmeldungen von Ereignissen. Splunk kann Ereignisse in Echtzeit überwachen und Warnmeldungen auf der Grundlage von Leistungsdaten einrichten Sie können beispielsweise Benachrichtigungen erhalten, wenn Anmeldeversuche auf Mainframe-Systemen fehlschlagen oder wenn die CPU-Auslastung in Ihrer Cloud-Umgebung stark ansteigt Das Williams-Team kann beispielsweise Splunk-Benachrichtigungen so konfigurieren, sie über ungewöhnliches Verhalten wie fehlgeschlagene Versuche, auf sensible Daten auf dem Mainframe zuzugreifen, informiert fehlgeschlagene Versuche, auf sensible Daten auf dem Mainframe zuzugreifen werden. Dadurch wird sichergestellt, dass Sicherheitsrisiken sofort behoben dass sie über ungewöhnliches Verhalten wie fehlgeschlagene Versuche, auf sensible Daten auf dem Mainframe zuzugreifen, informiert werden. Dadurch wird sichergestellt, dass Sicherheitsrisiken sofort behoben werden. Dashboards und Berichte. Splunk bietet anpassbare Dashboards , die einen klaren Überblick über den Systemstatus bieten und die Möglichkeit bieten, spezifische Metriken zu untersuchen oder Ereignisse zu protokollieren Sie können Berichte erstellen Leistungstrends im Zeitverlauf analysieren und Leistungstrends im Zeitverlauf analysieren. Nehmen wir ein Beispiel. Für das Finanzinstitut Williams kann Splunk verwendet werden, um Transaktionsprotokolle auf dem Mainframe zu überwachen und gleichzeitig die Leistung von Cloud-basierten Diensten wie AWS Lambda zu verfolgen Cloud-basierten Diensten wie Splunk bietet Einblicke in die Funktionsweise der Hybridumgebung Einrichtung von Dashboards und Alerts für die Überwachung der hybriden Leistung Sobald Sie Ihre Überwachungstools ausgewählt haben, der nächste Schritt darin, Dashboards und Benachrichtigungen einzurichten , um die wichtigsten Leistungskennzahlen im Auge zu behalten Auf diese Weise können Sie den Systemzustand in Echtzeit überwachen und proaktiv auf auftretende Probleme reagieren proaktiv auf auftretende Probleme Benutzerdefiniertes Dashboard einrichten. Dashboards bieten einen visuellen Überblick über den Systemstatus und machen es einfach, mehrere Leistungskennzahlen sowohl in Cloud- als auch auf Prime-Systemen zu verfolgen mehrere Leistungskennzahlen sowohl in Cloud- als auch auf Prime-Systemen So richten Sie effektive Dashboards ein. Wählen Sie wichtige Kennzahlen aus. Identifizieren Sie die wichtigsten Kennzahlen, die Sie verfolgen möchten. Überwachen Sie beispielsweise die CPU-Auslastung, die Speicherauslastung, Festplatten-E/A, die Netzwerklatenz und die Reaktionszeiten von Anwendungen sowohl für Cloud- als auch für lokale Systeme. Das Williams-Team kann beispielsweise ein Dashboard erstellen, das die CPU-Auslastung von zwei AWS EC-Instanzen, die Latenz kundenorientierter Apps und die Geschwindigkeit der Transaktionsverarbeitung auf dem Mainframe verfolgt die Latenz kundenorientierter Apps und die Geschwindigkeit der Transaktionsverarbeitung auf dem Mainframe Erstellen Sie Visualisierungen in Echtzeit. Verwenden Sie Tools wie AWS Cloud Watch, Datadog oder Splunk, um Grafiken, Messgeräte und Trefferkarten zu erstellen, Messgeräte und Trefferkarten die Leistungsdaten in Echtzeit anzeigen. Stellen Sie sicher, dass Ihr Dashboard auf Blick leicht zu interpretieren ist Richten Sie beispielsweise eine Hitmap ein, die die Latenz in Echtzeit für alle Cloud-Dienste anzeigt Latenz in Echtzeit für und gleichzeitig Transaktionszeiten auf dem Mainframe verfolgt Einrichtung von Warnmeldungen für die proaktive Überwachung. Warnmeldungen informieren Ihr Team über potenzielle Leistungsprobleme oder Systemausfälle, sodass Sie Korrekturmaßnahmen ergreifen können, bevor Probleme eskalieren So richten Sie effektive Benachrichtigungen ein. Definieren Sie Schwellenwerte und legen Sie Leistungsschwellen für wichtige Kennzahlen Beispielsweise möchten Sie möglicherweise benachrichtigt werden, wenn die CPU-Auslastung länger als 10 Minuten 85% übersteigt oder wenn länger als 10 Minuten 85% übersteigt oder die Netzwerklatenz Williams-Team kann beispielsweise eine Warnung einrichten, um sie zu benachrichtigen, wenn CPU-Auslastung von AWS EC Two Instances 85% überschreitet oder wenn die Mainframe-Transaktionsgeschwindigkeit unter einen bestimmten Schwellenwert fällt Zu den Benachrichtigungsmethoden. Entscheiden Sie, wie Sie benachrichtigt werden möchten . Sie können E-Mail-Benachrichtigungen und SMS-Benachrichtigungen einrichten oder sogar Tools wie Slack oder Microsoft Teams oder die Zusammenarbeit in Echtzeit integrieren Slack oder Microsoft Teams oder die Zusammenarbeit in Echtzeit Das Williams-Team kann beispielsweise Benachrichtigungen über Slack erhalten, wenn Leistungsprobleme auftreten, sodass es schnell reagieren und in Echtzeit zusammenarbeiten Bewährte Methoden für die Überwachung von Hybrid-Cloud-Systemen. Um das Beste aus Ihren Überwachungstools herauszuholen, befolgen Sie diese bewährten Methoden. Konzentrieren Sie sich auf durchgängige Transparenz. Stellen Sie sicher, dass Ihre Überwachungsstrategie das gesamte Hybridsystem abdeckt, einschließlich Cloud-Anwendungen und Infrastruktur vor Ort. Auf diese Weise erhalten Sie einen umfassenden Überblick über die Leistung in allen Umgebungen. Bewährte Methode: Verwenden Sie Tools wie Datadog oder Splunk, um die Überwachung sowohl auf Cloud- als auch auf Mainframe-Systemen zu konsolidieren und so sicherzustellen, dass Sie die Leistung der gesamten Hybridumgebung von einem einzigen Dashboard aus verfolgen können der gesamten Hybridumgebung Automatisieren Sie Benachrichtigungen für schnelle Antworten. Richten Sie automatische Benachrichtigungen ein, um Ihr Team in Echtzeit über Leistungsprobleme zu informieren . Automatisierte Warnmeldungen reduzieren das Risiko menschlicher Fehler und stellen sicher, dass Probleme behoben werden , bevor sie sich auf die Endbenutzer auswirken. Bewährte Methode: Verwenden Sie Cloud Watch oder Datadog, um Benachrichtigungen auf der Grundlage wichtiger Leistungsschwellenwerte zu automatisieren , z. B. bei hoher CPU-Auslastung oder erhöhter Verfeinern Sie Dashboards und Metriken kontinuierlich. Ihre Überwachungsanforderungen werden sich im Laufe der Zeit weiterentwickeln. Verfeinern Sie Ihre Dashboards und Kennzahlen kontinuierlich, um sicherzustellen, dass sie die Leistungsziele Ihres Unternehmens widerspiegeln Leistungsziele Ihres Unternehmens Bewährte Methode: Überprüfen Sie Ihre Dashboards regelmäßig und passen Sie sie nach Bedarf an, um neue Kennzahlen, Dienste oder Leistungsengpässe zu verfolgen , Dienste oder Leistungsengpässe den wichtigsten Erkenntnissen aus dieser Lektion gehören zum einen: AWS Cloud Watch, Datadog und Splunk sind leistungsstarke Überwachungstools für Hybridumgebungen, und Splunk sind leistungsstarke Überwachungstools für Hybridumgebungen Echtzeit Einblicke in die Leistung sowohl in der Cloud als auch vor Ort bieten Zu den wichtigsten Erkenntnissen aus dieser Lektion gehören zum einen: AWS Cloud Watch, Datadog und Splunk sind leistungsstarke Überwachungstools für Hybridumgebungen, die in Echtzeit Einblicke in die Leistung sowohl in der Cloud als auch vor Ort bieten. Zweitens: Richten Sie ein benutzerdefiniertes Dashboard und Warnmeldungen ein, um wichtige Leistungskennzahlen in Ihrer Hybridumgebung zu verfolgen und so sicherzustellen, dass Ihre Systeme reibungslos und effizient funktionieren Warnmeldungen ein, um wichtige Leistungskennzahlen in Ihrer Hybridumgebung zu verfolgen und so sicherzustellen, dass Ihre Systeme reibungslos und effizient funktionieren . Drittens sollten Sie sich an bewährte Verfahren halten, wie z. B. die Sicherstellung einer durchgängigen Transparenz, die Automatisierung von Warnmeldungen und die kontinuierliche Weiterentwicklung Ihrer Überwachungsstrategie zur Leistungsoptimierung Erwerbstätigkeit, Reflexion. Welche Überwachungstools würden Sie implementieren, um die Leistung Ihrer Hybrid-Cloud-Umgebung zu verfolgen? Welchen Kennzahlen würden Sie Priorität einräumen , um den Zustand und die Leistung Ihres Systems sicherzustellen Im Forum gestellte Diskussionsfrage. welche Herausforderungen sind Sie bei der Leistungsüberwachung von Hybridsystemen gestoßen? Wie haben Sie diese Herausforderungen gemeistert und welche Tools verwenden Sie? Nächste Lektion, Leistungsoptimierung in Hybrid-Cloud-Architekturen In der nächsten Lektion werden wir uns mit Strategien zur Leistungsoptimierung für Hybrid-Cloud-Architekturen befassen Strategien zur Leistungsoptimierung für Hybrid-Cloud-Architekturen Sie erfahren, wie Sie die Arbeitslastverteilung zwischen lokalen und Cloud-Umgebungen optimieren Arbeitslastverteilung zwischen , die Latenz reduzieren und die Systemleistung verbessern können bereit, Ihre Hybridumgebung auf Spitzenleistung abzustimmen , und fahren wir mit Lektion zwei von Modul 7 fort. 27. Lektion 2: Leistungsoptimierung in hybriden Cloud-Architekturen: Lektion zwei, Leistungsoptimierung in Hybrid-Cloud-Architekturen Willkommen zu Lektion zwei von Modul sieben. In dieser Lektion werden wir Strategien zur Leistungsoptimierung für Hybrid-Cloud-Architekturen untersuchen und uns dabei darauf konzentrieren, wie die Arbeitslastverteilung optimiert, die Latenz reduziert und die Gesamtsystemleistung verbessert Für einen Leiter der IT-Infrastruktur wie William die Optimierung des Gleichgewichts zwischen ist die Optimierung des Gleichgewichts zwischen lokalen Mainframes und Cloud-Umgebungen von entscheidender Bedeutung, um sicherzustellen, dass Anwendungen und Dienste reibungslos und ohne Engpässe oder Leistungsverzögerungen ausgeführt reibungslos und ohne Engpässe Am Ende dieser Lektion werden Sie zunächst Strategien zur Optimierung der Arbeitslastverteilung zwischen der lokalen Umgebung und der Cloud-Umgebung kennenlernen Arbeitslastverteilung zwischen lokalen Zweitens erfahren Sie, wie Sie die Latenz reduzieren, Ressourcennutzung verwalten und die Systemleistung verbessern können. Sehen wir uns die bewährten Methoden zur Leistungsoptimierung in Hybrid-Cloud-Umgebungen an und erfahren Sie, wie Sie sicherstellen können, dass Ihre Systeme auf maximale Effizienz ausgelegt sind. Optimierung der Arbeitslastverteilung zwischen lokalen und Cloud-Umgebungen. Hybrid-Cloud-Systeme beinhalten häufig Workloads sowohl auf älteren Mainframe-Systemen als auch auf modernen Cloud-Plattformen ausgeführt modernen Cloud-Plattformen Eine effiziente Verteilung der Arbeitslast ist entscheidend, um sicherzustellen , dass jede Umgebung ihre Stärken optimal ausnutzt und die Leistung in der gesamten Infrastruktur maximiert wird Arbeitslast, wobei ermittelt wird, welche Lösung für jede Umgebung am besten geeignet zur Leistungsoptimierung ist die Entscheidung, wo Workloads platziert werden sollen, Cloud erste Schritt zur Leistungsoptimierung ist die Entscheidung, wo Workloads platziert werden sollen, ob auf Mainframes oder in der Verschiedene Workloads haben unterschiedliche Anforderungen in Bezug auf Latenz, Rechenleistung und Datensensitivität, von denen sich ihre Platzierung leiten sollte Mainframes vor Ort eignen sich ideal für Workloads, die eine hohe Rechenleistung, Transaktionsabwicklung mit geringer Latenz und strenge Sicherheitskontrollen erfordern , insbesondere in Bank - und insbesondere in Bank Echtzeitverarbeitung von Kundentransaktionen und Stapelverarbeitung großer Datenmengen eignen sich am besten Zum Beispiel könnte Williams Team entscheiden, ob die Transaktionsverarbeitung in Echtzeit auf dem Mainframe stattfindet, wo Geschwindigkeit und Sicherheit bei der Migration von Analyse-Workloads in die Cloud an erster Stelle stehen bei der Migration von Analyse-Workloads in die Cloud an erster Stelle stehen Analyse-Workloads Cloud-Plattformen. Cloud-Plattformen eignen sich am besten für Workloads , die Skalierbarkeit, Elastizität und verteilte Verarbeitung erfordern , Elastizität und verteilte Verarbeitung Datenanalysen, Webanwendungen und kundenorientierte Dienste können von der Flexibilität von Cloud-Umgebungen profitieren der Flexibilität von Cloud-Umgebungen Das Williams-Team kann beispielsweise kundenorientierte Webanwendungen in die Cloud verlagern, um die Skalierbarkeit von AWS EC Two oder virtuellen Azure-Computern zu nutzen Two oder virtuellen Azure-Computern , die große Mengen an Benutzerverkehr bewältigen können. Nehmen wir ein Beispiel. Für Williams Financial Institution Beibehaltung der Transaktionsverarbeitung auf dem sorgt die Beibehaltung der Transaktionsverarbeitung auf dem Mainframe dafür, dass Kundentransaktionen sicher und schnell verarbeitet werden . Gleichzeitig ermöglicht die Migration der Datenanalyse in die Cloud dem Team, die Flexibilität des Cloud-Computing zu nutzen die Flexibilität des Cloud-Computing zu nutzen Strategien zur Verteilung hybrider Arbeitslasten. gibt es verschiedene Strategien für die Verteilung der Arbeitslast Abhängig von den Leistungszielen und der Systemarchitektur gibt es verschiedene Strategien für die Verteilung der Arbeitslast auf Hybrid-Cloud-Systeme . Hier sind einige wichtige Strategien. DataFirst-Strategie. Bei einer Data-First-Strategie verbleiben Daten vor Ort, z. B. auf dem Mainframe, während Verarbeitung und Anwendungen in der Cloud gehostet werden Dies reduziert den Bedarf Datenmigration und trägt dazu bei, die Kontrolle über sensible Daten zu behalten und gleichzeitig rechenintensive Aufgaben in die Cloud auszulagern Beispielsweise könnte Williams Team sensible Finanzdaten auf dem Mainframe speichern und gleichzeitig Datenanalysen und Modelle für maschinelles Lernen in AWS ausführen , um die Rechenressourcen des Unternehmens optimal zu nutzen Strategie „Prozess zuerst“. Bei einer prozessorientierten Strategie die aufwändigen Aufgaben, z. B. Berechnung oder Speicherung, werden die aufwändigen Aufgaben, z. B. Berechnung oder Speicherung, in der Cloud ausgeführt, während bestimmte Prozesse aus Compliance - oder Latenzgründen vor Ort bleiben Compliance - oder Latenzgründen vor Dies ist nützlich für Anwendungen, die den Zugriff auf bestimmte Systeme mit niedriger Latenz aufrechterhalten müssen Zugriff auf bestimmte Systeme mit niedriger Latenz aufrechterhalten Das Williams-Team könnte sich beispielsweise dafür entscheiden, Transaktionsprotokolle in der Cloud zu verarbeiten , aber für kritische Aufgaben mit niedriger Latenz Echtzeit-Finanzsysteme auf dem Hauptrahmen beizubehalten Echtzeit-Finanzsysteme auf dem Hauptrahmen . Nehmen wir ein Beispiel. Mithilfe einer Data-Forest-Strategie kann Williams Institution alle sensiblen Finanzdaten vor Ort speichern und gleichzeitig Cloud-Dienste wie AWS Lambda oder Azure-Funktionen nutzen oder Daten in großem Umfang verarbeiten Auf diese Weise wird ein Gleichgewicht zwischen dem Bedarf an Sicherheit und Skalierbarkeit hergestellt. Reduzierung der Latenz in einer Hybrid-Cloud-Umgebung. Latenz, die Zeit, die Daten benötigen, um zwischen Systemen zu übertragen, kann die Leistung von Hybrid-Cloud-Systemen erheblich beeinträchtigen . Reduzierung der Latenz ist für die Verarbeitung in Echtzeit unerlässlich, insbesondere in Bankumgebungen, in denen Verzögerungen Transaktionen und das Kundenerlebnis beeinträchtigen können. Netzwerkoptimierung, Verbesserung der Konnektivität. In hybriden Umgebungen ist die Netzwerklatenz ein häufiger Engpass, insbesondere wenn Daten zwischen Primärsystemen und der Cloud übertragen werden zwischen Primärsystemen und der Die Optimierung der Netzwerkleistung ist entscheidend, um die Latenz zu reduzieren Dedizierte Netzwerkverbindungen. Verwenden Sie dedizierte Verbindungen wie AWS Direct Connect oder Azure Express Route, um eine sichere Hochgeschwindigkeitsverbindung zwischen Ihren eigenen erstklassigen Systemen und der Cloud herzustellen . Diese Verbindungen umgehen das öffentliche Internet, Latenz erheblich reduziert und die Zuverlässigkeit verbessert wird. Das Williams-Team kann beispielsweise AWS Direct Connect implementieren , um Daten sicher vom Mainfare nach AWS zu übertragen Sicherstellung einer schnellen und zuverlässigen Konnektivität ohne die Verzögerungen, die mit internetbasierten Übertragungen verbunden sind Netzwerke zur Bereitstellung von Inhalten oder CDNs. Verwenden Sie CDNs, um statische Inhalte wie Webseitenelemente näher am Endbenutzer zwischenzuspeichern , wodurch die Latenz reduziert und die Antwortzeiten für in der Cloud gehostete kundenorientierte Anwendungen beschleunigt Antwortzeiten für in der Cloud gehostete kundenorientierte Anwendungen in der Cloud gehostete Bei Webanwendungen mit Kundenkontakt von Williams wird beispielsweise durch die Implementierung von AWS Cloudfront als CDN sichergestellt , dass Webinhalte unabhängig vom Standort des Benutzers schnell bereitgestellt unabhängig vom Standort des Benutzers schnell Nehmen wir ein Beispiel. Durch die Einrichtung von AWS Direct Connect Datenübertragungen zwischen Domain-Frame- und Cloud-Services kann das Williams-Team die Latenz erheblich reduzieren und sicherstellen, dass Transaktionsdaten in Echtzeit ohne Verzögerungen verarbeitet werden. Minimierung der Latenz bei der Datenverarbeitung. Latenz bei der Datenverarbeitung kann auftreten, wenn Anwendungen auf Daten zugreifen müssen, die in verschiedenen Umgebungen gespeichert sind den Strategien zur Reduzierung dieser Art von Latenz gehört Edge-Computing. In bestimmten Fällen kann der Einsatz von Edge-Computing-Ressourcen die Verarbeitung näher an die Datenquelle oder den Endbenutzer bringen . Diese Daten. Dies reduziert die Entfernung, die Daten zurücklegen müssen, und verbessert die Leistung zeitkritischer Anwendungen. Ein Beispiel: Das Williams-Team könnte AWS Green Grass nutzen, um Anwendungen am Netzwerkrand näher an ihren Datenquellen auszuführen und so die Notwendigkeit zu verringern, Daten zwischen der Cloud und lokalen Systemen hin und her zu übertragen Daten zwischen der Cloud und lokalen Systemen hin und her . Zwischenspeichern von Daten Implementieren Sie Caching-Strategien, um häufig abgerufene Daten näher an der Anwendung zu speichern , unabhängig davon, ob sie sich vor Ort oder in der Cloud befinden Dies reduziert die Notwendigkeit, ständig Daten von entfernten Standorten abzurufen, was zu erheblichen Verzögerungen führen kann Zum Beispiel kann Williams Team die Transaktionsverläufe von Kunden lokal auf dem Mainframe zwischenspeichern , sodass sie schnell abgerufen werden können, und gleichzeitig Cloud-Speicher oder Archivdaten nutzen , auf die seltener zugegriffen wird Nehmen wir ein Beispiel. Durch die Einrichtung von Edge-Computing-Ressourcen kann das Williams-Team Echtzeitanalysen am Netzwerkrand durchführen und so die Latenz reduzieren, die entstehen könnte, wenn Daten an eine zentralisierte Cloud-Umgebung zurückgesendet werden müssten. Verwaltung der Ressourcennutzung zur Verbesserung der Leistung. Ressourcenmanagement ist entscheidend für die Leistungsoptimierung in Hybrid-Cloud-Umgebungen. Wenn sichergestellt wird, dass Ressourcen sowohl in der Cloud als auch auf Primatensystemen effizient genutzt werden , kann Überbereitstellung und Unterauslastung verhindert Autoscaling in der Cloud. Einer der Hauptvorteile von Cloud-Umgebungen ist die automatische Skalierung, bei der die Anzahl der Rechenressourcen automatisch an den Bedarf angepasst wird . Dadurch wird sichergestellt, dass Anwendungen Zeiten hoher Nachfrage immer mehr Ressourcen bereitstellen und gleichzeitig Kosten in Zeiten geringer Nutzung minimieren Vertikale und horizontale Skalierung. Cloud-Plattformen wie AWS und Azure unterstützen sowohl die vertikale Skalierung , bei der einer einzelnen Instanz mehr Ressourcen hinzugefügt werden, als auch die horizontale Skalierung , bei der mehr Instanzen hinzugefügt werden. Autoscaling-Gruppen können die Ressourcenstufen automatisch auf der Grundlage vordefinierter Schwellenwerte anpassen Ressourcenstufen automatisch auf der Grundlage vordefinierter Schwellenwerte William Stein kann beispielsweise AWS-Autoscaling einrichten, um sicherzustellen, dass Cloud-Ressourcen bei hohem Traffic oder ihrer Mobile-Banking-Anwendung hochskaliert und Geschäftszeiten herunterskaliert werden, um Kosten zu sparen Nehmen wir ein Beispiel. Durch die Aktivierung von Autoscaling kann das Williams-Team sicherstellen, dass die Cloud-Infrastruktur automatisch an die Benutzernachfrage anpasst, sodass die Mobile-Banking-App Verkehrsspitzen bewältigen kann, ohne die Leistung zu beeinträchtigen Mainframe-Ressourcenmanagement. Mainframes vor Ort verfügen über einen festen Satz von Ressourcen. Beim Ressourcenmanagement geht es darum, zu optimieren , wie diese Ressourcen verschiedenen Workloads zugewiesen werden Zu den Techniken gehören die Planung der Arbeitslast, der Lastenausgleich und die Kapazitätsplanung Planung der Arbeitslast. Verwenden Sie Planungstools wie IBM Workload Scheduler, um das Timing von Batch-Prozessen zu optimieren und Aufgaben mit hoher Priorität sicherzustellen Wir stellen bei Bedarf die erforderlichen Ressourcen zur Verfügung, ohne das System zu überlasten Das Williams-Team kann beispielsweise Batch-Verarbeitung außerhalb der Spitzenzeiten planen , wenn Bedarf an Echtzeitverarbeitung gering ist, wodurch die Mainframe-Effizienz maximiert Kapazitätsplanung. Überwachen Sie kontinuierlich Ressourcennutzung auf dem Mainframe, um Möglichkeiten für die Kapazitätsplanung zu identifizieren Dadurch wird sichergestellt, dass der Mainframe über genügend Kapazität verfügt , um Spitzenlasten ohne Ressourcenkonflikte zu bewältigen Spitzenlasten ohne Ressourcenkonflikte Nehmen wir ein Beispiel. Das Williams-Team kann die Arbeitsplanung optimieren, um sicherzustellen , dass die Transaktionsverarbeitung während der Hauptgeschäftszeiten Vorrang hat , während die Batch-Verarbeitung über Nacht erfolgt Ressourcenkonflikte vermieden und eine optimale Leistung gewährleistet. den wichtigsten Erkenntnissen aus dieser Lektion gehört zum einen, Verteilung der Arbeitslast der Schlüssel zur Optimierung der Hybridleistung ist zur Optimierung der Hybridleistung Die richtigen Workloads in der richtigen Umgebung zu platzieren sei es auf Primes oder in der Cloud, ist für die Effizienz von entscheidender Bedeutung Zweitens ist die Reduzierung der Latenz durch Netzwerkoptimierung und Datenverarbeitungsstrategien entscheidend, um sicherzustellen, dass Echtzeitanwendungen in hybriden Umgebungen reibungslos funktionieren Drittens stellt das Ressourcenmanagement durch automatische Skalierung in der Cloud und Workload-Planung auf Mainframes sicher, dass beide Umgebungen effizient und ohne Engpässe genutzt werden effizient und ohne Engpässe genutzt Erwerbstätigkeit, Reflexion. Wie optimieren Sie die Verteilung der Arbeitslast zwischen Ihren und Ihren Cloud-Systemen , um die Leistung zu maximieren? Welche Faktoren würden Sie bei der Entscheidung, wo Workloads platziert werden sollen, berücksichtigen bei der Entscheidung, wo Workloads platziert werden sollen, Diskussionsfragen, die im Forum gestellt wurden. Welche Strategien haben Sie verwendet, um die Latenz in Hybridumgebungen zu reduzieren? Wie verwalten Sie die Ressourcennutzung sowohl in Cloud- als auch in lokalen Systemen? Nächste Lektion, Kostenoptimierung in Hybridsystemen. In der nächsten Lektion werden wir Strategien zur Kostenoptimierung für Hybridsysteme untersuchen . Sie erfahren, wie Sie Leistung mit Maßnahmen zur Kosteneinsparung wie Ressourcenskalierung, Workload-Platzierung und Cloud-Kostenüberwachung in Einklang bringen Maßnahmen zur Kosteneinsparung wie Ressourcenskalierung, können. Wir freuen uns darauf, die Kosten zu senken und gleichzeitig die Leistung aufrechtzuerhalten Lassen Sie uns zu Lektion drei von Modul 7 übergehen. 28. Lektion 3: Kostenoptimierung in Hybridsystemen: Lektion drei, Kostenoptimierung in Hybridsystemen. Willkommen zu Lektion drei von Modul sieben. In dieser Lektion konzentrieren wir uns auf Strategien zur Kostenoptimierung für Hybrid-Cloud-Architekturen Für einen IT-Infrastrukturdirektor wie William bedeutet die Verwaltung sowohl lokaler Mainframes als auch Cloud-Plattformen, Leistung und Kosteneffizienz in Einklang Kosteneffizienz Kosten zu optimieren, ohne Kompromisse bei der Leistung einzugehen, sind Verständnis, Ressourcenskalierung, Workload-Platzierung und Tools zur Überwachung und Verwaltung der Cloud-Ausgaben erforderlich Ressourcenskalierung, Workload-Platzierung und Tools zur Überwachung und Verwaltung der Cloud-Ausgaben Am Ende dieser Lektion werden Sie sich mit Maßnahmen zur Kosteneinsparung in Hybrid-Cloud-Architekturen befassen , einschließlich Ressourcenskalierung und kosteneffizienter Workload-Platzierung Zweitens lernen Sie, wie Sie die Cloud-Ausgaben überwachen und Budgets optimieren und gleichzeitig die Systemleistung aufrechterhalten Lassen Sie uns untersuchen, wie Sie Ihre Hybridumgebung kosteneffizient gestalten und gleichzeitig die hohe Leistung bieten können, die Ihr Unternehmen benötigt. Maßnahmen zur Kosteneinsparung in Hybrid-Cloud-Architekturen. Die Kostenoptimierung in Hybridsystemen beinhaltet strategische Entscheidungen darüber, wie Ressourcen zugewiesen, Workloads verteilt und die Cloud-Infrastruktur bedarfsgerecht skaliert Durch die Optimierung der Ressourcennutzung sowohl als On-Premise - als auch als Cloud-System können Sie die Kosten minimieren und gleichzeitig die Leistung sicherstellen Skalierung von Ressourcen: Zahlen Sie für das, was Sie nutzen. Einer der Hauptvorteile Cloud-Umgebung ist die Möglichkeit Ressourcen dynamisch zu skalieren, sodass Sie nur für das bezahlen müssen, was Sie tatsächlich nutzen, anstatt überschüssige Kapazitäten aufrechtzuerhalten. Eine effiziente Ressourcenskalierung stellt sicher, dass Ihre Systeme in Spitzenzeiten über die Ressourcen verfügen , die sie benötigen, vermeiden aber, dass Sie außerhalb der Spitzenzeiten für eine nicht ausgelastete Infrastruktur zahlen müssen. Automatische Skalierung. Cloud-Plattformen wie AWS und Azure bieten Autoscaling-Funktionen , mit denen Sie die Anzahl der Recheninstanzen oder virtuellen Maschinen automatisch an die Verkehrsnachfrage anpassen Anzahl der Recheninstanzen oder virtuellen Maschinen automatisch an die Verkehrsnachfrage Dadurch wird sichergestellt, dass Ressourcen nur bei Bedarf zugewiesen werden , wodurch die Kosten in Zeiten geringer Aktivität Williams-Team kann beispielsweise AWS-Autoscaling so einrichten, dass die Cloud-Ressourcen in Zeiten hoher Nachfrage, z. B. bei Berichten zum Ende des Geschäftsquartals oder zu Spitzenzeiten, automatisch erhöht Cloud-Ressourcen in Zeiten hoher Nachfrage, z. B. bei Berichten zum Ende des Geschäftsquartals und außerhalb der Geschäftszeiten herunterskaliert Spot-Instances und Reserved Instances. Verwenden Sie Spot-Instances, bei denen es sich um temporäre, kostengünstige Rechenressourcen für Workloads handelt, die Unterbrechungen tolerieren können, und Reserved Instances , für die vorab ermäßigte Rechenkapazität für langfristige Workloads erworben werden ermäßigte Rechenkapazität für langfristige Das Williams-Team könnte beispielsweise AWS-Spot-Instances für die Stapelverarbeitung oder andere unkritische Workloads nutzen AWS-Spot-Instances für die Stapelverarbeitung oder und Instances für geschäftskritische Anwendungen reservieren für geschäftskritische Anwendungen , die Nehmen wir ein Beispiel. Durch die Implementierung von AWS Auto Scaling kann das Williams-Team die Kosten senken, kann das Williams-Team die Kosten senken indem es sicherstellt, dass die Rechenressourcen automatisch skaliert werden Spitzenzeiten automatisch skaliert werden, während die Kosten außerhalb der Spitzenzeiten minimiert werden. Darüber hinaus können sie durch den Einsatz von Spot-Instances für weniger zeitkritische Workloads bis zu 70% der Kosten für die Batch-Verarbeitung sparen durch den Einsatz von Spot-Instances für weniger zeitkritische Workloads bis zu 70% der Kosten für die Batch-Verarbeitung Spot-Instances für weniger zeitkritische Workloads bis zu 70% der Kosten für Verteilung der Arbeitslast unter Einsatz kosteneffizienter Ressourcen. Platzierung von Workloads in der kosteneffizientesten Umgebung ist Schlüssel zur Kostenkontrolle in einer Hybrid-Cloud-Architektur Einige Workloads können von der Skalierbarkeit von Cloud-Plattformen profitieren , während andere auf älteren Mainframe-Systemen kostengünstiger ausgeführt werden können auf älteren Mainframe-Systemen kostengünstiger ausgeführt Kostenvergleich zwischen Cloud und On-Premise-Lösung. Cloud-Plattformen bieten zwar Flexibilität und Skalierbarkeit, Ausführung von Anwendungen auf einer älteren Infrastruktur kann für bestimmte Workloads kostengünstiger sein, insbesondere wenn Sie die Hardware bereits besitzen und nur Betriebskosten anfallen Zum Beispiel könnte Williams Team feststellen, dass es ist, die Transaktionsverarbeitung auf , als dieselbe Arbeitslast auf AWS EC Two kostengünstiger ist, die Transaktionsverarbeitung auf dem Mainframe zu belassen, auf dem sie bereits in die Infrastruktur investiert haben auszuführen Optimierung hybrider Arbeitslasten. Verteilen Sie Workloads auf der Grundlage ihrer Kosteneffizienz in jeder Umgebung Workloads zur Stapelverarbeitung oder Analyse in der Cloud möglicherweise kostengünstiger während Finanztransaktionen in Echtzeit vor Ort günstiger und sicherer sein können Ort günstiger und sicherer sein Verlagern Sie beispielsweise Datenanalyse-Workloads in die Cloud wo sie bei Bedarf skaliert werden können, während Transaktionsverarbeitung auf dem Mainframe bleibt, wodurch die Cloud-Rechenkosten gesenkt gleichzeitig eine hohe Leistung aufrechterhalten Nehmen wir ein Beispiel. Für das Finanzinstitut Williams ermöglicht die Migration umfangreicher Datenanalysen in die Cloud einem Team, die Cloud-Elastizität für die Verarbeitung großer Datenmengen zu nutzen Datenmengen Beibehaltung der hochsicheren Transaktionsverarbeitung auf dem gewährleistet die Beibehaltung der hochsicheren Transaktionsverarbeitung auf dem Mainframe eine bessere Kostenkontrolle ohne Leistungseinbußen Überwachung der Cloud-Ausgaben und Optimierung des Budgets. Um die Kosten in einer Hybridumgebung vollständig zu optimieren, ist eine kontinuierliche Überwachung der Cloud-Ausgaben unerlässlich. Viele Unternehmen haben mit unerwarteten Cloud-Rechnungen zu kämpfen , die auf eine übermäßige Bereitstellung oder mangelnde Einblicke in die Ressourcennutzung zurückzuführen übermäßige Bereitstellung oder mangelnde Einblicke in die Ressourcennutzung Implementierung von Tools zur Echtzeitverfolgung und Kostenoptimierung wird sichergestellt, dass Cloud-Budgets optimiert werden , ohne die Systemleistung zu beeinträchtigen Verwendung nativer Cloud-Tools zur Kostenüberwachung. Cloud-Plattformen bieten integrierte Tools, mit denen Sie Ihre Cloud-Ausgaben in Echtzeit überwachen und verwalten können. diesen Tools können Sie Budgets festlegen, Nutzung von Forschungsdaten verfolgen und Ausgabentrends analysieren, um sicherzustellen, dass Sie Ihre finanziellen Ziele einhalten. AWS Cost Explorer. AWS Cost Explorer können Sie Ihre AWS-Kosten- und Nutzungsmuster visualisieren und analysieren. Es hilft dabei, ungenutzte Ressourcen zu identifizieren, tatsächliche Nutzung mit der voraussichtlichen zu vergleichen und Einsparmöglichkeiten zu finden Das Williams-Team kann beispielsweise AWS Cost Explorer verwenden, um die monatlichen Cloud-Ausgaben zu verfolgen, ausgelastete EC-Instances zu identifizieren und sie herunterzufahren, wenn sie nicht benötigt Azure-Kostenmanagement plus Abrechnung. Dieses Tool bietet eine detaillierte Aufschlüsselung der Azure-Ressourcenkosten, sodass Unternehmen ihre Ausgaben verfolgen, Dienstleistungen erwerben und Benachrichtigungen einrichten können, wenn die Kosten vordefinierte Schwellenwerte überschreiten Williams Team kann beispielsweise Azure Cost Management verwenden , um Azure-Dienste zu überwachen und Benachrichtigungen einzurichten, wenn die Cloud-Computing-Kosten ihr monatliches Budget überschreiten Implementierung von Budgets und Benachrichtigungen. Um zu hohe Ausgaben zu vermeiden, können Unternehmen Budgets für die Cloud-Nutzung festlegen und Warnmeldungen implementieren, die Teams benachrichtigen, wenn sich die Ausgaben dem Schwellenwert nähern Auf diese Weise kann das Team Maßnahmen ergreifen, bevor die Kosten außer Kontrolle geraten. Budgetwarnungen. Richten Sie Budgetbenachrichtigungen ein, um das Team zu benachrichtigen, wenn tatsächlichen Ausgaben die budgetierten Beträge überschreiten oder bald Dies ist nützlich, um bei der Verwaltung der Cloud-Ausgaben proaktiv zu bleiben Verwaltung der Cloud-Ausgaben proaktiv Williams-Team kann beispielsweise ein monatliches Cloud-Budget für seine AWS-Services festlegen und Benachrichtigungen erhalten , wenn sich die Ausgaben 80% des Budgets nähern, sodass es Anpassungen vornehmen kann, um Überschreitung seines Ziels zu vermeiden. Kostenanomalien. Tools zur Erkennung von Kostenanomalien, die auf maschinellem Lernen wie z. B. die AWS-Kostenanomalieerkennung , um ungewöhnliche Spitzen bei der Cloud-Nutzung zu identifizieren, die auf Fehlkonfigurationen oder Ineffizienzen hinweisen könnten Verwenden Sie Tools zur Erkennung von Kostenanomalien, die auf maschinellem Lernen basieren, wie z. B. die AWS-Kostenanomalieerkennung, um ungewöhnliche Spitzen bei der Cloud-Nutzung zu identifizieren, die auf Fehlkonfigurationen oder Ineffizienzen hinweisen könnten . Wenn beispielsweise ein Workload für die Stapelverarbeitung mehr Cloud-Ressourcen als erwartet beansprucht, kann das Williams-Team die Anomalie schnell erkennen und untersuchen, ob bei der Planung der Arbeitslast ein Fehler aufgetreten mehr Cloud-Ressourcen als erwartet beansprucht, kann das Williams-Team die Anomalie schnell erkennen und untersuchen, ob bei der Planung der Arbeitslast ein Fehler aufgetreten ist. Nehmen wir ein Beispiel. Das Williams-Team kann mithilfe des AWS Cost Explorer ein Budget für die Cloud-Infrastruktur festlegen und Benachrichtigungen erhalten , wenn die Ausgaben einen festgelegten Schwellenwert überschreiten. So können Mehrausgaben vermieden gleichzeitig die Leistung optimiert Bewährte Methoden zur Kostenoptimierung in Hybrid-Cloud-Systemen der Kostenoptimierung in Hybrid-Cloud-Systemen geht es darum, die Ressourcennutzung an den Geschäftsanforderungen auszurichten und sicherzustellen, dass die Leistung erhalten bleibt , ohne dass unnötige Kosten anfallen Im Folgenden finden Sie bewährte Methoden zur kostengünstigen Optimierung. Ressourcen in der richtigen Größe. richtige Größe bezieht sich auf die Anpassung der Größe von Cloud-Instanzen oder virtuellen Maschinen an die tatsächliche Nutzung von Workloads Viele Unternehmen stellen Ressourcen zu um Leistungsprobleme zu vermeiden, jedoch häufig zu höheren Kosten führt Überprüfen Sie Ihre Ressourcenzuweisungen regelmäßig und passen Sie sie auf der Grundlage der tatsächlichen Nutzungsmuster Bewährte Methode: Überprüfen Sie regelmäßig Ressourcennutzung und reduzieren Sie alle Fälle, in denen zu viel bereitgestellt wird. Dadurch wird vermieden, dass für ungenutzte Kapazität bezahlt wird wird gleichzeitig sichergestellt, dass die Workloads weiterhin optimal funktionieren Verwenden Sie Reserve-Instances und Sparpläne. Cloud-Plattformen bieten reservierte Instanzen und Sparpläne, die erhebliche Rabatte von bis zu 70% für langfristige Workloads bieten bis zu 70% für langfristige Workloads Diese Pläne eignen sich ideal für Workloads und erfordern eine konsistente Nutzung im Laufe der Zeit, sodass Unternehmen Kosten senken können, ohne Kompromisse bei der Leistung einzugehen Bewährte Methode: Identifizieren Sie Workloads, die konsistent ausgeführt werden, z. B. Datenbanken und kritische Anwendungen, und erwerben Sie Reserved Instances oder Sparpläne für diese Workloads, um niedrigere Preise zu erzielen Optimieren Sie die Speicherkosten. Speicherkosten können sich schnell summieren, insbesondere in Hybridumgebungen denen Daten auf mehrere Systeme verteilt sind. Optimieren Sie den Speicher mithilfe von Peering-Speicheroptionen wie AWS ST Glacier oder Assure Blood Storage, Archivierung oder selten abgerufenen Daten und On-Demand-Speicher für Echtzeitanwendungen Bewährte Methode: Archivieren Sie Daten mit seltenem Zugriff in günstigeren Langzeitspeicheroptionen wie AWS ST Glacier und nutzen Sie gleichzeitig schnelleren Speicher, z. B. SSDs oder geschäftskritische Daten mit häufigem günstigeren Langzeitspeicheroptionen wie AWS ST Glacier und nutzen Sie gleichzeitig schnelleren Speicher, z. B. SSDs oder geschäftskritische den wichtigsten Erkenntnissen aus dieser Lektion gehören erstens, automatische Skalierung und Workload-Platzierung unverzichtbare Strategien sind, um Kosten zu senken und gleichzeitig Leistung in Hybrid-Cloud-Umgebungen aufrechtzuerhalten Zweitens stellt die kontinuierliche Überwachung der Cloud-Kosten mithilfe von Tools wie AWS Cost Explorer und Kostenmanagement sicher, dass Sie Ihr Budget einhalten und Mehrausgaben vermeiden Drittens: Implementieren Sie bewährte Methoden zur Kosteneinsparung wie die richtige Dimensionierung von Ressourcen, Verwendung von Reserve-Instances und Optimierung des Speichers, um eine langfristige Kosteneffizienz zu erreichen Lernaktivität, Reflexion. Welche Strategien würden Sie implementieren, um die Kosten in einer Hybrid-Cloud-Umgebung zu senken? Wie würden Sie Kosteneinsparungen mit der Aufrechterhaltung einer hohen Leistung in Einklang bringen ? Im Forum gestellte Diskussionsfrage. Auf welche Herausforderungen sind Sie beim Cloud-Kostenmanagement in hybriden Umgebungen gestoßen ? Wie haben Sie Ihre Ausgaben optimiert und gleichzeitig die Systemleistung sichergestellt? Nächste Lektion: Geschäftskontinuität und Disaster Recovery. In der nächsten Lektion werden wir erörtern, wie die Geschäftskontinuität in hybriden Umgebungen durch die Entwicklung robuster Notfallwiederherstellungspläne gewährleistet hybriden Umgebungen durch die Entwicklung werden kann. Sie lernen, wie Sie Failover-Strategien implementieren, Datenintegrität sicherstellen und ein robustes Hybridsystem aufbauen, das sich nach unerwarteten Ausfällen erholen kann bereit sind, die Geschäftskontinuität zu gewährleisten , fahren wir mit Lektion vier von Modul 7 29. Lektion 4: Geschäftskontinuität und Disaster Recovery: Lektion vier, Geschäftskontinuität und Notfallwiederherstellung. Willkommen zu Lektion vier von Modul sieben. In dieser letzten Lektion konzentrieren wir uns auf Business Continuity und Disaster Recovery für Hybrid-Cloud-Umgebungen. Für einen IT-Infrastrukturdirektor wie William ist es für die Aufrechterhaltung des Geschäftsbetriebs von entscheidender Bedeutung, sicherzustellen, dass die Systeme widerstandsfähig sind und sich nach unerwarteten Störungen schnell erholen können und sich nach unerwarteten Störungen und sich nach In dieser Lektion besprechen wir bewährte Methoden für die Notfallwiederherstellungsplanung, Implementierung von Pyover-Strategien und effektive Backup-Lösungen, um sicherzustellen, dass Ihr Hybrid-Cloud-System nach Ausfällen mit minimaler Ausfallzeit wiederhergestellt werden kann Am Ende dieser Lektion lernen Sie bewährte Methoden zur Sicherstellung der Geschäftskontinuität kennen, lernen Sie bewährte Methoden zur Sicherstellung wobei der Schwerpunkt auf Notfallwiederherstellung in Hybrid-Cloud-Umgebungen Zweitens lernen Sie, wie Sie Failover-Strategien und Backup-Lösungen sowohl in der Cloud als auch in lokalen Systemen implementieren und Backup-Lösungen sowohl in der Cloud als auch in lokalen Systemen Lassen Sie uns untersuchen, wie Sie belastbare Systeme aufbauen können, die unerwarteten Ausfällen standhalten und reibungslosen Betrieb Bewährte Methoden für Geschäftskontinuität in Hybrid-Cloud-Umgebungen. In Hybrid-Cloud-Umgebungen beinhaltet Geschäftskontinuität einen soliden Plan zur Sicherstellung der Systemverfügbarkeit, Datenintegrität und minimaler Ausfallzeiten im Falle eines Systemausfalls oder einer Katastrophe. Eine gut entwickelte Disaster-Recovery-Strategie ist Schlüssel zur Aufrechterhaltung des Geschäftsbetriebs und zum Datenschutz. Entwicklung eines Notfallwiederherstellungsplans (DRP). Ein Notfallwiederherstellungsplan ist ein detaillierter, strukturierter Ansatz zur Wiederherstellung von IT-Systemen im Katastrophenfall, unabhängig davon, ob es sich um eine Naturkatastrophe, Cyberangriff oder einen Systemausfall Bei Hybrid-Cloud-Umgebungen müssen sich DRPs sowohl auf die Infrastruktur vor Ort als auch auf Cloud-Systeme beziehen. Risikobeurteilung Identifizieren Sie die kritischen Systeme, Anwendungen und Daten, denen in Ihrem Notfallwiederherstellungsplan Priorität eingeräumt werden muss in Ihrem Notfallwiederherstellungsplan Priorität eingeräumt werden In einer Hybridumgebung umfasst dies sowohl Mainframe-Systeme Cloud gehostete Anwendungen Beispielsweise muss das Finanzinstitut Williams dem Mainframe, der Kundentransaktionen verarbeitet, und den Cloud-Diensten, die kundenorientierte Anwendungen verarbeiten, Priorität Kundentransaktionen verarbeitet, und den Cloud-Diensten, die kundenorientierte Anwendungen verarbeiten, verarbeiten Diese Systeme müssen im Falle eines Fehlers schnell wiederhergestellt werden im Falle eines Fehlers schnell Ziel der Wiederherstellungszeit, RTO und RPO am Wiederherstellungspunkt. Definieren Sie Ihre RTO, d. h. die maximal zulässige Zeit, ein System ausgefallen sein kann, und RPO, die maximale Menge an Datenverlust, die in hybriden Umgebungen, gemessen in der Zeit, akzeptabel ist hybriden Umgebungen, gemessen in der Zeit, RTO und RPO können je nach System variieren Bei unternehmenskritischen Systemen sollte der RTO nahe Null liegen Für das Williams-Transaktionsverarbeitungssystem auf dem Mainframe könnte die RTO beispielsweise Williams-Transaktionsverarbeitungssystem auf dem Mainframe 15 Minuten betragen. Bei einem nicht kritischen Datenanalyse-Workload in der Cloud kann die RTO dagegen mehrere Stunden betragen Implementierung einer hybriden Disaster Recovery-Architektur. Um eine reibungslose Geschäftskontinuität in Hybridsystemen zu gewährleisten, muss die Notfallwiederherstellung sowohl in lokalen als auch in Cloud-Umgebungen implementiert werden . Dies beinhaltet den Einsatz redundanter Systeme, automatisierter Failover- und Backup-Lösungen Basierend auf DR-Lösungen. Nutzen Sie Cloud-Dienste wie AWS Elastic Disaster Recovery oder Azure Site Recovery , um lokale Systeme in der Cloud zu replizieren und wiederherzustellen Diese Tools ermöglichen im Falle eines Systemausfalls oder einer Katastrophe einen schnellen Failover in die Cloud eines Systemausfalls oder einer Katastrophe einen Das Williams-Team kann beispielsweise AWS Elastic Disaster Recovery implementieren AWS Elastic Disaster Recovery , um kritische Mainframe-Workloads auf AWS zu replizieren Im Falle eines Ausfalls können diese Workloads schnell in der Cloud hochgefahren werden, sodass die Datenkontinuität für den Bankbetrieb gewährleistet ist. Hybrider Failover. In Hybridumgebungen sollte eine Failover-Strategie implementiert werden , um sicherzustellen , dass Systeme bei Bedarf von der lokalen Infrastruktur auf Cloud-Umgebungen umsteigen können von der lokalen Infrastruktur auf Cloud-Umgebungen umsteigen bei Bedarf von der lokalen Infrastruktur auf Cloud-Umgebungen umsteigen Dadurch können kritische Systeme auch bei Katastrophen betriebsbereit bleiben auch bei Katastrophen betriebsbereit Das Williams-Team kann beispielsweise das Failover für sein Kunden-Transaktionssystem so konfigurieren für sein Kunden-Transaktionssystem , dass bei einem Ausfall des Mainframes das cloudbasierte Backup übernommen wird, das cloudbasierte Backup bis der Mainframe Nehmen wir ein Beispiel. Für Williams Institution Cloud-basierte Disaster-Recovery-Tools können Cloud-basierte Disaster-Recovery-Tools die Transaktionssysteme des Mainframes in die Cloud replizieren Transaktionssysteme Wenn der Mainframe aufgrund eines Stromausfalls nicht verfügbar ist, können Cloud-basierte Backups schnell aktiviert werden, um können Cloud-basierte Backups schnell aktiviert werden die Geschäftskontinuität aufrechtzuerhalten. Implementierung von Failover-Strategien und Backup-Lösungen. Um Failover- und Backup-Funktionen in Hybridumgebungen sicherzustellen , müssen automatische Prozesse eingerichtet werden , die Ausfallzeiten minimieren und die Datenverfügbarkeit gewährleisten In einem Hybridsystem erfordert dies koordinierte Anstrengungen sowohl für lokale als auch für Cloud-Systeme Failover-Strategien zur Sicherstellung der Systemverfügbarkeit. Failover-Strategien stellen sicher, dass einem Ausfall einer Systemkomponente Betrieb automatisch auf ein Backup-System übertragen werden kann In Hybridumgebungen kann dies die Übertragung von einem On-Prime-System in eine Cloud-Umgebung oder von einer Cloud-Region in eine andere beinhalten einem On-Prime-System eine Cloud-Umgebung oder von einer Cloud-Region in eine andere Aktiver aktiver Failover. Bei diesem Ansatz sind sowohl lokale Systeme als auch Cloud-Systeme live und aktiv, sodass bei einem Ausfall eines das andere reibungslos und ohne Unterbrechung weiter funktioniert reibungslos und ohne Unterbrechung Beispielsweise könnte Williams Institution die Transaktionsverarbeitung in Echtzeit sowohl auf dem Mainframe als auch in der Cloud durchführen Transaktionsverarbeitung in Echtzeit sowohl auf dem Mainframe als auch in der Cloud Wenn der Mainframe ausfällt, übernimmt die Cloud-Instanz ohne spürbare Unterbrechung für die Kunden Aktiver passiver Pilover. Bei diesem Ansatz ist das Primärsystem, beispielsweise vor Ort, aktiv, während das Sekundärsystem, beispielsweise in der Cloud, im Standby-Modus bleibt Das Sekundärsystem wird nur aktiviert, wenn das Primärsystem ausfällt. Zum Beispiel kann das Williams-Team ein aktives passives Failover-System einrichten ein aktives passives Failover-System bei dem der Hauptrahmen alle Transaktionen abwickelt Wenn dies jedoch fehlschlägt, wird das AWS-Cloud-Backup aktiviert, um die Verarbeitung der Transaktionen fortzusetzen B, Backup-Lösungen zum Schutz von Daten in hybriden Umgebungen. Backups sind ein wesentlicher Bestandteil jedes Notfallwiederherstellungsplans und stellen sicher, dass Daten im Falle eines Ausfalls oder Datenverlusts wiederhergestellt werden können . In Hybridumgebungen sollten regelmäßige Backups sowohl für lokale Systeme als auch für Cloud-Umgebungen erstellt werden . On-Premise-Backup für Mainframes Backups können in externen Rechenzentren gespeichert oder aus Redundanzgründen in Cloud-Umgebungen repliziert werden Das Williams-Team kann beispielsweise tägliche Backups seiner Mainframe-Datenbanken an einem sicheren externen Standort planen und wichtige Daten für zusätzliche Redundanz auf die drei AWS-Datenbanken replizieren . Cloud-Backup. Cloud-Dienste bieten automatisierte Backup-Lösungen für Cloud-basierte Anwendungen. Tools wie AWS-Backup oder Azure-Backup ermöglichen es Unternehmen, in der Cloud gespeicherte Daten aus Redundanzgründen automatisch in verschiedenen Regionen zu sichern in der Cloud gespeicherte Daten Redundanzgründen automatisch in verschiedenen Regionen zu Beispielsweise kann das Williams-Team AWS-Backup verwenden, um automatische tägliche Backups von Cloud-basierten Datenbanken zu erstellen und Kopien in verschiedenen Regionen zu speichern , um sich vor regionalen Ausfällen zu schützen Nehmen wir ein Beispiel. Das Williams-Team kann den Datenschutz gewährleisten, indem es Mainframe-Backups an einem externen Standort speichert und gleichzeitig AWS-Backups verwendet , um Cloud-Backups für kundenorientierte Anwendungen zu erstellen , wodurch eine vollständige Datenredundanz gewährleistet wird Bewährte Methoden für die Notfallwiederherstellung in hybriden Umgebungen Der Aufbau eines robusten Hybridsystems erfordert nicht nur Failover - und Backup-Lösungen, sondern auch kontinuierliche Tests und Optimierungen Ihrer Disaster-Recovery-Strategien Hier sind einige bewährte Methoden, die Sie berücksichtigen sollten. Testen Sie regelmäßig Ihren Notfallwiederherstellungsplan. Testen Ihres Notfallwiederherstellungsplans ist entscheidend, um sicherzustellen, dass er bei Bedarf funktioniert. Simulieren Sie Failover-Ereignisse und Datenwiederherstellungsszenarien um sicherzustellen, dass Ihr Plan wie erwartet funktioniert , und passen Sie ihn bei Bedarf Bewährte Methode: Führen Sie regelmäßig Notfallwiederherstellungsübungen durch, um die Failover-Fähigkeiten zu testen und sicherzustellen, dass sowohl lokale als auch Cloud-Systeme innerhalb Ihrer definierten RTO- und RPO-Werte wiederhergestellt werden können Automatisieren Sie Failover- und Backup-Prozesse. Automatisierung ist der Schlüssel zur Minimierung von Ausfallzeiten im Katastrophenfall Automatisieren Sie Ihre Failover-Prozesse und Backup-Zeitpläne , um sicherzustellen, dass Systeme ohne manuelles Eingreifen wiederhergestellt werden können ohne manuelles Eingreifen wiederhergestellt Bewährte Methode: Verwenden Sie AWS Elastic Disaster Recovery oder Azure Site Recovery, um den Failover von lokalen Systemen zur Cloud zu automatisieren , und verwenden Sie Tools wie AWS-Backup, um automatische tägliche Backups von Cloud- und lokalen Daten zu planen automatische tägliche Backups von Cloud- und lokalen Optimieren Sie einen Wiederherstellungsplan auf der Grundlage der Systemprioritäten. Verschiedene Systeme haben unterschiedliche Wiederherstellungsanforderungen. Priorisieren Sie unternehmenskritische Systeme z. B. solche, die Kundentransaktionen abwickeln, um eine schnelle Wiederherstellung während weniger kritische Systeme über längere Zeiträume wiederhergestellt werden können über längere Zeiträume wiederhergestellt werden Bewährte Methode: Definieren Sie RTO und RPO auf der Grundlage der Systemrelevanz und stellen Sie sicher, dass kritische Systeme innerhalb von Minuten wiederhergestellt werden, während unwichtige Workloads über mehrere Stunden oder Tage wiederhergestellt werden können über mehrere Stunden oder Tage wiederhergestellt wichtigsten Erkenntnissen aus dieser Lektion gehört zum einen, ein robuster Notfallwiederherstellungsplan für die Aufrechterhaltung der Geschäftskontinuität in Hybridumgebungen mit spezifischen RTO- und RPO-Zielen sowohl auf Primus- als auch auf Cloud-Systemen unerlässlich ist für die Aufrechterhaltung der Geschäftskontinuität in Hybridumgebungen mit spezifischen RTO- und RPO-Zielen sowohl auf Primus- als auch auf Cloud-Systemen unerlässlich Hybridumgebungen mit spezifischen RTO- und RPO-Zielen sowohl auf Primus- als auch auf Cloud-Systemen Zweitens: Implementieren Sie Failover-Strategien wie aktives aktives oder aktives passives Failover, um sicherzustellen, dass die Systeme bei einem Ausfall weiterhin reibungslos funktionieren können reibungslos Drittens: Automatisieren Sie Backup-Prozesse und testen Sie regelmäßig Ihren Disaster-Recovery-Plan, um sicherzustellen, dass Ihr Hybrid-Cloud-System schnell und ohne Datenverlust wiederhergestellt werden kann schnell und ohne Datenverlust wiederhergestellt Lernaktivität, Reflexion. Wie würden Sie eine Failover-Strategie in Ihrer Hybridumgebung implementieren in Ihrer Hybridumgebung Welches RTO und RPO würden Sie für Ihre wichtigsten Systeme festlegen und wie würden Sie sicherstellen, dass Ihr Notfallwiederherstellungsplan diese Ziele erfüllt Im Forum gestellte Diskussionsfrage: Auf welche Herausforderungen sind Sie bei der Notfallwiederherstellung in Hybridumgebungen gestoßen Notfallwiederherstellung in Hybridumgebungen Wie haben Sie Ihre Backup- und Failover-Prozesse optimiert Ihre Backup- und Failover-Prozesse Herzlichen Glückwunsch zum Abschluss des Kurses. Sie haben den Kurs Mainframe-MIT-Modernisierung, Beherrschung des Hybrid-Cloud-Designs abgeschlossen Mainframe-MIT-Modernisierung, Beherrschung des Hybrid-Cloud-Designs Während des Kurses haben Sie wertvolle Einblicke in den Aufbau, die Optimierung und den Schutz von Hybrid-Cloud-Umgebungen, und den Schutz von Hybrid-Cloud-Umgebungen, Integration von Mainframes Cloud-Infrastrukturen und die Sicherstellung von Leistung, Kosteneffizienz und Geschäftskontinuität Nächste Schritte: Setzen Sie Ihr Wissen in die Praxis um. Nachdem Sie den Kurs abgeschlossen haben, ist es an der Zeit, Ihre neuen Fähigkeiten anzuwenden. Wenden Sie die in diesem Kurs erlernten Strategien um Mainframe-Modernisierungsprojekte zu verwalten, Failover-Lösungen zu implementieren, Cloud-Ausgaben zu optimieren und die Sicherheit in Hybridumgebungen zu gewährleisten Beginnen Sie Ihre Reise in die Hybrid Cloud indem Sie Ihre aktuelle Infrastruktur bewerten, einen Modernisierungsplan erstellen und Workloads schrittweise in die Cloud verlagern Setzen Sie Ihre Lernreise mit diesen Kursen fort. Wenn Sie Ihr Fachwissen in der Modernisierung von Mainframe-Systemen weiter ausbauen möchten, sollten Sie sich für einen dieser Kurse anmelden Einer davon ist Mainframe-DevOps, Legacy-Systeme mit agilen Methoden integriert Erfahren Sie, wie Sie DevOps-Prinzipien in den Mainframe-Betrieb einführen und eine reibungslose Zusammenarbeit zwischen Cloud- und lokalen Systemen sicherstellen zwischen Cloud- und Zweitens: Implementierung von Continuous Integration Slash Continuous Delivery oder CICD Erfahren Sie Schritt für Schritt , wie Sie automatisierte CICD-Pipelines für Mainframe-Codebasen einrichten und Altsysteme mit modernen Entwicklungspraktiken integrieren . Wir hoffen, Sie in der nächsten Phase Ihrer Lernreise zu sehen Ihrer Lernreise zu Nochmals herzlichen Glückwunsch und viel Glück bei Ihren Mainframe-Modernisierungsprojekten Lassen Sie uns die Modernisierung fortsetzen.