Mainframe y modernización: domina el diseño de nube híbrida | Skillshare Member Nuqui | Skillshare
Buscar

Velocidad de reproducción


1.0x


  • 0.5x
  • 0.75x
  • 1x (Normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Mainframe y modernización: domina el diseño de nube híbrida

teacher avatar Skillshare Member Nuqui, Headline...

Ve esta clase y miles más

Obtenga acceso ilimitado a todas las clases
Clases enseñadas por líderes de la industria y profesionales activos
Los temas incluyen ilustración, diseño, fotografía y más

Ve esta clase y miles más

Obtenga acceso ilimitado a todas las clases
Clases enseñadas por líderes de la industria y profesionales activos
Los temas incluyen ilustración, diseño, fotografía y más

Lecciones en esta clase

    • 1.

      INTRODUCCIÓN

      3:14

    • 2.

      Lección 1: introducción a los conceptos de nube híbrida

      9:51

    • 3.

      Lección 2: mainframes vs. infraestructura de nube

      13:57

    • 4.

      Lección 3: componentes clave de una arquitectura de nube híbrida

      14:05

    • 5.

      Lección 4: beneficios de la integración de la nube híbrida

      10:36

    • 6.

      Lección 1: cómo definir la infraestructura de mainframe actual

      11:34

    • 7.

      Lección 2: idoneidad de la carga de trabajo para la migración a la nube

      14:08

    • 8.

      Lección 3: análisis costo-beneficio de la migración a la nube

      14:26

    • 9.

      Lección 4: viabilidad técnica para la integración de la nube

      14:01

    • 10.

      Lección 1: planificación estratégica para la integración de la nube híbrida

      13:11

    • 11.

      Lección 2: patrones arquitectónicos para el diseño de nube híbrida

      12:07

    • 12.

      Lección 3: colocación de cargas de trabajo híbridas

      13:40

    • 13.

      Lección 4: selección de servicios en la nube

      16:33

    • 14.

      Lección 1: desarrollo de una estrategia de migración de datos

      11:57

    • 15.

      Lección 2: herramientas y técnicas de migración de datos

      15:06

    • 16.

      Lección 3: minimizar el tiempo de inactividad durante la migración

      12:58

    • 17.

      Lección 4: garantizar la integridad y seguridad de los datos

      14:43

    • 18.

      Lección 1: introducción a DevOps en sistemas híbridos

      12:52

    • 19.

      Lección 2: herramientas clave de DevOps para la gestión de la nube híbrida

      14:56

    • 20.

      Lección 3: creación de una tubería de CI/CD para la nube híbrida

      13:41

    • 21.

      Lección 4: estrategias de automatización para entornos híbridos

      16:11

    • 22.

      Lección 1: desafíos de seguridad en los sistemas de nube híbrida

      16:54

    • 23.

      Lección 2: desarrollo de un marco de seguridad en la nube híbrida

      14:52

    • 24.

      Lección 3: cumplimiento normativo en un entorno híbrido

      16:11

    • 25.

      Lección 4: gobierno y gestión de políticas

      17:03

    • 26.

      Lección 1: herramientas de monitoreo para entornos híbridos

      16:19

    • 27.

      Lección 2: afinación del rendimiento en arquitecturas de nube híbrida

      15:11

    • 28.

      Lección 3: optimización de costos en sistemas híbridos

      14:19

    • 29.

      Lección 4: continuidad del negocio y recuperación ante desastres

      15:04

  • --
  • Nivel principiante
  • Nivel intermedio
  • Nivel avanzado
  • Todos los niveles

Generado por la comunidad

El nivel se determina según la opinión de la mayoría de los estudiantes que han dejado reseñas en esta clase. La recomendación del profesor o de la profesora se muestra hasta que se recopilen al menos 5 reseñas de estudiantes.

1

Estudiante

--

Proyecto

Acerca de esta clase

Mainframe y modernización: domina el diseño de nube híbrida

Resumen de la clase

Este curso cubre la brecha entre los mainframes heredados y los sistemas en la nube modernos. Aprenderás a diseñar, implementar y optimizar arquitecturas de nube híbrida, integrando capacidades robustas de mainframe con servicios de nube de vanguardia.

Lo que aprenderás

Al tomar este curso, obtendrás lo siguiente:

  • Experiencia en el diseño de nube híbrida, equilibrio entre rendimiento, costo y escalabilidad.
  • Habilidades en la distribución de cargas de trabajo, lo que garantiza la utilización óptima de recursos en todos los sistemas.
  • Dominio de la automatización con DevOps y CI/CD para operaciones perfectas.
  • Información sobre seguridad y cumplimiento, diseñada para entornos híbridos.
  • Conocimiento de casos prácticos del mundo real para inspirar tus propias implementaciones.

¿Por qué tomar estar clase?

  • Las nubes híbridas son el futuro: con las organizaciones que avanzan hacia soluciones híbridas, estas habilidades están en demanda.
  • Aplicable a proyectos del mundo real: desde la banca hasta la venta minorista, los sistemas híbridos llegan a todas las industrias.
  • Mantente a la vanguardia de TI: domina las técnicas que mejoran la eficiencia, reducen los costos y aumentan el rendimiento.
  • Aprende prácticamente: no solo entenderás la teoría, sino que también obtendrás estrategias prácticas para aplicarlas de inmediato.

Para quién es esta clase

Este curso es ideal para:

  • Profesionales de TI con experiencia en sistemas de nube o mainframe.
  • Arquitectos de sistemas que diseñan infraestructuras complejas.
  • Entusiastas de la tecnología que quieren explorar las posibilidades de la nube híbrida.
    Conocimientos previos: familiarizarse con los conceptos básicos de la nube y el mainframe es útil, pero no obligatorio.

Materiales y recursos

Necesitarás lo siguiente:

  • Una computadora con acceso a Internet para completar los ejercicios del curso.
  • Opcional: una copia del libro complementario, Mainframe junto con la modernización: domina el diseño de nube híbrida, que proporciona ejemplos y recursos adicionales para reforzar el aprendizaje.

¡Sumérgete ahora para preparar tu experiencia en TI para el futuro y liderar el camino en la innovación de la nube híbrida!

Conoce a tu profesor(a)

Teacher Profile Image

Skillshare Member Nuqui

Headline...

Profesor(a)

I am a retired Mainframe Systems Programmer (Specialist), now using my time to write books and create online courses. My interests are Mainframes (of course!), and writing Self Help books and Food Recipe books. I like to read Science Fiction and Fantasy books. I also like to watch Science Fiction movies (I'm a Trekkie, not so much a Star Wars fan).

I have over 30 years of experience on Mainframe systems, as a Systems Programmer, Project Manager and Compute Infrastructure Head, specializing on Mainframe infrastructure and z/OS operating system. I have worked for Service Bureaus, Financial Institutions and Outsourcing Service Providers.

Ver perfil completo

Level: Intermediate

Valoración de la clase

¿Se cumplieron las expectativas?
    ¡Superadas!
  • 0%
  • 0%
  • Un poco
  • 0%
  • No realmente
  • 0%

¿Por qué unirse a Skillshare?

Mira las galardonadas Skillshare Originals

Cada clase tiene lecciones cortas y proyectos prácticos

Tu membresía apoya a los profesores de Skillshare

Aprende desde cualquier lugar

Ve clases sobre la marcha con la aplicación de Skillshare. Progresa en línea o descarga las clases para verlas en el avión, el metro o donde sea que aprendas mejor.

Transcripciones

1. INTRODUCCIÓN: Bienvenido a Mainframe MIT Modernización. Dominar el diseño de la nube híbrida. Mi nombre es Ricardo Nuke, y soy tu instructor para este curso Objetivo del curso. este curso, la modernización del MIT de mainframe, dominio del diseño de la nube híbrida es brindarle las habilidades esenciales, los conocimientos y las habilidades necesarias para diseñar e implementar de manera efectiva arquitecturas de nube híbrida que integren sistemas mainframe El objetivo de este curso, la modernización del MIT de mainframe, el dominio del diseño de la nube híbrida es brindarle las habilidades esenciales, los conocimientos y las habilidades necesarias para diseñar e implementar de manera efectiva arquitecturas de nube híbrida que integren sistemas mainframe con un entorno de nube moderno. Por ejemplo, AWS. A Resultados clave. Al final de este curso, tendrá confianza en diseñar e implementar arquitecturas de nube híbrida que integren mainframes con plataformas modernas Poseerá el conocimiento técnico para mantener la seguridad, cumplimiento y la eficiencia operativa durante todo el proceso de modernización. Tendrá habilidades prácticas para utilizar la automatización, herramientas devov y los servicios nativos de la nube para mejorar su entorno híbrido Estarás equipado con estrategias para navegar los desafíos organizacionales, asegurando la alineación del equipo y el éxito del proyecto. Siete etapas específicas para la transformación. Estos son los siete pasos o etapas específicos que debe seguir para transformarse de un sistema de mainframe centrado heredado a un sistema de computación en la nube de mainframe híbrido El primero es evaluar y evaluar el entorno de mainframe actual Después, defina una estrategia y arquitectura de nube híbrida. Luego pilotará y probará aplicaciones listas para la nube y cargas de trabajo. Después migrarás los datos y la carga de trabajo a la Nube. Luego implementará herramientas de administración y orquestación de la nube híbrida herramientas de administración y orquestación Luego optimizará la seguridad, el cumplimiento y el rendimiento, y finalmente, impulsará la mejora continua y la innovación. Esquema del curso de siete módulos. Este curso se divide en siete módulos. Los módulos son los siguientes. Primero, las bases de la arquitectura de la nube híbrida. Después cubriremos los sistemas heredados de evaluación para la integración en la nube. El tercero es diseñar una estrategia y arquitectura de Cloud híbrido. Cuarto, migrar datos y aplicaciones a la Nube. Quinto, implementar automatización y DevOps en entornos híbridos. Seis, asegurando la seguridad, el cumplimiento y la gobernanza en sistemas híbridos. Siete, optimizar y administrar sistemas de nube híbrida para el rendimiento. Así dentro de curso. 2. Lección 1: introducción a los conceptos de nube híbrida: Bienvenido al Módulo uno, bases de la arquitectura de Nube Híbrida. Este módulo presenta los conceptos centrales de la arquitectura de nube híbrida, centrándose en la importancia de los sistemas híbridos en el panorama actual de TI. Cubre las diferencias fundamentales entre mainframe e infraestructura en la nube y los beneficios de integrar ambos sistemas para lograr escalabilidad, rentabilidad e innovación Lección uno, introducción a los conceptos de nube híbrida. Bienvenido a la primera lección de nuestro curso, modernización de mainframe Mets, dominio del diseño de la nube híbrida Hoy nos sumergiremos arquitectura de la nube híbrida y por qué se ha vuelto esencial en los entornos de TI modernos, especialmente para las organizaciones que dependen de sistemas mainframe heredados Si estás manejando un proyecto de modernización de mainframe como William, el director de infraestructura de TI, administrando sistemas de misión crítica en una institución financiera, entonces estás en el lugar correcto Vamos a romper esta lección en dos partes. Primero, definir la arquitectura de nube híbrida. Segundo, explorar la evolución de la nube y los sistemas heredados. Empecemos. ¿Qué es la arquitectura de nube híbrida? Una arquitectura de nube híbrida combina infraestructura local como mainframes o centros de datos privados con servicios de nube pública como AWS, Microsoft Azure o Google Cloud Estos entornos están conectados por tecnología que permite que los datos, las aplicaciones o las cargas de trabajo se muevan entre ellos sin problemas. Esencialmente, obtienes lo mejor de ambos mundos, la confiabilidad y el control de los mainframes y la flexibilidad, escalabilidad e innovación que ofrece la nube ¿Por qué es tan importante la nube híbrida? Para alguien como tú, encargado de modernizar un sistema financiero, un enfoque híbrido no es solo un buen tener, es de misión crítica, y he aquí por qué Primero, los sistemas heredados no van a desaparecer. mainframes están profundamente integrados en industrias como las finanzas, la atención médica y el gobierno Reemplazar estos sistemas por completo no es realista debido al costo de escala y el riesgo de interrupción. Dos, Cloud ofrece flexibilidad. Puede descargar ciertas tareas como procesamiento por lotes, análisis de datos o aplicaciones orientadas al cliente a la nube mientras mantiene operaciones centrales confidenciales en el Tercero, la seguridad y el cumplimiento no son negociables, especialmente en industrias reguladas como la banca Un modelo híbrido le permite aprovechar las capacidades de la nube mientras mantiene un estricto control sobre sus datos y aplicaciones más confidenciales en las instalaciones. Tomemos un ejemplo. Imagine que está ejecutando un sistema de procesamiento de tarjetas de crédito en su mainframe Los datos transaccionales deben permanecer en el mainframe por razones de seguridad Pero los análisis para el comportamiento del cliente, que pueden trasladarse a la nube donde es más fácil escalar y analizar conjuntos a gran escala en tiempo real. Esta configuración híbrida garantiza que sus operaciones confidenciales permanezcan seguras. La nube maneja una carga de trabajo escalable más dinámica. La evolución de la nube y los sistemas heredados. Hagamos un viaje rápido por carril de los recuerdos y exploremos cómo llegamos hasta aquí. La era de los mainframes. Los mainframes han sido la columna vertebral de la computación empresarial desde la década de 1960 Los bancos, los gobiernos y los sistemas de atención médica dependen de mainframes porque ofrecen confiabilidad, seguridad y potencia de procesamiento inigualables , seguridad y potencia de procesamiento Si alguna vez interactuó con el sistema backend de un banco, usa un cajero automático o presenta sus impuestos, es muy probable que haya un mainframe involucrado en algún lugar mainframes están diseñados para manejar transacciones de alto volumen sin tiempo de inactividad Esto hace que la misión sea crítica para industrias donde cualquier interrupción significaría millones de dólares perdidos o incluso consecuencias legales. Sin embargo, el mayor desafío es que los mainframes se construyeron en una era en la que la computación en la nube no existía Si bien son potentes, no fueron diseñados pensando en la integración en la nube. Ahí es donde entra en juego el modelo híbrido. El auge de la computación en la nube. computación en la nube surgió a principios del 2000 y ha transformado fundamentalmente la forma en que operan las empresas. La nube ofrece recursos bajo demanda, potencia informática, almacenamiento y redes sin la necesidad de poseer y mantener servidores físicos Los beneficios clave de la nube incluyen escalabilidad. Puede escalar sus aplicaciones y recursos hacia arriba y hacia abajo, hacia arriba o hacia abajo según la demanda. Eficiencia en costos. Solo pagas por lo que usas. No más sobre aprovisionamiento de hardware físico. Innovación. Las plataformas en la nube albergan nuevas tecnologías como la IA, el aprendizaje automático y el análisis de big data, que pueden ayudar a las organizaciones a obtener información y optimizar las operaciones. Sin embargo, muchas organizaciones encontraron que si bien la Nube era un cambio de juego, abandonar por completo sus sistemas mainframe no era práctico Ahí es donde el modelo de nube comenzó a ganar tracción. ¿Por qué los modelos de nube híbrida están ganando popularidad? En los últimos años, los modelos de nube híbrida han explotado en popularidad, especialmente en industrias donde la seguridad, el cumplimiento y el rendimiento no son negociables He aquí por qué. Primero, equilibrar el riesgo y la innovación. mainframes son excelentes para las operaciones principales, pero la nube es ideal para experimentar con nuevas tecnologías sin arriesgar sus Dos, carga de trabajo optimizada. Algunas tareas como el procesamiento por lotes son más adecuadas para mainframes, mientras que otras, como el análisis de datos, se benefician de la escalabilidad de la nube Tres, control de costos. Puede mantener sus inversiones en mainframe donde tengan más sentido y evitar comprometer recursos en exceso a la nube, donde los costos pueden escalar rápidamente Tomemos un ejemplo. Considera William, nuestro director de infraestructura de TI. Su institución financiera quiere aprovechar la detección de fraudes en tiempo real utilizando modelos de aprendizaje automático. Mover el sistema de detección de fraude completamente a la nube requeriría recursos sustanciales y revisiones de cumplimiento. En cambio, William opta por un modelo híbrido. El mainframe continúa manejando transacciones financieras principales mientras el modelo de detección de fraude ejecuta un AWS Los datos fluyen sin problemas entre los dos entornos, equilibrando la seguridad con la innovación. Los puntos clave de esta lección incluyen uno, las arquitecturas de nube híbrida le permiten integrar la confiabilidad de los mainframes con la flexibilidad de los entornos en la Dos, los sistemas heredados como los mainframes aún tienen un valor inmenso, especialmente en industrias como la banca donde el tiempo de actividad y la seguridad son primordiales Tres, el auge de la computación en la nube le permite descargar cargas de trabajo no sensibles a la nube, optimizar el rendimiento y reducir los costos mientras mantiene un estricto control sobre Actividad de aprendizaje. Reflexiona sobre tu infraestructura actual. Qué cargas de trabajo en su mainframe podrían beneficiarse de la integración en la nube ¿Qué retos prevé en una transición a la nube híbrida? prevé en una transición a la nube híbrida Investigación. Busque un estudio de caso de una arquitectura de nube híbrida en la industria financiera. ¿Cómo manejaron la distribución de la carga de trabajo entre mainframe y entornos Cloud? Pregunta de discusión. Pan pensamientos en el foro de discusión del curso. ¿Cuál sería el mayor beneficio para su organización al adaptar una arquitectura de nube híbrida? Siguiente lección, mainframe versus infraestructura en la nube. En la siguiente lección, profundizaremos en las diferencias técnicas entre mainframes y entornos de nube. Aprenderá sobre las fortalezas centrales de ambos sistemas y por qué mainframes continúan desempeñando un papel clave en las operaciones de misión crítica También exploraremos las diferencias clave en el almacenamiento de cómputos y las redes entre los sistemas locales y los nativos en la nube. Emocionados por aprender más, continuemos su viaje hacia el dominio de la nube híbrida 3. Lección 2: mainframes vs. infraestructura de nube: Lección dos, marcos principales versus infraestructura en la nube. Bienvenido a la lección dos de nuestro viaje hacia la arquitectura de nube híbrida. En nuestra lección anterior, exploramos los conceptos básicos de los sistemas de nube híbrida y por qué se vuelven tan esenciales en los entornos de TI modernos. Hoy, vamos a profundizar en diferencias técnicas entre los mainframes y la infraestructura en la nube Para alguien como William, director de infraestructura de TI, es administrar sistemas de misión crítica en la industria financiera, comprender las fortalezas y diferencias clave entre mainframes prem y infraestructura nativa de la nube Es probable que se enfrente al desafío de mantener el rendimiento y la seguridad del sistema y , al mismo tiempo, adoptar la escalabilidad y la innovación que ofrece la nube En esta lección, nos centraremos en las diferencias técnicas entre mainframes y entornos Cloud en términos de almacenamiento de cómputos y redes y por qué los mainframes continúan teniendo valor en industrias donde la confiabilidad no es negociable Vamos a desglosarlo. Compute la potencia de los mainframes frente a la flexibilidad de la nube Mainframes, los titanes del procesamiento transaccional. mainframes están diseñados para poder de procesamiento de cizalla y trooper de transacciones Si su organización maneja miles de transacciones por segundo, como procesar pagos con tarjeta de crédito, ejecutar nóminas o administrar inventario en tiempo real, mainframes están diseñados para manejar esto sin darse un chapuzón Escalado vertical. Los mainframes logran su rendimiento a través del escalado vertical, lo que significa que agregan más potencia de procesamiento a un solo sistema Esto les permite mantener una alta confiabilidad incluso bajo cargas de trabajo extremas Fiabilidad y tiempo de actividad. mainframes son legendarios por su tiempo de actividad, a menudo cuentan con 99 puntos triple 9% disponibilidad, y eso es aproximadamente 5 minutos de tiempo de inactividad por año Para industrias como la banca donde incluso segundos de tiempo de inactividad pueden costar millones, esto es un cambio de juego. Tomemos un ejemplo. una red ATM que procesa transacciones en cientos de ubicaciones simultáneamente. Si el sistema cae, puede resultar en transacciones de pérdida y confianza del cliente. Los marcos principales están diseñados para garantizar que eso no suceda, proporcionando un rendimiento consistente a escala. Cloud, los maestros de la flexibilidad y escalabilidad. Por otro lado, la computación en la nube sobresale en el escalado horizontal, donde se agregan más servidores para manejar mayores cargas Los entornos en la nube están diseñados para escalar dinámicamente, agregando recursos cuando la demanda aumenta y reduciéndolos cuando disminuye Esto es particularmente beneficioso para cargas de trabajo que son de naturaleza variable, como las aplicaciones web que pueden ver un aumento de usuarios durante ciertos momentos Elasticidad. Las plataformas en la nube como AWS ofrecen potencia informática elástica, lo que le permite escalar hacia arriba o hacia abajo bajo demanda. Esto significa que solo paga por lo que usa, evitando la necesidad de una costosa infraestructura infrautilizada Eficiencia en costos. Los sistemas en la nube ofrecen un modelo de pago por uso, lo que facilita la administración de costos, especialmente para cargas de trabajo no críticas o entornos de desarrollo. Tomemos un ejemplo. Imagine que está ejecutando una aplicación orientada al cliente para los servicios en línea de su banco. Durante un gran lanzamiento de producto o campaña de marketing, el tráfico podría aumentar. En un entorno de nube, puede activar rápidamente servidores adicionales para satisfacer la demanda, asegurando que los clientes no experimenten tiempos de respuesta bajos ni bloqueos. La conclusión clave para esto es que los mainframe son ideales para procesamiento transaccional de alto volumen consistente, mientras que la nube sobresale en flexibilidad y manejo Almacenamiento, almacenamiento centralizado de mainframe versus almacenamiento distribuido en la nube. Almacenamiento de mainframe, centralizado y de alta velocidad. Los mainframes han utilizado tradicionalmente sistemas centralizados de almacenamiento de alto rendimiento Este almacenamiento a menudo se conecta directamente al mainframe, proporciona acceso de baja latencia a datos críticos para sistemas que requieren acceso en tiempo real a bases de datos masivas, mainframes ofrecen un rendimiento sin paralelo Mainframe también ofrece administración jerárquica de almacenamiento o HSM, donde los datos se pueden migrar automáticamente entre discos de alto rendimiento y almacenamiento en cinta de menor costo dependiendo Tomemos un ejemplo. En una institución financiera, todos los datos bancarios, como información de la cuenta del cliente deben ser accedidos instantáneamente, sin importar el tiempo o el volumen de las transacciones. Los sistemas de almacenamiento de mainframe están optimizados para este tipo de datos críticos Almacenamiento en la nube, escalable y distribuido. entorno en la nube, por el contrario, utiliza sistemas de almacenamiento distribuido. Servicios como AWSs tres almacenan datos en múltiples ocasiones, proporcionando redundancia y escalabilidad integradas Esto significa que puede almacenar una gran cantidad de datos sin preocuparse por quedarse sin espacio. almacenamiento en la nube también ofrece precios elevados, lo que le permite almacenar datos a los que se accede con menos frecuencia a un costo menor Almacenamiento de objetos versus almacenamiento en bloque. Los servicios en la nube ofrecen diversas opciones de almacenamiento como el almacenamiento de objetos, que es ideal para gran cantidad de datos no estructurados y almacenamiento bloqueado, más como el almacenamiento en disco tradicional, ideal para bases de datos o máquinas virtuales Redundancia geográfica. El almacenamiento en la nube puede replicar automáticamente los datos en múltiples regiones geográficas, lo que garantiza la durabilidad y disponibilidad de los datos, incluso en caso de interrupciones Tomemos un ejemplo. Imagine que está almacenando datos históricos de transacciones que deben conservarse por razones de cumplimiento pero que no se accede regularmente. En un entorno de nube, podría mover estos datos a almacenamiento de archivo de bajo costo como AWS Glacier, liberando espacio y reduciendo los costos para sus datos activos La conclusión clave de esto es que almacenamiento de mainframe está optimizado para un acceso de alta velocidad y tiempo real a datos críticos, mientras que el almacenamiento en la nube ofrece escalabilidad y redundancia geográfica para conjuntos de datos masivos Redes de mainframe en funcionamiento versus conectividad en la nube. Redes de mainframe, ancho de banda alto, baja latencia. mainframes suelen estar conectados a redes de alto ancho de banda y baja legitency, a menudo a través de fibra privada o conexiones dedicadas Estos sistemas están diseñados para manejar grandes volúmenes de datos con un retraso mínimo, lo cual es crítico para los sistemas transaccionales donde cada milisegundo cuenta mainframes también forman parte de redes heredadas que se han construido a lo largo de décadas, garantiza una profunda integración con otros sistemas empresariales, como bases de datos internas y pasarelas de pago Tomemos un ejemplo. Considera un sistema de procesamiento de pagos en tiempo real para un banco grande. La red de alta velocidad de mainframes garantiza que las transacciones se procesen instantáneamente, permitiendo a los clientes transferir fondos, realizar pagos o verificar saldos sin demora Redes en la nube, flexibles, pero dependientes de la conectividad a Internet. Las plataformas en la nube suelen depender de Internet pública para la conectividad. Aunque las conexiones privadas dedicadas como AWS Direct Connect, también están disponibles para empresas que requieren una comunicación segura y de alta velocidad con sus servicios en la nube. Redes virtuales. En entornos Cloud, redes están virtualizadas, lo que significa que puede crear redes personalizadas, controlar el tráfico y aplicar políticas de seguridad a pedido Esta flexibilidad le permite diseñar redes que se adapten a necesidades específicas de su aplicación. Alcance global. Una de las mayores ventajas de las redes en la nube es la capacidad de implementar aplicaciones globalmente y llegar a implementar aplicaciones globalmente y los usuarios dondequiera que estén, aprovechando la red de entrega de contenido o CDN para un acceso más rápido Tomemos un ejemplo. Tu banco podría alojar una aplicación de banca móvil en la nube, permitiendo a clientes de todo el mundo acceder a sus cuentas. Mediante el uso de CDN y centros de datos regionales, la nube garantiza que los usuarios obtengan un acceso rápido y seguro a sus datos sin importar dónde se encuentren La conclusión clave de esto es que las redes mainframe están construidas para transacciones de alta velocidad y baja latencia en un entorno centralizado, mientras que redes en la nube ofrecen alcance global y flexibilidad virtual para aplicaciones distribuidas ¿Por qué los mainframes siguen teniendo valor en los sistemas de misión crítica A pesar del auge de las tecnologías en la nube, los mainframes siguen siendo invaluables en industrias como la banca, salud y el gobierno. He aquí por qué. Uno, la confiabilidad. mainframes están diseñados para un tiempo de actividad continuo, lo que garantiza que las operaciones críticas nunca Dos, la seguridad, mainframes ofrecen características de seguridad robustas que son difíciles de igualar en entornos de nube, especialmente para los datos que deben permanecer en las instalaciones Tres, rendimiento. Para el procesamiento de transacciones en tiempo real de alto volumen, los mainframes aún brindan una velocidad y eficiencia inigualables Un ejemplo, para las instituciones financieras, los sistemas de procesamiento de pagos son el elemento vital de la organización La necesidad de una fiabilidad absoluta y un manejo seguro de los datos financieros confidenciales hacen del mainframe una parte esencial de la infraestructura, incluso cuando otras cargas de trabajo se mueven a la nube conclusiones clave de esta lección incluyen, uno, los mainframes proporcionan alta confiabilidad, rendimiento y seguridad para los sistemas transaccionales, y seguridad para los sistemas transaccionales, mientras que los entornos en la nube ofrecen escalabilidad y flexibilidad para Dos, el almacenamiento de mainframe está centralizado y optimizado para acceso en tiempo real, mientras que el almacenamiento en la nube se distribuye y se diseña para escalabilidad y redundancia tercer lugar, las redes en mainframes se centran en la comunicación de alto ancho de banda y baja latencia, mientras que las redes en la nube sobresalen en alcance global y flexibilidad virtual Actividad de aprendizaje, reflexión. Revise su infraestructura actual. ¿Qué aspectos de su sistema dependen en gran medida rendimiento de mainframe y qué áreas podrían beneficiarse de la escalabilidad en la nube? Pregunta de discusión, post en el foro de discusión del curso. Qué componente, almacenamiento de cómputos o redes presenta el mayor desafío para su organización a la hora de pensar en la integración en la nube. Siguiente lección, componentes clave de la arquitectura de la nube híbrida. En la siguiente lección, exploraremos componentes clave de la arquitectura de la nube híbrida, incluidos los cómputos, el almacenamiento, las redes y la seguridad. Aprenderá cómo interactúan estos componentes y cómo diseñar un entorno híbrido que aproveche la fortaleza de los sistemas mainframe y cloud Emocionados por lo que sigue, profundicemos en los aspectos técnicos de la arquitectura Hybrid Cloud. 4. Lección 3: componentes clave de una arquitectura de nube híbrida: Lección tres, componentes clave de una arquitectura de nube híbrida. Bienvenido a la lección tres de su viaje a través de la arquitectura de la nube híbrida. Hasta ahora, hemos cubierto los fundamentos de los sistemas de nube híbrida y exploramos las diferencias técnicas entre mainframes e infraestructuras en la nube Ahora es el momento de profundizar en los componentes clave que componen una arquitectura de nube híbrida y cómo interactúan estos componentes, garantiza una integración perfecta entre entornos mainframe y los servicios en la nube Para alguien como William, un director de infraestructura de ID que supervisa un complejo proyecto de modernización de mainframe, estos componentes es fundamental comprender cómo encajan Ya sea que esté manejando operaciones de mainframe pesadas de transacciones operaciones de mainframe pesadas o aprovechando la flexibilidad de la nube para cargas de trabajo no críticas, obtener estas piezas correctamente es la base de un sistema híbrido exitoso En esta lección, identificaremos los componentes esenciales de un sistema de nube híbrida, computación, almacenamiento, redes y seguridad, y también explicaremos la interacción entre los servicios en la nube y los entornos de mainframe. Vamos a sumergirnos. Compute, balanceando cargas de trabajo mainframes y cloud . Computación de mainframe En un sistema híbrido, mainframes continúan manejando cargas de trabajo transaccionales centrales Estos sistemas están optimizados para procesar altos volúmenes de datos en tiempo real, como transacciones bancarias o procesamiento de nóminas. Los mainframes ofrecen escalado vertical, lo que significa que pueden manejar cargas de trabajo crecientes al agregar más potencia de procesamiento a una sola máquina Fortaleza clave, procesando un número masivo de transacciones por segundo con casi cero tiempos de inactividad. Caso de uso, un sistema de transacciones con tarjeta de crédito donde miles de transacciones deben procesarse simultáneamente con verificación instantánea y seguridad. Computación en la nube. Por otro lado, los entornos Cloud como AWS, Microsoft Azure o Google Cloud ofrecen escalado horizontal. Esto le permite distribuir las cargas de trabajo en varios servidores, escalando hacia arriba y hacia abajo según la demanda La nube es ideal para cargas de trabajo dinámicas o que requieren potencia informática bajo demanda Fuerza clave, flexibilidad y elasticidad, permitiendo que los recursos se agreguen o reduzcan instantáneamente. Caso de uso, ejecutar análisis de datos en el comportamiento de compra de computadoras donde la demanda puede fluctuar pero las necesidades escalan rápidamente cuando es necesario Cómo interactúan. En un sistema híbrido, los recursos de cómputos se dividen en función de las características de la carga de trabajo. Mainframe maneja transacciones críticas de alto volumen, lo que garantiza confiabilidad y seguridad La nube administra cargas de trabajo flexibles y no sensibles al tiempo , como análisis, procesamiento por lotes o servicios web Tomemos un ejemplo. Imagine una institución financiera donde procesamiento de transacciones en tiempo real permanece en el mainframe mientras que los modelos de detección de fraude que utilizan algoritmos de aprendizaje automático se ejecutan en la nube El mainframe procesa las transacciones mientras los datos se envían a la nube para su análisis en tiempo real, conectando posibles patrones de fraude Almacenamiento, integrando sistemas de almacenamiento centralizado y distribuido. Almacenamiento de mainframe. Los entornos de mainframe están diseñados para almacenamiento centralizado de alta velocidad que ofrece acceso de baja latencia a datos críticos En un modelo híbrido, su almacenamiento de mainframe seguirá albergando bases de datos de misión crítica que requieren acceso instantáneo y alta confiabilidad Es fuerza, control centralizado con alta afluencia de datos. Caso de uso, datos de cuentas de clientes en sistemas bancarios, donde los registros deben ser accesibles instantáneamente sin tiempo de inactividad. Almacenamiento en la nube. El almacenamiento en la nube en contraste se distribuye. Servicios como AWS S three o Azure Blob Storage le permiten almacenar grandes cantidades de datos en múltiples ubicaciones con redundancia incorporada Esto garantiza la durabilidad y disponibilidad de los datos incluso durante las interrupciones. El almacenamiento en la nube es altamente escalable, lo que lo hace perfecto para archivar, copias de seguridad y recuperación ante desastres. Fuerza clave, escalabilidad y redundancia con un modelo de pago por uso. Caso de uso, almacenamiento de registros de transacciones o datos históricos de clientes a los que no es necesario acceder en tiempo real, sino que deben conservarse para fines reglamentarios. Cómo interactúan. En una arquitectura de nube híbrida, almacenamiento a menudo se divide entre almacenamiento de mainframe de alto rendimiento, baja latencia para datos críticos y almacenamiento en la nube escalable para fines de archivado y respaldo Los mainframes pueden almacenar datos activos de los clientes mientras que todos los registros se almacenan en la nube para su retención a largo plazo. Tomemos un ejemplo. Para un sistema bancario, los perfiles de clientes y los historiales de transacciones pueden vivir en el mainframe para acceder en tiempo real, pero los datos más antiguos y menos acceso se pueden mover al almacenamiento en la nube para archivarlos Esto reduce los costos al tiempo que mantiene los datos a los que se accede con frecuencia donde más se necesita. Redes que conectan mainframes y la nube. Redes de mainframe. mainframes están tradicionalmente conectados por redes privadas de alto ancho de banda y baja latencia, que aseguran que las transferencias de datos y las transacciones se procesen con un retraso mínimo Estas redes son altamente confiables y seguras, por lo que son tan críticas para sistemas donde el tiempo de actividad y la velocidad no son negociables Fuerza clave, alta velocidad, conexiones de baja latencia, asegurando tiempos de transacción rápidos. Caso usado manejando transacciones financieras a gran escala que deben procesarse instantáneamente. Redes en la nube. En entornos Cloud, redes son altamente flexibles. Los proveedores de nube ofrecen redes virtuales que puedes diseñar, configurar y controlar según sea necesario. Las soluciones de redes en la nube como AWS VPC o Virtual Private Cloud permiten a las empresas crear entornos de red aislados, asegurando que los datos y las aplicaciones permanezcan seguros Fuerza, personalizable, escalable y altamente distribuido y distribuido globalmente. Caso usado, ejecutando aplicaciones orientadas al cliente como plataformas de banca móvil que necesitan ser procesadas globalmente con tiempos de respuesta rápidos. ¿Cómo interactúan? En un sistema híbrido, la red actúa como puente entre su mainframe in premise y la nube Herramientas como AWS Direct Connect o VPN se utilizan para crear conexiones seguras de alta velocidad entre mainframes e infraestructura en la nube, permitiendo el intercambio de datos en tiempo real sin comprometer Tomemos un ejemplo. Considere un escenario en el que su mainframe procese transacciones, pero su aplicación bancaria orientada al cliente esté alojada en la nube Los componentes de red garantizan que la aplicación se comunique de manera eficiente con el mainframe, lo que permite a los clientes ver saldos en tiempo real y los datos de las transacciones al instante Seguridad, resguardando los datos en un entorno híbrido. Seguridad de mainframe. mainframes son reconocidos por sus robustas características de seguridad que se integran en su arquitectura Admiten encriptación de múltiples capas, estricto control de acceso y capacidades de auditoría que los hacen adecuados para industrias con altas demandas regulatorias como las finanzas y la atención médica. Fuerza E, construido en seguridad diseñado para ambientes altamente regulados. Use Case, protegiendo los datos financieros confidenciales, asegurando que las transacciones y información del cliente permanezcan privadas y seguras. Seguridad en la nube. Los proveedores en la nube también ofrecen funciones de seguridad avanzadas, que incluyen direcciones de cifrado y en tránsito, administración de identidad y acceso o herramientas de IAM, y monitoreo continuo de cumplimiento Sin embargo, asegurar los datos en la Nube requiere un modelo de responsabilidad compartida. El proveedor de Cloud asegura la infraestructura mientras que el negocio debe asegurar sus propias aplicaciones y datos Fuerza, herramientas avanzadas de seguridad escalables con redundancia geográfica Caso de uso, asegurando plataformas de análisis de datos o aplicaciones orientadas al cliente mientras se mantiene el cumplimiento estándares de la industria como PCIDSS o GDPR Cómo interactúan. En un entorno híbrido, la seguridad debe ser holística. Los datos que se mueven entre su mainframe y la nube deben estar cifrados y control de acceso debe ser consistente en ambos entornos. uso de herramientas de seguridad nativas de la nube como AWS Key Management Service o KMS, o reglas de cifrado o IAM o control de acceso garantiza que los datos permanezcan seguros Tomemos un ejemplo. Imagine que su mainframe maneja los datos de los clientes con fines reglamentarios mientras que su entorno Cloud ejecuta análisis de datos en datos de transacciones Debe asegurarse de que los datos transferidos entre los dos entornos encriptados y que solo los usuarios autorizados tengan acceso a información confidencial. conclusiones clave de esta lección incluyen, una, los recursos de cómputos en los sistemas híbridos están divididos Los mainframes manejan transacciones de alto volumen, mientras que los entornos en la nube proporcionan flexibilidad para cargas de trabajo variables Dos, almacenamiento dividido entre alturas de almacenamiento de mainframe para datos críticos y almacenamiento en la nube escalable para retención y respaldo a largo plazo tercer lugar, las redes sirven como puente entre los mainframes y la nube, asegurando una comunicación segura y eficiente, mientras que la seguridad debe aplicarse en ambos entornos con una estrategia unificada Ganar actividad, reflexión. Mira tu infraestructura actual. Qué componente, puede ser computación, almacenamiento, redes o seguridad, son los más críticos para el éxito de su organización. ¿Cómo los ve trabajando en un entorno de nube híbrida Pregunta de discusión, post en el formulario del curso. En su organización, ¿cómo administra actualmente la seguridad en entornos mainframe y Cloud ¿Qué retos anticipa para asegurar una arquitectura híbrida? Siguiente lección, beneficios de la integración en la nube híbrida. En la siguiente lección, analizaremos los beneficios clave de integrar mainframes con plataformas Cloud Aprenderá cómo los modelos de nube híbrida proporcionan escalabilidad, optimización de costos y flexibilidad, y destacaremos ejemplos del mundo real, especialmente en la industria de servicios financieros Listo para explorar los beneficios de la nube híbrida, pasemos a la lección cuatro y veamos cómo puede maximizar el potencial de su infraestructura 5. Lección 4: beneficios de la integración de la nube híbrida: Lección cuatro, beneficios de la integración en la nube híbrida. Bienvenido de nuevo a la Lección cuatro de nuestro curso sobre arquitectura de nube híbrida. Hasta ahora, ha cubierto los fundamentos, comparado los mainframes con la infraestructura Cloud e identifica los componentes clave del sistema híbrido Ahora es el momento de explorar los beneficios del mundo real de integrar mainframes con plataformas en la nube Alguien como William, nuestro director de infraestructura de TI, encargado de modernizar los sistemas mainframe de una institución financiera Comprender el valor de la integración en la nube híbrida es crucial. ¿Por qué debería tomar el labio de una infraestructura centrada en legado a un modelo híbrido? ¿Qué hay en él para tu negocio? En esta lección, cubriremos uno, los tres beneficios de integrar mainframes con plataformas en la nube, escalabilidad, optimización de costos y flexibilidad Dos ejemplos del mundo real de la industria de servicios financieros que muestran cómo las arquitecturas de nube híbrida ya están entregando resultados medibles Al final de esta lección, comprenderá exactamente por qué un enfoque híbrido no es solo una solución, sino una ventaja competitiva. Escalabilidad, satisfaciendo la demanda sin sudar. Mainframes, diseñados para la estabilidad pero limitados en escalabilidad mainframes están diseñados para manejar volúmenes masivos de transacciones, pero lo hacen con una flexibilidad limitada en términos de escalado Escalar un mainframe significa agregar hardware costoso y altamente especializado que puede llevar tiempo y no se ajusta fácilmente a picos inesperados de demanda Tomemos un ejemplo. Maine un escenario donde tu institución financiera está lanzando un nuevo producto como una cuenta de ahorros con tasas de interés promocionales. A medida que se acerca la fecha de lanzamiento, anticipas un mayor tráfico pero no tienes un pronóstico exacto Los mainframes por sí solos podrían tener dificultades para acomodar la afluencia repentina de nuevas cuentas, registros o volúmenes de transacciones sin una planificación previa de la capacidad Nube, escalando bajo demanda. En un entorno de nube, escalado es prácticamente instantáneo Las plataformas en la nube como AWS o Azure le permiten escalar horizontalmente agregando más máquinas virtuales o recursos a medida que aumenta la demanda. Con otras funciones de escalado, la nube puede manejar picos de tráfico y picos estacionales sin requerir inversiones adicionales en hardware Esto significa que puede asignar recursos dinámicamente en función de las necesidades en tiempo real. Beneficio para William. La capacidad de escalar aplicaciones bajo demanda, asegurando que picos inesperados de carga no afecten el rendimiento, ya sea un aumento en las transacciones bancarias en línea o una promoción que cause más actividad de los clientes, Cloud puede manejar el desbordamiento. Cómo funciona el híbrido. Con una arquitectura de nube híbrida, sus sistemas transaccionales principales pueden permanecer estables en el mainframe mientras que la nube toma cargas de trabajo adicionales según Este modelo le permite aprovechar lo mejor de ambos mundos, la estabilidad del mainframe y la elasticidad de la nube Optimización de costos, paga por lo que usas cuando lo usas. Mainframes, confiables, pero costosos de escalar. Si bien los mainframes ofrecen una confiabilidad increíble, vienen con un costo fijo significativo Estos sistemas requieren mantenimiento continuo, personal especializado y costosas actualizaciones. Cada vez que necesitas agregar capacidad, estás viendo grandes gastos de capital. Esto hace que sea difícil administrar demandas fluctuantes sin sobreaprovisionar su infraestructura Tomemos un ejemplo. Piensa en el banco que tiene demanda predecible la mayor parte del año pero ve picos durante la temporada de impuestos o promociones navideñas. aprovisionamiento excesivo de su mainframe para cumplir con estos picos raros significa pagar por capacidad adicional durante todo el año, lo que infla Cloud, paga por uso precios. Una de las mayores ventajas de la plataforma Cloud es el modelo de pago por uso. Solo pagas por los recursos que realmente usas. Durante periodos de baja demanda, tus costos se mantienen bajos. Cuando la demanda aumenta, la nube se ajusta automáticamente, asegurando que tenga los recursos que necesita sin invertir demasiado en infraestructura. Beneficio para William. La optimización de costos le permite administrar su presupuesto de manera más efectiva. En lugar de sobrecomprometer recursos para las horas pico, la nube le permite escalar recursos hacia arriba o hacia abajo, ahorrando en hardware y costos operativos Cómo ayuda el híbrido. Al mantener las aplicaciones críticas en el mainframe y aprovechar la nube para cargas de trabajo estacionales o temporales, puede optimizar puede Reduces tus gastos de capital y cambias a un modelo de gastos operativos para ciertas cargas de trabajo, facilitando la planificación financiera Flexibilidad innovar y adaptarse sin restricciones. Mainframes, estabilidad sobre flexibilidad. mainframes están diseñados para brindar estabilidad y confiabilidad, pero no siempre son flexibles Si desea desarrollar nuevas aplicaciones o experimentar con tecnologías innovadoras como la IA, aprendizaje automático o el análisis de big data, mainframes no suelen ser la plataforma ideal para esto Un ejemplo, una institución financiera quiere desarrollar un sistema de detección de fraude impulsado por IA que analice los patrones de transacción en tiempo real. mainframes son excelentes para manejar las transacciones en tiempo real, pero ejecutar modelos complejos de IA en un mainframe es menos eficiente Cloud, un patio de recreo para la innovación. Las plataformas en la nube sobresalen en el soporte de tecnologías de vanguardia. Con acceso a servicios nativos en la nube como AWS Lambda o computación sin servidor, Google Big Query o análisis de datos o Azure machine learning o AI y machine learning Se puede experimentar e innovar sin restricciones. Beneficio para William. La nube le brinda la flexibilidad experimentar con nuevas aplicaciones y servicios rápidamente sin la sobrecarga de administrar hardware. Esto le permite a su organización mantenerse ágil, innovar más rápido y responder a los cambios del mercado de manera más efectiva Cómo ayuda el híbrido. Una arquitectura de nube híbrida le permite mantener sus aplicaciones estables de misión crítica funcionando sin problemas en el mainframe mientras usa la nube como plataforma para la innovación Por ejemplo, mientras su mainframe maneja transacciones en tiempo real, la nube puede ejecutar algoritmos de detección de fraude, analizar el comportamiento del cliente o crear nuevas aplicaciones orientadas al cliente Tomemos un ejemplo. Hoy en día, muchos bancos ejecutan sus operaciones bancarias principales en mainframes, pero utilizan la nube para crear aplicaciones de banca móvil, ofrecer experiencias personalizadas a los clientes o experimentar con nuevas funciones sin interrumpir el entorno del mainframe conclusiones clave de esta lección incluyen una, escalabilidad, nube híbrida, que le permite escalar aplicaciones sin problemas, que le permite escalar aplicaciones sin problemas, asegurando que sus sistemas puedan manejar cargas de trabajo fluctuantes sin Dos, optimización de costos. Al trasladar ciertas cargas de trabajo a la nube, puedes reducir los gastos de capital y solo pagar por los recursos que usas, haciendo que la presupuestación sea más Tres, flexibilidad, los entornos híbridos le permiten innovar rápidamente mediante el uso de plataformas en la nube para nuevos servicios mientras mantiene la estabilidad para aplicaciones críticas en su mainframe Actividad de aprendizaje, reflexión. Considere la infraestructura actual de su organización. Hay áreas donde la escalabilidad de las nubes podría proporcionar más flexibilidad o ayudar a reducir costos? Qué cargas de trabajo se mantienen mejor en el mainframe y cuáles se trasladarían a la nube Pregunta de discusión, post en el formulario. ¿Qué escalabilidad de beneficios, optimización de costos o flexibilidad considera que son los más valiosos para su organización y por qué? Siguiente lección, evaluar sistemas heredados para la integración en la nube. En la siguiente lección, profundizaremos en cómo evaluar sus sistemas mainframe para la integración en la nube La lección uno del Módulo dos se centrará en evaluar su infraestructura de mainframe actual, enseñarle a auditar sistemas heredados e identificar aplicaciones críticas que podrían beneficiar la migración a la nube Listo para dar el siguiente paso, sigamos adelante y comencemos a evaluar su infraestructura para el éxito de la nube híbrida. 6. Lección 1: cómo definir la infraestructura de mainframe actual: Módulo dos, evaluando sistemas heredados para la integración en la nube. Los estudiantes aprenderán a evaluar sus sistemas mainframe existentes para identificar a los mejores candidatos para la integración en la nube Este módulo cubre las consideraciones técnicas y operativas de migrar aplicaciones heredadas y cargas de trabajo a la nube mientras se mantiene el rendimiento y Lección uno, evaluar la infraestructura de mainframe actual Bienvenido al Módulo dos, donde comenzamos el proceso de evaluación de su infraestructura de mainframe existente para determinar cómo se puede modernizar a determinar cómo se puede través de la integración en la nube En esta primera lección, nos centraremos en evaluar sus sistemas mainframe actuales, un paso esencial para prepararse para una transición exitosa a una arquitectura de nube híbrida Para alguien como William, el director de infraestructura de TI responsable mantener un complejo sistemas heredados de instituciones financieras, entender cómo auditar su infraestructura es clave. Este proceso le ayudará a identificar aplicaciones críticas, identificar flujos de datos y reconocer qué partes de su sistema son las principales candidatas para la migración a la nube En esta lección, cubriremos una, cómo auditar sus sistemas mainframe heredados para obtener una visión clara de su entorno actual Dos, cómo identificar aplicaciones críticas y flujos de datos dentro de su infraestructura. Tres, ¿qué partes de su infraestructura se pueden optimizar para la migración a la nube? Al final de esta lección, tendrás una hoja de ruta para determinar dónde más sentido la integración en la nube para tu negocio Auditar sus sistemas mainframe heredados. Antes de tomar cualquier decisión sobre qué migrar a la nube, es importante realizar un inventario completo de su entorno de mainframe actual Piense en ello como inspeccionar los cimientos de una casa antes de comenzar una renovación Una auditoría exhaustiva le permitirá tomar decisiones informadas, mitigar riesgos e identificar cualquier profundidad técnica o limitación. Por qué la auditoría es crítica. Los sistemas mainframe suelen ser altamente personalizados y han evolucionado a lo largo de décadas El desafío es que, si bien han sido increíblemente confiables, no se construyeron pensando en la compatibilidad con la nube. Entender lo que tienes tanto en términos de hardware software es el primer paso hacia la integración en la nube. Esto es en lo que debes enfocarte durante tu auditoría. Pasos para auditar su mainframe. Uno, aplicaciones de inventario y cargas de trabajo. Documente todas las aplicaciones que se ejecutan en el mainframe, desde sistemas críticos como el procesamiento de transacciones hasta cargas de trabajo menos esenciales Para cada aplicación, tenga en cuenta la función de negocio que admite, frecuencia con la que se usa y quiénes son los grupos de interés clave. Dos, evaluar los recursos de hardware, evaluar la potencia de cómputos y la capacidad de almacenamiento que se están utilizando actualmente. ¿Qué porcentaje de sus recursos de mainframes están dedicados a diversas cargas de trabajo ¿Enfrentas algún problema de capacidad? ¿Tiene recursos inactivos que podrían ser descargados a la nube Tres, evaluar software y licenciamiento. Toma nota de todo el software y middleware en tu entorno. Muchos mainframes dependen software propietario antiguo que puede no ser compatible con la nube Evaluar los acuerdos de licencia. Algunos programas pueden tener limitaciones al migrar a la nube o pueden requerir versiones específicas compatibles con la nube o identificar profundidad técnica ¿Hay partes de su sistema que estén desactualizadas o demasiado complejas? La profundidad técnica se refiere a atajos o soluciones alternativas que se han ido acumulando a lo largo de los años y pueden dificultar Ejemplo, puede encontrar que ciertas aplicaciones están escritas en CBO, haciéndolas más difíciles de refactorizar o volver a la plataforma para el entorno en la nube Identificación de aplicaciones críticas y flujos de datos. Una vez que haya completado su auditoría, el siguiente paso es priorizar sus aplicaciones e identificar los flujos de datos que son centrales para su negocio No todas las aplicaciones necesitan o deben trasladarse a la nube. El objetivo es determinar qué partes de su sistema son críticas y qué partes se pueden modernizar Clasificar aplicaciones, aplicaciones de misión crítica. Estas son las aplicaciones sin las que tu negocio no puede funcionar. En una institución financiera, esto podría incluir procesamiento de transacciones en tiempo real, sistemas de pago o administración de cuentas. Estas aplicaciones requieren el más alto nivel de disponibilidad, rendimiento y seguridad. En muchos casos, es mejor mantenerlos en el mainframe a menos que esté disponible una alternativa altamente segura en la nube Dos aplicaciones no críticas. Estas aplicaciones, aunque importantes, no requieren el mismo nivel de procesamiento en tiempo real. Los ejemplos pueden incluir la generación de informes, el procesamiento por lotes o los sistemas internos de empleados. Las cargas de trabajo no críticas suelen ser buenas candidatas para la migración a la nube, donde pueden aprovechar la escalabilidad de la nube y la rentabilidad Mapeo de flujos de datos. Los flujos de datos se refieren a cómo se mueve la información entre diferentes partes de su sistema, ya sea entre aplicaciones, bases de datos o sistemas externos. Uno, identificar interacciones clave de datos. Mapee cómo se transfieren los datos entre sus aplicaciones principales. Por ejemplo, ¿ su portal web orientado al cliente interactúa con su sistema de transacciones? Comprender estas dependencias te ayudará a decidir qué se puede mover a la nube y qué necesita para permanecer en las instalaciones Dos, evaluar la sensibilidad de los datos. La seguridad de los datos es una preocupación crítica, especialmente en industrias reguladas como la banca. Identifique qué datos son más sensibles, por ejemplo, registros de clientes o transacciones financieras y asegúrese de que estén protegidos tanto durante la migración su entorno de nube espinal. Por ejemplo, datos de transacciones que involucran información de identificación personal, BII puede necesitar permanecer en las instalaciones para cumplir con los requisitos reglamentarios, mientras que los datos no confidenciales como archivos de registro o análisis podrían trasladarse a la nube Optimización de su infraestructura para la migración a la nube. Una vez que haya auditado su sistema e identificado los componentes críticos, es hora de determinar qué partes de su infraestructura de mainframe se pueden optimizar para la nube El objetivo aquí es mover estratégicamente las cargas de trabajo que se beneficiarán servicios en la nube mientras mantienen intactas las operaciones de misión crítica en el mainframe Factores clave para la optimización de la nube. Uno, flexibilidad de carga de trabajo. Las aplicaciones que requieren escalado dinámico, como sitios web orientados al cliente o aplicaciones móviles son ideales para entornos en la nube. Estos se pueden escalar hacia arriba o hacia abajo según la demanda, evitando el costo y complejidad de agregar capacidad a su mainframe Dos, procesamiento por lotes y análisis de datos. Las cargas de trabajo, como el procesamiento por lotes o el análisis de datos suelen ser adecuadas para las plataformas en la nube Estos procesos se pueden ejecutar en la nube durante las horas pico, haciendo ping a los recursos de mainframe para tareas más críticas Tres, DevOps y entornos de prueba. entornos de desarrollo y pruebas se pueden trasladar a la nube, donde los equipos pueden marcha rápidamente nuevos entornos, ejecutar pruebas y apagarlos, todo sin sobrecargar el Estos proporcionan una mayor agilidad de flexión y reducen la necesidad de costosos recursos principales. Tomemos un ejemplo. En una compañía de servicios financieros, la generación de informes y el análisis de datos se pueden trasladar a la nube, aprovechando su potencia informática durante las horas pico apagadas para reducir la tensión en el mainframe Mientras tanto, el procesamiento de transacciones en tiempo real continúa ejecutándose en el mainframe para garantizar la estabilidad y el rendimiento puntos clave de esta lección incluyen, uno, auditar su mainframe es el primer paso hacia la Esto implica documentar aplicaciones, evaluar hardware y evaluar dependencias de software Dos, identificar aplicaciones críticas y mapear flujos de datos le ayuda a priorizar lo que debe permanecer en las instalaciones y lo que se puede trasladar a la nube tercer lugar, ciertas cargas de trabajo, como el procesamiento por lotes, el análisis de datos y las aplicaciones no críticas, y las aplicaciones no críticas se pueden optimizar para la migración a la nube, mejorando la escalabilidad y la rentabilidad Actividad de aprendizaje, reflexión, realizar una evaluación preliminar de su infraestructura actual. ¿Qué aplicaciones o flujos de datos son los más críticos para las operaciones de su organización? ¿Qué partes de su sistema parecen candidatos ideales para la migración a la nube? Pregunta de Distutón planteada en el foro. ¿Qué retos prevé en la auditoría de sus sistemas mainframe? prevé en la auditoría de sus sistemas mainframe ¿Existen aplicaciones o cargas de trabajo específicas que usted cree que serían difíciles de migrar Siguiente lección, idoneidad de la carga de trabajo para la migración a la nube. En la siguiente lección, profundizaremos en cómo determinar qué cargas de trabajo son las más adecuadas para la migración a determinar qué cargas de trabajo son las la nube Aprenderá a analizar las dependencias de las aplicaciones, evaluar los requisitos de rendimiento y considerar implicaciones de seguridad antes de realizar la mudanza. Emocionado por continuar. Preparémonos para evaluar sus cargas de trabajo y averiguar qué es lo que mejor se adapta a la nube 7. Lección 2: idoneidad de la carga de trabajo para la migración a la nube: Lección dos, idoneidad de la carga de trabajo para la migración a la nube. Bienvenido de nuevo al Módulo dos de nuestro curso sobre arquitectura de nube híbrida. En la lección anterior, discutimos cómo evaluar su infraestructura de mainframe actual Ahora, en la lección dos, vamos a ayudarle a tomar decisiones inteligentes sobre qué cargas de trabajo son más adecuadas para la migración a la nube Como William, director de infraestructura de TI, probablemente hayas escuchado sobre los beneficios de la nube, pero mover todo a la nube siempre es el enfoque correcto. No todas las cargas de trabajo son igualmente adecuadas para la migración a la nube. Algunos prosperan en la nube, mientras que otros deben permanecer enraizados en su mainframe o en El objetivo aquí es evaluar las dependencias de las aplicaciones, los requisitos de rendimiento y las consideraciones de seguridad para garantizar que tome decisiones de migración informadas y efectivas Al final de esta lección, podrás una, analizar las dependencias de tus aplicaciones y cómo afectan a la integración en la nube Dos, evalúe los requisitos de performance que son críticos para sus cargas de trabajo Tres, comprender las consideraciones de seguridad que podrían afectar qué cargas de trabajo se mueven a la nube F, determinar qué tipos de cargas de trabajo son más adecuados para la nube, pero un procesamiento por lotes o análisis de datos Empecemos. Analizando las dependencias de las aplicaciones, ¿qué deben permanecer juntos ¿Por qué importan las dependencias de las aplicaciones? Al migrar a la nube, uno de los factores más críticos es comprender las dependencias de sus aplicaciones Estas son las relaciones interconectadas entre diferentes aplicaciones, bases de datos o sistemas que trabajan juntos para entregar una operación semless migración de una aplicación sin sus sistemas dependientes puede dar lugar a problemas de rendimiento, latencia de datos o incluso fallas en el sistema Por ejemplo, en un entorno bancario, su sistema de cuentas de clientes podría depender comunicación en tiempo real con un sistema de procesamiento de pagos. Migrar solo uno de estos sistemas a la nube sin el otro provocaría retrasos o crearía desafíos de integración Pasos para identificar dependencias. Uno, mapear las interacciones de la aplicación. Comienza creando un mapa visual de cómo tus aplicaciones interactúan entre sí. Esto le ayudará a identificar los flujos de datos y puntos de comunicación entre sistemas. Por ejemplo, su sistema de procesamiento de transacciones de mainframes puede tener múltiples dependencias en sistemas de almacenamiento de datos heredados, portales de clientes y API de terceros Dos, evaluar el flujo de datos y las necesidades de comunicación. ¿Su aplicación requiere intercambio de datos en tiempo real? De ser así, migrar solo una parte del sistema ralentizaría las transacciones o causaría cuellos de botella en el rendimiento Asegurar que cualquier sistema interdependiente se considere en conjunto. Tres, agrupar aplicaciones por niveles de dependencia. Categoriza tus aplicaciones en dos. Uno, sistemas estrechamente acoplados que requieren interacción de alta velocidad en tiempo real entre sí, o dos, sin acoplar, sistemas que interactúan pero no requieren comunicación en tiempo real y pueden tolerar algo de sueño latente Los sistemas estrechamente acoplados suelen quedar mejor juntos, ya sea en el mainframe o migrados juntos a la nube. Tomemos un ejemplo. En una institución financiera, sistemas de procesamiento de transacciones y detección de fraude pueden estar estrechamente acoplados. Si bien el procesamiento de transacciones en tiempo real debe permanecer en el mainframe, detección de fraude puede ejecutarse en la nube, siempre que tenga una conexión de baja latencia al mainframe Al comprender estas dependencias, William puede garantizar operaciones fluidas sin crear nuevos problemas durante la migración Requerimientos de desempeño. ¿La nube puede manejar su carga de trabajo? Definición de necesidades de desempeño. rendimiento suele ser el factor que define si una carga de trabajo debe trasladarse a la nube. Si bien las plataformas en la nube son excelentes para muchos tipos de cargas de trabajo, algunas aplicaciones requieren métricas de rendimiento específicas como alto rendimiento, baja latencia o disponibilidad constante que su mainframe puede manejar de manera más efectiva Preguntas para hacer sobre el desempeño. Primero, ¿cuál es el tiempo de respuesta actual de la aplicación? Algunas aplicaciones, como las plataformas de negociación en tiempo real o los sistemas de procesamiento de transacciones requieren tiempos de respuesta instantáneos Mover estas cargas de trabajo a la nube podría introducir latencia si la infraestructura de la nube no está optimizada para ese nivel de rendimiento Dos, ¿qué nivel de tiempo de actividad se requiere? Para aplicaciones de misión crítica, cualquier tiempo de inactividad podría significar pérdida de ingresos, insatisfacción del cliente o incluso sanciones regulatorias mainframes son conocidos por su disponibilidad del 90 nueve.39 por ciento, lo que puede ser difícil de replicar en Tres, ¿la aplicación requiere una potencia informática intensiva? Algunas cargas de trabajo, como el análisis de datos, se benefician de la escalabilidad de las plataformas en la nube donde puede escalar fácilmente la potencia de procesamiento Sin embargo, para los sistemas intensivos de transacciones pesadas, la potencia de procesamiento sin procesar de un mainframe puede seguir siendo la mejor opción Cargas de trabajo que prosperan en la nube. Procesamiento por lotes. Las tareas que no requieren retroalimentación inmediata y se pueden ejecutar a intervalos específicos son ideales para entornos en la nube. Estas cargas de trabajo pueden escalar durante el procesamiento y luego reducir los costos de ahorro. Analítica de datos. tareas de análisis de datos a gran escala se benefician de la escalabilidad en la nube En la nube, puedes aprovechar herramientas avanzadas como Amazon Redshift o Google BigQuery para un análisis rápido y eficiente de grandes conjuntos de Tomemos un ejemplo. En un banco, las conciliaciones diarias de transacciones se trasladarían a la nube ya que no requieren procesamiento en tiempo real y se pueden programar para las horas pico Mientras tanto, la detección de fraude en tiempo real debe permanecer en el mainframe donde se puede integrar con los sistemas de procesamiento de transacciones para proporcionar alertas y decisiones instantáneas Consideraciones de seguridad, manteniendo sus datos seguros. El modelo de responsabilidad compartida. Cuando mueves cargas de trabajo a la nube, entras en lo que se llama el modelo de responsabilidad compartida Esto significa que el proveedor de la nube, por ejemplo, AWS o Azure es responsable de asegurar la infraestructura, pero usted es el responsable de asegurar sus datos y garantizar que los controles de acceso estén configurados correctamente. La seguridad es especialmente importante cuando se manejan datos sensibles como transacciones financieras o información personal identificable o PII Veamos algunas consideraciones críticas. Preguntas clave de seguridad a considerar. Uno, ¿qué tan sensibles son los datos? ¿La aplicación maneja PII, datos financieros u otra información regulada Por ejemplo, las cargas de trabajo que administran la información bancaria del cliente pueden estar sujetas a requisitos de cumplimiento como PCI DSS o GDPR, que imponen estrictos controles sobre cómo y dónde se almacenan los datos Es el cifrado disponible y requerido, asegúrese de que sus datos puedan ser encriptados tanto direccionados como en tránsito. Los proveedores ruidosos suelen ser servicios de encriptación, pero debes configurarlos correctamente y entender qué datos deben ser encriptados. Tres, ¿qué controles de acceso existen? Los entornos en la nube le brindan la flexibilidad para implementar controles de acceso ecológicos finos. Debe asegurarse de que solo los usuarios y sistemas autorizados puedan acceder a cargas de trabajo sensibles Utilice la autenticación multifactor y administración de identidades y accesos o las mejores prácticas de IAM para proteger su entorno Cloud Tomemos un ejemplo. Para la organización Williams, los datos de transacciones densitivos deban permanecer en el mainframe para cumplir con las leyes de residencia de datos y los requisitos reglamentarios Sin embargo, los datos menos sensibles como el análisis de campañas de marketing, migrarían de forma segura a la nube donde el cifrado y los controles de acceso garantizan la protección de datos Determinar qué cargas de trabajo son las más adecuadas para la nube Ahora que comprende cómo evaluar las dependencias, el rendimiento y la seguridad, resumiremos algunos tipos de carga que comúnmente son adecuados para la migración a la nube Las cargas de trabajo más adecuadas para una migración a la nube incluyen un procesamiento por lotes Se trata de tareas no en tiempo real como generación de informes o la reconciliación de datos que se pueden ejecutar de forma programada y escalar a pedido Dos, análisis de datos y big data. Cargas de trabajo que requieren un procesamiento intensivo de datos, pero que no necesitan resultados en tiempo real como análisis del comportamiento del cliente, algoritmos de detección de fraude o paneles de inteligencia empresarial Tres, entornos de desarrollo y pruebas. Las plataformas en la nube ofrecen la flexibilidad poner en marcha rápidamente el entorno de desarrollo, ejecutar pruebas y luego cerrarlas. Esto reduce la carga en su mainframe y proporciona una solución ágil y rentable para sus equipos de desarrollo o aplicaciones web orientadas al cliente Las aplicaciones front-end como las plataformas de banca móvil pueden beneficiarse de la escalabilidad en la nube, lo que le permite manejar alto tráfico sin afectar el mainframe Las cargas de trabajo se mantienen mejor en el mainframe. Esto incluye un procesamiento de transacciones en tiempo real. Las cargas de trabajo transaccionales de alta velocidad , como las transacciones en cajeros automáticos o procesamiento de pagos con tarjeta de crédito, son manejadas mejor por el mainframe para garantizar una baja latencia y una Dos, o aplicaciones bancarias. Las aplicaciones que requieren 99 d39 por ciento de tiempo de actividad y manejan datos críticos de misión deben permanecer en el mainframe para Las conclusiones clave de esta lección incluyen, una, analizar las dependencias de las aplicaciones para garantizar integración fluida entre mainframe y nube, especialmente para sistemas estrechamente acoplados Dos, los requisitos de rendimiento determinan dónde debe ejecutarse la carga de trabajo. Las cargas de trabajo no en tiempo real, como procesamiento por lotes o el análisis de datos son ideales para la nube, mientras que el procesamiento de transacciones en tiempo real es el más adecuado para el mainframe Tres, las consideraciones de seguridad son críticas a la hora de migrar cargas de trabajo Siempre evalúe la sensibilidad de los datos y los requisitos de cumplimiento antes de tomar decisiones. Actividad de aprendizaje, reflexión. Mire sus cargas de trabajo existentes. ¿Qué cargas de trabajo están estrechamente acopladas con otras? Que podría desacoplarse y trasladarse a la nube sin causar problemas de rendimiento Pregunta de discusión planteada en el foro. ¿Qué tipos de cargas de trabajo en su organización cree que son candidatos ideales para la migración a la nube ¿Hay alguna preocupación de seguridad que le impida migrar ciertas aplicaciones Siguiente lección, análisis costo-beneficio de la migración a la nube. En la siguiente lección, exploraremos las implicaciones de costos de mover cargas de trabajo del mainframe a la nube Discutiremos cómo equilibrar los ahorros operativos con el costo de mantener los sistemas críticos en las instalaciones. Preparados para aprender a tomar decisiones financieramente sólidas al trasladarnos a la nube, analicemos la Lección tres y exploremos el análisis de costos y beneficios de la migración a la nube. 8. Lección 3: análisis costo-beneficio de la migración a la nube: Lección tres, análisis costo-beneficio de la migración a la nube. Bienvenido a la lección tres del Módulo dos, donde profundizaremos en el aspecto financiero de la migración de cargas de trabajo de su mainframe a Como director de infraestructura de TI, administrando un proyecto de modernización de mainframe, William entiende los beneficios operativos de la nube, pero también necesita evaluar si los costos financieros se alinean con los objetivos de la organización organizada En esta lección te ayudaremos a responder una pregunta clave. ¿Vale la pena el costo de migrar ciertas cargas de trabajo a la nube Si bien la nube promete escalabilidad, flexibilidad y ahorro de costos, hay que considerar importantes costos iniciales, gastos ocultos e inversiones a largo plazo Comprender el equilibrio entre los ahorros operativos que ofrece la nube y el costo continuo de mantener los sistemas críticos en su mainframe es esencial para tomar decisiones comerciales sólidas Al final de esta lección, podrá examinar las implicaciones de costos de mover cargas de trabajo de entornos mainframe a cloud y comprender el equilibrio entre los ahorros operativos potenciales en la nube y el costo de mantener los sistemas mainframe locales Empecemos. El costo de la migración a la nube, lo que necesitas saber. Costo inicial de la migración. migración de cargas de trabajo de un mainframe a la nube no está exenta de gastos Si bien la nube puede proporcionar ahorros a largo plazo, llegar allí requiere inversión en infraestructura, planificación y ejecución. Aquí hay un desglose del costo inicial común que enfrentará Uno, estrategia y planeación migratoria. Desarrollar una estrategia de migración a la nube requiere tiempo y experiencia. Es posible que deba invertir en consultores o expertos en migración a la nube para ayudar a elaborar una hoja de ruta detallada que se alinee con sus objetivos comerciales Implicaciones de costos de esto. Contratar ayuda externa para planeación y estrategia puede ser costoso, pero reduce el riesgo de errores costosos durante el proceso de migración. Dos, rehospedar, refactorizar o reemplazar aplicaciones. Algunas cargas de trabajo pueden ser levantadas y trasladadas a la nube o realojadas, mientras que otras necesitan ser refactorizadas o completamente reescritas para ejecutarse de manera efectiva Implicaciones de costos. Refactorizar aplicaciones heredadas puede llevar mucho tiempo y ser costoso. Si decide reescribir aplicaciones desde cero, esto agrega costos adicionales de desarrollo y prueba Tres, transferencia de datos y configuración en la nube. transferencia de datos desde su mainframe local a la nube conlleva un costo de transferencia de datos, especialmente si hay grandes volúmenes de datos involucrados Además, los proveedores de nube como AWS cobran por la salida de datos. Eso significa que si estás moviendo datos fuera de sus servicios en la nube , como entre regiones o de Cloud a on premise, incurrirás en tarifas Tomemos un ejemplo. Para la institución financiera Williams, migración de la cuenta de cliente a la nube puede requerir mecanismos seguros de transferencia de datos para garantizar el cumplimiento normativo, lo que aumenta el costo Además, la refactorización de aplicaciones de pareja heredadas para que se ejecuten en un entorno de nube moderno podría implicar un equipo de desarrolladores y varios meses de esfuerzo Ahorro operativo en la Nube, el modelo de pago por uso, paga por lo que usa. Una de las mayores ventajas de la nube es su rentabilidad operativa a través de un modelo de pago por uso. A diferencia de la infraestructura in situ, donde pagas por capacidad, ya sea que la uses o no, la Nube te permite pagar solo por los recursos que realmente consumes. Esto incluye potencia informática, almacenamiento, redes y más. Veamos algunos de los ahorros operativos clave. El primero es la elasticidad y escalabilidad. La nube le permite escalar recursos hacia arriba y hacia abajo en función de la demanda. Esto significa que puede manejar picos estacionales como impuestos y para bancos sin sobreaprovisionar hardware costoso en las instalaciones. Ahorro de costos. Evita pagar por la capacidad no utilizada, que es un problema común con la infraestructura in prem Esto es especialmente beneficioso para cargas de trabajo con demandas fluctuantes. Segundo, optimización de recursos. En un entorno de nube, puede aprovechar el escalado automático para asegurarse de que solo usa la cantidad exacta de recursos necesarios. Además, las instancias puntuales para cargas de trabajo a largo plazo y las instancias reservadas para compromisos a largo plazo proporcionan más ahorros Ahorro de costos. Al optimizar el uso de los recursos de la nube, las organizaciones pueden reducir los gastos innecesarios y optimizar su costo total de propiedad o TCO. Tercero, mantenimiento y gestión de infraestructura. Con una nube, la responsabilidad mantener el hardware físico como servidores, sistemas de almacenamiento y equipos de red se traslada al proveedor de la nube. Esto reduce la necesidad de contar con un gran equipo interno de operaciones de TI. Ahorro de costos. Al externalizar la administración de infraestructura, reduce los gastos operativos relacionados con el mantenimiento del hardware, las actualizaciones y el espacio físico en sus centros de datos. Tomemos un ejemplo. Imagine Williams Financial Institution está migrando cargas de trabajo de procesamiento por lotes a la nube En lugar de mantener la capacidad adicional de mainframe varias veces al año, cuando los trabajos por lotes aumentan, la nube puede escalar automáticamente durante esas motas Una vez que se realiza el procesamiento, los recursos se reducen reduciendo costos al pagar solo la potencia de procesamiento durante las ejecuciones reales del trabajo El costo continuo de mantener los sistemas mainframe críticos Si bien migrar algunas cargas de trabajo a la nube reducirá los costos operativos, es importante reconocer que mantener aplicaciones críticas en su mainframe sigue siendo un No todas las cargas de trabajo deben trasladarse a la nube y su mainframe puede continuar manejando sistemas de misión crítica en los próximos años la nube y su mainframe puede continuar manejando sistemas de misión crítica en los próximos años . Costos de mainframe. Primero, el costo fijo de la infraestructura de mainframe. Los mainframes requieren una importante inversión de capital por adelantado, incluido el costo de hardware, software e instalaciones para albergar la Adicionalmente, el hardware de mainframe debe actualizarse periódicamente, agregando a los gastos de capital Costos operativos. Aún tendrá que asignar un presupuesto para equipos de soporte de mainframe, mantenimiento de hardware y licencias de software Segundo, personal especializado. entornos de mainframe requieren administradores de sistemas altamente calificados e ingenieros de mainframe para que todo funcione sin problemas A medida que estos profesionales se especializan, encontrar y retener talento puede resultar costoso. Los costos operativos, mantener un equipo de mainframe dedicado con experiencia en sistemas heredados como COBOL seguirán siendo parte de su presupuesto de TI Tercero, cumplimiento y seguridad. Muchas organizaciones en industrias reguladas como Finanzas están obligadas a cumplir con estrictos estándares de cumplimiento. Mantener datos confidenciales y sistemas de transacciones en tiempo real en el mainframe puede reducir el riesgo de cumplimiento asociado con mover todo a la nube. Costo operativo. Asegurarse de que su mainframe cumpla con los estándares de cumplimiento y sea auditado regularmente y se sume a sus gastos operativos Equilibrar el ahorro en la nube con la inversión en mainframe. El objetivo es encontrar un equilibrio entre mover cargas de trabajo a la nube donde pueda obtener ahorros operativos y mantener sistemas críticos en el mainframe donde los requisitos de rendimiento, seguridad y cumplimiento lo requieran Este enfoque le permite optimizar sus gastos de TI mientras mantiene las operaciones clave seguras y confiables. Tomemos un ejemplo. organización Williams, mueve cargas de trabajo no críticas a la nube, como las aplicaciones orientadas al cliente y análisis de datos, puede liberar recursos y reducir costos Sin embargo, los costos, los sistemas principales de procesamiento de transacciones y la detección de fraudes en tiempo real pueden necesitar permanecer en el mainframe para cumplir con los requisitos reglamentarios y de tiempo de actividad, asegurando un equilibrio entre el ahorro en la nube y el costo continuo de las operaciones críticas Construyendo un modelo de costos, calculando el costo total de propiedad o TCO. Para tomar decisiones informadas, debe calcular el costo total de propiedad o TCO tanto para su infraestructura de mainframe como para su estrategia migración a la nube Esto le ayuda a comprender el impacto financiero a largo plazo de sus inversiones en TI. Pasos para construir un modelo de TCO. Primero, calcule los costos de mainframe. Incluya gastos de capital como licencias de hardware y software, factor en costos operativos como personal, mantenimiento y consumo de energía. No olvide los gastos de cumplimiento y auditoría o ambiente regulado dos, estime los costos de la nube Utilice las calculadoras en la nube disponibles en AWS, Azure y otros para estimar costos de almacenamiento de cómputos y redes en función de su uso esperado Incluya los costos de transferencia de datos y cualquier asociado con el escalado o el cambio de tamaño de las cargas de trabajo Factorizar los costos de migración, incluyendo aplicaciones de refactorización y transferencia inicial de datos Tres, compara los costos a lo largo del tiempo. Considera el horizonte temporal para tu análisis de costos. Por ejemplo, tres años, cinco años. ¿Cuáles son los ahorros a largo plazo de mudarse a la nube en comparación con mantener la infraestructura en las instalaciones? Factorizar los posibles picos de costos, como los ciclos de actualización de hardware o el uso de la nube habla Tomemos un ejemplo. William puede usar un modelo de TCO para comparar el costo de mantener las aplicaciones bancarias principales en el mainframe frente a trasladar cargas de trabajo no críticas como análisis de clientes a Al calcular los costos operativos continuos de mantener sistemas heredados y los ahorros potenciales de la elasticidad de la nube, puede determinar qué cargas de trabajo ofrecen el mayor valor en un entorno de nube híbrida Las conclusiones clave de esta lección incluyen las siguientes. Primero, los costos iniciales de la migración a la nube incluyen planificación, refactorización y transferencia de datos Pero estos a menudo se compensan ahorros operativos en la nube a través de la elasticidad y la optimización de recursos. Dos, los costos continuos de mainframe como el mantenimiento del hardware, software especializado y el cumplimiento, deben equilibrarse con los ahorros potenciales de la migración a la nube En tercer lugar, construir un modelo de costo total de propiedad o TCO ayuda a cuantificar el impacto financiero a largo plazo de su estrategia de migración, asegurando que tome decisiones informadas y rentables Actividad de aprendizaje, reflexión. Considere sus cargas de trabajo de mainframe actuales. ¿Qué cargas de trabajo parecen beneficiarse de la rentabilidad de la migración a la nube? Cuáles son los más adecuados para permanecer en el mainframe debido a requisitos críticos de rendimiento o seguridad Pregunta de discusión planteada en el foro. ¿Cómo mide actualmente su organización el costo de las operaciones de mainframe frente a la infraestructura de nube ¿Qué desafíos anticipa al calcular su costo total de propiedad para el TCO? calcular su costo total de propiedad para el TCO Siguiente lección, factibilidad técnica para la integración en la nube. En la siguiente lección, exploraremos los desafíos técnicos que implica mover cargas de trabajo a la nube, como tratar con código heredado, evaluar la compatibilidad del sistema y considerar enfoques de modernización como rehospedar, refactorizar o reemplazar aplicaciones Listo para abordar el obstáculo técnico de la integración en la nube, pasemos a la lección cuatro y exploremos cómo evaluar la viabilidad técnica de su estrategia de migración a la nube 9. Lección 4: viabilidad técnica para la integración de la nube: Lección cuatro, factibilidad técnica para la integración en la nube. Bienvenido de nuevo al Módulo dos de nuestro curso sobre evaluación de sistemas heredados para la integración en la nube. En esta lección, nos centraremos en uno de los aspectos más críticos de su viaje de migración a la nube, la viabilidad técnica. Como William, el director de infraestructura de TI, cara a un proyecto de modernización de mainframe, ya comprende el valor de la nube Pero antes de poder hacer el, es esencial evaluar los desafíos técnicos que implica trasladar los sistemas heredados a la nube. Los sistemas heredados, especialmente los que funcionan con Cobalt, EL, uno u otros lenguajes más antiguos presentan desafíos únicos cuando se trata de la integración en la nube. Al final de esta lección, podrá evaluar los desafíos técnicos, como el código heredado, los requisitos de rendimiento y la compatibilidad del sistema al considerar la migración a la nube, y explorar enfoques de modernización, rehospedaje, refactorización y reemplazo de aplicaciones para ayudarlo a decidir la mejor estrategia para cada evaluar los desafíos técnicos, como el código heredado, los requisitos de rendimiento y la compatibilidad del sistema al considerar la migración a la nube, y explorar enfoques de modernización, rehospedaje, refactorización y reemplazo de aplicaciones ayudarlo a decidir la mejor estrategia para Vamos a sumergirnos en los frutos secos y bolls de factibilidad técnica Evaluar retos técnicos en sistemas heredados. Al considerar la migración a la nube, uno de los primeros pasos es identificar los obstáculos técnicos que podrían ralentizar o complicar el proceso Los sistemas heredados a menudo están profundamente personalizados y optimizados para hardware específico, lo que hace que la migración a la nube sea una tarea compleja. A, código heredado, navegando por lenguajes antiguos. Los mainframes a menudo se basan en código heredado escrito hace décadas en lenguajes como CBO, PL one o ensamblador Estos lenguajes, aunque siguen siendo potentes, no fueron diseñados para entornos en la nube. De hecho, a menudo están estrechamente acoplados al hardware específico en el que se ejecutan, hace que el proceso de moverlos a un entorno de nube virtualizado sea un desafío El desafío, refactorizar el código heredado puede llevar mucho tiempo y ser costoso, especialmente cuando hay una falta de experiencia interna. Encontrar desarrolladores con un profundo conocimiento de estos lenguajes más antiguos también puede ser difícil ya gran parte de estos talentos se acerca a la jubilación Tomemos un ejemplo. El equipo de William podría estar usando un sistema de procesamiento de transacciones basado en CBL que maneja millones de transacciones diariamente Este sistema se ha adaptado al hardware específico del mainframe y moverlo a la nube probablemente requeriría una refactorización extensa para trabajar de manera eficiente en la infraestructura manera eficiente en B, rendimiento, potencia de procesamiento de mainframe coincidente. Mainframes itcell en el manejo de transacciones de alto volumen y alta velocidad Para aplicaciones que procesan miles de transacciones por segundo, el desempeño no es negociable La nube puede escalar para manejar muchas cargas de trabajo, pero garantizar que la infraestructura de la nube pueda igualar la potencia de procesamiento y confiabilidad de un mainframe es una preocupación común El reto, los entornos Cloud utilizan el escalado horizontal. Eso es agregar más servidores, mientras que los mainframes dependen del escalado vertical Eso significa aumentar la potencia de una sola máquina. Esta diferencia en la arquitectura puede generar problemas de rendimiento si la nube está mal optimizada para cargas de trabajo que requieren alto rendimiento y baja latencia Tomemos un ejemplo. Imagine que la organización Williams ejecuta un sistema de pago en tiempo real en el mainframe El sistema procesa miles de transacciones con tarjetas de crédito por segundo. Mover esta carga de trabajo a la nube podría resultar en cuellos de botella en el rendimiento si la infraestructura de la nube no está ajustada para manejar la misma C, compatibilidad del sistema. ¿Puede funcionar con una nube? Otro reto es garantizar que sus sistemas y software existentes sean compatibles con los entornos Cloud. Muchas aplicaciones heredadas están estrechamente integradas con otros sistemas, bases de datos o API que pueden no transferirse fácilmente a plataformas en la nube. El reto, garantizar que todos los sistemas interconectados, por ejemplo, bases de datos o dispositivos externos seguirán funcionando según lo previsto una vez que parte de la infraestructura se traslade a la nube. También puede encontrar dificultades con las licencias de software que no permiten implementaciones basadas en la nube Tomemos un ejemplo. William podría estar administrando un sistema bancario central que se integra con procesadores de pagos de terceros y herramientas de cumplimiento externo. Si estas dependencias no son totalmente compatibles con la nube, la mudanza podría causar interrupciones en las funciones críticas del negocio. Explorando enfoques de modernización. Existen varias estrategias diferentes que puedes usar para modernizar y migrar tus sistemas heredados a la nube Esto va desde el simple realojamiento hasta la rearquitectura completa de aplicaciones. Elegir el enfoque adecuado depende de la complejidad de la aplicación, los requisitos del negocio y la viabilidad técnica. El primero es el rehosting o lo que se llama el enfoque lift and shift Rehsting, también conocido como lift and shift, implica mover aplicaciones a la nube sin realizar cambios significativos en el código Este enfoque suele ser el más rápido y el menos costoso, pero puede que no aproveche al máximo las capacidades de la nube. Es mejor para aplicaciones que no necesitan ser rediseñadas y pueden ejecutarse tal cual en un entorno de nube Rhosting es útil cuando necesitas migrar rápidamente y tener tiempo o presupuesto limitados para cambios importantes Tomemos un ejemplo. La organización Williams podría volver a alojar sus sistemas de procesamiento por lotes en la nube donde no requieren un alto rendimiento o cambios significativos para aprovechar la infraestructura de la nube. Esto permite que la organización se mueva rápidamente evitando una revisión completa de los sistemas En segundo lugar, la refactorización, la optimización para la Nube. refactorización implica modificar la base de código existente ajuste mejor al entorno de la nube Esto le permite optimizar la aplicación para lograr escalabilidad, resiliencia y funciones nativas de Cloud Si bien consume más tiempo que el rehosting, refactorización puede ofrecer beneficios a largo plazo Es mejor para aplicaciones que son críticas para el negocio y necesitan aprovechar las capacidades nativas de la nube, como el escalado automático, redundancia y la optimización de costos Tomemos un ejemplo. Para los sistemas de procesamiento de transacciones Williams, refactorización puede ser necesaria para garantizar que la aplicación pueda escalar en la nube mientras se mantiene un alto rendimiento La aplicación refactorizada podría aprovechar los servicios nativos de la nube como AWS Lambda o funciones sin servidor o Amazon RDS o administración de bases Amazon RDS El tercero es reemplazar o comenzar fresco. En algunos casos, puede tener sentido reemplazar completamente las aplicaciones heredadas. Esto implica construir o adaptar una nueva aplicación nativa en la nube que reemplace al sistema heredado. Si bien esta suele ser la opción más cara y que consume mucho tiempo, puede proporcionar el mayor valor a largo plazo. Es mejor para aplicaciones que son difíciles refactorizar o que ya no satisfacen las necesidades del negocio El reemplazo es ideal cuando una nueva solución puede proporcionar una funcionalidad y un rendimiento significativamente mejorados. Por ejemplo, el equipo de Williams podría considerar reemplazar un sistema de informes interno obsoleto una plataforma de análisis moderna basada en la nube como AWS, Red Shift o Google BigQuery, lo que permite obtener mejores conocimientos, mejorar el rendimiento y reducir dependencia de la tecnología heredada El cuarto es el re plataformas, que está en algún punto intermedio Un enfoque híbrido entre rehosting y refactorización es el re plataformas, donde se realizan algunos pequeños cambios para optimizar la aplicación para la nube sin hacer Esto podría implicar pasar a un servicio administrado en lugar de simplemente migrar la infraestructura Es mejor para aplicaciones que podrían beneficiarse de algunas características nativas de la nube pero que no necesitan una rearquitectura completa. Tomemos un ejemplo. El equipo de William podría reorganizar una base de datos heredada moviéndola a Amazon RDS, un servicio de base de datos administrado Esto reduciría la sobrecarga de administrar la base de datos mientras se beneficiaba de la escalabilidad en la nube Consideraciones clave para cada enfoque. A medida que evalúa si desea realojar, refactorizar o reemplazar sus aplicaciones heredadas, hay varias consideraciones clave a tener en El primero es el marco de tiempo. Rhosting ofrece la ruta de migración más rápida, pero es posible que no brinde los beneficios de rendimiento a largo plazo de la refactorización o sustitución. La refactorización lleva más tiempo, pero optimiza las aplicaciones para la elasticidad y escalabilidad de las nubes El reemplazo requiere una inversión de tiempo significativa ya que las nuevas aplicaciones necesitan ser construidas o adaptadas. Segundo, es costo. Rehosting es el más rentable a corto plazo, pero podría no reducir costos a largo plazo refactorización requiere una inversión inicial en el desarrollo, pero puede generar ahorros operativos significativos en sustitución puede implicar el costo más alto por adelantado, pero puede proporcionar el mayor valor si sistemas heredados se actualizan o se acercan al final de Tercero es el riesgo. Rhosting conlleva el riesgo de la lista ya que no estás cambiando la aplicación, pero puede que no mejore el rendimiento o la seguridad La refactorización introduce cierto riesgo durante el proceso de migración, pero una planificación cuidadosa puede mitigarlo Reemplazar implica el mayor riesgo, ya que está repasando completamente los sistemas en los que el negocio puede confiar La planificación cuidadosa de la transición es fundamental. Los puntos clave de esta lección incluyen uno, los desafíos técnicos como código heredado, los requisitos de rendimiento y la compatibilidad del sistema deben evaluarse antes de migrar a la nube Estos obstáculos pueden afectar la viabilidad de la migración a la nube. Dos, el realojamiento, la refactorización y reemplazo son tres enfoques comunes de modernización, cada uno con diferentes costos, riesgos y plazos Elegir el enfoque adecuado depende de sus necesidades comerciales y técnicas específicas. En tercer lugar, la migración exitosa a la nube requiere una planificación cuidadosa para equilibrar la velocidad, el costo y el rendimiento, asegurando que viabilidad técnica de cada aplicación se evalúe a fondo. Ganar actividad, reflexión. Revisa las aplicaciones que estás considerando para la migración a la nube. ¿Son más adecuados para rehospedar, refactorizar o reemplazar? Considere el tiempo, costo y riesgo involucrados en cada enfoque. Pregunta de discusión, post en el foro. ¿Qué retos técnicos prevé para migrar sus sistemas heredados a la nube ? migrar sus sistemas heredados a la nube ¿Cómo piensa superar estos retos? Siguiente lección, planeación estratégica para la integración en la nube híbrida. En el siguiente módulo, comenzaremos a explorar cómo planificar estratégicamente la integración en la nube híbrida En la lección uno del Módulo tres, aprenderemos a definir metas comerciales y técnicas para adaptación a la nube híbrida y asegurarnos de que su estrategia se alinee con objetivos organizacionales más amplios, como la escalabilidad y que su estrategia se alinee con objetivos organizacionales más amplios, como la escalabilidad Listo para comenzar a construir su estrategia de nube híbrida, continuemos en el Módulo tres y asegurémonos de que su plan de migración se alinee con sus objetivos comerciales. 10. Lección 1: planificación estratégica para la integración de la nube híbrida: Bienvenido al estudio de módulos, diseñando una estrategia y arquitectura de nube híbrida. Este módulo se enfoca en desarrollar una estrategia de nube híbrida a medida. Los estudiantes aprenderán a diseñar entornos híbridos, incluyendo qué servicios hospedar en las instalaciones versus en la nube. También explorarán k patrones de diseño y herramientas para entornos híbridos, enfocándose específicamente en la integración de AWS. Lección uno, planificación estratégica para la integración en la nube híbrida. Bienvenido al Módulo tres de su viaje a la nube híbrida. En este módulo, comenzaremos sentando las bases para una estrategia exitosa de nube híbrida. El primer paso para diseñar una arquitectura de nube híbrida es la planificación estratégica, asegurando que sus objetivos de integración en la nube alineen con sus objetivos generales de negocio. Para alguien como William, nuestro director de infraestructura de TI, esto significa definir objetivos claros sobre cómo la nube híbrida beneficiará a la organización y apoyará tanto las operaciones a corto plazo como el crecimiento a largo plazo. Al final de esta lección, podrá definir objetivos comerciales y técnicos para la adopción de la nube híbrida. Comprender la importancia de alinear su estrategia de nube híbrida con objetivos comerciales más amplios, como la escalabilidad, la innovación y la rentabilidad Definición de objetivos comerciales y técnicos o adopción de la nube híbrida. exitosa estrategia de nube híbrida comienza con una definición clara de sus objetivos comerciales y técnicos. Mudarse a la nube no se trata solo de adoptar nuevas tecnologías. Se trata de asegurarse de que la tecnología respalde misión de su organización y los objetivos a largo plazo. Oye, metas de negocio. ¿Qué quieres lograr? Los objetivos de negocio proporcionan un por qué detrás de su estrategia de nube híbrida. Estos objetivos se centran en lo que la organización espera lograr integrando tecnologías en la nube con sistemas mainframe Aquí hay algunos objetivos comerciales típicos en los que organizaciones como Williams podrían enfocarse. Escalabilidad, es la capacidad de expandir los recursos de TI de manera rápida y rentable a medida que crece el negocio Por ejemplo, durante períodos de altos volúmenes de consacción, como las temporadas de compras navideñas, una nube híbrida puede ayudar a escalar aplicaciones orientadas al cliente al tiempo que mantiene estables las operaciones bancarias centrales en el mainframe Innovación, permitiendo un desarrollo más rápido de nuevos servicios y productos. La nube se puede utilizar como plataforma para experimentar con nuevas tecnologías como el aprendizaje automático, análisis de big data o la cadena de bloques En los servicios financieros, por ejemplo, equipo de Williams podría usar una nube para construir sistemas de detección de fraude impulsados por IA sin interrumpir las operaciones bancarias centrales en el mainframe Eficiencia de costos, equilibrando los costos operativos mientras se mantiene un alto rendimiento. entornos en la nube ofrecen precios bajo demanda, donde solo paga por los recursos que realmente usa, lo que ayuda a evitar el alto costo fijo en los sistemas locales. La organización Williams puede descargar cargas de trabajo no críticas, como procesamiento por lotes, a la nube durante las horas pico, lo que reduce Gestión de riesgos, reduciendo el riesgo operativo, incluido el tiempo de inactividad, fallas del sistema y brechas de seguridad Los modelos de nube híbrida proporcionan opciones de failover donde las cargas de trabajo pueden cambiar entre mainframe in premise y servicios en la nube en caso de emergencia B, metas técnicas. ¿Cómo lo lograrás? Los objetivos técnicos garantizan que su estrategia de nube híbrida sea técnicamente factible y se alinee con su TI existente en la arquitectura Estos objetivos suelen girar en torno rendimiento, la seguridad y la integración Optimización del rendimiento, asegurando que la nube híbrida ofrezca un alto rendimiento tanto para cargas de trabajo basadas en mainframe como para las cargas de trabajo basadas en la nube Para la organización Williams, esto significa asegurarse de que el procesamiento de transacciones en tiempo real continúe funcionando sin problemas en el mainframe mientras aprovecha la nube para análisis y servicios orientados al cliente Seguridad y cumplimiento, manteniendo la seguridad de los datos y asegurando que la nube híbrida cumpla con los requisitos de cumplimiento de la industria como PCIDSS o GDPR La organización Williams debe garantizar que los datos confidenciales de los clientes se mantengan seguros, ya sea que se procesen en el mainframe o se almacenen en la nube Estímulo la integración, asegurando que los entornos mainframe y la nube funcionen juntos sin problemas sin interrumpir las operaciones diarias Esto implica configurar conexiones de red, sincronizar flujos de datos y administrar dependencias de aplicaciones Alineación de la estrategia de la nube híbrida con los objetivos de negocio. Una estrategia de nube híbrida solo puede tener éxito si está alineada con los objetivos comerciales generales de su organización . La nube no es una solución única para todos. Debe diseñarse para satisfacer las necesidades únicas de su negocio, ya sea impulsando el crecimiento, mejorando la experiencia del cliente o reduciendo costos. A, la escalabilidad como ventaja competitiva. Para las empresas que operan en mercados que cambian rápidamente, la escalabilidad es fundamental En los servicios financieros donde fluctúa la demanda de los clientes, contar con una infraestructura escalable es clave para mantenerse competitivo Para la organización Williams, la capacidad de escalar rápidamente con la nube significa que pueden soportar lanzamientos de nuevos productos como una nueva oferta de tarjetas de crédito o absorber picos de tráfico durante el período de alta demanda. Por ejemplo, un banco podría experimentar una actividad superior a lo normal durante un periodo promocional para un nuevo producto. Con la nube híbrida, William puede escalar la infraestructura de la nube para manejar el aumento de la carga sin realizar cambios en el sistema central central central B, innovación a través de la Nube. Las organizaciones que quieren seguir siendo competitivas necesitan innovar La nube ofrece oportunidades para la experimentación rápida y el desarrollo de productos sin poner en riesgo el mainframe Por ejemplo, William podría usar los servicios Cloud para probar nuevas funciones de banca móvil o desarrollar un programa de fidelización de clientes. Un ejemplo, el equipo de William podría decidir implementar un algoritmo de aprendizaje automático en la nube para proporcionar a los clientes información personalizada sobre sus patrones de gasto. Al mantener esta característica innovadora en la nube, el equipo puede moverse rápidamente sin las limitaciones de los sistemas mainframe heredados C, rentabilidad para impulsar el ROI. Los modelos de nube híbrida permiten a las organizaciones enfocarse en la eficiencia de costos, asegurando que los recursos se utilicen donde tengan más sentido. Los servicios en la nube permiten un modelo de pago por uso, mientras que el mainframe maneja cargas de trabajo críticas con tiempo de actividad garantizado. Un ejemplo, la organización Williams podría ejecutar trabajos diarios de procesamiento por lotes en la nube aprovechando costos más bajos y liberando recursos de mainframe para procesamiento en tiempo real Esto reduce los gastos operativos al tiempo que garantiza que los sistemas críticos permanezcan operativos 24 en siete. B, gestión de riesgos y continuidad del negocio. Las estrategias de nube híbrida también ayudan a mejorar la continuidad del negocio al proporcionar una manera de recuperarse rápidamente de desastres o fallas del sistema. Al implementar la nube híbrida, William puede garantizar que si hay un problema con el mainframe local, la nube puede servir como respaldo para mantener las operaciones comerciales Un ejemplo, en caso de un desastre natural afecte al centro de datos que alberga el mainframe, organización de William puede fallar los servicios clave a la Nube, asegurando que los clientes continúen accediendo a servicios esenciales como la banca en línea Pasos para definir una estrategia exitosa de nube híbrida. Para definir de manera efectiva una estrategia de nube híbrida, es importante seguir un enfoque estructurado. Estos son los pasos que William puede tomar, crear un plan estratégico para la adopción de la nube híbrida. Uno, realizar un análisis de las necesidades del negocio. Comprender los objetivos principales de la organización, ya sea crecimiento, ahorro de costos o innovación. Identificar qué cargas de trabajo son más críticas para lograr esos objetivos Dos, establecer objetivos técnicos. Definir las métricas de rendimiento, los requisitos de seguridad y los puntos de integración que guiarán el proceso de migración. Asegúrese de que el entorno de nube híbrida pueda escalar, proteger los datos y mantener un tiempo para las aplicaciones de misión crítica. Tres, desarrollar un plan de implementación por fases. Mueva primero las cargas de trabajo no críticas a la nube, por ejemplo, procesamiento por lotes y análisis de datos, seguido de aplicaciones más complejas y estrechamente acopladas Garantice una transición sin problemas mediante el uso de proyectos piloto para probar qué tan bien funcionan los recursos de la nube con un entorno de mainframe F, monitorear y optimizar continuamente. Una vez que la nube híbrida esté en su lugar, monitoree métricas clave como el rendimiento, costo y la escalabilidad para garantizar que la estrategia permanezca alineada con los objetivos comerciales Refinar y optimizar continuamente el entorno de nube híbrida a medida que el negocio evoluciona Las conclusiones clave de esta lección incluyen lo siguiente Primero, definir objetivos comerciales y técnicos claros es crucial para garantizar que su estrategia de nube híbrida respalde los objetivos de crecimiento, innovación y rentabilidad de su organización . Dos, alinear su enfoque de nube híbrida con objetivos comerciales más amplios garantiza que la nube se utilice estratégicamente para escalar operaciones, impulsar la innovación y administrar riesgos En tercer lugar, una estrategia exitosa de nube híbrida debe ser escalonada, comenzando con cargas de trabajo no críticas y monitoreada continuamente para obtener rendimiento y rentabilidad Ganar actividad, reflexión. Piensa en los objetivos de tu organización. ¿Qué objetivos de negocio estarían mejor respaldados por una estrategia de nube híbrida? Considere áreas como escalabilidad, innovación o ahorro de costos Pregunta de discusión, post en el formulario. ¿Qué objetivos de negocio crees que se deben priorizar a hora de diseñar una estrategia de nube híbrida para tu organización ¿Cómo puede la Nube ayudarte a lograr estos objetivos? Siguiente lección, patrones arquitectónicos para el diseño de Cloud híbrido. En la siguiente lección, exploraremos los diferentes patrones arquitectónicos para el diseño de la nube híbrida. Aprenderá sobre los datos primero, procese primero y los enfoques de levantamiento y cambio, y cómo elegir el patrón adecuado para las necesidades de su organización. Listo para explorar la arquitectura detrás de una exitosa nube híbrida, pasemos a la lección dos del Módulo tres. 11. Lección 2: patrones arquitectónicos para el diseño de nube híbrida: Lección dos, patrones arquitectónicos para el diseño de nubes híbridas. Bienvenido a la lección dos del módulo tres, donde profundizaremos patrones arquitectónicos para el diseño de la nube híbrida. Como director de infraestructura de TI como William, su principal desafío en la modernización de los sistemas heredados y adaptación de las tecnologías en la nube es encontrar el enfoque arquitectónico adecuado No todas las cargas de trabajo y aplicaciones son iguales y sus requisitos comerciales y técnicos dictarán qué arquitectura de nube híbrida es la mejor para su organización Al final de esta lección, comprenderá uno, los tres patrones principales de arquitectura de nube híbrida, los datos primero, el proceso primero y la elevación y el cambio. Dos, cuándo usar cada patrón en función de los objetivos de negocio y las necesidades técnicas de su organización. Esta lección le dará las herramientas para tomar las decisiones arquitectónicas correctas, asegurando que su nube híbrida se integre sin problemas con sus sistemas mainframe mientras admite escalabilidad, innovación y rendimiento Enfoque de datos primero, centralizando la gestión de datos. ¿Cuál es el primer enfoque de datos? El primer enfoque de datos para arquitectura de nube híbrida se centra en centralizar administración de datos mientras se mantiene el procesamiento de aplicaciones tanto en entornos de mainframe como en la nube En este patrón, los datos se almacenan y administran de manera centralizada, ya sea en el mainframe o en la nube y se accede por diversas aplicaciones distribuidas en ambos entornos. Este enfoque a menudo es elegido por organizaciones con datos críticos de misión que deben permanecer altamente seguros y disponibles. En este caso, las aplicaciones están diseñadas para sacar datos de este hub central, ya sea que se estén ejecutando en la nube o en las instalaciones. Cuándo usar el enfoque de datos primero, seguridad de datos y requisitos de cumplimiento. Si su organización trata con datos confidenciales como registros financieros o PII de clientes o información de identificación personal y necesita garantizar la residencia de los datos, mantener los datos centralizados es clave Datos consistentes en todos los sistemas. Este enfoque garantiza que todas las aplicaciones, independientemente de dónde se estén ejecutando, accedan a los mismos datos consistentes. Por ejemplo, si una institución financiera procesa datos de clientes en su mainframe, puede almacenar y administrar esos datos de manera centralizada mientras que los servicios basados en la nube acceden a ellos para análisis en tiempo real Un ejemplo, la institución financiera Williams puede adoptar el enfoque de datos primero si necesita mantener control centralizado sobre los datos transaccionales mientras permite que las aplicaciones en la nube realicen análisis de datos en tiempo real Los datos permanecen en las instalaciones para mayor seguridad, mientras que las aplicaciones Cloud pueden acceder a ellos de forma segura o ejecutar informes o análisis predictivos sin replicar datos en múltiples ubicaciones Ventajas clave del primer enfoque de datos. Uno, mejora de la seguridad de los datos. Los datos confidenciales se controlan centralmente, lo que facilita el cumplimiento de las normas regulatorias. Dos, consistencia. Produce problemas con la duplicación o fragmentación de datos ya que todas las aplicaciones acceden a la misma fuente de vía. Primer enfoque de proceso, optimizando los flujos de trabajo de las aplicaciones. ¿Cuál es el primer enfoque del proceso? En el primer enfoque de procesos, el enfoque cambia de los datos a los procesos de negocio o flujos de trabajo de aplicaciones. Aquí, la carga de trabajo, los procesos o el pase se distribuye entre el mainframe y la nube dependiendo dónde se pueda ejecutar de manera más eficiente El mainframe maneja el procesamiento transaccional de alto volumen de misión crítica, procesamiento transaccional de alto volumen mientras que la nube se utiliza para flujos de trabajo que requieren elasticidad, escalabilidad Este patrón generalmente se adopta cuando las organizaciones desean mantener los sistemas de transacciones principales en el mainframe, pero aprovechan la nube para cargas de trabajo como procesamiento por lotes, aplicaciones orientadas al cliente o análisis de datos Cuándo usar el primer enfoque del proceso. Uno, transacciones de alto volumen. Si su organización depende en gran medida del procesamiento de transacciones en tiempo real, como las transacciones financieras, es posible que desee mantener estos procesos en el mainframe mientras aprovecha la nube para otras tareas Dos, la segmentación del flujo de trabajo, las aplicaciones que se pueden desglosar en flujos de trabajo o tareas más pequeñas, algunas de las cuales pueden ejecutarse en la nube se benefician de este enfoque Tomemos un ejemplo. Williams Bank podría elegir el primer enfoque de proceso para mantener las transacciones bancarias centrales en el mainframe, donde se pueden procesar con la confiabilidad y seguridad requeridas En tanto, las aplicaciones orientadas al cliente, como la aplicación de banca móvil, podrían ejecutarse en la Nube, accediendo a los datos de transacciones desde el mainframe, pero descargando cargas de trabajo menos críticas como la aplicación de banca móvil, podrían ejecutarse en la Nube, accediendo a los datos de transacciones desde el mainframe, pero descargando cargas de trabajo menos críticas a entornos en la nube. Ventajas clave del primer enfoque del proceso. Uno, asignación eficiente de recursos. Cada proceso se ejecuta donde es más eficiente. Las transacciones en tiempo real permanecen en el mainframe mientras la nube maneja cargas de trabajo elásticas Dos, pasado el tiempo de salida al mercado. Las aplicaciones basadas en la nube se pueden actualizar con mayor frecuencia, lo que permite una innovación más rápida sin impactar ni procesar Enfoque de elevación y cambio, migración rápida y sencilla a la nube. ¿Cuál es el enfoque de elevación y cambio? El enfoque de elevación y cambio implica migrar aplicaciones existentes a la nube sin modificar su arquitectura subyacente Este enfoque se usa a menudo para aplicaciones heredadas que necesitan trasladarse rápidamente y con un mínimo esfuerzo a la nube con el objetivo principal de reducir los costos de infraestructura o aprovechar la escalabilidad de la nube Esta es una buena opción para las organizaciones que desean reducir rápidamente su huella en línea o aprovechar los recursos de la nube sin volver a diseñar aplicaciones Cuándo usar el enfoque de elevación y cambio. Uno, se necesitan cambios mínimos. Si su organización tiene cargas de trabajo que se pueden mover a la nube con poca o ninguna modificación, y el objetivo es simplemente reducir los costos operativos Este es un método eficiente. Dos limitaciones de tiempo. Cuando necesite moverse rápidamente, tal vez debido a los plazos de migración del centro de datos o limitaciones de infraestructura, lift and shift puede proporcionar una solución rápida Un ejemplo, el equipo de William podría optar por un ascensor y cambio para cargas de trabajo de procesamiento por lotes no críticas donde la organización puede reducir costos ejecutando estos trabajos en la nube La aplicación en sí no está rediseñada para la nube, sino el entorno existente se replica en una infraestructura basada en la nube como modelo de servicio IAAS Ventaja clave del enfoque de elevación y cambio. Uno, migración rápida. Este es el camino más rápido hacia la migración a la nube porque no es necesario modificar la aplicación. Dos, reducir el riesgo. Al mantener la arquitectura de la aplicación, reduce el riesgo de introducir nuevos errores o problemas de rendimiento durante la migración. Analizar cuándo usar cada patrón. El patrón de arquitectura de nube híbrida adecuado depende de sus objetivos comerciales, necesidades técnicas y limitaciones de recursos. Analicemos cómo decidir qué enfoque es el mejor para diferentes escenarios. , use el enfoque de datos primero cuando uno, seguridad de los datos y el cumplimiento son sus principales preocupaciones. Dos, su aplicación necesita un acceso consistente y centralizado a datos críticos. Dos, use el enfoque de proceso primero cuando desee optimizar los flujos de trabajo ejecutando diferentes procesos en la nube y en las instalaciones. Cuando la escalabilidad y la elasticidad son importantes para tareas no críticas, pero las transacciones centrales deben permanecer en el mainframe Tres, utilice el enfoque de lista y turno cuando necesite migrar rápidamente con cambios mínimos en las aplicaciones existentes. Cuando el objetivo es reducir los costos de infraestructura sin refactorizar la aplicación. Los puntos clave de esta lección incluyen, uno, el enfoque de los datos primero se centra en centralizar los datos al tiempo que permite que las aplicaciones en ambos entornos accedan a esos datos, lo que garantiza la seguridad y la consistencia segundo lugar, el enfoque de proceso primero optimiza los flujos de trabajo de las aplicaciones, permitiendo que las tareas de misión crítica permanezcan en las instalaciones mientras se descarga otros procesos a la nube tres, el enfoque de elevación y cambio es ideal para una migración rápida, moviendo las aplicaciones existentes a la nube sin modificar su arquitectura. Ganar actividad, reflexión. Revise sus cargas de trabajo y procesos actuales. Qué patrón de nube híbrida, datos primero, proceso primero o elevación y cambio serían los que mejor respaldarían las necesidades de su organización. ¿Por qué? Pregunta de discusión planteada en el foro. Qué patrón de arquitectura de nube híbrida crees que proporcionaría el valor más inmediato a tu organización? ¿Cuáles son los riesgos o desafíos potenciales en la implementación de ese enfoque? Siguiente lección, colocación de carga de trabajo híbrida. En la siguiente lección, discutiremos cómo determinar qué aplicaciones y servicios deben permanecer en las instalaciones frente a en la nube. Aprenderá a analizar las características de la carga de trabajo, como los requisitos de latencia, las preocupaciones de cumplimiento y las necesidades de rendimiento para tomar decisiones informadas. Preparados para profundizar en las ubicaciones de cargas de trabajo híbridas, pasemos a la lección tres y exploremos cómo decidir a dónde pertenecen sus aplicaciones 12. Lección 3: colocación de cargas de trabajo híbridas: Lección tres, colocación híbrida de la carga de trabajo. Bienvenido de nuevo al Módulo tres de nuestro curso sobre el diseño de la estrategia de Nube Híbrida. En las lecciones anteriores, exploramos diferentes patrones arquitectónicos y estrategias para integrar sus entornos mainframe y cloud. Hoy en la Lección tres, nos sumergiremos en uno de los aspectos más cruciales del diseño de la nube híbrida. Colocación de cargas de trabajo híbridas. Como director de infraestructura de TI como William, necesita tomar decisiones informadas sobre qué aplicaciones y servicios deben permanecer en las instalaciones su mainframe y cuáles deben trasladarse a la nube No todas las cargas de trabajo son adecuadas para la nube y una ubicación incorrecta puede generar problemas de rendimiento, riesgos de seguridad e ineficiencias de costos La clave es comprender las características de la carga de trabajo de las decisiones de colocación de unidades. Al final de esta lección, sabrá cómo evaluar las características de la carga de trabajo, como la latencia, cumplimiento y los requisitos de rendimiento, para determinar la mejor ubicación para cada carga de trabajo. Dos, decidir si una aplicación o servicio debe permanecer en las instalaciones o migrarse a la nube Empecemos. Comprender las características de la carga de trabajo. Antes de decidir dónde colocar una carga de trabajo, es necesario analizar sus características clave. Estas características le ayudarán a evaluar si una aplicación debe permanecer en su mainframe o trasladarse a la nube A, latencia, ¿qué tan sensible es su carga de trabajo a los retrasos? latencia se refiere al tiempo que tardan los datos en viajar entre diferentes sistemas o aplicaciones. Para ciertas aplicaciones, incluso un ligero retraso puede causar problemas importantes, particularmente aquellos que requieren procesamiento en tiempo real. Cargas de trabajo sensibles a alta latencia. Estas cargas de trabajo exigen rendimiento en tiempo real o casi en tiempo real Por ejemplo, en los servicios financieros, los sistemas de procesamiento de transacciones son sensibles a la latencia. Si un cliente realiza un pago con tarjeta de crédito, el sistema debe procesar la transacción instantáneamente. Para estos tipos de cargas de trabajo, mantenerlas en el mainframe suele ser la mejor opción para garantizar una baja latencia y una alta confiabilidad Cargas de trabajo tolerantes a baja latencia. Otras cargas de trabajo, como el análisis de datos o el procesamiento por lotes, pueden tolerar latencias más altas Estos procesos no requieren retroalimentación inmediata y se pueden realizar en horas fuera de pico, lo que los convierte en buenos candidatos para la nube donde se pueden escalar de manera eficiente Un ejemplo, el equipo de William maneja la detección de fraude en tiempo real en su computadora central, ya que cualquier retraso en la identificación actividades fraudulentas podría resultar en pérdidas financieras significativas Sin embargo, el sistema de informes de fin de día del banco, que agrega datos de transacciones y genera informes, puede ejecutarse con unos minutos o incluso horas de latencia, lo que lo convierte en un candidato perfecto para la migración a la nube. B, cumplimiento. ¿Existen restricciones regulatorias? En industrias como las finanzas, la atención médica y el gobierno, el cumplimiento juega un papel importante en la determinación de dónde se pueden colocar las cargas Las regulaciones pueden requerir que ciertos datos permanezcan en las instalaciones para garantizar la residencia, seguridad o privacidad de los datos. Cargas de trabajo sensibles y reguladas. Las cargas de trabajo que manejan información de identificación personal o PII, datos financieros o registros de salud a menudo necesitan permanecer en las instalaciones debido a regulaciones estrictas como PCIDSS, HIPAA Estas regulaciones pueden dictar dónde se pueden almacenar los datos, quién puede acceder a ellos y cómo se protegen En tales casos, puede ser necesario almacenar datos en su mainframe o nube privada para garantizar el cumplimiento Cargas de trabajo no reguladas. Por otro lado, las cargas de trabajo que no involucran datos confidenciales normalmente se pueden migrar a la nube pública Esto puede incluir aplicaciones orientadas al cliente, análisis de marketing o plataformas internas de inteligencia de negocios. Tomemos un ejemplo. En Williams Financial Institution, información de la cuenta del cliente debe permanecer en el mainframe para cumplir con las regulaciones PCI DSS Garantizar que los datos se mantengan seguros y cumplan con los requisitos de residencia. Sin embargo, los datos de análisis del comportamiento del cliente despojados de PII, se pueden procesar en la nube para obtener información sobre los patrones y tendencias de gasto de los clientes C, requisitos de desempeño. ¿Qué recursos necesitan sus aplicaciones? diferentes cargas de trabajo requieren diferentes niveles de potencia informática, memoria y almacenamiento Evaluar los requisitos de desempeño de sus aplicaciones es esencial para determinar dónde funcionarán mejor. Cargas de trabajo de alto rendimiento. Las aplicaciones que requieren un procesamiento de alto rendimiento o un tiempo de actividad garantizado suelen ser las más adecuadas para mainframes Estos sistemas están diseñados para cargas de trabajo de misión crítica que exigen 99 que triplican 9% disponibilidad y un sólido procesamiento de transacciones Cargas de trabajo escalables. Las cargas de trabajo que requieren escalado elástico como aplicaciones web o trabajos por lotes estacionales se benefician de la escalabilidad de las nubes La nube puede proporcionar recursos bajo demanda, lo que le permite escalar durante períodos de uso pico y reducir la escala durante tiempos más lentos, lo que ayuda a optimizar los costos. Tomemos un ejemplo. El equipo de Williams ejecuta procesamiento de transacciones en tiempo real en el mainframe, ya que requiere un procesamiento rápido con alta disponibilidad Sin embargo, la aplicación móvil orientada al cliente del banco, que ve el tráfico variable se ejecuta en la nube, donde puede escalar de forma automática durante períodos ocupados como durante las promociones sin poner estrés en el mainframe Decidir sobre las instalaciones frente a la nube, consideraciones clave. Ahora que entendemos las características de la carga de trabajo, exploremos cómo decidir dónde debe colocarse cada carga de trabajo. A, aplicaciones que deben permanecer en las instalaciones. Ciertas cargas de trabajo siempre serán más adecuadas para permanecer en su mainframe Estas incluyen una, transacciones de misión crítica. Cualquier aplicación que maneje procesamiento de transacciones en tiempo real, como redes ATM, pasarelas de pago o plataformas de negociación financiera debe permanecer en el mainframe donde la latencia es mínima y el tiempo de actividad Dos cargas de trabajo altamente reguladas. Las aplicaciones que manejan datos confidenciales de los clientes como el procesamiento de tarjetas de crédito o los registros médicos, están sujetas a restricciones regulatorias deben permanecer en instalaciones para garantizar la seguridad y el cumplimiento de los datos. Tres, procesamiento de alto rendimiento. Las cargas de trabajo que requieren una potencia informática significativa para un procesamiento rápido de datos, como la detección de fraudes en tiempo real deben permanecer en el mainframe, que está diseñado para manejar altos volúmenes de transacciones con una latencia mínima B, aplicaciones que deberían trasladarse a la nube. Otras cargas de trabajo son más adecuadas para la nube. Estos incluyen, uno, procesamiento por lotes no críticos. Las aplicaciones que realizan procesamiento por lotes como informes de fin de día o grandes agregaciones de datos, se pueden mover a la nube, donde se pueden programar durante las horas pico y escalarse según Dos, análisis de datos y aprendizaje automático. Las cargas de trabajo que involucran análisis de datos, inteligencia de negocios o aprendizaje automático se pueden migrar a la nube para aprovechar la escalabilidad y el poder de cómputos de plataformas en la nube como AWS Tres, aplicaciones web orientadas al cliente. Las aplicaciones como las aplicaciones de banca móvil o los portales de atención al cliente son muy adecuadas para la nube, donde pueden escalar durante períodos de alta eficiencia e integrarse con servicios de backend que se ejecutan en el Tomemos un ejemplo. Williams Bank mantiene los sistemas bancarios principales, como procesamiento de pagos, en el mainframe para garantizar el rendimiento y el cumplimiento, mientras que los servicios de banca móvil se ejecutan en la nube para manejar la demanda fluctuante, la demanda fluctuante de los usuarios , lo que garantiza el mejor rendimiento y escalabilidad del mundo Mejores prácticas para la colocación de cargas de trabajo híbridas. hora de determinar la ubicación de la carga de trabajo, es esencial seguir algunas de las mejores prácticas. Uno, evaluar la latencia y la sensibilidad de rendimiento. Siempre priorice las aplicaciones sensibles a la latencia para la infraestructura in situ, mientras que cargas de trabajo menos sensibles o menos sensibles al tiempo se pueden descargar a la nube. Dos, evaluar el cumplimiento y la seguridad. Asegúrese de que los datos deben cumplir con las regulaciones de la industria permanecen en las instalaciones, mientras que los datos menos confidenciales se pueden mover a la nube. Tres, aproveche la nube para mayor flexibilidad. Utilice la nube para cargas de trabajo escalables como aplicaciones orientadas al cliente, análisis de datos y procesamiento por lotes, donde la elasticidad y la rentabilidad son clave Tomemos un ejemplo. organización Williams utiliza estas mejores prácticas para determinar qué cargas de trabajo mantener en el mainframe, como el procesamiento de transacciones de alto rendimiento y cuáles migrar a la nube, como el procesamiento por lotes no críticos y el análisis de clientes, lo que garantiza un equilibrio entre seguridad, rendimiento y escalabilidad Los puntos clave de esta lección incluyen uno, cargas de trabajo sensibles a la latencia y de misión crítica, como procesamiento de transacciones, deben permanecer en el mainframe para un rendimiento de baja latencia y alta confiabilidad Dos cargas de trabajo sensibles conformes, particularmente aquellas sujetas a estrictos requisitos reglamentarios, deben permanecer en las instalaciones, mientras que las cargas de trabajo no reguladas pueden trasladarse a la nube Tres, use la nube para cargas de trabajo escalables no críticas, como aplicaciones orientadas al cliente y análisis de datos donde la elasticidad y la optimización de costos son clave Ganar actividad, reflexión, evaluar las cargas de trabajo en su organización Que son sensibles a la latencia y cumplimiento pesado y deben permanecer en las instalaciones. Lo que podría beneficiarse de la escalabilidad de las nubes y la rentabilidad Pregunta de discusión planteada en el foro. ¿Cómo determina actualmente su organización si una carga de trabajo debe permanecer en las instalaciones o trasladarse a la nube? ¿Cuáles son los principales factores que influyen en estas decisiones? Siguiente lección, Selección de servicios en la nube. En la siguiente lección, discutiremos cómo seleccionar los servicios Cloud adecuados o su estrategia de nube híbrida. Aprenderá a elegir entre proveedores como AWS, Azure y Google Cloud y explorar el papel de las herramientas nativas de la nube como contenedores, microservicios y arquitecturas de listas de servidores en Emocionados por aprender más sobre cómo elegir los servicios en la nube adecuados, vamos a sumergirnos en la Lección cuatro y explorar cómo hacer la mejor selección para su entorno de nube híbrida. Um, 13. Lección 4: selección de servicios en la nube: Lección cuatro, Selección de servicios en la nube. Bienvenido a la lección cuatro del Módulo tres. En esta lección, vamos a explorar cómo seleccionar los servicios Cloud adecuados para su arquitectura de nube híbrida. Como director de infraestructura de TI como William, seleccionar la plataforma Cloud adecuada es una de las decisiones más importantes que tomará durante el viaje de modernización de la nube de su organización. Deberá comprender cómo los servicios de AWS, Microsoft Azure o Google Cloud se alinean con las necesidades de su organización y cómo las herramientas nativas de la nube como contenedores, microservicios y arquitecturas sin servidores se pueden aprovechar Al final de esta lección, podrá seleccionar los servicios Cloud adecuados para su caso de uso y objetivos de rendimiento. Dos, comprenda cómo integrar herramientas nativas de la nube como contenedores, microservicios y arquitecturas menos de servidores en su entorno de nube híbrida Vamos a sumergirnos. Seleccionar la plataforma Cloud adecuada, AWS, Azure o Google Cloud. Los tres principales proveedores de Cloud, Amazon Web Services o AWS, Microsoft Azure y Google Cloud Platform o GCP, ofrecen cada uno una amplia gama de servicios, pero sus fortalezas difieren ligeramente según las necesidades específicas de su organización Elegir la plataforma adecuada para su arquitectura de nube híbrida dependerá de sus requisitos de carga de trabajo, objetivos de rendimiento e infraestructura existente. A, Amazon Web Services o AWS, el líder en Cloud. AWS es ampliamente considerado el líder del mercado en servicios en la nube que ofrece una amplia gama de herramientas y servicios para casi cualquier caso de uso. AwuseCels ofrece soluciones flexibles y escalables para empresas de todos los tamaños y es una excelente opción para las empresas que buscan aprovechar un sólido conjunto Fortalezas. AWS es conocida por su escalabilidad, amplio conjunto de herramientas y su deseo global Cuenta con un mercado masivo de servicios y herramientas en la nube, que incluyen potencia informática, bases de datos y almacenamiento de datos. AWS también se integra bien con entornos híbridos a través de servicios como AWS Outpost, que llevan servicios nativos de AWS a su entorno local Mejores casos de uso. AWS es ideal para organizaciones que necesitan escalabilidad, tienen operaciones globales o requieren herramientas específicas como capacidades de AI ML, servicios IOT o análisis de big data Tomemos un ejemplo. La organización Williams podría elegir AWS si está buscando escalabilidad para las aplicaciones nativas de la nube como su aplicación de banca móvil, o para aprovechar herramientas de big data de AWS para analizar los datos de transacciones de los clientes Microsoft Azure lo mejor para la integración híbrida. Microsoft Azure es conocido por su profunda integración con sistemas locales y aplicaciones empresariales, particularmente para empresas que ya cuentan con una infraestructura basada en Windows. Azure se ha convertido en un fuerte competidor en el espacio de la nube, especialmente para las configuraciones de nube híbrida, gracias a sus robustas herramientas de integración híbrida Fuerza Azure es fuerte en entornos de nube híbrida, ofreciendo servicios como Azure arc para administrar tanto en la nube como en las recursos tanto en la nube como en las instalaciones desde un solo plano de control. Su estrecha integración con productos de Microsoft como Active Directory, Window Server y SQL Server hace de Azure una opción convincente para las organizaciones que ya confían en las tecnologías de Microsoft. Mejores casos de uso. Azure es ideal para empresas que buscan extender sus entornos Microsoft locales existentes a la nube, como aquellos que utilizan aplicaciones basadas en web u Office 365. También es un fuerte contendiente para las industrias que necesitan capacidades de nube híbrida para administrar tanto en entornos prem como en la nube Tomemos un ejemplo. Para William, si su institución financiera depende en gran medida de la infraestructura basada en Windows y el directorio activo, Azure sería una excelente opción para administrar su entorno híbrido y garantizar una integración perfecta entre sus aplicaciones mainframe y en la nube Google Cloud Platform o GCP, el innovador en datos e IA Google Cloud es mejor conocido por su liderazgo en análisis de datos, aprendizaje automático e inteligencia artificial. servicios en la nube de Google proporcionan una gama de herramientas Los servicios en la nube de Google proporcionan una gama de herramientas altamente optimizadas para procesamiento y análisis de datos, lo que los convierte en una opción sólida para las organizaciones que buscan aprovechar tecnologías de vanguardia. Fortalezas. GCP sobresale en gestión de datos, analítica y aprendizaje automático Servicios como Big Query, Flujo de datos y AutoML convierten a GCP en la plataforma ideal para cargas de trabajo pesadas de datos e innovación impulsada por IA GCP también es conocido por sus herramientas amigables para desarrolladores e integraciones de código abierto como Mejores casos de uso. Google Cloud es mejor para empresas enfocadas en análisis de datos, proyectos de AI ML o procesamiento de datos en tiempo real. Su flexibilidad y soporte de código abierto lo convierten en una excelente opción para las empresas que buscan innovar rápidamente Tomemos un ejemplo. El equipo de Williams puede elegir GCP si están enfocados en el análisis de big data o planean implementar modelos avanzados de aprendizaje automático para proporcionar información a partir de los datos de los clientes Las herramientas de APs ayudarían al banco a analizar grandes cantidades de datos de transacciones de clientes para marketing personalizado y detección de fraude. Herramientas nativas en la nube para entornos híbridos. En una arquitectura de nube híbrida, es crucial aprovechar las herramientas nativas de la nube que ofrezcan flexibilidad, escalabilidad y eficiencia Haga clic en tres tecnologías nativas clave en la nube son contenedores, microservicios y arquitecturas sin servidor Estas herramientas están diseñadas para mejorar la agilidad y el rendimiento en un entorno híbrido, lo que permite una integración perfecta entre sus sistemas mainframe locales y los servicios en la nube A, contenedores, portabilidad y consistencia. Los contenedores, como los administrados por Docker y orquestados por Kubernetis, permiten empaquetar aplicaciones con sus Los contenedores son portátiles, ligeros y permiten una operación consistente en diferentes entornos, ya sea en las instalaciones o en la nube. Fortalezas. Los contenedores proporcionan portabilidad y facilitan el movimiento de aplicaciones entre la nube y su entorno de mainframe También promueven la escalabilidad al permitir que los desarrolladores implementen actualizaciones rápidamente sin afectar el sistema en general Mejores casos de uso. Los contenedores son ideales para organizaciones formadas para implementar aplicaciones en múltiples entornos o necesitan escalar microservicios dinámicamente Son especialmente útiles para aplicaciones nativas de Cloud o aplicaciones que necesitan migrarse incrementalmente a la Un ejemplo, el equipo de Williams podría usar Kubernetes para administrar contenedores para su aplicación bancaria orientada al cliente, asegurando que puedan implementar fácilmente actualizaciones en la nube mientras mantienen los servicios bancarios principales en Microservicios, dividiendo las aplicaciones en servicios independientes más pequeños Una arquitectura de microservicios divide las aplicaciones en pequeños servicios independientes que se comunican a través de API Cada microservicio se puede desarrollar, implementar y escalar de forma independiente, y escalar de forma independiente, mejorando la agilidad y la tolerancia a fallas Fortalezas, los microservicios ofrecen flexibilidad y escalabilidad, permitiendo a las organizaciones actualizar o escalar servicios específicos sin afectar a toda la aplicación Esta arquitectura es ideal para entornos híbridos donde ciertos microservicios pueden ejecutarse en las instalaciones y otros en la nube Mejores casos de uso. Los microservicios son ideales para aplicaciones que requieren actualizaciones frecuentes o se componen de muchas funciones independientes A menudo se utilizan en desarrollos nativos de la nube para mejorar el rendimiento y la confiabilidad. Tomemos un ejemplo. El equipo de Williams podría usar microservicios, dividir su plataforma de banca en línea servicios más pequeños, como inicio de sesión, administración de cuentas e historial de transacciones Algunos microservicios pueden ejecutarse en la nube mientras que otros, como el procesamiento de pagos, permanecen en el mainframe Arquitectura sin servidor, paga solo por lo que uses. arquitectura sin servidor elimina la necesidad administrar servidores subyacentes Con plataformas menos servidor como AWS Lambda, funciones de Azure o funciones de Google Cloud, se escribe código que se ejecuta en respuesta a eventos y el proveedor de Cloud administra los recursos de escalado de infraestructura automáticamente en función de la demanda. Fortalezas, Server LS ofrece ahorro de costos y escalabilidad automática, ya que solo paga por los recursos que usa cuando se ejecuta la función Es perfecto para manejar tareas impulsadas por eventos y operaciones de corta duración que no requieren infraestructura de funcionamiento continuo. Mejores casos de uso. La arquitectura sin servidor es adecuada para aplicaciones impulsadas por eventos, como procesar transacciones, responder a eventos de usuario o activar acciones basadas en llamadas a la API Tomemos un ejemplo. La organización Williams podría usar AWS Lambda para manejar tareas específicas como activar notificaciones cuando un usuario realiza ciertas acciones en la aplicación de banca móvil o ejecutar código sin servidor para manejar alertas de detección de fraude en tiempo real Mejores prácticas para la selección de servicios en la nube en entornos híbridos. Al seleccionar servicios en la nube para un entorno híbrido, es esencial alinear sus elecciones con sus objetivos comerciales y requisitos técnicos. Estas son algunas de las mejores prácticas a seguir. Uno, evaluar las capacidades de integración. Elija una plataforma en la nube que se integre bien con su mainframe existente y los sistemas locales Los servicios como los puestos avanzados de AWS o el arte de Azure están diseñados para proporcionar una integración perfecta entre los entornos Cloud y locales. Dos, priorizar la seguridad y el cumplimiento. Asegúrese de que los servicios en la nube que elija cumplan con los requisitos de cumplimiento de su industria. Por ejemplo, si estás en finanzas, lidera servicios que cumplen con PCI DSS o GDPR Tres, aproveche las herramientas nativas de Cloud. Incorpore contenedores, microservicios y arquitecturas sin servidores para maximizar escalabilidad y la agilidad en su Estas herramientas están diseñadas para mejorar el rendimiento de las aplicaciones, la portabilidad y la velocidad de implementación Tomemos un ejemplo. William Stein puede usar contenedores ubernatsp y AWS Lambda para funciones sin servidor para garantizar que su entorno de nube híbrida siga siendo escalable, ágil Al aprovechar las mejores herramientas nativas de la nube, pueden garantizar que sus servicios en la nube integren sin problemas con su infraestructura de mainframe Los puntos clave de esta lección incluyen uno, AWS, Azure y GCP, cada uno tiene fortalezas dependiendo de los objetivos de su organización AWS es lo mejor para la escalabilidad, Azure para la integración híbrida y GCP para análisis de datos e IA Dos, las herramientas nativas de la nube como contenedores, microservicios y arquitecturas sin servidor son clave para mejorar la escalabilidad, la portabilidad y la agilidad en entornos Tres, al elegir los servicios en la nube, asegúrese de que se integren bien con sus sistemas locales, cumplan con los requisitos de seguridad y cumplimiento y respalden sus objetivos de rendimiento. Actividad de aprendizaje, reflexión. Considera los objetivos de tu organización. ¿Qué plataforma Cloud, AWS, Azure o GCP crees que se alinea mejor con tu estrategia de nube híbrida ¿De qué manera las herramientas Cloud Native como los contenedores o el servidor menos ayudarían a mejorar el rendimiento de su aplicación? Pregunta de discusión planteada en el foro. ¿Cuáles son los factores clave que considera su organización a la hora de seleccionar los servicios Cloud para entornos híbridos? ¿Cómo planea aprovechar las herramientas nativas de la nube como microservicios o contenedores en su estrategia Siguiente lección, desarrollar una estrategia de migración de datos. En el siguiente módulo, cambiaremos nuestro enfoque hacia la migración datos y aplicaciones a la nube En la lección uno del Módulo cuatro, exploraremos cómo desarrollar una estrategia de migración de datos, incluida la elección entre diferentes métodos de migración. Por ejemplo, big bang versus migración base y entender los pros y los contras. Listo para planificar su migración a la nube. Continuemos en el Módulo cuatro y comencemos a construir su estrategia de migración de datos. Um, 14. Lección 1: desarrollo de una estrategia de migración de datos: Módulo cuatro, migración de datos y aplicaciones a la Nube En este módulo, los alumnos aprenderán el proceso de migración de datos, aplicaciones y cargas de trabajo de mainframes a Cubre las mejores prácticas para la migración segura de datos, minimizando el tiempo de inactividad y manteniendo la integridad de los datos durante el proceso de migración. las herramientas y técnicas de migración del mundo real También se explorarán las herramientas y técnicas de migración del mundo real. Lección uno, desarrollar una estrategia de migración de datos. Bienvenido al Módulo cuatro, donde iniciamos el proceso crítico de migración de datos y aplicaciones a la nube En esta primera lección, nos centraremos en desarrollar una estrategia sólida de migración de datos. Para alguien como William, un director de infraestructura de TI, encargado de modernizar los sistemas mainframe heredados, tener una estrategia clara de migración de datos es esencial para garantizar una transición fluida a Ya sea que esté moviendo grandes cantidades de datos confidenciales de clientes o migrando aplicaciones, la estrategia correcta puede ayudarlo a minimizar el tiempo de inactividad, mitigar el riesgo y garantizar la integridad de los datos Al final de esta lección, comprenderá los componentes clave de un plan de migración de datos. Dos, ser capaz de evaluar diferentes métodos de migración como big bang y enfrentar la migración y comprender las ventajas y desafíos de cada uno. Empecemos. Comprender los fundamentos de un plan de migración de datos Una estrategia de migración de datos es un plan para mover datos de un entorno a otro, ya sea de su mainframe local a la nube o entre diferentes servicios en la nube Una estrategia exitosa garantiza que la migración se complete tiempo con una interrupción mínima e integridad de datos intacta. A continuación se detallan los elementos clave a incluir en tu plan. A, definiendo tus metas migratorias. Antes de comenzar tu migración, necesitas tener una comprensión clara de tus objetivos. ¿Qué quieres lograr con esta migración? Mejora del desempeño. ¿Está migrando para mejorar el rendimiento de las aplicaciones o reducir la latencia Escalabilidad. ¿Está moviendo datos a la nube para escalar las operaciones a medida que aumenta la demanda? Optimización de costos. ¿Está buscando reducir los costos de infraestructura trasladando datos no críticos a la nube? Estos objetivos darán forma a su estrategia general y dictarán qué datos se priorizan durante la migración Tomemos un ejemplo. Para el equipo de William, el objetivo podría ser descargar datos no críticos como registros históricos de transacciones de clientes a la nube para almacenamiento a largo plazo mientras se mantienen datos de transacciones en tiempo real en el mainframe por B, inventario y evaluación de datos. Una vez que defina sus objetivos, debe realizar un inventario completo de sus datos. Este paso implica identificar qué datos deben migrarse, su ubicación actual, tamaño, formato y dependencias Pregúntese, ¿qué conjuntos de datos son críticos para la misión y deben migrarse primero? ¿Hay alguna dependencia de datos entre aplicaciones que deba considerarse? ¿Cuál es el volumen de datos? ¿Estás migrando gigabytes, terabytes o parabitos Evaluar el formato de los datos. Por ejemplo, estructurados, no estructurados y de calidad, mala calidad de los datos pueden complicar el proceso de migración Por lo tanto, considere limpiar los datos antes de migrarlos para garantizar la precisión y consistencia. Tomemos un ejemplo. En un entorno bancario, William podría descubrir que algunos datos, como la PII del cliente, requieren medidas de cifrado adicionales, mientras que los datos de archivo no confidenciales se pueden transferir más fácilmente Planeación para tiempos de inactividad y gestión de riesgos. Una parte clave de su estrategia es planificar el tiempo de inactividad potencial durante el proceso de migración. Dependiendo del método que elija, algunos tiempos de inactividad pueden ser inevitables Para mitigar esto, es necesario identificar datos de alto riesgo que podrían afectar las operaciones si no están disponibles. Programe la migración durante periodos de poco tráfico para minimizar las interrupciones. Contar con un plan de contingencia en caso que la migración encuentre problemas como pérdida de datos o corrupción Al planificar cuidadosamente las ventanas de tiempo de inactividad y crear copias de seguridad, puede reducir el riesgo de interrupción de las operaciones comerciales. Un ejemplo, William podría programar la migración de datos de servicio al cliente no críticos durante las horas pico para minimizar el impacto en las aplicaciones orientadas al cliente. Explorando métodos de migración de datos, big bang versus migración de fase. Hay dos métodos primarios de migración de datos, Big Bang y migración de fase. Cada método tiene sus ventajas y desafíos, y el adecuado para su organización dependerá de factores como el volumen de datos, complejidad y la tolerancia al riesgo. Migración Big Bang, moviendo todo a la vez. En una migración Big Bang, todos los datos se migran a la vez, normalmente dentro de un corto período de tiempo. Este método es rápido y se puede completar rápidamente si el volumen de datos es manejable Sin embargo, requiere una planificación y preparación minuciosas para evitar problemas, ya que puede llevar a un tiempo de inactividad significativo y arriesgar si algo sale mal. Ventajas. Rápido. Toda la migración ocurre dentro de un solo evento, minimizando el cronograma general. Menos complejidad con un solo proceso de migración para administrar, no tiene que manejar múltiples fases. Desafíos, riesgo de tiempo de inactividad. Un enfoque de big bang a menudo da como resultado un tiempo de inactividad más prolongado, lo que puede interrumpir las operaciones, todo o nada. Si surge algún problema durante la migración, puede afectar a todos los datos, lo que lleva a una posible pérdida o corrupción de datos. Tomemos un ejemplo. La organización Williams podría usar una migración Big Bang para un conjunto de datos relativamente pequeño, como mover los registros financieros de archivo al sistema de almacenamiento en la nube donde inactividad no afectaría las operaciones críticas. Migración de fase, transición gradual de control. Una migración de fase extiende el proceso de migración en múltiples etapas, a menudo migrando cargas de trabajo o conjuntos Este método es más manejable para grandes entornos complejos donde minimizar el riesgo y mantener las operaciones continuas son prioridades clave Ventajas, menor riesgo. Al migrar los datos por fases, se reduce la probabilidad de fallas críticas que afecten a todo el sistema. Tiempo de inactividad limitado. Dado que la migración es gradual, es más fácil administrar el tiempo de inactividad en pequeños incrementos, limita las interrupciones operativas. Reversión más fácil Si hay problemas con una fase específica, es más fácil retroceder sin afectar toda la migración. Desafíos, cronograma extendido. Las migraciones de fases tardan más en completarse y requieren una cuidadosa coordinación entre fases Complejidad. La administración de múltiples fases de migración aumenta la complejidad operativa, requiriendo mucha atención a los detalles. Tomemos un ejemplo. La institución financiera Williams podría optar por una migración de fase para mover gradualmente las aplicaciones de ritmo a la nube mientras mantiene los sistemas críticos como procesamiento de pagos en el mainframe durante el período de transición Esto garantiza un tiempo de inactividad mínimo para los clientes. Consideraciones clave a la hora de elegir un método de migración. Al decidir entre el big bang y la migración de fase, considere los siguientes factores. Volumen de datos. Los grandes volúmenes de datos son más adecuados para la migración de fases, mientras que los conjuntos de datos más pequeños pueden ser manejables con un enfoque de Big Bang Complejidad. Las arquitecturas de datos complejas con muchas dependencias se migran mejor en fases para garantizar que nada se interrumpa Tolerancia al tiempo de inactividad. Si su organización no puede permitirse un tiempo de inactividad significativo, la migración de fases es la mejor opción. Para los sistemas donde el tiempo de inactividad es menos crítico, una migración Big Bang podría ser más rápida. Tolerancia al riesgo. migración de fases reduce el riesgo general, especialmente para las organizaciones que manejan datos confidenciales o sistemas de misión crítica. Las conclusiones clave de esta lección incluyen, una, una estrategia sólida de migración de datos que es esencial para garantizar que sus datos se transfieran forma segura a tiempo y con una interrupción mínima Dos, la migración Big Bang ofrece un enfoque rápido, todo a la vez, pero viene con un mayor riesgo y el potencial inactividad, mientras que la migración de fase proporciona más control y menor riesgo, pero tarda más en completarse. Tres, factores como el volumen de datos, la complejidad y la tolerancia al tiempo de inactividad deben guiar su decisión al seleccionar el método de migración adecuado. Ganar actividad, reflexión. Considere las necesidades de migración de datos de su organización. ¿Es un big bang o migración de fase más adecuado para sus cargas de trabajo actuales y objetivos operativos? ¿Por qué? Pregunta de discusión planteada en el foro. ¿Cómo planifica su organización el tiempo de inactividad durante una migración? ¿Has vivido retos en una migración previa, qué se podría haber hecho de manera diferente? Siguiente lección, herramientas y técnicas de migración de datos. En la siguiente lección, exploraremos las herramientas y técnicas disponibles para ayudarle a ejecutar su estrategia de migración de datos. Veremos las herramientas de migración como AWS Direct Connect, las VPN y las soluciones de terceros, así como cómo transferir datos de forma segura desde su mainframe a entornos de nube Listo para comenzar a construir su kit de herramientas de migración. Pasemos a la lección dos del Módulo cuatro. 15. Lección 2: herramientas y técnicas de migración de datos: Y Lección dos, herramientas y técnicas de migración de datos. Bienvenido a la Lección Dos del Módulo Cuatro. Exploraremos las herramientas y técnicas disponibles para migrar datos de sus sistemas mainframe a la nube Seleccionar las herramientas adecuadas es fundamental para garantizar un proceso de migración seguro, eficiente y confiable. Como director de infraestructura de TI como William, necesita evaluar diversas herramientas, que van desde soluciones nativas en la nube hasta plataformas de migración de terceros que lo ayudarán a lograr sus objetivos de migración con una interrupción mínima. Al final de esta lección, comprenderá las diferentes herramientas de migración de datos como AWS Direct Connect, VPN y soluciones de terceros Para aprender a aprovechar las herramientas nativas de Cloud para transferir datos de forma segura desde sistemas mainframe a entornos Cloud. Exploremos estas herramientas y técnicas en detalle. Visión general de las herramientas comunes de migración de datos. Al mover datos de las instalaciones a la nube, las organizaciones necesitan conexiones seguras y escalables. Dependiendo de su volumen de datos, requisitos de red y necesidades de seguridad, deberá elegir entre diferentes herramientas de migración. A continuación se presentan algunas de las opciones más utilizadas. A, AWS Direct Connect, pase privado y confiable. AWS Direct Connect es una conexión de red dedicada que permite a las organizaciones establecer un vínculo directo entre su centro de datos local y los servicios web de Amazon. Esta es una gran opción para las organizaciones que necesitan transferencias de datos de alta velocidad y desean evitar el uso de Internet público, reduciendo el riesgo de exposiciones de datos Las ventajas incluyen seguro y privado. Direct Connect proporciona una línea dedicada a AWS sin pasar por Internet, lo que garantiza una mayor seguridad. Alto ancho de banda. Ofrece mayor ancho de banda para transferencias de datos más rápidas, lo que lo hace ideal para migraciones a gran escala Rendimiento consistente, conexión directa proporciona un rendimiento de red consistente, lo cual es esencial para las migraciones de misión crítica se debe minimizar el tiempo de inactividad Los mejores casos de uso incluyen mover grandes conjuntos de datos de forma rápida y segura. Organizaciones que requieren conexiones altamente seguras con rendimiento garantizado para datos confidenciales como instituciones financieras o agencias gubernamentales. Tomemos un ejemplo. institución financiera Williams podría usar AWS Direct Connect para transferir de forma segura los datos de las transacciones de los clientes y los registros históricos a la nube, asegurando un alto nivel de seguridad y reduciendo el riesgo de exposición durante la migración. VPNs, seguras pero más accesibles. Una red privada virtual o VPN proporciona una conexión encriptada segura a través de Internet pública. Las VPN son útiles cuando necesitas una forma flexible pero segura de conectar tu centro de datos local con una nube Si bien las VPN son generalmente más lentas que las conexiones directas como AWS Direct Connect, son ampliamente utilizadas para migraciones más pequeñas o conectividad continua Las ventajas incluyen costo efectivo. Las VPN suelen ser menos costosas que las conexiones de red dedicadas como Direct Connect Seguridad, las VPN utilizan cifrado para garantizar que los datos se transmitan de forma segura a través de Internet pública Accesibilidad, las VPN se pueden configurar más fácilmente que las conexiones dedicadas y son ideales para la migración de tamaño pequeño a mediano Los mejores casos de uso incluyen organizaciones con volúmenes de datos más pequeños o que no requieren conexiones de gran ancho y empresas que buscan una conexión asequible y segura para sumideros de datos continuos o migraciones a menor escala Tomemos un ejemplo. Para menos datos críticos de misión, equipo de Williams podría usar una VPN para establecer conexiones seguras a la nube y mover datos no confidenciales como registros del sistema o informes analíticos a un costo menor que AWS Direct Connect. Soluciones de migración de terceros, flexibilidad y herramientas ricas en funciones. Existen muchas plataformas de migración de datos de terceros diseñadas específicamente para ayudar a las organizaciones a transferir datos entre entornos locales y la nube. Estas herramientas a menudo proporcionan funciones avanzadas como replicación de datos, migración en tiempo real y seguridad incorporada. Algunas plataformas populares incluyen Cloud Ajure ZRTO y Las ventajas incluyen ricas en funciones. Muchas soluciones de terceros vienen con características como replicación continua de datos, análisis en tiempo real y recuperación ante desastres. Capacidades cruzadas en la nube. Por lo tanto, las soluciones permiten migraciones de nubes múltiples o híbridas, haciéndolas más flexibles que las herramientas específicas del proveedor Reduzca la complejidad. Estas plataformas suelen automatizar gran parte del proceso de migración, facilitando a las organizaciones la gestión de migraciones complejas Los mejores casos de uso incluyen organizaciones que necesitan capacidades multicloud o que están migrando una combinación de entornos locales y en la nube y negocios que requieren replicación continua y que requieren replicación continua hundimiento de datos en tiempo real durante Un ejemplo, el equipo de Williams podría usar CloudEndure para replicar continuamente datos desde el mainframe a AWS durante el proceso de migración, asegurando que incluso durante la migración, el negocio pueda Explorar las herramientas nativas de la nube para la migración de marco a nube. Para las organizaciones que mueven datos de sistemas mainframe a la Nube, existen herramientas nativas específicas de Cloud diseñadas para facilitar este proceso mientras se mantiene integridad, la seguridad y el cumplimiento de los datos Estas herramientas garantizan una migración de datos fluida, segura y eficiente sin causar interrupciones en las operaciones diarias de sus mainframes A, Modernización de mainframe de AWS, Bridging legacy y Cloud La modernización de mainframe de AWS es un conjunto de servicios que ofrece AWS para ayudar a las organizaciones a migrar y modernizar las aplicaciones de mainframe Proporciona herramientas para analizar, refactorizar, replataforma y automatizar la migración de datos y aplicaciones de mainframes a la Las características clave incluyen la migración automatizada. modernización de mainframe de AWS ofrece herramientas automatizadas para reducir la complejidad de migrar datos y aplicaciones de mainframe Integración con los servicios de AWS. Una vez que los datos están en la nube, se pueden integrar fácilmente con otros servicios de AWS como AWS Lambda, que es computación sin servidor o Amazon RDS, que es una base de datos relacional administrada Optimización de costos. Al migrar cargas de trabajo de mainframe a AWS, las organizaciones pueden beneficiarse de los precios de pago por uso y reducir Un ejemplo, la institución financiera Williams podría usar modernización de mainframe de AWS para descargar los datos de los clientes y las aplicaciones heredadas de su mainframe Al refactorizar aplicaciones críticas para la nube, pueden reducir los costos operativos mientras mantienen un alto rendimiento B, caja de datos Azure, moviendo grandes volúmenes de datos. Azure data boox es un servicio de Microsoft diseñado para ayudar a la organización a mover grandes cantidades de datos a la nube de forma segura El cuadro de datos es un dispositivo físico que Microsoft envía a su centro de datos, lo que le permite cargar datos directamente en él antes de enviarlos de vuelta a Microsoft para su integración en la nube. Las características clave incluyen la transferencia de datos fuera de línea. Al transferir datos físicamente, Azure Data Box evita los retrasos y el riesgo de seguridad de las transferencias de datos basadas en Internet. Altamente seguro. Los datos se cifran y protegen durante el tránsito, lo que garantiza que la información confidencial no esté expuesta. Ideal para grandes conjuntos de datos. Esta solución es ideal para mover petabytes de datos a la Nube donde las transferencias en línea pueden ser Un ejemplo, la organización Williams podría usar Azure Data Box para transferir conjuntos de datos a gran escala, como registros históricos de transacciones al almacenamiento de Azure Cloud, donde se pueden archivar para fines de cumplimiento. C, Google Transfer Appliance, transferencia masiva de datos a Google Cloud. Google Transfer Appliance funciona manera similar a la caja de datos de Azure y proporciona un dispositivo físico para mover grandes conjuntos de datos de su centro de datos a Google Cloud. Está diseñado para organizaciones con cantidades masivas de datos que necesitan ser trasladados a la nube de manera eficiente y segura. Las características clave incluyen, es compatible con grandes volúmenes de datos. Transfer Appliance puede manejar los terabytes a petabytes de datos, lo que lo hace adecuado para Es seguro y eficiente. El dispositivo está encriptado y una vez llenado, se devuelve a Google para la carga de datos Esto reduce la necesidad extender los tiempos de transferencia de datos a través de la red. Un ejemplo, si la institución financiera Williams estuviera migrando a Google Cloud, podrían usar Google Transfer Appliance para transferir de forma segura y rápida gran cantidad de datos de clientes y registros históricos a la nube Mejores prácticas para seleccionar herramientas de migración de datos. Al seleccionar las herramientas de migración adecuadas para su organización, tenga en cuenta las siguientes mejores prácticas. Uno, evaluar los requisitos de volumen de datos y velocidad de transferencia. Para conjuntos de datos más pequeños, las VPN pueden ser suficientes, pero para migraciones más grandes, considere herramientas como AWS Direct Connect, Azure Data Box o Google Transfer Appliance para más rápidas y seguras Dos, considere las necesidades de seguridad y cumplimiento. Si está migrando datos confidenciales como PII del cliente o las transacciones financieras, asegúrese de que sus herramientas proporcionen cifrado extremo a extremo y cumplan con estándares de cumplimiento como PCIDSS Tres, aproveche las herramientas nativas de la nube para una integración perfecta. Las herramientas nativas de la nube, como la modernización de mainframe de AWS o Azure Migrate, simplifican el proceso de integración de sus datos migrados con los servicios en la nube, lo que le permite desbloquear todo el potencial de la computación en la nube Los puntos clave de esta lección incluyen, una, AWS Direct, Direct Connect, VPN y herramientas de migración de terceros ofrecen diferentes niveles de seguridad, velocidad y flexibilidad Elija la herramienta adecuada en función de su volumen de datos, necesidades de seguridad y cronograma de migración. Dos, las herramientas nativas de la nube, como modernización de mainframe de AWS, la caja de datos Joe y Google Transfer Appliance, y Google Transfer Appliance están diseñadas para ayudar a transferir datos de forma segura desde los sistemas mainframe a la nube con una interrupción mínima En tercer lugar, al seleccionar una herramienta de migración, priorice la seguridad de los datos, la velocidad y las capacidades de integración para garantizar una transición semless a la nube Actividad de aprendizaje, reflexión. ¿Qué herramientas de migración serán las más adecuadas para su organización? Considere su volumen de datos, requisitos de seguridad y cronograma al hacer su selección. Pregunta de discusión planteada en el foro. ¿Su organización ha utilizado antes una herramienta de migración de terceros? ¿Cuáles fueron los principales retos y beneficios que experimentas? Siguiente lección, minimizando el tiempo de inactividad durante la migración. En la siguiente lección, nos centraremos en estrategias para minimizar el tiempo de inactividad durante la migración de datos. Aprenderá las mejores prácticas para mantener la continuidad operativa y explorará técnicas como la migración en vivo y las bases de datos en la sombra para que su negocio funcione sin problemas durante la transición. Preparados para garantizar una migración perfecta, pasemos a la lección tres del Módulo cuatro. 16. Lección 3: minimizar el tiempo de inactividad durante la migración: Tres. Lección tres, minimizando el tiempo de inactividad durante la migración. Bienvenido a la lección tres del Módulo cuatro. En esta lección, exploraremos cómo minimizar el tiempo de inactividad y mantener sus sistemas funcionando sin problemas durante la migración de datos y aplicaciones a la nube. Para un director de infraestructura de TI como William, minimizar el tiempo de inactividad es fundamental, especialmente en entornos como servicios financieros donde cada segundo de interrupción puede afectar experiencia del cliente y provocar pérdidas de ingresos. Cubriremos las mejores prácticas para reducir el inactividad y exploraremos técnicas avanzadas como la migración en vivo y las bases de datos en la sombra que garantizan la disponibilidad continua durante la migración. Al final de esta lección, comprenderá las mejores prácticas para minimizar el tiempo de inactividad durante la migración. Dos, poder aplicar técnicas como migración en vivo y bases de datos sombra para garantizar la continuidad operativa. Empecemos. Mejores prácticas para minimizar el tiempo de inactividad durante la migración. Minimizar el tiempo de inactividad durante la migración implica planificar, elegir las herramientas adecuadas e implementar estrategias que permitan a su empresa continuar operando mientras se transfieren los datos. A continuación se presentan las mejores prácticas a tener en cuenta al migrar datos desde el local a la nube A, planifique el tiempo de inactividad temprano. Uno de los aspectos clave para minimizar el tiempo de inactividad es una planificación cuidadosa. Esto implica analizar sus cargas de trabajo y determinar cuánto tiempo de inactividad es aceptable para cada tipo de sistema No todos los sistemas requieren tiempo de inactividad cero, por lo que es importante identificar los sistemas de misión crítica que necesitan mantenerse en funcionamiento. Identificar cargas de trabajo críticas. Comience clasificando sus cargas de trabajo en procesos no críticos y por lotes Las cargas de trabajo críticas, como el procesamiento de transacciones en tiempo real en un entorno bancario, deben permanecer disponibles con poco o ningún tiempo de inactividad Establezca un presupuesto de tiempo de inactividad, establezca un tiempo de inactividad máximo que sea aceptable para cada sistema. Esto debe hacerse en colaboración con las partes interesadas del negocio para garantizar que tanto las unidades de TI como las unidades de negocio estén alineadas. Tomemos un ejemplo. Para William, los servicios de procesamiento de pagos y banca en línea tendrán un requisito de tiempo de inactividad cero, mientras que los trabajos de generación de informes históricos y procesamiento por lotes pueden tolerar más tiempo de inactividad ya que no afectan a los clientes en tiempo real. B, planes de migración de prueba con corridas en seco. Antes de ejecutar una migración a escala completa, realice siempre migraciones secas o pruebas Se trata de pruebas a pequeña escala que simulan el proceso de migración para identificar posibles problemas de antemano. Identificar los cuellos de botella temprano. corridas en seco ayudan a identificar cuellos de botella en el rendimiento, problemas de transferencia de datos e incompatibilidades del sistema antes de que Las corridas en seco ayudan a identificar cuellos de botella en el rendimiento, problemas de transferencia de datos e incompatibilidades del sistema antes de que afecten la migración real. Procedimientos de reversión de pruebas. En caso de una falla de migración, querrá saber cómo retroceder al sistema original sin causar interrupciones. Probar los procedimientos de reversión durante una operación en seco garantiza que esté preparado para cualquier problema que pueda surgir durante la migración en vivo Tomemos un ejemplo. El equipo de William podría simular la migración un pequeño conjunto de datos o una aplicación no crítica a AWS para probar el proceso de transferencia de datos y garantizar que los sistemas permanezcan estables y operativos C, migrar durante horas fuera de pico. Siempre que sea posible, programe migraciones durante las horas pico. Esto minimiza el impacto en los usuarios y las operaciones comerciales al reducir la probabilidad de interrupciones del servicio durante los períodos ocupados Monitoree los patrones de tráfico. Utilice herramientas de monitoreo de tráfico para comprender los tiempos pico de uso. Para instituciones financieras como Williams, tráfico puede aumentar durante el horario comercial o después de los días de pago Programar migraciones en las primeras horas de la mañana o en un fin de semana puede reducir el riesgo de interrupción del servicio Anunciar ventanas de mantenimiento. Informar a los clientes y empleados sobre el tiempo de inactividad potencial con mucha antelación. Esto asegura que todos estén al tanto del momento y minimice las interrupciones inesperadas Tomemos un ejemplo. equipo de William podría programar la migración de servicios no esenciales como registros de chat de atención al cliente o datos de marketing por la noche o los fines de semana para evitar impactar los sistemas orientados al cliente Técnicas de disponibilidad continua durante la migración. Para cargas de trabajo de misión crítica que no pueden permitirse ningún tiempo de inactividad, necesitará implementar técnicas avanzadas para mantener el sistema operativo mientras se produce la migración Dos técnicas comunes son migración en vivo y las bases de datos sombra. Migración en vivo, manteniendo los sistemas en línea. La migración en vivo es una técnica en la que los datos o aplicaciones se mueven de un entorno a otro sin apagar el sistema de origen Esto permite que el sistema de origen continúe operando de manera normal durante el proceso de migración. Cómo funciona. Con la migración en vivo, el sistema sigue funcionando en el entorno de origen mientras los datos se copian a la nube. Una vez que los datos se han transferido por completo, el sistema se cambia al entorno de la nube con una interrupción mínima. Mejores casos de uso. La migración en vivo es ideal para máquinas virtuales o VMs, aplicaciones en tiempo real o bases de datos donde el tiempo de inactividad debe mantenerse al mínimo absoluto Un ejemplo, para la institución financiera Williams, migración en vivo podría usarse para transferir sistemas de procesamiento de transacciones en tiempo real a la nube. La migración ocurriría mientras el sistema permanezca operativo asegurando que no se interrumpan los pagos de los clientes y el acceso a la cuenta. Bases de datos Shadow, sincronizando datos en tiempo real. La base de datos Shadow es una técnica donde se crea una réplica de su base de datos principal en la nube. La base de datos sombra permanece sincronizada con su sistema primario recibiendo actualizaciones en tiempo real. Una vez que se completa la migración, la base de datos en la sombra puede hacerse cargo de la primaria sin tiempo de inactividad. Cómo funciona. La base de datos Shadow replica transacciones y cambios de datos de su sistema local en tiempo real Una vez que los datos en las instalaciones se replican completamente, la base de datos basada en la nube puede convertirse en la base de datos principal Mejores casos de uso. Las bases de datos Shadow son perfectas para sistemas que requieren actualizaciones continuas y replicación de datos en tiempo real, como plataformas bancarias y de comercio electrónico. Un ejemplo, el equipo de William usaría una base de datos sombra para mantener registros de transacciones de los clientes sincronizados los registros de transacciones de los clientes mientras los migraba a la nube Una vez que se completa la migración de datos, la base de datos basada en la nube puede hacerse cargo sin problemas, lo que permite una transición sin problemas sin ningún tiempo de inactividad. Administración de cargas de trabajo híbridas durante la migración. Si está migrando solo una parte de sus sistemas a la nube mientras que otros permanecen en las instalaciones, deberá administrar las cargas de trabajo híbridas durante el proceso de migración Esto asegura que tanto los sistemas basados en la nube como en las instalaciones continúen comunicándose de manera efectiva. Mintain sincronización. Asegúrese de que los datos y las aplicaciones que se ejecutan tanto en la nube como en las instalaciones se sincronicen a lo largo del proceso de migración. Utilice herramientas de replicación de datos y middleware para administrar el flujo de información entre entornos. Supervisar el rendimiento. Monitoree el rendimiento tanto de los sistemas basados en la nube como en los sistemas principales durante la migración para garantizar que el proceso de migración no cause degradación en los tiempos de respuesta ni en la disponibilidad. Un ejemplo, el equipo de William podría migrar las cargas de trabajo de análisis de clientes a la nube mientras mantiene el procesamiento de transacciones en el mainframe durante el Al garantizar que los dos sistemas permanezcan sincronizados, pueden evitar retrasos o inconsistencias en los datos de los clientes Validación y pruebas posteriores a la migración. Después de la migración, es fundamental realizar pruebas exhaustivas para garantizar que todos los sistemas funcionen como se esperaba en el nuevo entorno de nube. Este paso ayuda a detectar cualquier inconsistencia de datos, rendimiento o problemas de conectividad antes de que afecten a los antes de que afecten a Validar la precisión de los datos. Asegúrese de que todos los datos transferidos a la nube coincidan con los datos del sistema original. Esto puede incluir verificaciones de integridad, validación de integridad de datos y pruebas de rendimiento. Flujos de trabajo de prueba. Ejecute pruebas de extremo a extremo para garantizar que tus procesos de negocio y flujos de trabajo continúen funcionando correctamente en el nuevo entorno. Supervisar el rendimiento. Continúe monitoreando el rendimiento del sistema para detectar cualquier signo de latencia, cuellos de botella u otros problemas que puedan afectar sus operaciones. Un ejemplo. Después de completar la migración de las aplicaciones orientadas al cliente a AWS, equipo de Williams realizaría pruebas de rendimiento para garantizar que el sistema funcione manera eficiente y verificaciones de integridad de datos para validar que todos los registros de tasas de transacción migraron correctamente Las conclusiones clave de esta lección incluyen, una, planificar el tiempo de inactividad temprano, realizar corridas en seco y programar migraciones durante las horas pico, son esenciales para reducir la interrupción horas pico, son esenciales operativa Dos, la migración en vivo y las bases de datos sombra son técnicas avanzadas que garantizan la disponibilidad continua los sistemas críticos durante la migración. En tercer lugar, realice siempre la validación y pruebas posteriores a la migración para garantizar la integridad de los datos y el rendimiento del sistema en el nuevo entorno de nube. Ganar actividad, reflexión. Considere los sistemas más críticos de su organización. ¿Cómo implementarías técnicas como migración en vivo o bases de datos en la sombra para garantizar que esos sistemas permanezcan operativos durante la migración Pregunta de discusión planteada en la forma. ¿Ha experimentado tiempo de inactividad durante una migración anterior? ¿Qué estrategias o técnicas podrían haber utilizado para minimizarlo? Siguiente lección, asegurando la integridad y seguridad de los datos. En la siguiente lección, discutiremos cómo garantizar la integridad y seguridad de los datos durante la migración. Exploraremos estrategias para mantener la consistencia de los datos, implementar el cifrado y garantizar el cumplimiento los estándares regulatorios durante el proceso de migración. Listo para proteger sus datos durante la migración, vamos a sumergirnos en la Lección cuatro del Módulo cuatro. 17. Lección 4: garantizar la integridad y seguridad de los datos: Lección cuatro, garantizar la integridad y seguridad de los datos. Bienvenidos a la Lección Cuatro, Módulo Cuatro. En esta lección nos centraremos en uno de los aspectos más críticos de la migración de datos y aplicaciones a la nube, garantizando la integridad y seguridad de los datos Para los directores de infraestructura de TI como William, mantener la precisión, consistencia es esencial mantener la precisión, consistencia y seguridad de los datos durante la migración, especialmente cuando se maneja información confidencial financiera o de clientes. Exploraremos cómo garantizar la consistencia de los datos, implementar el cifrado y garantizar cumplimiento de los estándares regulatorios durante todo el proceso de migración. Al final de esta lección, aprenderá estrategias para garantizar la consistencia, integridad y seguridad de los datos durante la migración. Comprender la importancia del cifrado y cómo cumplir con los estándares regulatorios a la hora de transferir datos confidenciales. Empecemos. Garantizar la consistencia e integridad de los datos durante la migración. Mentorar la consistencia e integridad de los datos es vital durante la migración para evitar problemas como pérdida de datos, la corrupción o la duplicación Esto es particularmente importante cuando se migran sistemas críticos de mainframes locales a entornos en la nube A continuación se presentan las estrategias para garantizar que sus datos permanezcan precisos y confiables durante todo el proceso de migración. Consistencia de los datos, manteniendo los datos alineados. La consistencia de los datos se refiere a garantizar que sus datos permanezcan sincronizados y coherentes tanto en los entornos de nube de origen in situ como en los de destino durante la migración. Implementar sincronización en tiempo real. Utilice herramientas de replicación en tiempo real para mantener los datos sincronizados entre sus entornos on-premise y Cloud. Esto asegura que cualquier cambio realizado en los datos in situ durante la migración se refleje en el entorno Cloud. Las herramientas de ejemplo, AWS Database Migration Service o DMS o Azure Data Sync pueden ayudar a replicar los cambios en tiempo real para mantener la coherencia durante la Monitorear la consistencia de los datos. Utilice comprobaciones automatizadas de validación de datos para comparar los datos de su sistema de origen con los del sistema de nube de destino. Esto se puede hacer durante y después de la migración para garantizar que no se pierdan o corrompen datos. Tomemos un ejemplo. institución financiera Williams podría usar sincronización en tiempo real para garantizar que los datos de las transacciones de los clientes permanezcan consistentes entre el mainframe y AWS durante migración, de modo que no se pierdan o retrasen las transacciones Integridad de los datos, salvaguardia contra la corrupción. integridad de los datos garantiza que los datos permanezcan precisos y completos durante todo el proceso de migración. Para evitar problemas como la corrupción o pérdida de datos, es crucial implementar un mecanismo de validación y verificación de errores. Utilice sumas de comprobación para la validación. Implementar mecanismos de suma de comprobación para verificar que los datos transferidos a la nube coincidan con los datos originales en las instalaciones Las sumas de comprobación permiten detectar cualquier inconsistencia o corrupción que pueda ocurrir durante la que pueda ocurrir Validación de datos después de la migración. Una vez que los datos estén completamente migrados, ejecute procesos de validación para garantizar que los datos migrados sean una copia exacta del original Esto incluye la comprobación de registros faltantes, archivos dañados y datos inconsistentes. Tomemos un ejemplo. Para el equipo de Williams, validar que todos los registros de cuentas de clientes migraron a la nube sin corrupción asegura que las operaciones bancarias críticas continúen sin errores Garantizar el cifrado y protección de datos durante la transferencia. La seguridad de los datos es una prioridad máxima durante la migración, especialmente cuando se transfiere información confidencial del cliente, transacciones financieras o información de identificación personal o PII El objetivo es garantizar que los datos permanezcan cifrados, protegidos y conformes a lo largo del proceso de migración. Cifrado, seguridad de datos en tránsito y dirección. El cifrado es esencial para proteger los datos medida que se mueven entre entornos in situ y la nube. Asegura que incluso si los datos son interceptados durante la transferencia, no se puede acceder a ellos ni manipularlos Cifrar datos en tránsito. Asegúrese de que todos los datos que se migran estén cifrados durante la transferencia El uso de VPN o conexiones dedicadas como AWS Direct Connect o la ruta Azure Express puede proporcionar conexiones cifradas seguras entre sus sistemas locales y la nube También puedes usar protocolos como SSL TLS para cifrar datos mientras se transmiten a través de la red Herramientas de ejemplo para AWS, puede habilitar el cifrado SSL para datos en tránsito entre sistemas principales y servicios en la nube como S three o RDS Cifrar dirección de datos. Una vez que los datos hayan llegado a una Nube, asegúrese de que siga siendo la dirección cifrada. Esto implica servicios de cifrado nativos en la nube como AWS KMS o Azure Key Vault para administrar claves de cifrado y proteger la información confidencial almacenada en el entorno de la nube. Tomemos un ejemplo. El equipo de William podría usar el cifrado SSLTLS o Data Intransit para proteger los registros financieros de los clientes mientras se transfieren Una vez que los datos están en AWS, cifrado AMS puede asegurar la dirección asegurando una protección continua. Asegurar el acceso durante la migración. Asegurar los datos durante la migración no se trata solo de cifrado. También se trata de controlar quién tiene acceso a los datos durante el proceso de migración. Implementar control de acceso basado en roles o RBAC. Utilice RBAC para limitar el acceso al proceso de migración. Solo el personal autorizado , como ingenieros de datos o administradores de seguridad, debe tener acceso a los datos confidenciales durante la migración. Utilice autenticación multifactor o MFA. Para mayor seguridad, implemente MFA para cualquier persona que acceda a las herramientas de migración o al entorno de la nube Esto agrega una capa adicional de protección y evita el acceso no autorizado. Tomemos un ejemplo. El equipo de Williams podría implementar RBAC para garantizar que solo los ingenieros de datos senior y personal de seguridad tengan acceso al sistema de migración También se podría requerir MFA para cualquier persona involucrada en la transferencia de datos confidenciales de los clientes Cumplimiento de las normas regulatorias. Para muchas organizaciones, especialmente en industrias altamente reguladas como la banca, es esencial garantizar el cumplimiento regulaciones de protección de datos durante la migración. El incumplimiento de regulaciones como PCIDSS, GDPR o HIPA puede generar repercusiones legales Cumplimiento normativo durante la transferencia de datos. Para garantizar el cumplimiento, es fundamental verificar que el proveedor de servicios en la nube y el propio proceso de migración cumplan con los estándares regulatorios de seguridad y privacidad de los datos. Garantizar el cumplimiento con los proveedores de Cloud. Antes de migrar, asegúrese que su proveedor de Cloud elegido cumpla con los estándares y certificaciones de la industria necesarios Por ejemplo, AWS y Azure cumplen con PCIDSS y GDPR, lo que los hace adecuados para manejar datos financieros e información de identificación personal o Utilice el cifrado y el enmascaramiento para el cumplimiento. Muchas regulaciones requieren que los datos confidenciales estén encriptados o enmascarados durante la transferencia El cifrado asegura que incluso si los datos son interceptados, permanecen ilegibles enmascaramiento de datos puede proteger aún más los datos al oscurecer información confidencial como números de tarjetas de crédito o números de seguro social Tomemos un ejemplo. Si el equipo de Williams está migrando datos de transacciones de clientes a AWS, deben asegurarse de que los servicios de AWS cumplan con PCI DSS y que se utilicen técnicas de enmascaramiento de datos para proteger los campos de datos confidenciales durante la Requisitos de residencia de datos. Ciertas regulaciones también pueden tener requisitos de residencia de datos que dictan dónde deben almacenarse y procesarse los datos Por ejemplo, GDPR requiere que datos de los ciudadanos de la UE se almacenen dentro la Unión Europea, mientras que los datos financieros pueden necesitar permanecer dentro de ubicaciones geográficas específicas. Elija cuidadosamente las regiones de datos. Al migrar datos, asegúrese de elegir regiones Cloud que cumplan con las regulaciones de residencia de datos Tanto AWS como Azure ofrecen regiones específicas en diferentes países que pueden cumplir con los requisitos de residencia. Un ejemplo, la institución Williams podría necesitar asegurarse de que los datos de los clientes relacionados con clientes europeos permanezcan dentro las regiones de la UE de AWS para cumplir con el RGPD, mientras que los datos de los clientes estadounidenses podrían almacenarse en regiones de la nube basadas en Estados Unidos. Implementación de pistas de auditoría y monitoreo. Para mejorar aún más la seguridad y el cumplimiento, es importante implementar pistas de auditoría y monitoreo durante todo el proceso de migración. Habilite el registro y la auditoría. Las plataformas en la nube como AWS CloudTrail o Azure Monitor le permiten realizar un seguimiento de todas las acciones y cambios realizados durante el proceso de migración Estos registros le ayudan a identificar cualquier intento de acceso no autorizado o posibles violaciones de seguridad Monitorear el proceso de migración. monitoreo continuo del proceso de migración ayuda a identificar cuellos de botella en el rendimiento, errores o amenazas potenciales en tiempo real, lo que permite Un ejemplo, el equipo de William podría permitir que AWS CloudTrail audite cada acción tomada durante el proceso de migración, asegurando una transparencia completa y proporcionando un registro para fines de cumplimiento conclusiones clave de esta lección incluyen una, integridad y consistencia de los datos durante la migración se pueden asegurar a través de técnicas como la sincronización en tiempo real y sumas de comprobación para validar los Dos, el cifrado de datos en tránsito y dirección es fundamental para proteger la información confidencial durante la migración control de acceso basado en roles o RBAC, y la autenticación multifactor o MFA aseguran aún más el En tres, el cumplimiento de estándares regulatorios como PCI DSS o GDPR es crucial durante la migración Asegúrese de que los proveedores de la nube cumplan con los estándares e implementen los requisitos de residencia de datos según sea necesario. Ganar actividad, reflexión. Otorgue a su organización la obligación regulatoria. Por ejemplo, PCI DSS y GDPR. ¿Cómo garantizarías el cifrado y el cumplimiento de los datos durante tu migración a la nube? Pregunta de discusión, publicación en foro, ¿cómo garantiza su organización la integridad y seguridad de los datos durante la migración? ¿Qué herramientas o prácticas has encontrado más efectivas? Siguiente lección, Introducción a DevOps en sistemas híbridos. En el siguiente módulo, nos centraremos en el papel de DevOps en la gestión de entornos de nube híbrida En la lección uno del Módulo cinco, exploraremos cómo las prácticas de DevOps como la integración continua y la entrega continua, optimizaremos las operaciones en sistemas híbridos y mejoraremos la automatización Listo para desbloquear el poder de automatización en su entorno de nube híbrida, pasemos al Módulo cinco y exploremos cómo DevOps puede optimizar su estrategia de nube 18. Lección 1: introducción a DevOps en sistemas híbridos: Bienvenido al Módulo cinco, Implementación de automatización y DevOps en entornos híbridos. Este módulo enseña cómo implementar prácticas de DevOps y herramientas de automatización dentro de una arquitectura híbrida de mainframe Cloud Cubre técnicas de automatización como canalizaciones CICD, orquestación con Kubernetes y herramientas de automatización de AWS como CloudFormation, lo que permite operaciones eficientes y herramientas de automatización de AWS como CloudFormation, orquestación con Kubernetes y herramientas de automatización de AWS como CloudFormation, lo que permite operaciones eficientes y optimizadas. Lección uno, introducción a DevOps en sistemas híbridos. Bienvenido al Módulo cinco. En esta lección, presentaremos el papel de DevOps en la administración de entornos de nube híbrida Para los directores de infraestructura de TI como William, que están supervisando la modernización de los sistemas heredados, adoptar prácticas de DevOps puede ser un cambio de juego DevOps combina desarrollo y operaciones para crear una cultura colaborativa donde la automatización, integración continua y la entrega continua son clave para optimizar los flujos de trabajo de la nube híbrida Al final de esta lección, comprenderá, primero, el papel de DevOps en la administración de entornos de nube híbrida Reconozca los beneficios de adaptar canalizaciones de CICD para automatizar la implementación y agilizar los procesos de la nube híbrida Exploremos cómo DevOps puede transformar la forma en que administra su infraestructura de nube híbrida Definir el papel de DevOps en entornos de nube híbrida. DevOps es un conjunto de prácticas que promueve la colaboración entre los equipos de desarrollo y operaciones de TI Su objetivo es acortar el ciclo de vida del desarrollo, entregar aplicaciones de alta calidad rápidamente y garantizar que los cambios de infraestructura ocurran sin problemas y automáticamente En entornos de nube híbrida donde las aplicaciones se ejecutan tanto en sistemas mainframe como en plataformas en la nube, DevOps juega un papel fundamental en la integración y automatización DevOps, rompiendo silos. Tradicionalmente, los equipos de desarrollo y operaciones de TI trabajan por separado. Esto a menudo resultó en cuellos de botella, implementaciones lentas y falta DevOps rompe los silos fomentando una cultura de colaboración donde los desarrolladores y los equipos de operaciones trabajan en estrecha colaboración a lo largo del ciclo de vida de una aplicación, desde desarrollo y las pruebas hasta la implementación y monitoreo En un entorno de nube híbrida donde los sistemas heredados, los mainframes necesitan interactuar con las aplicaciones nativas de la nube, DevOps puede cerrar la brecha entre los sistemas tradicionales y los modernos Garantiza que tanto los sistemas locales como en la nube se gestionen sin problemas y que los cambios se puedan implementar manera consistente en ambos entornos. Tomemos un ejemplo. Para William, Devos se implementarán prácticas para agilizar la implementación de aplicaciones basadas en la nube orientadas al cliente, como las aplicaciones de banca móvil, al tiempo que garantizan que estas aplicaciones interactúen sin problemas con los sistemas mainframe locales que manejan transacciones en los sistemas mainframe locales tiempo real DevOps en la automatización de la nube híbrida en múltiples entornos. En entornos de nube híbrida, la administración de aplicaciones en múltiples infraestructuras puede ser compleja. DevOps le permite automatizar tareas clave como implementación, monitoreo y escalado en sus entornos locales y en la nube. Esto es especialmente valioso en sistemas híbridos donde diferentes partes de una aplicación pueden ejecutarse en la nube mientras que otras permanecen en las instalaciones. Con herramientas y metodologías desarrolladas, puede implementar infraestructura como código o IAC, donde su infraestructura como redes, máquinas virtuales y bases de datos se administra y aprovisiona a través scripts legibles por máquina en lugar de configurar manualmente hardware o sistemas Tomemos un ejemplo. El equipo de Williams podría usar IAC para automatizar el aprovisionamiento de servidores en la nube para aplicaciones orientadas al cliente mientras mantiene operaciones bancarias centrales ejecutándose en el mainframe Las herramientas de DevOps pueden garantizar que ambos sistemas se actualicen y escalen automáticamente según las demandas de carga de trabajo Se adapta a la adopción de CICD para automatizar procesos de nube híbrida La integración continua, CI y CD de entrega continua son dos componentes clave de la metodología DevOps Juntos, ayudan a las organizaciones a automatizar todo el proceso de lanzamiento de software , desde el desarrollo de código hasta la implementación, haciéndolo más rápido, más confiable y menos propenso a errores humanos. En entornos de nube híbrida, canalizaciones CICD se pueden utilizar para automatizar la implementación de aplicaciones tanto en mainframes locales como en plataformas en la nube Integración continua, fusionando código automáticamente. integración continua se refiere a la práctica de fusionar regularmente los cambios de código de múltiples desarrolladores en un repositorio compartido Cada vez que se fusiona el nuevo código, se activan pruebas automatizadas para validar que el código funcione como se esperaba. Esto ayuda a los equipos a identificar y solucionar problemas tempranamente, evitando problemas mayores más adelante en el ciclo de vida del desarrollo. Los beneficios clave incluyen un desarrollo más rápido. Los desarrolladores pueden realizar pequeñas actualizaciones incrementales que se prueban e implementan con frecuencia. Los errores Wdced, las pruebas automatizadas garantizan que los nuevos cambios no rompan la funcionalidad existente Colaboración sin tallo, CI permite que varios equipos trabajen juntos de manera más eficiente, incluso en entornos híbridos complejos Tomemos un ejemplo. En el sistema Williams Hybrid Cloud, el equipo de DevOP podría usar CI para automatizar la integración de código para aplicaciones basadas en la nube como la aplicación móvil del banco al tiempo que garantiza que cualquier cambio no interrumpa los sistemas de mainframes back end que manejan Entrega continua, automatizando despliegues. entrega continua es la práctica de implementar automáticamente los cambios de código en un entorno de almacenamiento temporal después de que pasan la canalización de CI. TD permite a los equipos lanzar actualizaciones de software de manera más rápida y confiable al automatizar el proceso de implementación Garantiza que los cambios estén siempre listos para ser desplegados a la producción con una mínima intervención humana. Los beneficios clave incluyen lanzamientos más rápidos. CD permite lanzamientos más frecuentes de nuevas funciones, correcciones de errores y actualizaciones. Reversiones automatizadas. Si se detecta un problema durante la implementación, los sistemas de CD pueden retroceder automáticamente a la versión anterior, minimizando el tiempo de inactividad. Escalabilidad, las canalizaciones de CD pueden escalar a través de sistemas híbridos, lo que garantiza que los cambios se implementen manera consistente tanto en los sistemas locales como en la nube Un ejemplo, la organización Williams podría implementar CID para automatizar la implementación de herramientas de análisis basadas en la nube que ayuden a rastrear los hábitos de gasto de los clientes al tiempo que garantizan que estas herramientas permanezcan integradas con los sistemas principales de la unidad central Esto permitiría al banco liberar actualizaciones con mayor frecuencia al tiempo que minimizaría el riesgo de interrupciones del servicio Los ductos CICD funcionan en entornos híbridos. En una configuración de nube híbrida, canalizaciones CICD se pueden configurar para automatizar todo el proceso de desarrollo, prueba e implementación aplicaciones en múltiples entornos. Así es como funciona. El código está comprometido e integrado CI. Los desarrolladores comprometen código a un repositorio compartido como Git. Esto desencadena la tubería de CI. Se ejecutan pruebas automatizadas para garantizar que el nuevo código no introduzca errores. Luego, el código se integra con otras partes de la aplicación, como mainframe o los servicios basados en la nube El código se despliega automáticamente para CD. Una vez pasada la prueba, el código se despliega automáticamente en un entorno de ensayo. Si todo funciona como se esperaba, el código es promovido a producción, asegurando que tanto el mainframe como los sistemas cloud se actualicen simultáneamente Si surge algún problema, la canalización de CD puede retroceder automáticamente a una versión estable de la aplicación, minimizando el tiempo de inactividad y el impacto del usuario. Un ejemplo, en el sistema de nube híbrida de William, este proceso permitiría a su equipo implementar rápidamente actualizaciones en las aplicaciones móviles orientadas al cliente al tiempo que aseguraría que esas aplicaciones permanezcan completamente integradas con los sistemas transaccionales se ejecutan en el mainframe La conclusión clave de esta lección incluye una, DevOps juega un papel crucial en la gestión entornos de nube híbrida al romper los silos entre el desarrollo y las operaciones, lo que permite la colaboración y lo que permite la colaboración Dos, las canalizaciones de CICD automatizan el proceso de integración, prueba e implementación de código en sistemas híbridos, reduciendo errores, mejorando la velocidad y mejorando la escalabilidad Tres, en entornos híbridos, DevOps garantiza una implementación consistente y confiable de aplicaciones tanto en sistemas locales como en plataformas en la nube Ganar actividad, reflexión. Considere cómo las prácticas de DevOps como CICD podrían mejorar la administración de su entorno de nube híbrida ¿Cuáles son los beneficios potenciales para tu equipo? Pregunta de discusión planteada en el foro. ¿Cómo podría la adopción de canalizaciones CICD ayudar a su organización automatizar los procesos de implementación y mejorar la eficiencia operativa en todos los sistemas híbridos Siguiente lección, Herramientas clave de DevOps para la gestión de la nube híbrida En la siguiente lección, profundizaremos en las herramientas específicas de DevOP que puede usar para automatizar y administrar sistemas de nube híbrida Exploraremos herramientas populares como Jenkins, Terraform, AWS Lambda y Kubernetes y discutiremos cómo se pueden usar para optimizar la implementación, monitoreo y el escalado en todo el entorno Emocionado por explorar las herramientas que impulsarán la automatización en su nube híbrida. Pasemos a la lección dos del Módulo cinco. A, 19. Lección 2: herramientas clave de DevOps para la gestión de la nube híbrida: Lección dos, herramientas clave de DevOps para la gestión de la nube híbrida. Bienvenido a la lección dos del Módulo cinco. En esta lección, profundizaremos en algunas de las herramientas de DevOps más populares y poderosas para administrar entornos de nube híbrida Como director de infraestructura de TI, como William, seleccionar las herramientas adecuadas es esencial para automatizar y optimizar sus flujos de trabajo tanto en mainframes locales como en entornos de nube. Cubriremos herramientas como Jenkins, Perra form, AWS Lambda y Kubernetes y exploraremos cómo se pueden usar para administrar la implementación, monitoreo y escalado en Al final de esta lección, comprenderá el papel de las herramientas clave de DevOps en la automatización y administración de entornos de nube híbrida Dos, saber cómo aplicar herramientas como Jenkins, Terraform, AWS Lambda y Kubernetes para automatizar la implementación, monitoreo y Empecemos. Jenkins, automatizando la integración continua y entrega continua CICD ¿Qué es Jenkins? Jenkins es uno de los servidores de automatización de código abierto más utilizados que facilita la integración continua, CI y entrega continua de CD Jenkins automatiza las tareas repetitivas involucradas en la construcción, prueba e Es altamente extensible con cientos de complementos que se pueden integrar con otras herramientas de DevOps y servicios en la nube, lo que lo hace ideal para entornos de nube híbrida Las características clave incluyen la automatización de construcciones y pruebas. Jenkins automatiza el proceso de integración de cambios de código, ejecución de pruebas e implementación aplicaciones en la nube y en entornos locales Extensibilidad. Jenkins establece complementos para casi todos los principales desarrolladores de taburetes, lo que le permite integrarse a la perfección con herramientas como Docker, ubernets Flexibilidad, Jenkins trabaja con múltiples plataformas en la nube, lo que le permite crear canalizaciones para implementar código en entornos híbridos, incluidos mainframes y sistemas nativos en la nube Tomemos un ejemplo. El equipo de William puede usar Jenkins para automatizar la canalización de CICD para aplicaciones que se ejecutan en su entorno de nube híbrida Por ejemplo, pueden automatizar la implementación de aplicaciones orientadas al cliente basadas en la nube al tiempo que garantizan que los procesos de backend en el mainframe se actualicen ¿Cómo se puede utilizar Jenkins en entornos de nube híbrida? En un entorno de nube híbrida, Jenkins se puede utilizar para automatizar todo el pipeline de CI City desde la integración de código hasta las pruebas y la implementación Permite a los desarrolladores escribir código que se integra perfección tanto con la infraestructura local como en la nube. Caso de uso, el equipo de Williams puede configurar una canalización de Jenkins que despliega automáticamente actualizaciones en aplicaciones en la nube como su aplicación de banca móvil, al aplicaciones en la nube como su aplicación de banca móvil, tiempo que garantiza que los sistemas bancarios principales que se ejecutan en el mainframe también se prueben e implementan sin intervención manual Terraform, infraestructura como código, IAC para sistemas híbridos ¿Qué es Traform? Terraform desarrollado por HashiCorp, es una infraestructura, herramienta IAC que le permite definir y administrar su Esto significa que puede aprovisionar, configurar y administrar recursos a través múltiples proveedores de nube y sistemas locales de una manera consistente y repetible Las características clave incluyen soporte multicloud. Terraform admite una variedad de plataformas en la nube, incluyendo AWS, Azure, Google Cloud y entornos locales, lo que lo hace ideal para la configuración híbrida Lenguaje declarativo, define cómo debe ser su infraestructura, y Theraform realiza automáticamente los cambios necesarios para lograr el Control de versiones. Los cambios de infraestructura se pueden rastrear en sistemas de control de versiones como Git, lo que garantiza que su infraestructura siga siendo consistente en todos los entornos. Un ejemplo, el equipo de Williams puede usar Terraform para aprovisionar recursos tanto en su entorno de mainframe como en su infraestructura de nube Por ejemplo, podrían usar Terraform para implementar un clúster de Kubernet en AWS mientras mantienen la infraestructura existente en su Cómo Terraform se puede utilizar en entornos de nube híbrida. En un entorno de nube híbrida, Terraform permite a los equipos administrar su infraestructura como código, asegurando que los recursos en mainframes locales y entornos de nube se configuren y entornos de nube se administren Caso de uso, el equipo de Williams podría usar Terraform para automatizar el aprovisionamiento de recursos en la nube Por ejemplo, servicios de almacenamiento y computación para datos de clientes mientras se mantiene el mainframe para el procesamiento de transacciones en tiempo real AWS Lambda, servidor menos automatización para procesos habilitados para la nube. ¿Qué es AWS Lambda? AWS Lambda es un servicio de computación sin servidor que ejecuta automáticamente códigos en respuesta a eventos y escala los recursos según sea necesario. Con Lambda, no es necesario aprovisionar ni administrar servidores. Se escala automáticamente en función de la demanda de sus aplicaciones, lo que le permite concentrarse en escribir e implementar código. Las características clave incluyen sin servidor. AWS Lambda maneja toda la administración de la infraestructura por usted, lo que le permite ejecutar código sin aprovisionar ni administrar servidores. funciones Lambda impulsadas Las funciones Lambda impulsadas por eventos son activadas por eventos de otros servicios de AWS, lo que las hace ideales para automatizar tareas como procesamiento de datos, monitoreo de aplicaciones o escalado de aplicaciones Escalabilidad, Lambda escala automáticamente en respuesta al número de solicitudes, asegurando que sus aplicaciones puedan manejar picos de demanda sin intervención manual Un ejemplo, el equipo de Williams podría usar AWS Lambda para automatizar tareas de procesamiento de datos en tiempo real desencadenadas por eventos como transacciones habituales. Por ejemplo, Lambda podría desencadenar algoritmos de detección de fraude cuando ocurren transacciones sospechosas, permitiendo que el sistema se escale según sea necesario sin participación manual. ¿Cómo se puede utilizar AWSamda en entornos de nube híbrida? En una configuración de nube híbrida, AWS Lambda se puede utilizar para descargar tareas específicas a la nube mientras mantienen los sistemas críticos en el Lambda también se puede integrar con otros servicios de AWS, lo que le permite automatizar tareas tanto en entornos locales como en la nube. Caso de uso. El equipo de Williams podría usar Lambda para automatizar los trabajos de procesamiento por lotes en la nube mientras mantiene las operaciones bancarias centrales en el mainframe Lambda podría manejar tareas no críticas como el análisis del comportamiento del cliente, liberando recursos de mainframe para transacciones en tiempo real Kubernetes, orquestando contenedores ¿Qué es Kubernetes? Kubernetes es una plataforma de orquestación de contenedores de código abierto plataforma de orquestación de contenedores de código que automatiza la implementación, el escalado y la administración de aplicaciones contenerizadas Garantiza que su aplicación se ejecute en un entorno consistente y escalable, ya sea en las instalaciones o en la nube. Las características clave incluyen la orquestación de contenedores. Kubernetes administra contenedores entre clústeres, automatizando tareas como implementación, Escalabilidad, Kubernetes escala automáticamente las aplicaciones según la demanda, asegurando que su sistema pueda manejar las fluctuaciones en asegurando que su sistema pueda manejar Soporte de Nube Híbrida. Kubernetes se puede ejecutar en las instalaciones en la nube o en ambos entornos, lo que lo convierte en una poderosa herramienta para administrar la infraestructura de la nube híbrida Tomemos un ejemplo. podría usar Kubernetes para administrar aplicaciones contenerizadas que se ejecutan tanto en su centro de datos local como en su El equipo de William podría usar Kubernetes para administrar aplicaciones contenerizadas que se ejecutan tanto en su centro de datos local como en su infraestructura de nube. Por ejemplo, Kubernetes podría orquestar la implementación de microservicios que procesan los datos de los clientes en la nube mientras interactúan con sistemas backend en el mientras interactúan con sistemas backend Cómo se puede utilizar Kubernts en entornos de nube híbrida. En los sistemas de nube híbrida, Kubernetes permite a los equipos ejecutar aplicaciones contenerizadas en múltiples entornos, que garantiza que las aplicaciones puedan escalar dinámicamente tanto en los sistemas principales como en la nube Caso de uso, el equipo de Williams usaría Kubernetes para administrar microservicios ejecutan en la nube para aplicaciones orientadas al cliente al tiempo que garantiza que esos microservicios permanezcan integrados con sistemas transaccionales Combinando herramientas de DevOps para una automatización integral. Las herramientas mencionadas Jenkins, Terraform, AWS Lambda y Kubernts trabajan juntas para proporcionar automatización integral para entornos y Kubernts trabajan juntas para proporcionar automatización integral para entornos de nube híbrida. Al combinar estas herramientas, puede automatizar todo desde el aprovisionamiento de infraestructura hasta la implementación, escalado y monitoreo de aplicaciones. Un ejemplo de flujo de trabajo. Terraform proporciona la infraestructura de nube necesaria para una nueva aplicación Jenkins automatiza la canalización de CICD, asegurando que el código de la aplicación se construye, prueba e implementa en entornos locales y en la nube Kubernetes administra la aplicación contenerizada, asegurando que se escala Entonces AWS Lambda automatiza tareas específicas como procesamiento impulsado por eventos o la supervisión en tiempo real sin la necesidad de servidores adicionales Un ejemplo, el equipo de William podría usar Terraform para administrar recursos en la nube, Jenkins para implementaciones automatizadas, ubernts para autocrating contenedores nube y en sistemas principales, y AwAmDA para activar procesos impulsados por eventos para aplicaciones orientadas al cliente usar Terraform para administrar recursos en la nube, Jenkins para implementaciones automatizadas, ubernts para autocrating contenedores en la nube y en sistemas principales, y AwAmDA para activar procesos impulsados por eventos para aplicaciones orientadas al cliente. Los resultados de esta lección incluyen, uno, Jenkins automatiza el proceso CICD, asegurando que el código se integre, asegurando que el código se integre, pruebe e implemente en entornos Jenkins automatiza el proceso CICD, asegurando que el código se integre, pruebe e implemente en entornos híbridos sin problemas. Dos, el formulario le permite administrar la infraestructura como código, lo que permite un aprovisionamiento y una configuración consistentes en todos los sistemas en la nube y en las instalaciones. En tres, AWS Lambda proporciona automatización sin servidor para tareas como el procesamiento de datos en tiempo real, mientras que Kubernetes orquesta contenerizadas Actividad de aprendizaje, reflexión. Considere cómo herramientas como Terraform, Jenkins y Kubernetes optimizarían las operaciones en ¿Qué tarea automatizarías usando estas herramientas? Pregunta de discusión, post en el foro. ¿Qué desarrollo de herramientas ha utilizado o planeado usar para administrar su entorno de nube híbrida? ¿Cómo mejorarían estas herramientas tu flujo de trabajo? Siguiente lección, construir un pipeline CICD para la Nube Híbrida. En la siguiente lección, nos centraremos en construir una canalización CICD para entornos de nube híbrida Aprenderá a crear e implementar una canalización CICD paso a paso, y exploraremos cómo automatizar las implementaciones en entornos de mainframe y cloud Listo para construir una tubería completamente automatizada, profundicemos en la lección tres del Módulo cinco. 20. Lección 3: creación de una tubería de CI/CD para la nube híbrida: Lección tres, construir un pipeline CICD para la Nube Híbrida. Ven a la Lección Tres del Módulo Cinco. En esta lección, recorreremos el proceso de construcción de un pipeline CICD adaptado para entornos de nube híbrida Para los directores de infraestructura de TI como William, que administran sistemas mainframe junto con la infraestructura Cloud, implementar una canalización CICD es crucial para automatizar implementaciones Al final de esta lección, sabrá cómo diseñar y construir una canalización CICD que integre aplicaciones de mainframe con sistemas nativos en la nube garantiza una implementación más rápida y confiable Al final de esta lección, comprenderá el proceso paso a paso de crear e implementar una canalización CICD para entornos de nube híbrida Explorar cómo automatizar la implementación en sistemas mainframe y plataformas en la nube. Empecemos. ¿Qué es un pipeline CICD? Una canalización de CICD es un proceso automatizado que integra integración continua, CI y CD de entrega continua para garantizar que los cambios de código se prueben, validan e implementen automáticamente prueben, validan e implementen En un entorno de nube híbrida donde partes de la aplicación pueden ejecutarse en el mainframe mientras que otras partes se ejecutan en la nube Una canalización de CICD garantiza que las actualizaciones se puedan implementar de manera consistente en ambas infraestructuras sin intervención manual CI de integración continua fusiona y prueba automáticamente los cambios de código de múltiples desarrolladores en un repositorio compartido CD de entrega continua automatiza la implementación de código superpuesto en entornos de producción, asegurando que las aplicaciones estén siempre listas para su lanzamiento Tomemos un ejemplo. El equipo de Williams podría usar una canalización de CICD para automatizar la implementación de aplicaciones web orientadas al cliente se ejecutan en la nube y al mismo tiempo actualizarlas y los sistemas mainframe que manejan el procesamiento de transacciones Da un paso en la construcción de un pipeline CICD para la nube híbrida. construcción de una canalización CICD implica varios pasos clave, desde la integración del código hasta la implementación automatizada Aquí hay una guía paso a paso para construir una canalización CICD para entornos de nube híbrida Paso uno, configura un repositorio de código compartido. El primer paso para construir una canalización de CICD es configurar un repositorio de código compartido Aquí es donde los desarrolladores almacenarán y administrarán su código, permitiendo la colaboración y el control de versiones. Los repositorios populares incluyen Git Hub GitLab y Bit Bucket Estructura del repositorio. Organice su repositorio de una manera que separe el código de mainframe del código de aplicación basado en la nube mientras permite que se integren en la misma canalización Código de mainframe, almacena adoquín JCL o código ensamblador que se ejecuta Código en la nube, código de tienda escrito en lenguajes modernos como JavaScript, Python o GO, que se ejecuta en plataformas Cloud. Tomemos un ejemplo. El equipo de William puede usar Github como repositorio compartido para almacenar tanto los scripts de procesamiento de transacciones de mainframe el código basado en la nube para la aplicación de banca móvil Paso dos, integrar la integración continua. El siguiente paso es integrar CI de integración continua en su pipeline. CI implica crear y probar automáticamente código cada vez que un desarrollador realiza un cambio. Esto asegura que el nuevo código no rompa el sistema y que los errores se capten principio del ciclo de desarrollo. Automatización de construcción. Utilice herramientas como Jenkins o Gitlab CI para automatizar el proceso de compilación tanto para mainframe como para Jenkins puede activar construcciones basadas en cambios de código y ejecutar pruebas automatizadas Pruebas. Implementar pruebas automatizadas para ambos entornos. Para el código de mainframe, use CA endeavor o la unidad IBM Z para realizar pruebas Para aplicaciones en la nube, use marcos de prueba como la unidad J o el selenio Tomemos un ejemplo. Cuando un desarrollador del equipo de Williams comete cambios el código de la aplicación de banca móvil, Jenkins activará automáticamente una prueba de compilación y ejecución para garantizar que la aplicación se integre sin problemas con el back-end de mainframes Paso tres, automatice la entrega continua. CD de entrega continua automatiza el proceso de implementación, asegurando que sus aplicaciones estén siempre en un estado desplegable En una nube híbrida, CD manejará implementación en entornos de mainframe y cloud. Implementación de mainframe, use herramientas como IBM Urban C Deploy o automatización CarLease para automatizar la implementación de aplicaciones de mainframe Implementación en la nube. Para entornos en la nube, herramientas como AWS C Deploy o Azure DevOps pueden automatizar la implementación de aplicaciones en múltiples instancias de Cloud Un ejemplo, para el equipo de Williams, CD asegura que cualquier actualización de código realizada la aplicación móvil se implemente automáticamente en AWS, mientras que las actualizaciones correspondientes se aplican al mainframe para mantener sincronizado el procesamiento de transacciones Paso cuatro, configura reversiones automatizadas. Los mecanismos automatizados de reversión son críticos en las tuberías CICD, especialmente en entornos híbridos donde una falla en un sistema, por ejemplo, en el mainframe puede afectar a toda la aplicación Los retrocesos le permiten volver rápidamente a una versión estable anterior si algo sale mal durante Reversiones de mainframe. Utilice herramientas de control de versiones como esforzarnos por retroceder a versiones anteriores de aplicaciones de mainframe. Reversiones en la nube En entornos de nube, las herramientas de CD como AWS Lambda o Kubernetes pueden retroceder automáticamente para garantizar que las implementaciones fallidas se inviertan rápidamente. Un ejemplo, si una actualización aplicación móvil de William causa un problema con el procesamiento de transacciones, la canalización de CICD revertirá automáticamente los cambios, asegurando que el mainframe y los sistemas en la nube permanezcan operativos sin Paso cinco, monitorear y optimizar la tubería. Una vez que la tubería CICD esté en su lugar, deberá monitorearla y optimizarla continuamente para asegurarse de que funcione sin problemas Las herramientas de monitoreo brindan visibilidad sobre el estado de sus aplicaciones, lo que le permite detectar posibles problemas antes de que afecten a los usuarios. Herramientas de monitoreo, use herramientas de monitoreo como Prometheus Grafana o New Relic para realizar un seguimiento de las métricas de rendimiento tanto en la nube como en los sistemas herramientas de monitoreo como Prometheus Grafana o New Relic para realizar un seguimiento de las métricas de rendimiento tanto en la nube como en los sistemas on-premise. Optimización de tuberías. Optimice continuamente su canalización reduciendo los tiempos de construcción, mejorando la cobertura de pruebas y refinando las estrategias de implementación. Un ejemplo, el equipo de William podría usar Grafana para monitorear métricas clave de rendimiento, como el tiempo de respuesta de la aplicación móvil y la velocidad de procesamiento de transacciones en el mainframe, asegurando que ambos entornos funcionen Desafíos y mejores prácticas para los pipeline CICD de nube híbrida construcción y administración de una canalización CICD en entornos de nube híbrida viene con su propio conjunto de desafíos Sin embargo, seguir las mejores prácticas puede ayudar a mitigar estos desafíos. Sincronización entre mainframe y Cloud. Uno de los principales desafíos es garantizar que las actualizaciones de código tanto en el mainframe como en los sistemas en la nube se implementen de forma sincrónica Una discordancia en el tiempo de implementación puede dar lugar a fallas o inconsistencias en las aplicaciones Mejores prácticas. Implemente una estrecha sincronización entre las implementaciones de mainframe y cloud asegurando que ambos mainframes utilicen las mismas herramientas y procesos de canalización Seguridad y cumplimiento. En entornos híbridos, particularmente en industrias como la banca, la seguridad y el cumplimiento son críticos. Su canalización de CICD debe incorporar comprobaciones de seguridad para garantizar que tanto los sistemas en la nube los sistemas in situ cumplan con las regulaciones La mejor práctica, use debsecppPractices para integrar verificaciones de seguridad en la Por ejemplo, utilice AWS Security Hub o Azure Security Center para automatizar las comprobaciones de seguridad y cumplimiento durante el proceso de implementación. Complejidad en la gestión de sistemas heredados. mainframes suelen ser complejos y menos flexibles que los entornos en la nube. Integrar mainframe en una canalización CICD moderna puede ser un desafío debido a las herramientas y procesos especializados Las mejores prácticas, aproveche herramientas especializadas como la implementación conjunta urbana o las implementaciones de mainframe y asegúrese de que la canalización CICD se adapte a las necesidades específicas de los entornos mainframe puntos clave de esta lección incluyen uno, una canalización de CICD automatiza el proceso de integración, prueba e implementación de código en entornos híbridos, asegurando que las actualizaciones se implementen asegurando que las actualizaciones se implementen manera consistente tanto en mainframes Dos, herramientas como Jenkins, IBM Urban C Deploy y AWS codploy son esenciales para administrar canalizaciones CICD en entornos de nube híbrida, lo que permite actualizaciones fluidas en ambas infraestructuras Tres, el monitoreo y la optimización de la canalización CICD garantizan que las aplicaciones sigan funcionando y sean resilientes con mecanismos automatizados de reversión implementados para manejar fallas Ganar actividad, reflexión. Considere cómo una canalización CICD con implementaciones optimizadas en sus entornos mainframe y Cloud, ¿qué desafíos prevé para implementar esta automatización? implementaciones optimizadas en sus entornos mainframe y Cloud, ¿qué desafíos prevé para implementar esta automatización? Pregunta de discusión. Publicar en el foro, ¿qué herramientas utilizarías para automatizar CICD en tu entorno de nube híbrida ¿Cómo sincronizarías las actualizaciones entre los sistemas on premise y las plataformas Cloud Siguiente lección, estrategias de automatización para entornos híbridos. En la siguiente lección, exploraremos estrategias de automatización para administrar entornos híbridos de manera eficiente. Aprenderá a usar la infraestructura como código o IAC para administrar sistemas híbridos complejos y discutir desafíos comunes de automatización y cómo superarlos. Listo para sumergirnos en estrategias avanzadas de automatización, pasemos a la lección cuatro del Módulo cinco. 21. Lección 4: estrategias de automatización para entornos híbridos: Lección cuatro, estrategias de automatización para entornos híbridos. Bienvenido a la Lección Cuatro del Módulo Cinco. En esta lección, exploraremos estrategias de automatización diseñadas para entornos híbridos. Los sistemas se distribuyen a través de mainframes locales y plataformas en la nube Para un director de infraestructura de TI como William, implementar la estrategia de automatización correcta puede mejorar significativamente la eficiencia operativa, reducir errores y permitir administración fluida de ambos entornos. Nos centraremos en cómo usar el código de infraestructuras para administrar estos complejos sistemas y discutir los desafíos comunes de automatización y cómo superarlos. Al final de esta lección, uno comprenderá cómo usar el código de infraestructuras para código de infraestructuras administrar de manera eficiente los entornos híbridos. Dos, identificar desafíos comunes de automatización en sistemas híbridos y aprender estrategias para superarlos. Profundicemos en estrategias de automatización que potenciarán su entorno de nube híbrida. Comprender el código de infraestructuras para entornos híbridos. código de infraestructuras o IAC es la práctica de administrar y aprovisionar infraestructura usando archivos de configuración legibles por máquina en lugar de configurar manualmente hardware y sistemas En entornos de nube híbrida donde la infraestructura abarca tanto sistemas mainframe como plataformas en la nube, IAC es una herramienta poderosa para garantizar la consistencia, escalabilidad y IAC es una herramienta poderosa para garantizar consistencia, escalabilidad ¿Qué es la infraestructura como código? IAC le permite definir y administrar infraestructura como servidores, redes, bases de datos y balanceadores de carga usando código Esto facilita la automatización de la creación y administración de recursos en entornos locales y en la nube. Al usar IAC, puede tratar infraestructura como el software lo que le permite actualizarlo, probarlo y automatizarlo Planteamiento declarativo. En IAC, describe cómo debe ser su infraestructura y el sistema automáticamente asegura que su entorno coincida con el estado deseado Repetibilidad y consistencia. IAC elimina el proceso manual de configuración de la infraestructura, reduce los errores humanos y garantiza que los entornos se configuran de manera consistente Tomemos un ejemplo. El equipo de Williams podría usar IAC para automatizar el aprovisionamiento de ambos recursos en la nube para sus clientes, aplicaciones bancarias y recursos de mainframe que manejan transacciones en tiempo real Por ejemplo, Terraform se puede utilizar para definir y administrar la infraestructura en ambos entornos, asegurando una configuración consistente en todos los sistemas híbridos Implementación de IAC en entornos híbridos. Cuando se utiliza la infraestructura como código o IAC en entornos híbridos, el objetivo es automatizar el aprovisionamiento, la configuración y la administración de recursos tanto en sistemas principales como mainframes y plataformas en la nube como AWS, Azure o Google Aquí le mostramos cómo puede implementar IAC de manera efectiva en un entorno híbrido Selección de herramientas para IAD híbrido. Para automatizar entornos híbridos, necesitará herramientas que puedan manejar tanto los recursos de la nube como la infraestructura in situ. Aquí hay algunas herramientas comunes para IAC y entornos híbridos. Terraform, una de las herramientas de IAC más populares, Terraform admite múltiples plataformas en la nube y entornos locales Permite definir la infraestructura en un lenguaje declarativo y administrar recursos a través de sistemas híbridos Answerable es una herramienta de automatización de código abierto que puede automatizar el aprovisionamiento tanto en sistemas principales como en entornos Cloud Es particularmente útil para automatizar la administración de configuración en entornos híbridos. AWS CloudFormation. Para entornos híbridos específicos de AWS, la formación de la nube se puede utilizar para definir y administrar recursos. Se integra bien con los sistemas primarios a través de servicios como AWS outpost Tomemos un ejemplo. El equipo de Williams puede usar Terraform para definir tanto recursos basados en la nube como AWS EC two instance y bases de datos RDS e infraestructura de mainframe in premise Al escribir el código de la infraestructura, el equipo puede aprovisionar y administrar recursos en ambos entornos de manera consistente. Automatizar el aprovisionamiento y la configuración. Una vez que haya seleccionado sus herramientas de IAC, el siguiente paso es automatizar el aprovisionamiento y la configuración de los recursos IAC le permite crear scripts que automatizan la implementación de servidores, redes, almacenamiento y otros componentes de infraestructura Aprovisionamiento automatizado, escritura de scripts para automatizar la creación de entornos en la nube y recursos de mainframe Estos scripts pueden aprovisionar infraestructura en cuestión de minutos, eliminando la necesidad de configuraciones manuales. Configuración automatizada. Utiliza herramientas como Ansibl o Puppet para automatizar la configuración de servidores y aplicaciones, asegurando que estén correctamente configurados y alineados con los requerimientos de tu negocio Tomemos un ejemplo. Cuando la institución financiera Williams lanza un nuevo producto bancario, su equipo puede usar la provisión de TerraForm, la infraestructura en la nube necesaria para alojar el producto y Ansibl configurar el sistema mainframe que procesará Control de versiones y colaboración con IAC. Una de las ventajas clave de IAC es que código de infraestructura se puede almacenar en sistemas de control de versiones como Git Esto permite la colaboración entre múltiples equipos y los cambios en la infraestructura pueden ser rastreados y revisados al igual que el código de la aplicación. Control de versiones, almacenar scripts IAC en repositorios como GitHub o Gitlab permitiendo a tu equipo colaborar y revisar los cambios de infraestructura antes de que Integración continua. Integre IAC con sus canalizaciones CICD para probar y validar automáticamente los cambios de infraestructura antes de que se implementen Tomemos un ejemplo. El equipo de William almacenaría sus scripts Terraform en GitHub, donde los miembros del equipo pueden revisar los cambios propuestos la infraestructura de Cloud o configuraciones de mainframe antes de implementarlos Esto asegura que todos los cambios sean revisados y aprobados. Superar los desafíos comunes de automatización en entornos híbridos. Si bien la automatización es crucial en entornos híbridos, existen desafíos específicos que suelen enfrentar los equipos. Aquí, exploraremos algunos de los desafíos más comunes y cómo superarlos. Garantizar la consistencia en entornos locales y en la nube. Uno de los mayores desafíos en entornos híbridos es garantizar coherencia entre los sistemas mainframe locales y la infraestructura de nube Diferentes entornos pueden requerir diferentes configuraciones, lo que lleva a posibles discrepancias. Solución, se herramientas de IAC como Terraform, que soportan múltiples plataformas para definir una infraestructura consistente tanto en entornos locales como en la nube Esto asegura que las configuraciones permanezcan alineadas incluso a medida que la infraestructura evoluciona Un ejemplo, el equipo de Williams puede usar Terraform para definir los recursos de infraestructura tanto para la nube como para los sistemas locales, asegurando que las configuraciones de red, las políticas de seguridad y los recursos informáticos se apliquen de manera consistente Gestionar dependencias complejas. En entornos híbridos, los sistemas suelen tener dependencias complejas que abarcan tanto la nube como la infraestructura local Por ejemplo, una aplicación basada en la nube puede depender de una base de datos de mainframe para el procesamiento de transacciones en tiempo real La administración de estas dependencias puede ser difícil durante las implementaciones automatizadas Solución, use herramientas de orquestación como Kubernetes o Jenkins para coordinar implementaciones en entornos híbridos, asegurando que todas las dependencias Kubernetes o Jenkins para coordinar implementaciones en entornos híbridos, asegurando que todas las dependencias se tengan en cuenta y manejen correctamente. Un ejemplo, el equipo de Williams puede usar Jenkins para orquestar la implementación de nuevas funciones en la aplicación de banca móvil, asegurando que las actualizaciones se integren sin problemas con el sistema de procesamiento de transacciones basado en mainframe Seguridad y cumplimiento. automatización de entornos híbridos introduce nuevos desafíos de seguridad, especialmente en lo que respecta a la protección de datos confidenciales y al cumplimiento de las regulaciones de la industria como PCIDSS Solución, implemente las mejores prácticas de seguridad dentro de sus scripts de IAC, como la definición de configuraciones de red seguras, cifrado y políticas de control de acceso Además, integre comprobaciones de seguridad en su canalización de automatización para garantizar el cumplimiento de los requisitos reglamentarios. Un ejemplo, el equipo de Williams puede usar NSB para automatizar la configuración de firewalls, políticas de cifrado y controles de acceso tanto en su infraestructura de mainframe como en la nube, asegurando que el sistema bancario siga cumpliendo con Mejores prácticas para la automatización en la Nube Híbrida. Para aprovechar al máximo la automatización en entornos de nube híbrida, es importante seguir las mejores prácticas que garanticen escalabilidad, la seguridad y la eficiencia Modularizar el código de infraestructura. división de su IAC en componentes modulares más pequeños permite una mejor reutilización y mantenibilidad Cada módulo puede representar una parte específica de su infraestructura, como una configuración de red o una configuración de base de datos, que se puede reutilizar en múltiples entornos. Ejemplo, el equipo de Williams puede crear un módulo o configuraciones de base de datos que se pueden aplicar tanto para las bases de datos mainframe como para las bases de datos Cloud, asegurando que ambos sistemas utilicen una configuración similar Integre las pruebas en las tuberías de automatización. Siempre pruebe los cambios de infraestructura antes de que se implementen. Utilice herramientas como T test o inspeccionar para escribir pruebas automatizadas para su infraestructura, asegurando que todo esté configurado de manera correcta y segura. Por ejemplo, el equipo de Williams puede integrar pruebas automatizadas en su canalización de CICD para garantizar que los cambios recursos de la nube y mainframe se validen antes de que se implementen Monitoree y optimice la automatización. Finalmente, monitoree continuamente sus procesos de automatización para identificar cuellos de botella Utilice herramientas de monitoreo como Prometheus o AWS Cloud watch para obtener visibilidad el rendimiento de su infraestructura y flujo de trabajo de automatización Ejemplo, el equipo de Williams puede usar Prometheus para monitorear el rendimiento de la infraestructura, identificando áreas donde los scripts de automatización necesitan optimización para reducir los tiempos de implementación o mejorar el rendimiento del sistema Las conclusiones clave de esta lección incluyen, una, código de infraestructuras IAC le permite automatizar el aprovisionamiento y la administración de recursos en entornos de nube híbrida, que garantiza la consistencia y Dos, superar los desafíos comunes en la automatización híbrida, como administrar dependencias, garantizar la consistencia y abordar problemas de seguridad mediante el uso herramientas de orquestación y mejores prácticas de automatización Tres, siga las mejores prácticas como modularización del código de infraestructura, integración de pruebas automatizadas y monitoreo continuo de sus procesos de automatización o mejoras Ganar actividad, reflexión. ¿Cómo aplicaría IAC para automatizar y administrar tanto en entornos primis como Plowd en su organización? administrar tanto en entornos primis como Plowd en ¿Qué retos específicos prevé y cómo los superaría? Pregunta de discusión, post en el foro, ¿qué herramientas de IAC has usado o planeas usar para automatizar tu infraestructura de nube híbrida ¿Cómo han mejorado estas herramientas la eficiencia operativa? Siguiente lección, retos de seguridad en sistemas de nube híbrida. En el siguiente módulo, cambiaremos nuestro enfoque hacia la seguridad, el cumplimiento y la gobernanza en sistemas híbridos. En la lección uno del Módulo seis, exploraremos los desafíos de seguridad únicos que surgen en entornos híbridos, especialmente en industrias como las finanzas, y discutiremos cómo mantener la seguridad en entornos locales y en la nube. Emocionados por proteger su infraestructura híbrida, pasemos al Módulo seis y aprendamos a superar los desafíos de seguridad en los sistemas de nube híbrida. 22. Lección 1: desafíos de seguridad en los sistemas de nube híbrida: Bienvenido al Módulo seis, asegurando el cumplimiento y la gobernanza en sistemas híbridos. seguridad y el cumplimiento son fundamentales para las arquitecturas de nube híbrida, especialmente en industrias reguladas como Este módulo cubre marcos de seguridad, métodos de cifrado y estrategias de cumplimiento. Los estudiantes también aprenderán a implementar políticas de gobierno que cumplan con los requisitos regulatorios tanto en entornos mainframe como en la nube. Lección uno, desafíos de seguridad en sistemas de nube híbrida. A Bienvenido al Módulo seis, donde nos centraremos en la seguridad, cumplimiento y la gobernanza en entornos de nube híbrida. Para un director de infraestructura de TI como William, la naturaleza única de los sistemas híbridos, combinación de mainframes locales y entornos de nube presenta un conjunto distinto de desafíos de seguridad Esta lección proporcionará una visión general de esos desafíos, particularmente para industrias reguladas como las finanzas, donde mantener la seguridad tanto de los sistemas locales como en la nube es primordial. Al final de esta lección, comprenderá los desafíos de seguridad únicos en los entornos de nube híbrida. Dos, aprender a mantener la seguridad tanto en las infraestructuras locales como en la nube, particularmente en industrias con estrictos requisitos reglamentarios. Comencemos examinando el panorama de la seguridad en los sistemas híbridos e identificando los desafíos críticos que organizaciones como la suya deben abordar. Descripción general del desafío de seguridad en entornos de nube híbrida. En entornos híbridos, las organizaciones deben asegurar dos infraestructuras distintas en sistemas locales como mainframes y plataformas basadas en la nube como AWS, Azure o Google Cloud Cada infraestructura tiene sus propios requisitos de seguridad y combinarlos en un solo sistema cohesivo introduce nuevas vulnerabilidades Analicemos los principales desafíos de seguridad. Expandiendo la superficie de ataque. entornos híbridos aumentan la superficie de ataque porque abarcan tanto los sistemas locales como en la nube. Esto crea más puntos de entrada para posibles atacantes. La necesidad de proteger los datos y el tránsito entre los entornos locales y en la nube, junto con asegurar las aplicaciones para abarcar ambas infraestructuras, hacen que los sistemas híbridos sean inherentemente más complejos de asegurar Seguridad en las instalaciones. Los sistemas locales, como los mainframes, suelen estar protegidos a través de firewalls de red, sistemas de detección de intrusiones y controles de acceso físico Seguridad en la nube. En entornos Cloud, las organizaciones confían en modelos de responsabilidad compartida con proveedores de nube donde el proveedor de Cloud maneja cierta seguridad como la seguridad del centro de datos físico, pero la organización es responsable asegurar la aplicación de datos y el acceso. Tomemos un ejemplo. institución financiera Williams procesa transacciones de clientes en tiempo real en el mainframe mientras almacena los datos de los clientes en la nube Ambos sistemas necesitan ser protegidos contra ataques como brechas de datos o ataques de Dios cruzan ambas infraestructuras Seguridad y cumplimiento de los datos. Para industrias reguladas como Finanzas, mantener el cumplimiento de regulaciones como PCIDSS, GDPR e HIPA agrega complejidad a la seguridad de la nube híbrida Estas regulaciones requieren controles estrictos sobre cómo se manejan los datos confidenciales, incluido el cifrado, administración de acceso y las pistas de auditoría. El desafío en los entornos híbridos es garantizar que las políticas de seguridad de datos se apliquen manera consistente tanto en entornos locales como en la nube. Datos en tránsito. Los datos transferidos entre los sistemas primarios y la nube deben estar encriptados para evitar la interceptación durante el tránsito Dirección de datos. Tanto los datos en la nube como los locales deben estar protegidos mediante políticas de cifrado y control de acceso para proteger contra el acceso no autorizado. Tomemos un ejemplo. Williams Institution necesita cifrar los datos financieros de los clientes cuando se transfieren del mainframe a la nube para su procesamiento También deben garantizar que los datos almacenados en entornos Cloud cumplan con los estándares PCIDSS para asegurar la información de pago Gestión de Identidad y Acceso. Otro reto importante en entornos híbridos es administrar identidad y el control de acceso a través de dos infraestructuras distintas. En entornos locales, las organizaciones suelen utilizar sistemas como Active Directory o EDAP para la autenticación Mientras están en la nube, confían en servicios como AWS IAM o Azure 80 Garantizar un control de acceso consistente y evitar acceso no autorizado en ambos entornos puede ser difícil. Autenticación multifactor o MFA. uso de MFA es esencial para asegurar acceso tanto a los recursos locales como a los recursos en la nube, asegurando que incluso si las credenciales están comprometidas, atacantes no pueden obtener acceso fácilmente Control de acceso basado en roles o RBAC. Implementar RBAC para controlar quién tiene acceso a sistemas específicos y garantizar que los usuarios solo tengan los permisos necesarios para su rol Tomemos un ejemplo. En la organización Williams, el equipo de DevOps necesita acceso tanto a entornos en la nube para implementación de aplicaciones como a sistemas mainframe para el procesamiento de backend La implementación de MFA y RBAC garantiza que el acceso esté estrictamente controlado y que solo el personal autorizado pueda modificar los sistemas críticos Um, mantener la seguridad en entornos locales y en la nube. Ahora que hemos identificado los desafíos, veamos algunas estrategias para mantener la seguridad tanto en las infraestructuras locales como en la nube en un entorno híbrido. Asegurar los datos en tránsito. Una de las medidas de seguridad más críticas en el sistema híbrido es asegurar los datos en tránsito entre sistemas locales y plataformas en la nube. Sin la seguridad adecuada, los datos podrían ser interceptados durante la transmisión, lo que llevaría a posibles violaciones de datos Cifrado en tránsito. Utilice el cifrado TLS SSL para proteger los datos a medida que se mueven entre entornos locales y en la nube. Toda la comunicación entre sistemas debe cifrarse para garantizar que la información confidencial permanezca segura. Conexiones de red seguras. Utilice VPN o conexiones dedicadas como AWS Direct Connect o Azure Express Route para crear conexiones privadas seguras entre sus sistemas locales y su entorno en la nube Estas conexiones pasan por alto la Internet pública, reduciendo el riesgo de interceptación. Tomemos un ejemplo. El equipo de Williams puede implementar AWS Direct Connect para transmitir de forma segura los datos de las transacciones de los clientes desde su mainframe a AWS para su procesamiento en la nube Esta conexión dedicada garantiza que los datos se cifren y transmitan de forma segura sin exposición a la Internet pública. Políticas de seguridad consistentes en todos los entornos. Conseguir políticas de seguridad consistentes tanto en entornos locales como en la nube es esencial para evitar brechas en la seguridad Estas políticas deben regir el control de acceso, cifrado, la protección de datos y la auditoría. Gestión Unificada de Seguridad. Utilice herramientas como Azure Security Center, AWS Security Hub o soluciones de terceros para centralizar la administración de la seguridad tanto en entornos locales como en la nube. Estas herramientas proporcionan un único panel de vidrio para monitorear y aplicar políticas de seguridad manera consistente en todas las infraestructuras. Auditorías de seguridad automatizadas, auditar regularmente las políticas de seguridad y garantizar que tanto los entornos locales como en la nube cumplan con los requisitos reglamentarios. Las herramientas de automatización pueden ayudar a monitorear el cumplimiento y alertar a los equipos de cualquier incumplimiento de seguridad Un ejemplo, el equipo de Williams puede usar AWS Security Hub para monitorear y aplicar políticas de seguridad consistentes tanto en la nube en sus sistemas mainframe locales Esto garantiza que se las mismas políticas de cifrado y control de acceso apliquen las mismas políticas de cifrado y control de acceso en ambos entornos. Asegurar cargas de trabajo híbridas con arquitectura de confianza cero. La adopción de una arquitectura de confianza cero garantiza que cada solicitud de acceso, ya sea desde dentro o fuera la red, se verifique antes de que se otorgue el acceso. Esto es especialmente importante en entornos híbridos donde las cargas de trabajo abarcan múltiples infraestructuras Principios de Zero Trust. Implemente principios de confianza cero como el acceso menos privilegiado, autenticación continua y la microsegmentación para garantizar que incluso los usuarios internos sean verificados antes de acceder a recursos confidenciales Micro segmentación. Utilice la microsegmentación para dividir su entorno híbrido en segmentos más pequeños, aislando las cargas de trabajo y limitando el impacto de las brechas de seguridad Un ejemplo, en la organización Williams, la microsegmentación se puede utilizar para aislar diferentes partes de la infraestructura híbrida, asegurando que incluso si se incumple el entorno de la nube, el sistema mainframe permanece seguro Mejores prácticas para la seguridad en la nube híbrida. Para proteger eficazmente los entornos híbridos, es esencial seguir las mejores prácticas que aborden los desafíos únicos de administrar infraestructuras tanto en las instalaciones como en la nube. Implementar seguridad de múltiples capas. Utilice un enfoque de seguridad de múltiples capas que incluya cifrado, control de acceso, monitoreo y detección de amenazas. Este enfoque por capas asegura que incluso si una capa se ve comprometida, las capas restantes continúan protegiendo el sistema. Cifrado. Utilice el cifrado tanto para los datos en tránsito como para la dirección de datos. Gestión de Identidad. Utilice mecanismos de autenticación fuertes como MFA y RBAC Monitoree continuamente su entorno híbrido con herramientas como AWS CloudWatch, Azure Monitor o Splunk para obtener visibilidad en tiempo real de las amenazas de seguridad Monitoreo y respuesta de seguridad centralizados. Implemente un sistema de monitoreo de seguridad centralizado para supervisar tanto sus entornos en la nube como en las instalaciones. Tener un único punto de control permite a los equipos de seguridad monitorear y responder a las amenazas rápidamente. Respuesta a incidentes. Asegúrese de que su plan de respuesta a incidentes incluya procedimientos tanto para los sistemas en la nube como en las instalaciones para que los equipos de seguridad puedan responder a las amenazas en toda la infraestructura híbrida. Auditorías periódicas de seguridad y comprobaciones de cumplimiento. Realice auditorías de seguridad periódicas y verificaciones de cumplimiento para garantizar que su entorno híbrido se adhiera a las regulaciones de la industria y a las políticas de seguridad interna Las herramientas de automatización pueden ayudar con el monitoreo continuo del cumplimiento. Monitoreo de cumplimiento. Utilice herramientas automatizadas para monitorear continuamente el cumplimiento regulaciones como PCIDSS, GDPR e Las conclusiones clave de esta lección incluyen, uno, los entornos híbridos presentan desafíos de seguridad únicos, incluida una superficie de ataque ampliada, requisitos de seguridad de datos y administración de identidad y acceso a través de sistemas locales y en la nube Dos, el tránsito de datos de seguridad con cifrado y el uso conexiones de red dedicadas son cruciales para proteger los datos confidenciales a medida que se mueven entre entornos. tercer lugar, adopte una arquitectura de confianza cero e implemente políticas de seguridad consistentes tanto en políticas de seguridad consistentes tanto en entornos locales como en la nube para garantizar una protección integral. Ganar actividad, reflexión. ¿Cómo protegería los datos en tránsito y garantizaría políticas de seguridad consistentes en todo su entorno híbrido? ¿Qué retos podrías enfrentar y cómo los superarías? Pregunta de discusión, post en el foro, ¿cómo gestiona su organización la identidad y el control de acceso tanto en la nube como en el entorno local? ¿Cómo se asegura la consistencia en las políticas de seguridad? Siguiente lección, desarrollar un marco de seguridad en la nube híbrida. En la siguiente lección, exploraremos cómo desarrollar un marco de seguridad integral para entornos híbridos. Aprenderá a incorporar elementos clave como cifrado, autenticación multifactor y arquitecturas de confianza cero, y discutiremos las mejores prácticas para proteger los datos tanto durante el tránsito Listo para construir un marco de seguridad para su nube híbrida. Pasemos a la lección dos del Módulo seis. Um, 23. Lección 2: desarrollo de un marco de seguridad en la nube híbrida: Lección dos, desarrollar un marco de seguridad en la nube híbrida. Bienvenido a la Lección Dos del Módulo Seis. En esta lección, nos centraremos en cómo desarrollar un marco de seguridad integral adaptado a entornos de nube híbrida. Para un director de infraestructura de TI como William, construir un marco de seguridad que incorpore elementos clave como el cifrado, autenticación multifactor y las arquitecturas de confianza cero es crucial para proteger tanto en sistemas principales como en entornos También nos sumergiremos en las mejores prácticas para proteger los datos en tránsito y la dirección de datos, asegurando el más alto nivel de seguridad en toda su infraestructura híbrida. Al final de esta lección, aprenderá a crear un marco de seguridad integral en la nube híbrida con elementos clave como cifrado, MFA y Zero Trust Para, explorar las mejores prácticas para proteger los datos durante el tránsito y la dirección. Profundicemos en los componentes esenciales del marco de seguridad de la nube híbrida y cómo implementarlos de manera efectiva. Elementos clave de un marco de seguridad integral en la nube híbrida. Un marco de seguridad sólido para entornos híbridos debe tener en cuenta los desafíos específicos de administrar tanto mainframes locales como plataformas en la nube Vamos a desglosar los elementos clave de este marco y cómo implementarlos. Cifrado, protección de datos en tránsito y dirección. El cifrado es fundamental para cualquier marco de seguridad. En un entorno de nube híbrida, cifrado garantiza que los datos confidenciales permanezcan protegidos a medida que se mueven entre el sistema local y las plataformas en la nube, así como cuando se almacenan en cualquiera de los dos entornos. Cifrado en tránsito. Cifrar los datos durante la transferencia entre sus sistemas en las instalaciones y en la nube es fundamental para evitar el acceso no autorizado Utilice protocolos de encriptación TLS SSL para todas las transferencias de datos. Las herramientas de ejemplo utilizan AWS Direct Connect o Azure Express Route para conexiones cifradas seguras entre centros de datos locales y la nube. Dirección de cifrado. Asegúrese de que los datos estén cifrados cuando se almacenan tanto en sus sistemas mainframe locales como en el almacenamiento en la nube Utilice herramientas nativas de la nube como AWS KMS o Azure Key volt para administrar claves de cifrado y proteger los datos almacenados en la nube. Ejemplo, implementación, encriptar registros financieros confidenciales y datos de clientes almacenados en AWS usando KMS para garantizar que incluso si el almacenamiento en la nube está comprometido, los datos permanecen inaccesibles sin las claves de descifrado adecuadas Tomemos un ejemplo. El equipo de Williams puede usar el cifrado DLS para asegurar la transferencia de datos financieros de los clientes desde el mainframe a AWS y KMS para garantizar los datos una vez que se almacenan en la nube Esto garantiza que tanto los datos como el tránsito y los datos abordados estén completamente protegidos. Autenticación multifactor o MFA, fortaleciendo la protección de la identidad Autenticación de múltiples factores, MFA agrega una capa adicional de seguridad al requerir que los usuarios verifiquen su identidad usando múltiples factores Normalmente, algo que saben como una contraseña, algo que tienen un token de seguridad o teléfono y algo que son biométricos Soluciones de MFA en la Nube. En entornos Cloud, MFA se puede implementar usando servicios como AWS MFA, Azure MFA o herramientas de terceros MFA asegura que incluso si las credenciales de un usuario están comprometidas, atacantes no pueden acceder a sistemas críticos sin el segundo factor de autenticación Por ejemplo, la implementación, requieren MFA para todos los inicios de sesión tanto en aplicaciones Cloud como en sistemas locales, especialmente para usuarios con acceso privilegiado, como administradores e ingenieros de DevOps En Premisa MFA. Amplíe también las soluciones de MFA a sus sistemas in situ. Integrar Active Directory o LDAP con MFA y ayudar a proteger aplicaciones críticas en las instalaciones como las que se ejecutan en su mainframe Tomemos un ejemplo. Para Williams Institution, se puede requerir MFA para cualquier empleado que acceda al mainframe o a los sistemas en la nube de forma remota, lo que garantiza que solo el personal autorizado pueda acceder a los sistemas sensibles Arquitectura Zero Trust, no confíe en nadie, siempre verifique. Un modelo de seguridad Zero Trust opera bajo el principio de nunca confiar, siempre verificar, es decir, que nadie, ya sea dentro o fuera la organización es de confianza por defecto. Toda solicitud de acceso debe ser autenticada, autorizada y validada continuamente Acceso menos privilegiado. Aplicar el principio de menor privilegio asegurando que los usuarios solo tengan acceso a los recursos que necesitan para realizar su trabajo y nada más. Esto limita el potencial de una brecha de seguridad al reducir la cantidad de sistemas a los que un atacante puede acceder si compromete una cuenta. Implementación de ejemplo, use AWS IAM o Azure AD para crear controles de acceso basados en roles RBAC que otorguen acceso limitado a los recursos de la nube en función de las funciones del usuario dentro de la organización Autenticación continua. Implementar autenticación continua para garantizar que los usuarios permanezcan verificados durante toda su sesión, especialmente para el acceso a datos o aplicaciones confidenciales. Implementación de muestras, integración de verificación biométrica o autenticación basada en contexto, por ejemplo, detectar ubicaciones o dispositivos de inicio de sesión inusuales para agregar una capa adicional de protección Tomemos un ejemplo. El equipo Williams podría usar AWSIAM para crear un estricto acceso basado en reglas para diferentes Limitar a los ingenieros de DevOps solo a los recursos que necesitan para administrar las implementaciones en la nube y, al mismo tiempo, garantizar que los administradores de mainframe solo tengan acceso a Mejores prácticas para asegurar datos en entornos híbridos. Los datos son el activo más valioso en cualquier organización, especialmente para industrias como las finanzas, donde proteger los datos de clientes y transacciones es fundamental. Estas son las mejores prácticas para proteger los datos durante el tránsito y la dirección. Asegurar los datos en tránsito. Los datos que se mueven entre sus sistemas locales y los entornos Cloud son especialmente vulnerables durante el tránsito. A continuación, le indicamos cómo asegurarlo encriptar todas las transferencias. Cifrar siempre las transferencias de datos utilizando protocolos de cifrado SSL TLS para evitar la interceptación por parte Ejemplo, para Williams Financial Institution, DLS se puede utilizar para cifrar datos que se mueven de bases de datos de mainframe a AWSs tres u otras Utilice conexiones de red privadas. En lugar de confiar en la Internet pública para transferir datos confidenciales, use conexiones dedicadas como AWS Direct Connect o Azure Express Route para crear conexiones privadas de alta velocidad entre los sistemas locales y en la nube. Tomemos un ejemplo. El equipo de Williams puede configurar AWS Direct Connect para transferir de forma segura los registros de transacciones del mainframe a la nube evitando el riesgo asociado con una Internet pública Asegurar la dirección de datos. Los datos almacenados en entornos Cloud o en sistemas principales deben cifrarse y protegerse del acceso no autorizado. Cifrado en la nube, encripte todos los datos almacenados en la nube usando herramientas como AWSKMS o Azure Keyvolt y asegúrese de que las claves de cifrado se administren y roten correctamente Ejemplo, cifrar todos los datos de la cuenta de cliente almacenados en la base de datos AWSRDS o Azure SQL usando KMS Cifrado en las instalaciones. Para los sistemas mainframe, implemente el cifrado de datos a nivel de almacenamiento utilizando herramientas de cifrado integradas para proteger las bases de datos locales Por ejemplo, utilice la facilidad de cifrado ZOS de IBM para cifrar la dirección de datos del mainframe, asegurando que los registros financieros de los clientes almacenados en el mainframe permanezcan seguros Un ejemplo, el equipo de Williams puede asegurarse de que los datos de los clientes almacenados en el mainframe se cifren mediante el cifrado IBM ZOS, mientras que los datos almacenados en la nube están protegidos mediante AWS KMS Esto garantiza que ambos entornos cumplan con los estándares de cifrado necesarios. Supervisar y auditar su marco de seguridad híbrido. El monitoreo y la auditoría regulares son fundamentales para garantizar que su marco de seguridad siga siendo efectivo y cumpla con las regulaciones. A continuación, le indicamos cómo implementar estos controles. Monitoreo centralizado. Utilice una solución de monitoreo de seguridad centralizada para realizar un seguimiento las actividades tanto en entornos locales como en la nube. Soluciones como AWS Cloud Watch, Azure Security Center y Splunk proporcionan monitoreo en tiempo real de eventos de seguridad, lo que permite a su equipo detectar y responder a posibles amenazas rápidamente Por ejemplo, implementar AWS Cloud Watch para monitorear las actividades en la nube mientras usa Splunk para rastrear eventos principales y generar alertas de seguridad para cualquier comportamiento sospechoso Auditoría continua y comprobaciones de cumplimiento. Las auditorías periódicas garantizan que su marco de seguridad cumpla con los estándares regulatorios y se adhiera a las políticas de seguridad internas Auditorías automatizadas. Utilice herramientas como AWS Config o Azure Policy auditar automáticamente las configuraciones y garantizar el cumplimiento de PCIDSS, GDPR y otras regulaciones de la industria Por ejemplo, el equipo de Williams puede usar AWS Config para verificar automáticamente que todos los recursos de la nube cumplan con los requisitos de PCI DSS mientras ejecuta auditorías periódicas en sistemas mainframe para garantizar el cumplimiento del RGPD Los puntos clave de esta lección incluyen, uno, un marco de seguridad integral para entornos híbridos que debe incluir elementos clave como cifrado, autenticación multifactor arquitecturas de confianza cero para garantizar la protección de datos y el acceso seguro a través de sistemas locales y en Dos, el cifrado tanto para los datos en tránsito como para la dirección de datos es esencial para evitar el acceso no autorizado a información confidencial. Tres, son necesarios controles regulares de monitoreo, auditoría y cumplimiento para garantizar que su marco de seguridad siga siendo efectivo y alineado con los requisitos reglamentarios. Actividad de aprendizaje, reflexión. Considere las necesidades específicas del entorno híbrido de su organización. ¿Cómo se implementa el cifrado, MFA y Zero Trust para asegurar los sistemas locales y en la nube Pregunta de discusión, post en el foro. ¿Qué estrategias ha implementado para proteger los datos en tránsito y la confianza de los datos en su entorno híbrido? ¿Cómo se asegura la consistencia en ambas infraestructuras? Siguiente lección, cumplimiento en un entorno híbrido. En la siguiente lección, nos centraremos en el cumplimiento en sistemas híbridos. Exploraremos los requisitos regulatorios para las instituciones financieras, el cuidado de la salud y otras industrias reguladas y discutiremos cómo implementar monitoreo continuo del cumplimiento en los sistemas Cloud y mainframe Listo para garantizar que su entorno híbrido cumpla con los estándares regulatorios. Pasemos a la lección tres del Módulo seis. 24. Lección 3: cumplimiento normativo en un entorno híbrido: Cumplimiento en un entorno híbrido. Bienvenido a la Lección Tres del Módulo Seis. En esta lección, exploraremos los requisitos regulatorios para entornos híbridos, centrándonos en industrias como las finanzas y la atención médica, que espacian estrictos mandatos de cumplimiento. Administrar el cumplimiento en sistemas híbridos donde los datos y las aplicaciones se distribuyen entre mainframes locales y entornos Cloud presenta desafíos únicos Discutiremos la importancia del monitoreo continuo del cumplimiento y cómo implementar sistemas que garanticen el cumplimiento tanto en la nube como en la infraestructura local. Al final de esta lección, comprenderá los requisitos regulatorios para las instituciones financieras, la para las instituciones financieras, atención médica y otras industrias reguladas en entornos híbridos. En segundo lugar, aprenda a implementar la supervisión continua del cumplimiento tanto en la nube como en los sistemas mainframe para garantizar el cumplimiento de los estándares regulatorios Comencemos por examinar los desafíos específicos de cumplimiento enfrentan los sistemas híbridos y cómo abordarlos. Comprender los requisitos reglamentarios para sistemas híbridos. En entornos híbridos donde se sistemas heredados como utilizan sistemas heredados como mainframes y plataformas en la nube, las organizaciones necesitan cumplir con una variedad de requisitos normativos basados en su industria regulaciones clave de cumplimiento Las regulaciones clave de cumplimiento incluyen PCIDSS, GDPR e HIPA, que requieren una estricta protección de datos, controles de privacidad y PCI DSS, estándar de seguridad de datos de la industria de tarjetas de pago Para organizaciones que manejan datos de tarjetas de pago como Williams Financial Institution, el cumplimiento de PCI DSS es obligatorio Esta regulación garantiza que información de pago de los clientes esté protegida contra fraudes, incumplimientos y accesos no autorizados Requisitos de cifrado. PCIDSS exige el cifrado de los datos confidenciales del titular de la tarjeta durante transmisión a través de redes abiertas y Tanto los entornos Cloud como los locales deben implementar tecnologías de encriptación. Ejemplo, encriptar todos los datos de los titulares de tarjetas almacenados en mainframes y asegurar que cualquier dato de pago transferido a los sistemas Cloud también esté Control de acceso, implementar control de acceso basado en roles RBAC para limitar acceso a los datos del titular de la tarjeta solo a aquellos empleados o sistemas que necesitaban para realizar sus trabajos Tomemos un ejemplo. El equipo de Williams debe asegurarse de que todos los datos de pago de los clientes almacenados en la nube y procesados por el mainframe estén cifrados usando criptografía fuerte como AS 256 y que los controles de acceso se apliquen en ambos entornos para cumplir con PCI DSS GDPR, Reglamento General de Protección de Datos. Para las organizaciones que operan dentro la Unión Europea o que manejan datos de ciudadanos de la UE, GDPR requiere un control estricto sobre cómo se almacenan, procesan y transmiten los datos personales. Derechos del sujeto de datos. GDPR otorga a los sujetos de datos derechos como el derecho al olvido y el derecho a acceder a sus datos. Las organizaciones deben asegurarse que puedan localizar, recuperar y eliminar datos personales cuando lo soliciten, independientemente de si esos datos se almacenan en un mainframe o en la nube Notificación de Violación de Datos. GDPR exige que cualquier violación de datos que involucre datos personales debe ser reportada a las autoridades correspondientes dentro de las 72 horas. Los entornos híbridos deben tener la capacidad de detectar, registrar y responder a las brechas rápidamente Tomemos un ejemplo. Williams Institution debe asegurarse de que todos los datos de los clientes se almacenen de conformidad con GDPR, lo que significa que debe ser posible recuperar o eliminar datos personales de un cliente tanto de las bases de datos de mainframe como del almacenamiento en la nube a pedido HIPAA, Ley de Portabilidad y Rendición de Cuentas del Seguro de Salud En atención médica, HIPAA establece requisitos para proteger la información de salud protegida, Las organizaciones de atención médica que utilizan entornos de nube híbrida deben garantizar que la PHI esté debidamente protegida tanto en los sistemas locales como en la nube. Cifrado de datos. La HIPAA requiere el cifrado de PHI, tanto de dirección como en tránsito, ya sea que los datos se almacenen en mainframes o en plataformas Cloud Rastros de auditoría. La HIPA exige la creación de pistas de auditoría para rastrear quién accedió a la PHI, cuándo se accedió a ella y con qué propósito Estos registros de auditoría deben estar disponibles tanto en la nube como en los sistemas locales. Tomemos un ejemplo. Las organizaciones de atención médica como hospitales o clínicas que utilizan mainframes para registros de pacientes y servicios en la nube para medicamentos de conteo, deben garantizar que la PHI esté encriptada en todas las etapas y que acceso a los datos del paciente esté completamente registrado y rastreable para cumplir con los requisitos de HIPA Implementación de monitoreo continuo de cumplimiento en entornos híbridos. Garantizar el cumplimiento continuo en entornos híbridos es una tarea desafiante pero necesaria. Con datos y aplicaciones distribuidos entre mainframes locales y plataformas en la nube, las organizaciones necesitan implementar soluciones de monitoreo, proporcionar visibilidad en tiempo real del estado de cumplimiento e identificar posibles violaciones antes de liderar las sanciones regulatorias Soluciones de monitoreo centralizado. Una de las formas más efectivas de monitorear el cumplimiento en entornos híbridos es mediante implementación de soluciones de monitoreo centralizadas. Estas herramientas proporcionan una visión unificada del cumplimiento tanto en los sistemas locales como en la nube, lo que permite a los equipos de seguridad detectar violaciones y responder a las amenazas en tiempo real. Monitoreo basado en la nube. Herramientas como AWS CloudTrail, Azor y las operaciones de Google Cloud proporcionan información sobre las configuraciones de recursos de la nube, los registros de acceso y los eventos de seguridad Estas herramientas ayudan a monitorear el cumplimiento responsabilidades del proveedor de servicios en la nube bajo el modelo de responsabilidad compartida. Por ejemplo, el equipo de Williams puede usar AWS Cloud Trail para monitorear el acceso y los cambios a los datos financieros confidenciales en la nube, asegurando que solo los usuarios autorizados realicen cambios y que todos los accesos se registren para su cumplimiento. Monitoreo en las instalaciones. Para los sistemas mainframe, herramientas como Splunk o IBM Z secure pueden rastrear eventos relacionados con el cumplimiento y detectar posibles violaciones Estas herramientas ayudan a monitorear la actividad de los usuarios, acceso a los datos y incidentes de seguridad dentro de los sistemas heredados. Por ejemplo, use IBM Z secure para monitorear acceso a bases de datos de mainframe y generar alertas si se detectan intentos no autorizados Automatizar el cumplimiento de políticas y alertas. Para mantener el cumplimiento continuo, las organizaciones deben automatizar la aplicación de políticas de seguridad y configurar alertas de tiempo de calidad para detectar cualquier infracción automatización del cumplimiento reduce el riesgo de errores humanos y ayuda a garantizar que todos los sistemas manera consistente con los requisitos reglamentarios Aplicación automatizada de políticas. Herramientas como AWS Config o política de Azure para automatizar la aplicación de políticas de seguridad y cumplimiento. Estas herramientas pueden verificar automáticamente configuraciones como si el cifrado está habilitado o si los datos confidenciales se almacenan de forma segura. Por ejemplo, el equipo de Williams puede usar AWS Config para aplicar automáticamente políticas de cifrado para todos los datos financieros almacenados en la nube, asegurando que los requisitos de PCI DSS se cumplan en todos los recursos de la nube Alertas en tiempo real, configura alertas que notifiquen al equipo de seguridad cuando ocurran violaciones de cumplimiento. Estas alertas pueden basarse en eventos específicos como acceso no autorizado a los datos del cliente o configuraciones erróneas en entornos de nube. Por ejemplo, use tablón para generar alertas cuando usuarios no autorizados intenten acceder a datos confidenciales almacenados en el mainframe, asegurando que se puedan tomar medidas inmediatas para evitar violaciones Auditoría e informes continuos. Minetear el cumplimiento requiere una auditoría e informes continuos para identificar brechas y garantizar el cumplimiento de las normas regulatorias Las auditorías regulares también ayudan a preparar a las organizaciones para auditorías externas de los organismos reguladores. Herramientas de auditoría automatizadas. Utilice herramientas como AWS Audit Manager, Azure Security Center o Google Cloud Audit Logs para automatizar las auditorías de cumplimiento. Estas herramientas generan informes que ayudan a rastrear el estado de cumplimiento de la organización a lo largo tiempo e identificar áreas de mejora. Por ejemplo, el equipo de Williams puede usar AWS Audit Manager para generar informes de auditoría automatizados que rastreen el cumplimiento de PCIDSS, asegurando que todos los sistemas que manejan datos de pago cumplan con los estándares regulatorios Tomemos un ejemplo. Para cumplir con la HIPAA, una organización de atención médica podría usar Azure Security Center para auditar continuamente el estado de cifrado de los datos de pacientes almacenados en la nube mientras usa IBM Z secure para auditar registros de mainframe o acceder a registros confidenciales Mejores prácticas para el cumplimiento en entornos híbridos. Para gestionar satisfactoriamente el cumplimiento y los entornos híbridos, siga las mejores prácticas. Implementar el modelo de responsabilidad compartida. En entornos Cloud, el cumplimiento es una responsabilidad compartida entre el proveedor de Cloud y la organización. Mientras que los proveedores de nube gestionan la seguridad de la infraestructura Cloud, las organizaciones son responsables de asegurar sus aplicaciones de datos y controles de acceso. Mejores prácticas. Comprenda el modelo de responsabilidad compartida para cada proveedor de Cloud y asegúrese de que las responsabilidades de cumplimiento de su organización, como cifrado de datos y la administración de identidades , estén completamente implementadas. Políticas de seguridad estandarizadas en todos los entornos. Para evitar inconsistencias, las políticas de seguridad y cumplimiento deben estandarizarse tanto en los sistemas locales como en las plataformas en la nube Las políticas unificadas garantizan que se apliquen los mismos controles de seguridad independientemente de dónde se almacenen o procesen los datos . Mejores prácticas. Utilice herramientas de administración de seguridad unificadas para aplicar políticas consistentes en ambos entornos. Esto puede ayudar a garantizar que el cifrado, el control de acceso y el registro se apliquen en cada capa de su infraestructura. Garantizar la visibilidad y la auditoría en todos los sistemas. Lograr el cumplimiento de normas requiere una visibilidad continua tanto de su entorno en la nube como en las instalaciones. Implemente herramientas de auditoría que proporcionen información en tiempo real sobre el acceso a los datos, configuración de los sistemas y la actividad de los usuarios en todos los sistemas. Mejores prácticas. Implemente soluciones centralizadas de monitoreo y auditoría para rastrear eventos de cumplimiento y detectar violaciones en tiempo real. conclusiones clave de esta lección incluyen, una, el cumplimiento en entornos híbridos es esencial para las industrias reguladas como las finanzas y la atención médica, que deben cumplir con estándares como PCI DSS, GDPR e HIPA tanto en los sistemas locales como en la nube Dos, implementar monitoreo continuo de cumplimiento utilizando herramientas centralizadas que proporcionan visibilidad en tiempo real del estado de cumplimiento tanto en estado de cumplimiento mainframe como en el entorno de nube Tres, automatice las auditorías de cumplimiento, la aplicación de políticas y las alertas en tiempo real para garantizar que los controles de seguridad se apliquen de manera consistente y que las violaciones se detecten rápidamente. Ganar actividad, reflexión. ¿Cómo implementaría monitoreo continuo de cumplimiento en su entorno híbrido? ¿Qué desafíos pueden surgir al estandarizar las políticas de seguridad en los sistemas locales y en la nube Pregunta de discusión, post en el formulario, ¿cómo maneja su organización el cumplimiento en todos los sistemas híbridos? Qué herramientas utiliza para supervisión y auditoría continuas y qué tan efectivas son la siguiente lección, gobernanza y gestión de políticas. En la siguiente lección, nos centraremos en la gobernanza y la gestión de políticas en entornos híbridos. Aprenderá a aplicar políticas tanto en la nube como en sistemas heredados con un enfoque en la privacidad de los datos, gestión de riesgos y la recuperación ante desastres. Preparados para enfrentar los desafíos de gobernanza, pasemos a la lección cuatro del Módulo seis. 25. Lección 4: gobierno y gestión de políticas: Lección cuatro, gobernanza y gestión de políticas. Bienvenido a la Lección Cuatro del Módulo Seis. En esta lección, exploraremos el papel crítico de la gobernanza y la gestión de políticas en entornos de nube híbrida. Para un director de infraestructura de TI como William, administrar una combinación de mainframes locales y plataformas en la nube requiere una gobernanza sólida para garantizar la privacidad de los datos, gestión de riesgos y recuperación ante desastres en ambas infraestructuras Esta lección le proporcionará estrategias para crear y hacer cumplir políticas de gobierno que sean consistentes y alineadas con los sistemas Cloud y heredados. Al final de esta lección, comprenderá la importancia de la gobernanza en entornos de nube híbrida, incluida la gestión de la privacidad de los datos, la privacidad de los datos recuperación de riesgos y desastres para aprender a hacer cumplir gobernanza y la gestión de políticas manera consistente en la nube y en los sistemas primarios Comencemos entendiendo por qué la gobernanza es tan crítica en entornos de nube híbrida y cómo desarrollar marcos de gobierno funcionan tanto en sistemas heredados como modernos. Por qué la gobernanza es esencial en entornos híbridos. gobernanza en entornos híbridos consiste garantizar que las políticas, los procesos y los marcos de gestión de riesgos de su organización se apliquen de manera consistente tanto en mainframes locales como en plataformas en la nube La complejidad de administrar ambas infraestructuras simultáneamente requiere un marco de gobierno sólido que aborde los desafíos únicos que plantea el entorno híbrido. Privacidad de datos, protegiendo la información sensible. En entornos híbridos, las regulaciones de privacidad de datos como GDPR, PCIDSS e HIPA se aplican por igual a los datos locales y a los datos almacenados en la nube Es fundamental contar políticas de gobierno que garanticen el cumplimiento de estas regulaciones mediante implementación de estrictos controles de acceso a datos, estándares de cifrado y políticas de privacidad. Políticas de control de acceso. Implemente controles de acceso consistentes basados en roles RBAC tanto en la nube como en los sistemas heredados para limitar quién puede acceder a los datos confidenciales Esto minimiza el riesgo de violaciones de datos y acceso no autorizado Ejemplo, el equipo de Williams puede crear políticas de control de acceso unificadas que gobiernan el acceso tanto a las aplicaciones en la nube, por ejemplo, AWS y Azure como a los sistemas mainframe locales, asegurando que los datos de los clientes solo sean accesibles para el personal autorizado Auditorías de privacidad de datos. Audite regularmente sus políticas de privacidad de datos para garantizar que cumplan con las regulaciones y se apliquen de manera consistente en ambos entornos. Herramientas como AWS Config y Azure Security Center pueden ayudar a automatizar las comprobaciones de cumplimiento de la privacidad. Tomemos un ejemplo. Para la institución financiera Williams, los datos financieros de los clientes almacenados en el mainframe deben ser tan seguros y privados como los mismos datos almacenados en la nube Un marco de gobierno unificado garantiza que tanto los entornos locales como en la nube cumplan con los requisitos de PCI DSS para privacidad y cifrado de datos Gestión de riesgos, gestión proactiva de riesgos de seguridad y cumplimiento gestión de riesgos en entornos híbridos implica identificar, evaluar y mitigar los riesgos de seguridad y cumplimiento que surgen del uso de sistemas heredados y plataformas en la nube marcos de gobierno deben incluir políticas claras sobre evaluación de riesgos, respuesta a incidentes y recuperación ante desastres para proteger contra posibles fallas o incidentes de seguridad. Marcos de Evaluación de Riesgos. Implementar un marco de gestión de riesgos que cubra el riesgo específico asociado con ambos sistemas mainframe, por ejemplo, software obsoleto, agilidad limitada y plataformas en la nube Por ejemplo, las violaciones de datos de riesgo de seguridad de terceros. Una evaluación regular de riesgos ayuda a las organizaciones a anticipar vulnerabilidades y abordarlas de manera proactiva Ejemplo, el equipo de Williams puede realizar evaluaciones de riesgo trimestrales que evalúen tanto la infraestructura in situ, por ejemplo, parches de seguridad de mainframe como servicios en la nube, por ejemplo, monitoreo de proveedores externos Planes de respuesta a incidentes. marcos de gobierno deben incluir procedimientos detallados de respuesta a incidentes que describan cómo la organización manejará las brechas de seguridad o fallas del sistema en un entorno híbrido Este plan debe cubrir tanto los incidentes en las instalaciones como en la nube. Tomemos un ejemplo. Para el equipo de Williams, el riesgo de una violación de datos en la aplicación alojada en la nube puede requerir herramientas de monitoreo en tiempo real como AWS Cloud Lodge, mientras que el riesgo de falla del sistema en el mainframe puede requerir procedimientos de recuperación establecidos y un plan de recuperación ante desastres Recuperación ante desastres, asegurando la continuidad del negocio. entornos de nube híbrida aumentan la complejidad de recuperación ante desastres porque los sistemas y los datos se distribuyen en múltiples ubicaciones. marcos de gobierno deben incluir planes integrales de recuperación ante desastres que garanticen la continuidad del negocio en caso de falla del sistema, pérdida de datos o desastre natural. Políticas de respaldo. Establezca políticas de copia de seguridad claras que garanticen que las copias de seguridad de datos se creen regularmente tanto para mainframes locales como para sistemas en la nube Las copias de seguridad regulares deben cifrarse y almacenarse en ubicaciones seguras como centros de datos externos o almacenamiento en frío en la nube Por ejemplo, el equipo de Williams puede programar copias de seguridad diarias de bases de datos de mainframe y copias de seguridad semanales en la nube para garantizar que los datos críticos para el negocio estén siempre disponibles para su recuperación Recuperación multi ambiente. Los planes de recuperación ante desastres deben tener en cuenta la complejidad de la recuperación de sistemas tanto en las infraestructuras locales como en la nube. Automatice los procesos de recuperación cuando sea posible para reducir el tiempo de inactividad y garantizar la restauración rápida de los servicios. Por ejemplo, use herramientas como AWS Elastic Disaster Recovery para automatizar la recuperación los servicios en la nube y combinarla con procesos de recuperación manual para el mainframe para crear un plan unificado de recuperación ante desastres Tomemos un ejemplo. El equipo de Williams podría desarrollar un plan de recuperación ante desastres que incluya copias de seguridad regulares de los datos de los clientes tanto desde el mainframe como desde la nube con la capacidad de pasar a los sistemas de respaldo si alguno de los entornos experimenta tiempo sistemas de respaldo si alguno entornos experimenta Hacer cumplir las políticas de gobierno en la nube y los sistemas heredados Implementar y hacer cumplir políticas de gobierno manera consistente en todos los sistemas heredados y en la nube requiere el uso de marcos de gobierno y herramientas que puedan cerrar la brecha entre ambos entornos Aquí hay estrategias clave para garantizar que las políticas se apliquen en todas las infraestructuras. Gestión unificada de políticas. Para administrar la gobernanza en entornos híbridos, las organizaciones deben implementar herramientas de administración de políticas unificadas que brinden control centralizado sobre políticas y configuraciones tanto en los sistemas locales como en la nube. Herramientas de aplicación de políticas. Utilice herramientas como Azure Policy, AWS Organizations y el servidor de seguridad de IBM Z para aplicar políticas de seguridad y gobernanza manera consistente en todos los sistemas. Estas herramientas permiten a los administradores definir plantillas de políticas que se pueden aplicar a los servicios en la nube y a los recursos de mainframe Por ejemplo, el equipo de Williams puede usar política de Azure para aplicar políticas de cifrado de datos en todos los servicios de almacenamiento en la nube mientras usa servidor de seguridad IBM Z para aplicar las mismas políticas a las bases de datos de mainframe locales Cumplimiento de los marcos de políticas. La organización debe alinear sus políticas de gobierno con marcos ampliamente reconocidos como COVID o ISO IEC 27 001 para garantizar que las prácticas de gobernanza cumplan con los estándares de la industria. Tomemos un ejemplo. Para la institución financiera Williams, aplicación de políticas de control de acceso consistentes en la nube y los sistemas heredados garantiza que la información confidencial del cliente permanezca protegida independientemente de dónde se almacene. Automatizar el cumplimiento de políticas. La automatización es clave para hacer cumplir las políticas de gobierno de manera consistente en todos los sistemas híbridos Las herramientas de automatización pueden monitorear configuraciones del sistema, detectar violaciones de políticas y tomar acciones correctivas sin intervención manual. Auditoría automatizada. Utilice la configuración de AWS o el monitor Azure para realizar comprobaciones continuas de conformidad y auditar las configuraciones de su entorno en la nube, asegurando que el sistema cumpla siempre con los requisitos de gobernanza y seguridad. De manera similar, use herramientas de monitoreo de mainframe como Splunk o Z secure para garantizar que sistemas de políticas cumplan con las políticas de la organización Por ejemplo, el equipo de Williams puede configurar reglas de configuración de AWS que verifiquen automáticamente si los sistemas de almacenamiento basados en la nube cumplen con las políticas de cifrado. Cualquier infracción desencadena una alerta asegurando que se puedan tomar medidas inmediatas. Acciones correctivas. Automatice las acciones correctivas cuando se detecten violaciones de políticas. Por ejemplo, si se infringe una política de cifrado, herramientas como AWS Systems Manager o Azure Automation pueden aplicar automáticamente la configuración correcta para devolver los sistemas a la conformidad. Tomemos un ejemplo. El equipo de Williams puede usar la política de Azure para corregir automáticamente cualquier configuración en la nube que infrinja las políticas de cifrado o control de acceso, asegurando el cumplimiento sin intervención manual. Monitoreo de gobernanza multiplataforma. gobernanza en entornos híbridos requiere herramientas que proporcionen una visión única de la seguridad, cumplimiento y la adherencia a las políticas tanto en la nube como en los sistemas locales. Tableros centralizados. Utilice paneles de control centralizados que proporcionan una visión holística del estado de seguridad y cumplimiento de la organización en todos los sistemas Herramientas como AWS Control Tower, un centro de seguridad o Splunk pueden agregar datos tanto de entornos Cloud como heredados para brindar a los administradores una visibilidad completa del cumplimiento de políticas Por ejemplo, el equipo de Williams puede usar AWS Control Tower para monitorear cumplimiento en varias cuentas en la nube mientras usa Splunk para rastrear incidentes de seguridad y violaciones de políticas en el mainframe Tomemos un ejemplo. Al integrar datos de AWS y el mainframe en un panel centralizado, organización Williams puede monitorear el cumplimiento de las políticas y garantizar que ambos entornos cumplan con los estándares de gobierno Mejores prácticas para la gobernanza de la nube híbrida. Para garantizar la gobernanza en entornos híbridos, la organización debe seguir estas mejores prácticas. Establecer un marco de gobierno temprano. Establezca un marco de gobierno desde el principio que describa las políticas, roles y responsabilidades clave para administrar los sistemas Cloud y on premise. Esto asegura que todos en la organización entiendan su papel en mantenimiento de la gobernanza y el cumplimiento. Las mejores prácticas, desarrollar un marco de gobierno alineado con los estándares de la industria como COBIT o NIST, que pueden servir como base para administrar el cumplimiento de riesgos y la privacidad de datos en todo el entorno híbrido Garantizar la consistencia en todos los sistemas. Garantizar que las políticas gubernamentales, ya sea para la privacidad de los datos, la gestión de riesgos o la recuperación ante desastres, se apliquen manera consistente tanto en las plataformas en la nube como en los sistemas heredados. Esto reduce el riesgo de violaciones de seguridad o incumplimiento debido a la aplicación de políticas inconsistentes Las mejores prácticas, use herramientas de administración de políticas unificadas para aplicar políticas a todos los sistemas y audite regularmente las configuraciones para garantizar la consistencia. Aplicación automatizada de políticas. Automatizar la gobernanza y la gestión de políticas en entornos híbridos es fundamental para reducir los errores manuales y garantizar el cumplimiento Mejores prácticas. Implemente herramientas automatizadas que puedan monitorear, auditar y hacer cumplir las políticas de gobierno en tiempo real, permitiendo a la organización detectar y responder a las violaciones de políticas de inmediato. Las conclusiones clave de esta lección son las siguientes. Primero, los marcos de gobierno en entornos híbridos deben abordar la privacidad de los datos, gestión de riesgos y la recuperación ante desastres para proteger tanto los sistemas en la nube como en las instalaciones. En segundo lugar, utilice herramientas unificadas de administración de políticas para hacer cumplir la gobernanza manera consistente en todos los sistemas y automatizar las comprobaciones de cumplimiento para reducir el riesgo de errores humanos. Tres, la supervisión centralizada permite a las organizaciones mantener la visibilidad del cumplimiento de políticas en todas las infraestructuras híbridas, que garantiza que tanto las plataformas en la nube como los sistemas heredados se gobiernen de manera efectiva. Actividad ganadora. Reflexión. ¿Cómo implementarías políticas de gobierno que aborden tanto los sistemas on-premise como en la nube en tu entorno híbrido? ¿Cuáles son los retos clave que esperas y cómo los superarías? Pregunta de discusión, post en el foro, ¿cómo su organización impone las políticas de gobierno a través del entorno híbrido? ¿Qué herramientas o estrategias ha encontrado más efectivas para garantizar el cumplimiento y el cumplimiento de las políticas? Siguiente lección, herramientas de monitoreo para entornos híbridos. En el siguiente módulo, exploraremos monitoreo del rendimiento en entornos de nube híbrida. Aprenderá a usar herramientas como AWS Cloud Watch, Datadog, Splunk para configurar paneles y realizar un seguimiento del estado del sistema en los sistemas Cloud y realizar un seguimiento del estado del sistema en mainframe Emocionado por aprender a monitorear y optimizar sus sistemas híbridos. Pasemos al Módulo Siete. 26. Lección 1: herramientas de monitoreo para entornos híbridos: Bienvenido al Módulo siete, optimizando y administrando sistemas de nube híbrida para el rendimiento. En el módulo final, los alumnos aprenderán a monitorear y optimizar continuamente el rendimiento de sus sistemas de nube híbrida. Los temas incluyen la supervisión del rendimiento, equilibrio de carga entre mainframes y la nube, la optimización de costos y la solución de problemas comunes El módulo también cubre estrategias de recuperación ante desastres y continuidad del negocio en entornos híbridos. Lección uno, herramientas de monitoreo para entornos híbridos. Bienvenido a la Lección Uno del Módulo Siete. En esta lección, exploraremos las herramientas de monitoreo más importantes para rastrear el rendimiento en entornos de nube híbrida. Para un director de infraestructura de TI como William, administrar tanto mainframes locales como plataformas en la nube requiere una visibilidad profunda del rendimiento de ambas infraestructuras En esta lección, analizaremos herramientas como AWS, CloudWatch, Datadog y Splunk y cómo se pueden usar para monitorear el estado y el rendimiento del sistema rendimiento También aprenderemos a configurar cuadros de mando y alertas para adelantarnos a los problemas de rendimiento Al final de esta lección, primero, comprenderá cómo usar las herramientas de monitoreo del rendimiento E para rastrear el estado del sistema tanto en la nube como en los sistemas locales. Aprender a configurar dashboards y alertas para monitorear el rendimiento y el estado del sistema en tiempo real Profundicemos en las herramientas y mejores prácticas para monitorear el rendimiento en entornos híbridos. Descripción general de las herramientas clave de monitoreo para entornos híbridos. Los entornos híbridos introducen complejidad cuando se trata de monitoreo, ya que los datos de rendimiento se distribuyen tanto en plataformas de nube como en mainframes de infraestructuras locales Para garantizar un monitoreo sin interrupciones, la organización necesita herramientas que brinden visibilidad en ambos entornos. Estas son tres de las herramientas más potentes y ampliamente utilizadas para monitorear entornos híbridos, AWS CloudWatch, Datadog Supervisión de la nube nativa de AWS Cloud Watch. AWS CloudWatch es el servicio nativo de monitoreo y observabilidad de Amazon que proporciona métricas, registros y alarmas en tiempo real para su infraestructura de AWS Es una poderosa herramienta para rastrear el estado y el rendimiento de las aplicaciones, servicios y recursos basados en la nube. Métricas y registros. CloudWatch recopila y rastrea métricas en todo, desde la utilización de la CPU y DiO hasta la latencia de llamadas a la API También puede monitorear los registros de las aplicaciones, proporcionando información sobre errores, advertencias y cuellos de botella de rendimiento Por ejemplo, el equipo de Williams puede usar CloudWatch para monitorear el rendimiento de sus aplicaciones web orientadas al cliente alojadas en AWS EC two, rastrear la utilización de la CPU y configurar alarmas para picos repentinos Tableros de mando y alarmas. CloudWatch le permite crear paneles personalizados que visualizan métricas clave de rendimiento y establecen alarmas para activar notificaciones cuando se cruza un umbral Por ejemplo, puede recibir alertas si uso de CPU de una base excede un cierto porcentaje durante un período prolongado. Por ejemplo, cree un panel de control de CloudWatch que monitoree la ayuda instantánea de EC two, rendimiento de RDS y las métricas de almacenamiento S three para que la infraestructura de Williams Cloud funcione sin problemas Tomemos un ejemplo del mundo real. El equipo de William puede usar CloudWatch para monitorear el rendimiento de su aplicación de banca móvil basada en la nube , asegurando que la latencia y el uso de la CPU permanezcan dentro de los rangos aceptables Si surgen problemas de rendimiento, el equipo puede identificar rápidamente si el problema radica en la infraestructura de la nube u otro componente del sistema. Monitoreo de pila completa de Datadog para entornos híbridos. Datadog es una plataforma de monitoreo nativa en la nube que proporciona visibilidad de pila completa en entornos de nube en infraestructura y aplicaciones locales Es especialmente adecuado para entornos híbridos porque se integra con cientos de herramientas incluidas plataformas Cloud y sistemas heredados. Monitoreo multiplataforma. Datadog le permite monitorear toda su infraestructura híbrida desde una sola plataforma Puede realizar un seguimiento de métricas de AWS, Azure, Google Cloud y sistemas locales, lo que le brinda una visión unificada del rendimiento en todos los entornos. Ejemplo, el equipo de Williams puede usar Datadog para monitorear tanto el rendimiento de las cargas de trabajo en la nube mainframe responsables del procesamiento de backend, asegurando que ambos sistemas asegurando que Monitoreo del desempeño de aplicaciones, APM. Datadog incluye capacidades APM integradas para realizar un seguimiento del rendimiento a nivel de aplicación, incluido el tiempo de respuesta, las consultas de la base de datos y las tasas de error Esto es útil para monitorear aplicaciones distribuidas complejas para abarcar tanto las infraestructuras locales como en la nube. Por ejemplo, el equipo de Williams puede usar APM para realizar un seguimiento del rendimiento de la aplicación de banca móvil y, al mismo tiempo, garantizar que las interacciones de mainframe se manejen de manera rápida y eficiente Tableros de mando y alertas. Al igual que CloudWatch, Datadog le permite crear paneles personalizados y establecer alertas para notificarle cuando se exceden los umbrales de rendimiento Por ejemplo, el equipo de Williams puede crear paneles para visualizar tanto las métricas de rendimiento de la nube como latencia de la red y la utilización de recursos métricas de carga de trabajo de mainframe como velocidad de transacción y la carga de procesamiento Tomemos un ejemplo. Para William, Beta Dog ofrece la capacidad de monitorear el rendimiento de extremo a extremo en todo el entorno híbrido. Su equipo puede rastrear la latencia de la API en la nube junto con la velocidad de transacción del mainframe, asegurando que ambos sistemas estén funcionando manera óptima para respaldar sus aplicaciones orientadas al cliente Splunk, analizando registros y monitoreando eventos. Splunk es una plataforma avanzada para la gestión de registros, monitoreo de eventos y análisis de datos en tiempo real Es particularmente potente para el monitoreo de mainframe, pero también se integra bien con entornos en la nube. Análisis logarítmico. Splunk recopila registros de todo su entorno híbrido, lo que le permite analizarlos en busca de problemas de rendimiento, amenazas de seguridad y eventos del sistema Sus potentes capacidades de búsqueda y correlación le permiten investigar problemas rápidamente. Por ejemplo, el equipo de Williams puede usar Splunk para analizar registros de mainframe o errores de transacción o botella de rendimiento al mismo tiempo que analiza registros de los servicios de AWS Monitoreo de eventos y alertas. Splunk puede monitorear eventos en tiempo real y configurar alertas basadas en datos de rendimiento Por ejemplo, puede recibir alertas cuando haya intentos fallidos de inicio de sesión en sistemas mainframe o cuando el uso de CPU aumente en su entorno de nube Ejemplo, el equipo de Williams puede configurar alertas de Splunk para notificarles sobre comportamientos inusuales como intentos fallidos de acceder a datos confidenciales en el mainframe, asegurando que cualquier riesgo de seguridad se aborde Tableros de mando e informes. Splunk ofrece paneles personalizables que proporcionan una visión general clara del estado del sistema con la capacidad de profundizar en métricas específicas o registrar eventos Se pueden generar reportes, analizar tendencias de desempeño a lo largo tiempo. Tomemos un ejemplo. Para la institución financiera Williams, Splunk se puede utilizar para monitorear los registros de transacciones en el mainframe y al mismo tiempo rastrear el rendimiento de servicios basados en la nube como AWS Splunk proporciona información sobre cómo funciona el entorno híbrido en su conjunto Configuración de cuadros de mando y alertas para el monitoreo del rendimiento híbrido Una vez que haya seleccionado sus herramientas de monitoreo, el siguiente paso es configurar paneles y alertas para realizar un seguimiento de las métricas clave de rendimiento Esto le permite monitorear el estado del sistema en tiempo real y responder manera proactiva a cualquier problema que surja Configuración de panel personalizado. Los paneles proporcionan una visión general visual del estado del sistema, lo que facilita el seguimiento múltiples métricas de rendimiento tanto en los sistemas Cloud como en los sistemas primarios. A continuación, le indicamos cómo configurar cuadros de mando efectivos. Seleccione métricas clave. Identificar las métricas más importantes a realizar un seguimiento. Por ejemplo, supervise la utilización de la CPU, el uso de memoria, E/S del disco, la latencia de la red y los tiempos de respuesta de las aplicaciones tanto para los sistemas en la nube como en las instalaciones. Por ejemplo, el equipo de Williams puede crear un panel que rastree el uso de la CPU de dos instancias de AWS EC, la latencia de las aplicaciones orientadas al cliente y la velocidad de procesamiento de transacciones en el mainframe Crear visualizaciones en tiempo real. Utilice herramientas como AWS Cloud Watch, Datadog o Splunk para crear gráficos, medidores y mapas de visitas que muestren datos de rendimiento que muestren Asegúrese de que su tablero sea fácil de interpretar de un vistazo. Ejemplo, configure un mapa de visitas que muestre latencia en tiempo real para todos los servicios en la nube mientras rastrea los tiempos de transacción en el mainframe Configuración de alertas para monitoreo proactivo. Las alertas notifican a su equipo de cualquier problema potencial de rendimiento o falla del sistema, lo que le permite tomar medidas correctivas antes de que los problemas se intensifiquen. A continuación, le indicamos cómo configurar alertas efectivas. Definir umbrales, establecer umbrales de rendimiento para métricas clave Por ejemplo, es posible que desee recibir una alerta si el uso de la CPU supera el 85% durante más de 10 minutos o si la latencia de la red aumenta inesperadamente Por ejemplo, el equipo de Williams puede configurar una alerta para notificarles si utilización de la CPU de dos instancias de AWS EC supera el 85% o si las velocidades de transacción de mainframe caen por debajo de cierto umbral A los métodos de notificación. Decide cómo quieres que te avisen. Puede configurar notificaciones por correo electrónico, alertas por SMS o incluso integrarse con herramientas como Slack o Microsoft Teams o colaboración en tiempo real. Por ejemplo, el equipo de Williams puede recibir alertas a través de Slack cuando surgen problemas de rendimiento, lo que les permite responder rápidamente y colaborar en tiempo real. Mejores prácticas para monitorear sistemas de nube híbrida. Para aprovechar al máximo sus herramientas de monitoreo, siga estas mejores prácticas. Concéntrese en la visibilidad de extremo a extremo. Asegúrese de que su estrategia de monitoreo cubra todo el sistema híbrido, incluidas las aplicaciones en la nube y la infraestructura local. Esto le dará una visión integral del rendimiento en todos los entornos. La mejor práctica es utilizar herramientas como Datadog o Splunk para consolidar el monitoreo en los sistemas de nube y mainframe, asegurando que puede realizar un seguimiento del rendimiento en todo el entorno híbrido desde Automatice las alertas para obtener respuestas rápidas. Configura alertas automatizadas para notificar a tu equipo de problemas de desempeño en tiempo real. Las alertas automatizadas reducen el riesgo de error humano y aseguran que los problemas se aborden antes de que afecten a los usuarios finales. La mejor práctica es usar Cloud Watch o Datadog para automatizar alertas basadas en umbrales clave de rendimiento, como un uso elevado de CPU o aumentar Refina continuamente los cuadros de mando y las métricas. Sus necesidades de monitoreo evolucionarán con el tiempo. Perfeccione continuamente sus cuadros de mando y métricas para asegurarse de que reflejen objetivos de rendimiento de su organización Práctica recomendada: revise regularmente sus paneles y ajústelos según sea necesario para rastrear nuevas métricas, servicios o cuellos de botella de rendimiento Las conclusiones clave de esta lección incluyen una, AWS Cloud Watch, Datadog y Splunk son potentes herramientas de monitoreo para entornos híbridos, y Splunk son potentes herramientas de monitoreo para entornos híbridos proporcionan información en tiempo real sobre el rendimiento tanto en la nube como en las Dos, configure un panel personalizado y alertas para realizar un seguimiento de las métricas clave de rendimiento en su entorno híbrido, asegurando que sus sistemas funcionen sin problemas y de manera eficiente. Tres, siga las mejores prácticas como garantizar la visibilidad integral, automatizar las alertas y refinar continuamente su estrategia de monitoreo para optimizar el rendimiento Ganar actividad, reflexión. ¿Qué herramientas de monitoreo implementarías para rastrear el rendimiento de tu entorno de nube híbrida? ¿Qué métricas priorizarías para garantizar el estado y el rendimiento del sistema Pregunta de discusión planteada en el foro. ¿Qué desafíos ha enfrentado al monitorear el rendimiento en todos los sistemas híbridos? ¿Cómo has superado estos retos y qué herramientas usas? Siguiente lección, ajuste del rendimiento en arquitecturas de nube híbrida En la siguiente lección, nos sumergiremos en estrategias de ajuste de rendimiento para arquitecturas de nube híbrida Aprenderá a optimizar la distribución de la carga de trabajo entre entornos locales y en la nube, reducir la latencia y mejorar el rendimiento del sistema. Listo para afinar su entorno híbrido para obtener el máximo rendimiento, pasemos a la lección dos del Módulo siete. 27. Lección 2: afinación del rendimiento en arquitecturas de nube híbrida: Lección dos, ajuste del rendimiento en arquitecturas de nube híbrida Bienvenido a la Lección Dos del Módulo Siete. En esta lección, exploraremos estrategias de ajuste de rendimiento para arquitecturas de nube híbrida, centrándonos en cómo optimizar la distribución de la carga de trabajo, reducir la latencia y mejorar el rendimiento general del sistema Para un director de infraestructura de TI como William, optimizar el equilibrio entre los mainframes locales y los entornos en la nube es crucial para garantizar que las aplicaciones y los servicios funcionen sin problemas sin cuellos de botella ni retrasos Al final de esta lección, uno aprenderá estrategias para optimizar distribución de la carga de trabajo entre el entorno local y la nube. Dos, comprender cómo reducir la latencia, administrar el uso de recursos y mejorar el rendimiento del sistema. Profundicemos en las mejores prácticas para optimizar el rendimiento en entornos de nube híbrida y cómo garantizar que sus sistemas estén sintonizados para lograr la máxima eficiencia. Optimización de la distribución de la carga de trabajo entre entornos locales y en la nube. Los sistemas de nube híbrida a menudo implican cargas de trabajo que se ejecutan tanto en sistemas mainframe heredados como en plataformas de nube modernas La distribución eficiente de la carga de trabajo es fundamental para garantizar que cada entorno esté acostumbrado a sus puntos fuertes y que el rendimiento se maximice en toda la infraestructura Colocación de la carga de trabajo, determinando el mejor ajuste para cada entorno. Decidir dónde colocar las cargas de trabajo, ya sea en mainframes o en la nube es el primer paso para optimizar el rendimiento diferentes cargas de trabajo tienen diferentes requisitos en términos de latencia, potencia informática y sensibilidad de datos que deberían guiar su ubicación En mainframes locales, los mainframes son ideales para cargas de trabajo que requieren alta potencia de procesamiento, manejo de transacciones de baja latencia y estrictos controles de seguridad, especialmente en entornos bancarios y financieros procesamiento en tiempo real de las transacciones de los clientes y procesamiento por lotes de grandes conjuntos de datos son los más adecuados para mainframes Por ejemplo, el equipo de William puede decidir si el procesamiento de transacciones en tiempo real en el mainframe donde la velocidad y la seguridad son primordiales al migrar cargas de trabajo de análisis a Plataformas en la nube. Las plataformas en la nube son las más adecuadas para cargas de trabajo que requieren escalabilidad, elasticidad y procesamiento distribuido análisis de datos, las aplicaciones web y los servicios orientados al cliente pueden beneficiarse de la flexibilidad de los entornos en la nube. Por ejemplo, el equipo de Williams puede trasladar aplicaciones web orientadas al cliente a la nube para aprovechar la escalabilidad de las máquinas virtuales AWS EC two o Azure que pueden manejar grandes volúmenes de tráfico de usuarios Tomemos un ejemplo. Para Williams Financial Institution, mantener el procesamiento de transacciones en el mainframe garantiza que las transacciones de los clientes se procesen forma segura y rápida, mientras que la migración del análisis de datos a la nube permite que el equipo aproveche la elasticidad de la computación en la nube Estrategias de distribución de cargas de trabajo híbridas. Existen varias estrategias para distribuir la carga de trabajo entre los sistemas de nube híbrida dependiendo de los objetivos de rendimiento y la arquitectura del sistema. Aquí hay algunas estrategias clave. Estrategia DataFirst. En una estrategia de data First, los datos permanecen en las instalaciones, por ejemplo, en el mainframe, mientras que el procesamiento y las aplicaciones se alojan en la nube Esto reduce la necesidad migración de datos y ayuda a mantener el control sobre los datos confidenciales mientras se descargan tareas intensivas de cómputos a la nube Por ejemplo, el equipo de William podría mantener datos financieros confidenciales en el mainframe mientras ejecuta modelos de análisis de datos y aprendizaje automático en AWS para aprovechar sus recursos informáticos Procesar la primera estrategia. En una estrategia de proceso primero, la tarea de levantamiento pesado, por ejemplo, computación o almacenamiento se realiza en la nube mientras que ciertos procesos permanecen en instalaciones por razones de cumplimiento o latencia Esto es útil para aplicaciones que necesitan mantener un acceso de baja latencia a sistemas específicos. Por ejemplo, el equipo de Williams puede optar por procesar los registros de transacciones en la nube pero mantener los sistemas financieros en tiempo real en el marco principal para tareas críticas de baja latencia. Tomemos un ejemplo. Mediante una estrategia de bosque de datos, institución Williams puede mantener todos los datos financieros confidenciales en las instalaciones mientras aprovecha servicios en la nube como las funciones de AWS Lambda o Azure o procesa datos a escala Esto equilibra la necesidad de seguridad y escalabilidad. Reducción de la latencia en un entorno de nube híbrida. Latencia, el tiempo que tardan los datos en viajar entre sistemas puede afectar significativamente el rendimiento de los sistemas de nube híbrida. Reducir la latencia es esencial para el procesamiento en tiempo real, especialmente en entornos bancarios donde los retrasos pueden afectar las transacciones y la experiencia del cliente. Optimización de redes, mejorando la conectividad. En entornos híbridos, latencia de la red es un cuello de botella común, especialmente cuando los datos se transfieren entre los sistemas primarios y la nube Optimizar el rendimiento de la red es fundamental para reducir la latencia. Conexiones de red dedicadas. Utilice conexiones dedicadas como AWS Direct Connect o Azure Express Route para crear un enlace seguro de alta velocidad entre sus propios sistemas principales y la nube. Estas conexiones evitan la Internet pública, reduciendo significativamente la latencia y mejorando la confiabilidad. Por ejemplo, el equipo de Williams puede implementar AWS Direct Connect para asegurar transferencia de datos de Mainare a Garantizar una conectividad rápida y confiable sin los retrasos asociados con las transferencias basadas en Internet. Redes de entrega de contenido o CDN. Utilice CDN para almacenar en caché contenido estático como elementos de páginas web más cerca de los usuarios finales, reduciendo la latencia y acelerando tiempos de respuesta para las aplicaciones orientadas al cliente alojadas en la nube Por ejemplo, para las aplicaciones web orientadas al cliente de Williams, implementación de AWS Cloudfront como CDN garantizará que el contenido web se entregue rápidamente independientemente de la ubicación del usuario Tomemos un ejemplo. Al configurar AWS Direct Connect para gestionar las transferencias de datos entre marco de dominio y los servicios en la nube, equipo de Williams puede reducir significativamente la latencia, asegurando que los datos de las transacciones en tiempo real se procesen sin demoras. Minimizar la latencia en el procesamiento de datos. La latencia en el procesamiento de datos puede ocurrir cuando las aplicaciones necesitan acceder a los datos almacenados en diferentes entornos. Las estrategias para reducir este tipo de latencia incluyen edge computing. En ciertos casos, la implementación recursos de computación perimetral puede acercar el procesamiento a la fuente de datos o al usuario final. Estos datos. Esto reduce la distancia que los datos necesitan recorrer, mejorando el rendimiento para aplicaciones sensibles al tiempo. Un ejemplo, el equipo de Williams podría usar hierba verde de AWS para ejecutar aplicaciones en el borde más cerca de sus fuentes de datos, reduciendo la necesidad de transferir datos de un lado a otro entre la nube y los sistemas locales. Almacenamiento en caché de datos Implemente estrategias de almacenamiento en caché para almacenar datos a los que se accede con frecuencia más cerca de la aplicación, ya sea en las instalaciones o en la nube Esto reduce la necesidad de obtener datos constantemente de ubicaciones remotas, lo que puede agregar retrasos significativos. Por ejemplo, el equipo de William puede almacenar en caché los historiales de transacciones de los clientes localmente en el mainframe para una rápida recuperación mientras usa almacenamiento en la nube o datos de archivo a los que se accede Tomemos un ejemplo. Al configurar los recursos de edge computing, equipo de Williams puede procesar análisis en tiempo real en el borde, reduciendo la latencia que podría ocurrir si los datos tuvieran que ser enviados de vuelta a un entorno de nube centralizado. Administrar el uso de recursos para mejorar el rendimiento. La administración de recursos es crucial para el ajuste del rendimiento en entornos de nube híbrida. Asegurar que los recursos se utilicen de manera eficiente tanto en la nube como en los sistemas de primate puede evitar el aprovisionamiento y la infrautilización Autoescalado en la Nube. Uno de los beneficios clave de los entornos en la nube es el autoescalado, que ajusta automáticamente el número de recursos informáticos en función de la demanda Esto asegura que las aplicaciones siempre aumenten siete recursos durante períodos de alta demanda mientras minimizan los costos durante el período de uso bajo. Escalado vertical y horizontal. Las plataformas en la nube como AWS y Azure admiten tanto el escalado vertical, que está agregando más recursos a una sola instancia como el escalado horizontal, que está agregando más instancias. Los grupos de autoescalado pueden ajustar automáticamente los niveles de recursos en función de umbrales predefinidos Por ejemplo, William Stein puede configurar escalado automático de AWS para garantizar que los recursos de la nube aumenten durante el pico de tráfico o su aplicación de banca móvil y se reduzcan durante las horas libres para ahorrar costos Tomemos un ejemplo. Al habilitar el escalado automático, equipo de Williams puede garantizar que la infraestructura de la nube se ajuste automáticamente en función de la demanda de los usuarios, lo que permite que la aplicación de banca móvil maneje picos en el tráfico sin degradar el rendimiento Administración de recursos de mainframe. Los mainframes locales tienen un conjunto fijo de recursos. La administración de recursos consiste en optimizar la forma en que esos recursos se asignan a diferentes cargas de trabajo Las técnicas incluyen la programación de cargas de trabajo, equilibrio de carga y la planificación de la capacidad. Programación de cargas de trabajo. Utilice herramientas de programación como IBM Workloads scheduler para optimizar el tiempo de los procesos por lotes, asegurando tareas de alta prioridad Tenemos los recursos necesarios cuando sea necesario sin sobrecargar el sistema Por ejemplo, el equipo de Williams puede programar el procesamiento por lotes durante las horas pico cuando las demandas de procesamiento en tiempo real son bajas, maximizando la eficiencia del mainframe Planeación de capacidades. Monitoree continuamente uso de recursos en el mainframe para identificar oportunidades para la planificación de la capacidad Esto asegura que el mainframe tenga suficiente capacidad para manejar cargas máximas sin contención de recursos Tomemos un ejemplo. El equipo de Williams puede optimizar la programación de la carga de trabajo para garantizar que el procesamiento de transacciones reserve prioridad durante las horas pico, mientras que procesamiento por lotes se realiza de la noche a la mañana, evitando conflictos de recursos y asegurando un rendimiento óptimo. Las conclusiones clave de esta lección incluyen, una, distribución de la carga de trabajo es clave para optimizar el rendimiento híbrido Colocar las cargas de trabajo adecuadas en el entorno adecuado ya sea en primos o en la nube, es esencial para En segundo lugar, reducir la latencia a través optimización de la red y las estrategias de procesamiento de datos es fundamental para garantizar que las aplicaciones en tiempo real se ejecuten sin problemas en entornos híbridos. tercer lugar, la administración de recursos a través del escalado automático en la nube y la programación de cargas de trabajo en mainframes garantiza que ambos entornos se utilicen de manera eficiente y sin cuellos de botella Ganar actividad, reflexión. ¿Cómo optimiza la distribución de la carga de trabajo entre sus sistemas on premise y Cloud para maximizar el rendimiento? ¿Qué factores considerarías a hora de decidir dónde colocar las cargas de trabajo Preguntas de discusión planteadas en el foro. ¿Qué estrategias ha utilizado para reducir la latencia en entornos híbridos? ¿Cómo administra el uso de recursos tanto en la nube como en los sistemas locales? Siguiente lección, optimización de costos en sistemas híbridos. En la siguiente lección, exploraremos estrategias de optimización de costos para sistemas híbridos. Aprenderá a equilibrar el rendimiento con medidas de ahorro de costos como el escalado de recursos, ubicación de la carga de trabajo y la supervisión de costos en la nube. Emocionados por reducir los costos mientras se mantiene el rendimiento, pasemos a la lección tres del Módulo siete. 28. Lección 3: optimización de costos en sistemas híbridos: Lección tres, optimización de costos en sistemas híbridos. Bienvenidos a la Lección Tres del Módulo Siete. En esta lección, nos centraremos en las estrategias de optimización de costos para arquitecturas de nube híbrida Para un director de infraestructura de TI como William, administrar tanto mainframes in premise como plataformas en la nube significa equilibrar el rendimiento con la rentabilidad Optimizar los costos sin comprometer el rendimiento requiere comprensión, escalado de recursos, ubicación de carga y herramientas para monitorear y administrar el gasto en la nube. Al final de esta lección, explorará las medidas de ahorro de costos en arquitecturas de nube híbrida, incluido el escalado de recursos y cargas de trabajo rentables Dos, aprender a monitorear el gasto en la nube y optimizar los presupuestos mientras se mantiene el rendimiento del sistema. Profundicemos en cómo hacer que su entorno híbrido sea rentable y sin dejar de ofrecer el alto rendimiento que su negocio requiere. Medidas de ahorro de costos en arquitecturas de nube híbrida. optimización de costos en sistemas híbridos implica decisiones estratégicas sobre cómo asignar recursos, distribuir cargas de trabajo y escalar la infraestructura de nube en función de la demanda Al optimizar la forma en que se utilizan los recursos como sistemas locales y en la nube, puede minimizar los costos al tiempo que garantiza el rendimiento. Escalado de recursos, paga por lo que usas. Una de las principales ventajas del entorno en la nube es la capacidad escalar los recursos de forma dinámica, lo que le permite pagar por lo usa en lugar de mantener el exceso de capacidad. escalado eficiente de recursos garantiza que sus sistemas tengan los recursos que necesitan durante las horas pico, pero evite pagar por la infraestructura infrautilizada durante las horas pico. Auto escalado. Las plataformas en la nube como AWS y Azure ofrecen capacidades de escalado automático que le permiten ajustar automáticamente el número de instancias de cómputos o máquinas virtuales en función de la demanda de tráfico Esto asegura que los recursos sólo se destinen cuando sea necesario reduciendo costos durante periodos de baja actividad. Por ejemplo, el equipo de Williams puede configurar el escalado automático de AWS para aumentar automáticamente los recursos de la nube durante períodos de alta demanda, como durante los informes de fin de trimestre financiero o las horas pico de banca y reducir la escala durante las horas libres Instancias puntuales e instancias reservadas. Utilice instancias puntuales que son recursos informáticos temporales y rentables para cargas de trabajo que pueden tolerar interrupciones e instancias reservadas que son capacidad informática con descuento previo a la compra para cargas de trabajo a largo plazo Por ejemplo, el equipo de Williams podría aprovechar las instancias puntuales de AWS para el procesamiento por lotes u otra carga de trabajo no crítica y reservar instancias para aplicaciones de misión crítica que necesitan un tiempo de actividad constante Tomemos un ejemplo. Al implementar el escalado automático de AWS, equipo de Williams puede reducir los costos al garantizar que los recursos informáticos se escalen automáticamente durante horas pico, pero minimizan los costos durante las horas pico. Además, pueden ahorrar hasta un 70% en costos de procesamiento por lotes mediante el uso instancias puntuales para cargas de trabajo menos sensibles al tiempo Colocación de cargas de trabajo, utilizando recursos rentables. Colocar las cargas de trabajo en el entorno más rentable es clave para controlar los gastos en una arquitectura de nube híbrida Algunas cargas de trabajo pueden beneficiarse de la escalabilidad de las plataformas en la nube, mientras que otras pueden ser más rentables para ejecutarse en sistemas mainframe heredados Comparación de costos en la nube versus en las instalaciones. Si bien las plataformas en la nube proporcionan flexibilidad y escalabilidad, ejecutar aplicaciones en infraestructura heredada puede ser más rentable para ciertas cargas de trabajo, especialmente si ya posee el hardware y solo incurre en Por ejemplo, el equipo de William puede encontrar que mantener el procesamiento de transacciones en el mainframe donde ya han invertido en infraestructura es más rentable que ejecutar la misma carga de trabajo en AWS EC two Optimización híbrida de la carga de trabajo. Distribuya las cargas de trabajo en función su rentabilidad en cada entorno Las cargas de trabajo de análisis o procesamiento por lotes pueden ser más rentables en la nube mientras que las transacciones financieras en tiempo real pueden ser más asequibles y seguras en las instalaciones Por ejemplo, mover las cargas de trabajo de análisis de datos a la nube donde pueden escalar bajo demanda mientras mantienen el procesamiento de transacciones en el mainframe, reduciendo los costos de computación en la nube mientras mantienen un alto rendimiento Tomemos un ejemplo. Para la institución financiera Williams, migración de análisis de datos a gran escala a la nube permite un equipo aproveche la elasticidad de la nube para un procesamiento de alto volumen, mientras que retener el procesamiento de transacciones de alta seguridad en el mainframe garantiza un mejor control de costos sin sacrificar Monitorizar el gasto en la nube y optimizar el presupuesto. Para optimizar completamente los costos en un entorno híbrido, es esencial el monitoreo continuo del gasto en la nube. Muchas organizaciones luchan con facturas inesperadas en la nube debido a un aprovisionamiento excesivo o a la falta de información sobre el uso de recursos. La implementación de herramientas para el seguimiento en tiempo real y la optimización de costos garantiza que los presupuestos de la nube se optimicen sin afectar el rendimiento del sistema. Uso de herramientas nativas en la nube para el monitoreo de costos. Las plataformas en la nube proporcionan herramientas integradas para ayudarle a monitorear y administrar el gasto en la nube en tiempo real. Estas herramientas le permiten establecer presupuestos, realizar un seguimiento del uso de la investigación y analizar las tendencias de gasto para garantizar que se mantenga dentro de sus objetivos financieros. Explorador de costos de AWS. AWS Cost Explorer le permite visualizar y analizar sus patrones de costo y uso de AWS. Ayuda a identificar los recursos no utilizados, comparar el uso real frente al predictivo y encontrar oportunidades para ahorrar. Por ejemplo, el equipo de Williams puede usar AWS Cost Explorer para realizar un seguimiento del gasto mensual en la nube, identificando instancias de EC dos infrautilizadas y cerrándolas cuando no sea necesario Azure Cost Management más facturación. Esta herramienta proporciona un desglose detallado los costos de recursos de Azure, lo que permite a las organizaciones realizar un seguimiento de los gastos, comprar servicios y establecer alertas para cuando los costos exceden los umbrales predefinidos Ejemplo, el equipo de William puede usar Azure Cost Management para monitorear los servicios de Azure, configurando alertas si los costos de computación en la nube superan su presupuesto mensual. Implementación de presupuestos y alertas. Para evitar gastos excesivos, las organizaciones pueden establecer presupuestos para uso de la nube e implementar alertas que notifiquen a los equipos cuando el gasto se acerca al umbral Esto permite que el equipo tome medidas antes de que los costos se salgan de control. Alertas de presupuesto. Configura alertas de presupuesto para notificar al equipo cuando el gasto real supere o esté a punto de superar los montos presupuestados Esto es útil para mantenerse proactivo en la gestión de los gastos en la nube. Ejemplo, el equipo de Williams puede establecer un presupuesto mensual en la nube para sus servicios de AWS y recibir notificaciones si el gasto se acerca al 80% del presupuesto, lo que les permite realizar ajustes para evitar superar su objetivo. Anomalías de costos. Utilice herramientas de detección de anomalías de costos impulsadas por aprendizaje automático, como la detección de anomalías de costos de AWS , para identificar picos inusuales en uso de la nube que podrían indicar errores de configuración Por ejemplo, si una carga de trabajo de procesamiento por lotes utiliza más recursos en la nube de los esperados, equipo de Williams puede detectar rápidamente la anomalía e investigar si hubo un error en la programación de la carga Tomemos un ejemplo. El equipo de Williams puede establecer un presupuesto para la infraestructura de la nube utilizando AWS Cost Explorer y recibir alertas cuando el gasto supera el umbral predeterminado, les ayuda a evitar gastos excesivos mientras optimiza el rendimiento Mejores prácticas para la optimización de costos en sistemas de nube híbrida. Optimizar los costos en los sistemas de nube híbrida consiste en alinear el uso de recursos con las necesidades del negocio, asegurando que el rendimiento se mantenga sin incurrir en gastos innecesarios A continuación se presentan las mejores prácticas para optimizar de manera rentable. Recursos de tamaño correcto. tamaño correcto se refiere a ajustar el tamaño de instancias en la nube o las máquinas virtuales para que coincidan con el uso real de las cargas de trabajo Muchas organizaciones sobreproveen recursos para evitar problemas de desempeño, pero estos a menudo conducen a costos más altos. Revise y ajuste regularmente sus asignaciones de recursos en función de los patrones de uso reales Mejor práctica, revisar regularmente uso de recursos y reducir el tamaño cualquier instancia sobre provisiones Esto evita pagar por la capacidad no utilizada al tiempo que garantiza que las cargas de trabajo sigan funcionando de manera óptima Utilice instancias de reserva y planes de ahorro. Las plataformas en la nube ofrecen instancias reservadas y planes de ahorro que brindan importantes descuentos, hasta 70% para cargas de trabajo a largo plazo Estos planes son ideales para cargas de trabajo y requieren un uso consistente a lo largo del tiempo, lo que permite a las organizaciones reducir costos sin comprometer el rendimiento La mejor práctica es identificar las cargas que se ejecutan de manera consistente, por ejemplo, bases de datos, aplicaciones críticas y compra instancias reservadas o planes de ahorro para que estas cargas de trabajo bloqueen precios más bajos Optimice los costos de almacenamiento. Los costos de almacenamiento se pueden sumar rápidamente, especialmente en entornos híbridos donde los datos se distribuyen en múltiples sistemas. Optimice el almacenamiento mediante opciones de almacenamiento entre pares como AWS ST glaciar o asegurar el almacenamiento de sangre o los datos a los que se accede con poca frecuencia y el almacenamiento bajo demanda para aplicaciones en tiempo real La mejor práctica, Archive accede a los datos con poca frecuencia en opciones de almacenamiento a largo plazo más baratas como AWS ST Glacier, mientras se usa un almacenamiento más rápido, por ejemplo, SSD o datos de acceso frecuente de misión crítica Una de las claves de esta lección incluyen, una, el escalado automático y la ubicación de la carga de trabajo son estrategias esenciales para reducir costos mientras mantiene el rendimiento en entornos de nube híbrida Dos, el monitoreo continuo de costos en la nube mediante herramientas como AWS Cost Explorer y la administración de costos le garantiza mantenerse dentro del presupuesto y evitar gastos excesivos Tres, implementar mejores prácticas de ahorro de costos , como dimensionar recursos adecuados, usar instancias de reserva y optimizar el almacenamiento de información para lograr una eficiencia de costos a largo plazo. Actividad de aprendizaje, reflexión. Qué estrategias implementarías para reducir costos en un entorno de nube híbrida? ¿Cómo equilibraría el ahorro de costos con mantener un alto rendimiento? Pregunta de discusión planteada en el foro. ¿Qué retos ha enfrentado con la gestión de costos en la nube en un entorno híbrido? ¿Cómo ha optimizado sus gastos a la vez que garantiza el rendimiento del sistema? Siguiente lección, continuidad del negocio y recuperación ante desastres. En la siguiente lección, discutiremos cómo garantizar la continuidad del negocio en entornos híbridos mediante el desarrollo sólidos planes de recuperación ante desastres. Aprenderá a implementar estrategias de conmutación por error, garantizar la integridad de los datos y construir un sistema híbrido resiliente que pueda recuperarse de fallas inesperadas Preparados para garantizar la continuidad del negocio, pasemos a la lección cuatro del Módulo siete. 29. Lección 4: continuidad del negocio y recuperación ante desastres: Lección cuatro, continuidad del negocio y recuperación ante desastres. Bienvenidos a la Lección Cuatro del Módulo Siete. Esta lección final nos centraremos en la continuidad del negocio y la recuperación ante desastres para entornos de nube híbrida. Para un director de infraestructura de TI como William, garantizar que los sistemas sean resilientes y puedan recuperarse rápidamente de interrupciones inesperadas es fundamental para mantener las operaciones comerciales En esta lección, discutiremos las mejores prácticas para la planificación de recuperación ante desastres, cómo implementar estrategias de pyover y soluciones de respaldo efectivas para garantizar que su sistema de nube híbrida pueda recuperarse de fallas con un tiempo de inactividad mínimo Al final de esta lección, aprenderá las mejores prácticas para garantizar continuidad del negocio con un enfoque en recuperación ante desastres en entornos de nube híbrida. Dos, comprender cómo implementar estrategias de conmutación por error y soluciones de respaldo tanto en la nube como en los sistemas in situ Profundicemos en cómo construir sistemas resilientes que puedan soportar fallas inesperadas y mantener sus operaciones funcionando sin problemas. Mejores prácticas para la continuidad del negocio en entornos de nube híbrida. En entornos de nube híbrida, continuidad del negocio implica tener un plan sólido para garantizar la disponibilidad del sistema, la integridad de los datos y un tiempo de inactividad mínimo en caso de falla o desastre del sistema. Una estrategia de recuperación ante desastres bien desarrollada es clave para mantener las operaciones comerciales y la protección de datos. Desarrollo de un plan de recuperación ante desastres, DRP. Un plan de recuperación ante desastres es un enfoque detallado y estructurado para recuperar sistemas de TI en caso de desastre, ya sea un desastre natural, ataque cibernético o una falla del sistema. Para entornos de nube híbrida, los DRP deben abordar tanto la infraestructura local como los sistemas en la nube. Evaluación de riesgos. Identifique los sistemas, aplicaciones y datos críticos que deben priorizarse en su plan de recuperación ante desastres En un entorno híbrido, esto incluye tanto sistemas mainframe como aplicaciones alojadas en la nube Por ejemplo, la institución financiera Williams debe priorizar el mainframe que procesa las transacciones de los clientes y servicios en la nube que manejan las aplicaciones orientadas al cliente Estos sistemas deben ser restaurados rápidamente en caso de fallo. Objetivo de tiempo de recuperación, RTO y punto de recuperación RPO. Define su RTO, que es el tiempo máximo aceptable, un sistema puede estar inactivo y RPO, que es la cantidad máxima de pérdida de datos que es aceptable, medida en el tiempo, en entornos híbridos, RTO y RPO pueden variar dependiendo del Para los sistemas de misión crítica, el RTO debe estar cerca de cero Ejemplo, para el sistema de procesamiento de transacciones Williams en el mainframe, el RTO podría ser de 15 minutos Mientras que para una carga de trabajo de análisis de datos no crítica en la nube, el RTO podría durar varias horas. Implementación de una arquitectura híbrida de recuperación ante desastres. Para garantizar la continuidad del negocio sin fisuras en los sistemas híbridos, la recuperación ante desastres debe implementarse tanto en entornos locales como en la nube. Esto implica implementar sistemas redundantes, failover automatizado y soluciones de backup Soluciones basadas en DR. Aproveche los servicios en la nube como AWS Elastic Disaster Recovery o Azure Site Recovery para replicar y recuperar sistemas locales en la nube Estas herramientas permiten una rápida conmutación por error a la nube en caso de una falla del sistema o desastre Por ejemplo, el equipo de Williams puede implementar recuperación ante desastres de AWS Elastic para replicar cargas de trabajo críticas de mainframe En caso de una interrupción, estas cargas de trabajo se pueden girar rápidamente en la Nube asegurando la continuidad de los datos para su operación bancaria Failover híbrido. En entornos híbridos, estrategia de conmutación por error debe implementarse para garantizar que los sistemas puedan cambiar de infraestructura local a entornos en la nube cuando sea necesario Esto permite que los sistemas críticos permanezcan operativos incluso durante desastres. Ejemplo, el equipo de Williams puede configurar la conmutación por error para su sistema de transacciones del cliente modo que si el mainframe experimenta tiempo de inactividad, el backup basado en la nube se haga cargo hasta que se restaure el mainframe Tomemos un ejemplo. Para Williams Institution, herramientas de recuperación ante desastres basadas en la nube pueden replicar los sistemas transaccionales de mainframes en la Si el mainframe no está disponible debido a un corte de energía, copias de seguridad basadas en la nube se pueden activar rápidamente para mantener la continuidad del negocio Implementación de estrategias de failover y soluciones de backup. Garantizar las capacidades de failover y backup en entornos híbridos implica configurar procesos automáticos que minimicen el tiempo de inactividad y garanticen la disponibilidad de los datos En un sistema híbrido, esto requiere un esfuerzo coordinado tanto en los sistemas en las instalaciones como en la nube. Estrategias de failover, asegurando la disponibilidad del sistema. Las estrategias de conmutación por error garantizan que si falla un componente del sistema, las operaciones pueden transferirse automáticamente a un sistema de respaldo En entornos híbridos, esto puede implicar la acumulación de un sistema en primer lugar a un entorno de nube o de una región de nube a otra por error activa activa. En este enfoque, tanto los sistemas on-premise como en la nube están activos y activos, asegurando que si uno falla, el otro continúe operando sin interrupciones sin interrupciones. Ejemplo, la institución Williams podría ejecutar procesamiento de transacciones en tiempo real tanto en el mainframe como en la nube Si el mainframe falla, la instancia de Cloud se hace cargo sin ninguna interrupción notable para los clientes Pilover pasivo activo. En este enfoque, el sistema primario, por ejemplo, on premise está activo, mientras que el sistema secundario, por ejemplo, en la nube permanece en espera. El sistema secundario se activa sólo si falla el primario. Por ejemplo, el equipo de Williams puede configurar un sistema de conmutación por error pasivo activo donde el marco principal maneja todas las transacciones Pero si falla, se activa la copia de seguridad de AWS Cloud para continuar procesando transacciones. B, soluciones de backup, protección de datos en entornos híbridos. Las copias de seguridad son una parte esencial de cualquier plan de recuperación ante desastres, asegurando que los datos puedan restaurarse en caso de falla o pérdida de datos. En entornos híbridos, deben crearse backups regulares tanto para sistemas on premise como para entornos Cloud. En las instalaciones de backup para mainframes, las copias de seguridad se pueden almacenar en centros de datos externos o replicarse en entornos de nube para Por ejemplo, el equipo de Williams puede programar copias de seguridad diarias de sus bases de datos de mainframe en una ubicación segura fuera del sitio y replicar datos clave a AWSs tres para y replicar datos clave a AWSs tres para obtener redundancia adicional. Copia de seguridad en la nube. Los servicios en la nube ofrecen soluciones de respaldo automatizadas para aplicaciones basadas en la nube. Herramientas como la copia de seguridad de AWS o la copia de seguridad de Azure permiten a las organizaciones realizar copias de seguridad automáticas los datos almacenados en la nube diferentes regiones para obtener redundancia Por ejemplo, el equipo de Williams puede usar la copia de seguridad de AWS para crear copias de seguridad diarias automatizadas de bases de datos basadas en la nube y almacenar copias en diferentes regiones para protegerse contra interrupciones regionales Tomemos un ejemplo. El equipo de Williams puede garantizar la protección de datos mediante el almacenamiento copias de seguridad de mainframe en una ubicación externa mientras usa copia de seguridad de AWS para crear copias de seguridad en la nube para aplicaciones orientadas al cliente, lo que garantiza una redundancia completa de datos Mejores prácticas para la recuperación ante desastres en entornos híbridos. construcción de un sistema híbrido resiliente requiere no solo soluciones de failover y backup, sino también pruebas continuas y optimización de sus estrategias de recuperación ante desastres Estas son algunas de las mejores prácticas a considerar. Pruebe regularmente su plan de recuperación ante desastres. Probar su plan de recuperación ante desastres es fundamental para garantizar que funcione cuando sea necesario. Simule eventos de conmutación por error y escenarios de recuperación de datos para verificar que su plan funcione como se esperaba y ajustarlo según sea necesario La mejor práctica es realizar simulacros regulares de recuperación ante desastres para probar las capacidades de conmutación por error, asegurando que tanto los sistemas locales como en la nube puedan recuperarse dentro de su RTO y RPO definidos Automatice los procesos de failover y backup. La automatización es clave para minimizar el tiempo de inactividad en caso de desastre. Automatice sus procesos de failover y programas de backup para garantizar que los sistemas puedan recuperarse sin intervención manual La mejor práctica es utilizar la recuperación ante desastres de AWS Elastic o la recuperación de sitios de Azure para automatizar la conmutación por error de los sistemas locales a la nube y usar herramientas como copia de seguridad de AWS para programar copias de seguridad diarias automáticas de datos en la nube y en las instalaciones Optimizar un plan de recuperación basado en las prioridades del sistema. Diferentes sistemas tienen diferentes requerimientos de recuperación. Priorice los sistemas de misión crítica , como los que manejan las transacciones de los clientes para una recuperación rápida mientras que los sistemas menos críticos se pueden restaurar durante períodos más largos Práctica recomendada, defina RTO y RPO en función de la importancia del sistema, asegurando que los sistemas críticos se restauren en cuestión de minutos mientras las cargas de trabajo no esenciales se puedan restaurar durante varias horas conclusiones clave de esta lección incluyen, una, un sólido plan de recuperación ante desastres que es esencial para mantener la continuidad del negocio en entornos híbridos con objetivos específicos de RTO y RPO tanto para sistemas primus como en la nube Dos, implementar estrategias de failover como failover activo activo o pasivo activo para garantizar que los sistemas puedan continuar funcionando sin problemas durante una interrupción Tres, automatice los procesos de copia de seguridad y pruebe regularmente su plan de recuperación ante desastres para garantizar que su sistema de nube híbrida pueda recuperarse rápidamente y sin pérdida de datos. Actividad de aprendizaje, reflexión. ¿Cómo implementarías una estrategia de failover en tu entorno híbrido ¿Qué RTO y RPO establecería para sus sistemas más críticos y cómo garantizaría que su plan de recuperación ante desastres cumpla con esos objetivos Pregunta de discusión planteada en el foro, ¿qué retos ha encontrado con recuperación ante desastres en entornos híbridos? ¿Cómo ha optimizado sus procesos de backup y failover? sus procesos de backup y failover Enhorabuena por completar el curso. Has completado el curso, modernización de MITs de mainframe, dominando el diseño de la nube híbrida A través del curso, ha obtenido información valiosa sobre cómo crear, optimizar y proteger entornos de nube híbrida, integrar mainframes con infraestructuras de nube y garantizar el rendimiento, la rentabilidad y la continuidad del negocio Próximos pasos, poniendo en práctica tus conocimientos. Ahora que ya has completado el curso, es momento de poner en práctica tus nuevas habilidades. Aplicar las estrategias aprendidas en este curso para administrar proyectos de modernización de mainframe, implementar soluciones de failover, optimizar el gasto en la nube y garantizar la seguridad en entornos híbridos Comience su viaje a la nube híbrida evaluando su infraestructura actual, creando un plan de modernización y moviendo gradualmente las cargas de trabajo a la nube Continúa tu viaje de aprendizaje con estos cursos. Para ampliar aún más su experiencia en la modernización del sistema mainframe, considere inscribirse en uno de estos cursos Uno, DevOps de mainframe, integrando sistemas heredados con prácticas ágiles Aprenda a introducir los principios de DevOps en las operaciones de mainframe y garantice una colaboración fluida entre los sistemas Cloud y on premise Dos, implementación de integración continua slash Continuous Delivery o CICD en mainframes Obtenga un proceso paso a paso para establecer canalizaciones CICD automatizadas para bases de código de mainframe, integrando sistemas heredados con prácticas de desarrollo modernas Esperamos verte en la siguiente fase de tu viaje de aprendizaje. Enhorabuena de nuevo y mucha suerte en tus proyectos de modernización de mainframe Sigamos modernizándonos.