Transcripciones
1. INTRODUCCIÓN: Bienvenido a Mainframe
MIT Modernización. Dominar el diseño de la nube híbrida. Mi nombre es Ricardo Nuke, y soy tu instructor
para este curso Objetivo del curso. este curso, la modernización del
MIT de mainframe, dominio del diseño de la
nube híbrida es brindarle
las habilidades esenciales, los conocimientos y las habilidades necesarias para diseñar
e implementar de
manera efectiva
arquitecturas de nube híbrida que
integren sistemas
mainframe El objetivo de
este curso, la modernización del
MIT de mainframe, el
dominio del diseño de la
nube híbrida es
brindarle
las habilidades esenciales, los conocimientos y las habilidades necesarias para diseñar
e
implementar de
manera efectiva
arquitecturas de nube híbrida que
integren sistemas
mainframe con un entorno de nube moderno. Por ejemplo, AWS. A Resultados clave. Al final de este curso, tendrá confianza
en diseñar e implementar
arquitecturas de nube híbrida que
integren mainframes con plataformas modernas Poseerá
el conocimiento técnico para
mantener la seguridad, cumplimiento y la eficiencia
operativa durante todo el proceso de
modernización. Tendrá habilidades prácticas para utilizar
la automatización, herramientas
devov y los servicios nativos de
la nube para mejorar su entorno
híbrido Estarás equipado
con estrategias para navegar
los desafíos organizacionales, asegurando la alineación del equipo
y el éxito del proyecto. Siete etapas específicas
para la transformación. Estos son los siete pasos o
etapas
específicos que debe seguir
para transformarse de
un sistema de mainframe centrado heredado
a un sistema de computación en la
nube de mainframe híbrido El primero es evaluar y evaluar el entorno de
mainframe actual Después, defina una
estrategia y arquitectura de nube híbrida. Luego pilotará
y probará aplicaciones
listas para la nube y cargas de trabajo. Después migrarás los datos
y la carga de trabajo a la Nube. Luego implementará herramientas de administración
y orquestación de la nube
híbrida herramientas de administración
y orquestación Luego
optimizará la seguridad, el cumplimiento y el rendimiento, y finalmente, impulsará la
mejora continua y la innovación. Esquema del curso de siete módulos. Este curso se
divide en siete módulos. Los módulos son los siguientes. Primero, las bases de la arquitectura de la nube
híbrida. Después cubriremos los sistemas heredados de
evaluación
para la integración en la nube. El tercero es diseñar una estrategia
y arquitectura de Cloud híbrido. Cuarto, migrar datos y
aplicaciones a la Nube. Quinto, implementar
automatización y DevOps en entornos híbridos. Seis, asegurando la seguridad, el cumplimiento y la gobernanza
en sistemas híbridos. Siete, optimizar y administrar sistemas de nube
híbrida
para el rendimiento. Así dentro de curso.
2. Lección 1: introducción a los conceptos de nube híbrida: Bienvenido al Módulo
uno, bases de la arquitectura de Nube Híbrida. Este módulo presenta
los conceptos centrales de la arquitectura de nube híbrida, centrándose en la importancia de los sistemas
híbridos en el panorama
actual de TI. Cubre las
diferencias fundamentales entre mainframe e
infraestructura en la nube y los beneficios de integrar
ambos sistemas para lograr escalabilidad, rentabilidad e innovación Lección uno, introducción
a los conceptos de nube híbrida. Bienvenido a la primera
lección de nuestro curso, modernización de
mainframe Mets, dominio del diseño de la nube híbrida Hoy nos sumergiremos arquitectura de la nube
híbrida y por qué se ha vuelto esencial en los entornos de TI
modernos, especialmente para
las organizaciones que dependen de sistemas
mainframe heredados Si estás manejando un proyecto de
modernización de mainframe como William, el director de infraestructura de TI, administrando sistemas de misión
crítica en una institución financiera, entonces estás en el lugar correcto Vamos a romper esta
lección en dos partes. Primero, definir la arquitectura de
nube híbrida. Segundo, explorar la evolución de la nube y los sistemas heredados. Empecemos. ¿Qué es la arquitectura de nube
híbrida? Una arquitectura de nube híbrida combina
infraestructura local
como mainframes o centros de datos
privados con
servicios de nube pública como AWS, Microsoft Azure
o Google Cloud Estos entornos
están conectados por tecnología que permite que los datos, las aplicaciones o las cargas de trabajo
se muevan entre ellos sin problemas. Esencialmente, obtienes lo
mejor de ambos mundos, la confiabilidad y el control de los mainframes y la flexibilidad, escalabilidad e innovación
que ofrece la nube ¿Por qué es
tan importante la nube híbrida? Para alguien como tú,
encargado de modernizar un sistema
financiero, un enfoque híbrido no es
solo un buen tener,
es de misión crítica, y he aquí por qué Primero, los sistemas heredados
no van a desaparecer. mainframes están
profundamente integrados en industrias como las finanzas, la
atención médica y el gobierno Reemplazar estos
sistemas por completo no es realista debido al
costo de escala y el riesgo de interrupción. Dos, Cloud ofrece flexibilidad. Puede descargar ciertas
tareas como procesamiento por lotes, análisis de
datos o aplicaciones
orientadas al cliente a la nube mientras mantiene operaciones centrales
confidenciales
en el Tercero, la seguridad y el cumplimiento no
son negociables, especialmente en
industrias reguladas como la banca Un modelo híbrido le permite aprovechar
las
capacidades de la nube mientras mantiene un estricto control sobre sus datos y
aplicaciones más confidenciales en las instalaciones. Tomemos un ejemplo.
Imagine que está ejecutando un
sistema de procesamiento de tarjetas de crédito en su mainframe Los datos transaccionales deben permanecer en el mainframe
por razones de seguridad Pero los análisis para el comportamiento
del cliente, que pueden trasladarse a la nube
donde es más fácil escalar y analizar conjuntos a gran
escala en tiempo real. Esta configuración híbrida garantiza que sus operaciones confidenciales
permanezcan seguras. La nube maneja una carga de trabajo escalable más
dinámica. La evolución de la nube
y los sistemas heredados. Hagamos un viaje rápido por carril de los
recuerdos y exploremos
cómo llegamos hasta aquí. La era de los mainframes. Los mainframes han sido
la columna vertebral de la computación
empresarial
desde la década de 1960 Los bancos, los gobiernos y los sistemas de
atención médica dependen de mainframes porque ofrecen
confiabilidad,
seguridad y potencia de procesamiento inigualables ,
seguridad y potencia de procesamiento Si alguna vez interactuó
con el sistema backend de un banco, usa un cajero automático o presenta sus impuestos, es muy
probable que
haya un mainframe involucrado en algún lugar mainframes están
diseñados para manejar transacciones
de alto volumen
sin tiempo de inactividad Esto hace que la misión sea
crítica para industrias donde cualquier interrupción significaría millones de dólares perdidos o
incluso consecuencias legales. Sin embargo, el mayor desafío
es que los mainframes se construyeron en una era en la que la
computación en la nube no existía Si bien son
potentes, no fueron diseñados pensando en la
integración en la nube. Ahí es donde entra en juego el
modelo híbrido. El auge de la computación en la nube. computación en
la nube surgió a principios del 2000 y ha transformado
fundamentalmente la
forma en que operan las empresas. La nube ofrece
recursos bajo demanda, potencia informática, almacenamiento y redes sin la necesidad de poseer y
mantener servidores físicos Los beneficios clave de la nube
incluyen escalabilidad. Puede escalar sus aplicaciones y recursos hacia arriba y hacia abajo, hacia arriba o hacia abajo según la demanda. Eficiencia en costos. Solo
pagas por lo que usas. No más sobre aprovisionamiento de hardware
físico. Innovación. Las plataformas en la nube albergan nuevas tecnologías como la
IA, el aprendizaje automático y el análisis de big data, que pueden ayudar a las organizaciones a obtener información y
optimizar las operaciones. Sin embargo, muchas
organizaciones encontraron que si bien la Nube
era un cambio de juego, abandonar
por completo sus sistemas
mainframe
no era práctico Ahí es donde el modelo de nube
comenzó a ganar tracción. ¿Por qué los modelos de nube híbrida
están ganando popularidad? En los últimos años, los modelos de nube
híbrida han explotado en popularidad, especialmente en industrias
donde la seguridad, el cumplimiento y el rendimiento no
son negociables He aquí por qué. Primero, equilibrar
el riesgo y la innovación. mainframes son excelentes
para las operaciones principales, pero la nube es ideal
para experimentar con nuevas tecnologías sin
arriesgar sus Dos, carga de trabajo optimizada. Algunas tareas como el
procesamiento por lotes son más adecuadas para mainframes, mientras que
otras, como el análisis de datos, se benefician de la
escalabilidad de la nube Tres, control de costos. Puede mantener sus inversiones en
mainframe donde tengan más sentido y evitar comprometer
recursos en exceso a la nube, donde los costos
pueden escalar rápidamente Tomemos un ejemplo.
Considera William, nuestro director de infraestructura de TI. Su institución financiera
quiere aprovechar la detección de fraudes en tiempo
real
utilizando modelos de aprendizaje automático. Mover el
sistema de detección de fraude completamente a la nube requeriría recursos
sustanciales y revisiones de cumplimiento. En cambio, William opta
por un modelo híbrido. El mainframe continúa manejando transacciones financieras
principales mientras el
modelo de detección de fraude ejecuta un AWS Los datos fluyen sin problemas entre
los dos entornos, equilibrando la seguridad
con la innovación. Los puntos clave de
esta lección incluyen uno, las arquitecturas de nube
híbrida
le permiten integrar la confiabilidad de los mainframes
con la flexibilidad
de los entornos en la Dos, los sistemas heredados como los mainframes aún
tienen un valor inmenso, especialmente en
industrias como la banca donde el tiempo de actividad y la
seguridad son primordiales Tres, el auge de la computación
en la nube le permite descargar cargas de trabajo
no sensibles
a la nube,
optimizar el rendimiento
y reducir los costos mientras mantiene un estricto control sobre Actividad de aprendizaje. Reflexiona sobre tu infraestructura actual. Qué cargas de trabajo
en su mainframe podrían beneficiarse de la integración
en la nube ¿Qué retos
prevé en una transición a
la nube híbrida? prevé en una transición a
la nube híbrida Investigación. Busque un estudio de caso de una arquitectura de nube híbrida
en la industria financiera. ¿Cómo manejaron la
distribución de la carga de trabajo entre mainframe y entornos Cloud?
Pregunta de discusión. Pan pensamientos en el foro de discusión del
curso. ¿Cuál sería el
mayor beneficio para su organización al adaptar
una arquitectura de nube híbrida? Siguiente lección, mainframe
versus infraestructura en la nube. En la siguiente lección,
profundizaremos en las diferencias
técnicas entre mainframes y entornos de
nube. Aprenderá sobre
las fortalezas centrales de ambos sistemas y por qué mainframes continúan desempeñando un papel clave en las operaciones de misión
crítica También exploraremos las diferencias
clave en el almacenamiento de
cómputos y las redes entre los sistemas locales y los nativos en
la nube. Emocionados por aprender
más, continuemos su viaje hacia el dominio de la nube
híbrida
3. Lección 2: mainframes vs. infraestructura de nube: Lección dos, marcos principales
versus infraestructura en la nube. Bienvenido a la lección dos de nuestro viaje hacia la arquitectura de
nube híbrida. En nuestra lección anterior, exploramos los conceptos básicos
de los sistemas de nube híbrida y por qué se vuelven tan esenciales en los entornos de
TI modernos. Hoy, vamos
a profundizar en diferencias técnicas entre
los mainframes y la
infraestructura en la nube Para alguien como William, director de infraestructura de TI,
es administrar sistemas de misión
crítica en la industria financiera, comprender las fortalezas
y diferencias clave entre mainframes
prem y infraestructura nativa de
la nube Es probable que se enfrente
al desafío
de mantener el rendimiento y la
seguridad del sistema y , al mismo tiempo, adoptar la escalabilidad y la
innovación que ofrece la nube En esta lección, nos
centraremos en las diferencias técnicas
entre mainframes y entornos
Cloud en términos de almacenamiento de cómputos
y redes y por qué los mainframes
continúan teniendo valor
en industrias donde la
confiabilidad no es negociable Vamos a desglosarlo.
Compute la potencia de los mainframes frente a la
flexibilidad de la nube Mainframes, los titanes del procesamiento
transaccional. mainframes están diseñados para poder de procesamiento de
cizalla
y trooper de transacciones Si su organización maneja miles de
transacciones por segundo, como procesar
pagos con tarjeta de crédito, ejecutar nóminas o administrar inventario
en tiempo real, mainframes están diseñados para manejar esto sin
darse un chapuzón Escalado vertical.
Los mainframes logran su rendimiento a través del escalado
vertical, lo que significa que agregan más potencia de procesamiento
a un solo sistema Esto les permite mantener una alta confiabilidad incluso
bajo cargas de trabajo extremas Fiabilidad y tiempo de actividad. mainframes son legendarios
por su tiempo de actividad, a menudo cuentan con 99 puntos
triple 9% disponibilidad, y eso es aproximadamente 5 minutos
de tiempo de inactividad por año Para industrias
como la banca donde incluso segundos de tiempo de inactividad
pueden costar millones, esto es un cambio de juego. Tomemos un ejemplo. una red ATM que
procesa transacciones en cientos de
ubicaciones simultáneamente. Si el sistema cae, puede
resultar en
transacciones de pérdida y confianza del cliente. Los marcos principales están diseñados para
garantizar que eso no suceda, proporcionando un
rendimiento consistente a escala. Cloud, los maestros de la
flexibilidad y escalabilidad. Por otro lado, la
computación en la nube sobresale en el escalado
horizontal, donde se agregan más servidores
para manejar mayores cargas Los entornos en la nube están
diseñados para escalar dinámicamente, agregando recursos cuando
la demanda aumenta y
reduciéndolos cuando disminuye Esto es particularmente
beneficioso para cargas de trabajo que son de naturaleza
variable, como
las aplicaciones web que pueden ver un aumento de usuarios
durante ciertos momentos Elasticidad. Las plataformas en la nube como AWS ofrecen potencia informática elástica, lo que le permite escalar hacia
arriba o hacia abajo bajo demanda. Esto significa que solo
paga por lo que usa, evitando la necesidad de una costosa infraestructura
infrautilizada Eficiencia en costos. Los sistemas en la nube ofrecen un modelo de
pago por uso, lo
que facilita la administración de costos, especialmente para cargas de trabajo no
críticas o entornos de desarrollo. Tomemos un ejemplo. Imagine que está ejecutando una aplicación orientada
al cliente para los servicios en línea de su banco. Durante un gran lanzamiento de producto o campaña de
marketing,
el tráfico podría aumentar. En un entorno de nube, puede activar rápidamente servidores
adicionales
para satisfacer la demanda, asegurando que los clientes no experimenten
tiempos de respuesta bajos ni bloqueos. La conclusión clave para esto es
que los mainframe son ideales para procesamiento
transaccional de alto volumen
consistente, mientras que la nube sobresale en flexibilidad y manejo Almacenamiento, almacenamiento centralizado de
mainframe
versus almacenamiento distribuido
en la nube. Almacenamiento de mainframe,
centralizado y de alta velocidad. Los mainframes han utilizado
tradicionalmente sistemas
centralizados de
almacenamiento de alto rendimiento Este almacenamiento a menudo se
conecta directamente al mainframe, proporciona acceso de baja latencia a datos
críticos para sistemas que requieren acceso en tiempo real
a bases de datos masivas, mainframes ofrecen un rendimiento
sin paralelo Mainframe también ofrece administración
jerárquica de almacenamiento o HSM, donde los datos se pueden migrar
automáticamente entre discos de
alto rendimiento y almacenamiento en cinta de
menor costo
dependiendo Tomemos un ejemplo. En
una institución financiera, todos los datos bancarios, como información de la cuenta
del cliente deben ser accedidos instantáneamente, sin importar el tiempo o el
volumen de las transacciones. Los sistemas de almacenamiento de mainframe están optimizados para este tipo
de datos críticos Almacenamiento en la nube, escalable
y distribuido. entorno en la nube, por el contrario, utiliza sistemas
de almacenamiento distribuido. Servicios como AWSs
tres almacenan datos en múltiples ocasiones, proporcionando
redundancia y escalabilidad integradas Esto significa que puede
almacenar una gran cantidad de datos sin preocuparse por
quedarse sin espacio. almacenamiento en la nube también
ofrece precios elevados, lo que le permite almacenar
datos a los que se accede con
menos frecuencia a un costo menor Almacenamiento de objetos versus almacenamiento en
bloque. Los servicios en la nube ofrecen
diversas opciones de almacenamiento como el almacenamiento de objetos, que es ideal para
gran cantidad de datos
no estructurados
y almacenamiento bloqueado, más como el almacenamiento en
disco tradicional, ideal para bases de datos
o máquinas virtuales Redundancia geográfica.
El almacenamiento en la nube puede replicar
automáticamente los datos en múltiples regiones
geográficas, lo que garantiza la durabilidad
y disponibilidad de los datos, incluso en caso de interrupciones Tomemos un ejemplo. Imagine que está almacenando datos
históricos de transacciones que deben conservarse por razones de
cumplimiento pero que
no se accede regularmente. En un entorno de nube, podría mover estos datos a almacenamiento de archivo de
bajo costo
como AWS Glacier, liberando espacio y reduciendo
los costos para sus datos activos La conclusión clave
de esto es que almacenamiento de
mainframe está
optimizado para un acceso de alta velocidad y tiempo
real a
datos críticos, mientras que el almacenamiento en la nube ofrece escalabilidad
y redundancia geográfica para conjuntos de datos masivos Redes de mainframe en funcionamiento
versus conectividad en la nube. Redes de mainframe,
ancho de banda alto, baja latencia. mainframes suelen
estar conectados a redes de alto ancho de banda y
baja legitency, a menudo a través de fibra privada o
conexiones dedicadas Estos sistemas están
diseñados para manejar grandes volúmenes de datos
con un retraso mínimo, lo cual es crítico para los sistemas
transaccionales donde cada milisegundo cuenta mainframes también forman parte de redes
heredadas que
se han construido a lo largo de décadas, garantiza una profunda integración con otros sistemas empresariales, como bases de datos
internas
y pasarelas de pago Tomemos un ejemplo. Considera un sistema de
procesamiento de pagos en tiempo real para un banco grande. La red de
alta velocidad de mainframes garantiza que las transacciones
se procesen instantáneamente, permitiendo
a los clientes transferir fondos, realizar pagos o verificar
saldos sin demora Redes en la nube, flexibles, pero dependientes de la conectividad
a Internet. Las plataformas en la nube suelen
depender de Internet pública
para la conectividad. Aunque las conexiones privadas
dedicadas como AWS Direct Connect, también
están disponibles para empresas que
requieren una comunicación
segura y de alta velocidad con
sus servicios en la nube. Redes virtuales. En entornos
Cloud, redes están virtualizadas, lo que significa que puede crear redes
personalizadas, controlar el tráfico y aplicar políticas de
seguridad a pedido Esta flexibilidad le permite
diseñar redes que
se adapten a necesidades específicas de
su aplicación. Alcance global. Una de las mayores ventajas de las redes
en la nube
es la capacidad de
implementar aplicaciones globalmente y
llegar a implementar aplicaciones globalmente y los usuarios dondequiera que estén, aprovechando la red de
entrega de contenido o CDN para un acceso más rápido Tomemos un ejemplo. Tu banco podría alojar una
aplicación de banca móvil en la nube, permitiendo a clientes de todo el mundo acceder a
sus cuentas. Mediante el uso de CDN y centros de datos
regionales, la nube garantiza que
los usuarios obtengan un acceso rápido y
seguro a sus datos
sin importar dónde se encuentren La conclusión clave
de esto es que las redes
mainframe están
construidas para transacciones de alta velocidad y
baja latencia en un entorno
centralizado, mientras que redes en
la nube
ofrecen alcance global y flexibilidad virtual para aplicaciones
distribuidas ¿Por qué los mainframes siguen teniendo valor en los sistemas de misión
crítica A pesar del auge de las tecnologías
en la nube, los mainframes siguen siendo invaluables
en industrias como la banca, salud y
el gobierno. He aquí por qué. Uno, la confiabilidad. mainframes están diseñados
para un tiempo de actividad continuo, lo que garantiza que
las operaciones críticas nunca Dos, la seguridad, mainframes ofrecen características de
seguridad robustas que son difíciles de igualar
en entornos de nube, especialmente para los datos que
deben permanecer en las instalaciones Tres, rendimiento. Para el procesamiento de
transacciones en tiempo real de alto volumen, los mainframes aún brindan una velocidad y
eficiencia inigualables Un ejemplo, para las instituciones
financieras, los sistemas de procesamiento de
pagos son el elemento vital de
la organización La necesidad de una fiabilidad
absoluta y un manejo seguro de los datos financieros
confidenciales hacen del mainframe una parte
esencial de la infraestructura, incluso cuando otras cargas de trabajo
se mueven a la nube conclusiones clave de
esta lección incluyen,
uno, los mainframes proporcionan alta
confiabilidad, rendimiento
y seguridad para los sistemas
transaccionales, y seguridad para los sistemas
transaccionales, mientras que los entornos en la nube ofrecen escalabilidad y flexibilidad
para Dos, el almacenamiento de mainframe está
centralizado y optimizado para acceso en tiempo
real, mientras que el almacenamiento
en la nube se distribuye y se diseña para
escalabilidad y redundancia tercer lugar, las redes en mainframes se centran en la comunicación de alto ancho de banda y
baja latencia,
mientras que las
redes en la nube sobresalen en alcance
global y flexibilidad
virtual Actividad de aprendizaje, reflexión. Revise su
infraestructura actual. ¿Qué aspectos de su
sistema dependen en gran medida rendimiento de
mainframe
y qué áreas podrían beneficiarse de la escalabilidad
en la nube? Pregunta de discusión, post en
el foro de discusión del curso. Qué componente,
almacenamiento de cómputos o redes presenta el mayor
desafío para su organización a la hora de
pensar en la integración en la nube. Siguiente lección, componentes clave de la arquitectura
de la nube híbrida. En la siguiente lección,
exploraremos componentes clave de
la arquitectura de la nube
híbrida, incluidos los cómputos, el almacenamiento, las
redes y la seguridad. Aprenderá cómo
interactúan
estos componentes y cómo diseñar un entorno híbrido
que aproveche la fortaleza de los
sistemas mainframe y cloud Emocionados por lo que sigue, profundicemos en los
aspectos técnicos de la arquitectura Hybrid
Cloud.
4. Lección 3: componentes clave de una arquitectura de nube híbrida: Lección tres, componentes clave de una arquitectura de nube híbrida. Bienvenido a la lección tres de su viaje a través de la arquitectura de la nube
híbrida. Hasta ahora, hemos cubierto los fundamentos de
los sistemas de nube
híbrida y exploramos las diferencias
técnicas entre mainframes e infraestructuras
en la nube Ahora es el momento de profundizar en los componentes
clave que
componen
una arquitectura de
nube híbrida y cómo interactúan estos
componentes, garantiza una
integración perfecta entre entornos
mainframe
y los servicios en la nube Para alguien como William, un director de infraestructura de ID que supervisa un complejo proyecto de
modernización de mainframe, estos componentes es fundamental
comprender cómo
encajan Ya sea que esté
manejando operaciones de mainframe
pesadas de transacciones operaciones de mainframe
pesadas o aprovechando la flexibilidad de la nube para cargas de trabajo no críticas, obtener estas piezas correctamente es la base de un sistema híbrido
exitoso En esta lección,
identificaremos los componentes esenciales de
un sistema de nube híbrida,
computación, almacenamiento,
redes y seguridad, y también explicaremos la interacción
entre los servicios en la nube
y los entornos de mainframe.
Vamos a sumergirnos. Compute, balanceando
cargas de trabajo mainframes
y cloud . Computación de mainframe En un sistema híbrido, mainframes continúan
manejando cargas de trabajo
transaccionales centrales Estos sistemas están optimizados para procesar altos volúmenes
de datos en tiempo real, como transacciones bancarias
o procesamiento de nóminas. Los mainframes ofrecen escalado
vertical, lo que significa que pueden manejar cargas de trabajo
crecientes al agregar más potencia de procesamiento
a una sola máquina Fortaleza clave, procesando
un número masivo de transacciones por segundo
con casi cero tiempos de inactividad. Caso de uso, un sistema de
transacciones con tarjeta de crédito donde miles de transacciones deben procesarse simultáneamente con
verificación instantánea y seguridad. Computación en la nube. Por otro lado, los entornos
Cloud como AWS, Microsoft Azure o Google Cloud ofrecen escalado
horizontal. Esto le permite distribuir las cargas de trabajo en
varios servidores, escalando hacia arriba y hacia abajo
según la demanda La nube es ideal para
cargas de trabajo
dinámicas o que requieren potencia
informática bajo demanda Fuerza clave, flexibilidad
y elasticidad, permitiendo que los recursos se
agreguen o reduzcan instantáneamente. Caso de uso, ejecutar análisis de
datos en el comportamiento de compra de
computadoras donde la demanda puede fluctuar pero las necesidades escalan
rápidamente cuando es necesario Cómo interactúan.
En un sistema híbrido, los recursos de
cómputos se dividen en
función de las
características de la carga de trabajo. Mainframe maneja transacciones críticas
de alto volumen, lo que garantiza confiabilidad
y seguridad La nube administra cargas de trabajo flexibles y no
sensibles al tiempo ,
como análisis, procesamiento
por lotes
o servicios web Tomemos un ejemplo. Imagine una
institución financiera donde procesamiento de transacciones en tiempo
real permanece en el mainframe mientras que los modelos de detección de
fraude que utilizan
algoritmos de aprendizaje automático se ejecutan en la nube El mainframe procesa
las transacciones mientras los datos se envían a la nube
para su análisis en tiempo real, conectando posibles patrones de
fraude Almacenamiento, integrando sistemas de
almacenamiento
centralizado y distribuido. Almacenamiento de mainframe. Los entornos de mainframe están diseñados para almacenamiento
centralizado de alta
velocidad que ofrece
acceso de baja latencia a datos críticos En un modelo híbrido, su almacenamiento de mainframe
seguirá albergando bases de datos de misión crítica que requieren acceso
instantáneo y
alta confiabilidad Es fuerza,
control centralizado con alta afluencia de datos. Caso de uso,
datos de cuentas de clientes en sistemas bancarios, donde los registros deben ser
accesibles instantáneamente sin tiempo de inactividad. Almacenamiento en la nube. El almacenamiento
en la nube en contraste se distribuye. Servicios como AWS S three
o Azure Blob Storage
le permiten almacenar grandes
cantidades de datos en múltiples ubicaciones con redundancia
incorporada Esto garantiza la durabilidad y
disponibilidad de los datos incluso
durante las interrupciones. El almacenamiento en la nube es
altamente escalable, lo
que lo hace perfecto para archivar, copias de seguridad y recuperación ante desastres. Fuerza clave, escalabilidad y redundancia con un modelo de
pago por uso. Caso de uso, almacenamiento de registros de
transacciones o datos
históricos de clientes a los que no es necesario
acceder en tiempo real, sino que deben conservarse para fines
reglamentarios. Cómo interactúan. En una arquitectura de nube
híbrida, almacenamiento a menudo se divide
entre almacenamiento de mainframe de alto rendimiento, baja latencia para datos críticos
y
almacenamiento en la nube escalable
para fines de archivado y
respaldo Los mainframes pueden almacenar datos
activos de los clientes mientras que todos los registros se almacenan en la nube para su retención a
largo plazo.
Tomemos un ejemplo. Para un sistema bancario, los perfiles de clientes y los historiales de
transacciones pueden vivir en el mainframe
para acceder en tiempo real, pero los datos más antiguos y menos acceso se
pueden mover al
almacenamiento en la nube para archivarlos Esto reduce los costos al tiempo que mantiene los datos a los que se accede
con frecuencia
donde más se necesita. Redes que conectan
mainframes y la nube. Redes de mainframe. mainframes están tradicionalmente
conectados por redes privadas de alto ancho de banda y
baja latencia, que aseguran que las transferencias de
datos y las transacciones se procesen
con un retraso mínimo Estas redes son altamente
confiables y seguras, por
lo que son
tan críticas para sistemas donde el tiempo de actividad y la
velocidad no son negociables Fuerza clave, alta velocidad, conexiones de
baja latencia,
asegurando tiempos de transacción rápidos. Caso usado manejando transacciones financieras
a gran escala que deben
procesarse instantáneamente. Redes en la nube. En entornos
Cloud, redes son altamente flexibles. Los proveedores de nube ofrecen
redes virtuales que puedes diseñar, configurar y
controlar según sea necesario. Las soluciones de redes en la nube
como AWS VPC o Virtual Private Cloud permiten a
las empresas crear entornos de
red aislados, asegurando que los datos y
las aplicaciones permanezcan seguros Fuerza, personalizable,
escalable y altamente distribuido
y distribuido globalmente. Caso usado, ejecutando aplicaciones
orientadas al cliente como
plataformas de banca móvil que necesitan ser procesadas globalmente con tiempos de respuesta
rápidos.
¿Cómo interactúan? En un sistema híbrido, la red actúa como
puente entre su
mainframe in premise y la nube Herramientas como AWS Direct
Connect o VPN se utilizan para crear conexiones seguras de alta
velocidad entre mainframes e infraestructura en la
nube, permitiendo el intercambio de datos en tiempo real sin comprometer Tomemos un ejemplo. Considere un escenario en el que su mainframe
procese transacciones, pero su aplicación
bancaria orientada al cliente esté
alojada en la nube Los componentes de red
garantizan que la aplicación se comunique de
manera eficiente con el mainframe, lo que permite a los clientes ver saldos en tiempo
real y los datos de las
transacciones al instante Seguridad, resguardando los datos
en un entorno híbrido. Seguridad de mainframe. mainframes son reconocidos por sus robustas características de seguridad que se integran en
su arquitectura Admiten encriptación de múltiples capas, estricto control de acceso y capacidades de auditoría que los
hacen adecuados para industrias con altas demandas
regulatorias
como las finanzas y la atención médica. Fuerza E, construido en seguridad diseñado para ambientes altamente
regulados. Use Case, protegiendo los datos financieros
confidenciales, asegurando que las transacciones y información
del cliente
permanezcan privadas y seguras. Seguridad en la nube. Los proveedores en la nube también
ofrecen
funciones de seguridad avanzadas, que incluyen
direcciones de cifrado y en tránsito, administración de
identidad y acceso o herramientas de IAM, y monitoreo continuo de
cumplimiento Sin embargo, asegurar los datos en la Nube requiere un modelo de
responsabilidad compartida. El proveedor de Cloud asegura
la infraestructura mientras que el negocio debe asegurar sus
propias aplicaciones y datos Fuerza, herramientas avanzadas de seguridad
escalables con redundancia geográfica Caso de uso, asegurando plataformas de
análisis de datos o aplicaciones orientadas al cliente mientras se mantiene el
cumplimiento estándares de
la industria
como PCIDSS o GDPR Cómo interactúan. En
un entorno híbrido, la seguridad debe ser holística. Los datos que se mueven entre
su mainframe y la nube deben estar cifrados y control de
acceso debe ser consistente en
ambos entornos. uso de herramientas de
seguridad nativas de la nube como AWS Key Management
Service o KMS, o reglas de cifrado o IAM o control de
acceso garantiza que
los datos permanezcan seguros Tomemos un ejemplo. Imagine que su mainframe maneja los datos de los
clientes con fines
reglamentarios mientras que su entorno Cloud ejecuta análisis de datos
en datos de transacciones Debe asegurarse de que los datos transferidos entre los
dos entornos encriptados y que
solo los usuarios autorizados tengan acceso a información
confidencial. conclusiones clave de
esta lección incluyen,
una, los recursos de cómputos en los sistemas
híbridos están divididos Los mainframes manejan transacciones de alto
volumen, mientras que los entornos
en la nube proporcionan flexibilidad para cargas de trabajo
variables Dos, almacenamiento dividido entre
alturas de almacenamiento de mainframe para datos
críticos y almacenamiento en la nube
escalable para
retención y respaldo a largo plazo tercer lugar,
las redes sirven como puente entre los
mainframes y la nube, asegurando una comunicación segura y
eficiente, mientras que la seguridad debe aplicarse en ambos entornos
con una estrategia unificada Ganar actividad, reflexión. Mira tu
infraestructura actual. Qué componente,
puede ser computación,
almacenamiento, redes
o seguridad, son los más críticos para el éxito de su
organización. ¿Cómo los ve trabajando en un entorno de
nube híbrida Pregunta de discusión,
post en el formulario del curso. En su organización,
¿cómo administra
actualmente la
seguridad en entornos
mainframe y Cloud ¿Qué retos anticipa para asegurar
una arquitectura híbrida? Siguiente lección, beneficios de la integración en la nube
híbrida. En la siguiente lección,
analizaremos
los beneficios clave de integrar mainframes con plataformas Cloud Aprenderá cómo los modelos de nube
híbrida proporcionan escalabilidad, optimización de
costos y flexibilidad, y
destacaremos ejemplos del mundo real, especialmente en la industria de
servicios financieros Listo para explorar los
beneficios de la nube híbrida, pasemos a la lección
cuatro y veamos cómo
puede maximizar el potencial de su
infraestructura
5. Lección 4: beneficios de la integración de la nube híbrida: Lección cuatro, beneficios de la integración en la nube
híbrida. Bienvenido de nuevo a la Lección cuatro de nuestro curso sobre arquitectura de
nube híbrida. Hasta ahora, ha cubierto
los fundamentos, comparado los mainframes con
la infraestructura Cloud
e identifica los
componentes clave del sistema híbrido Ahora es el momento de explorar los beneficios del mundo real de integrar mainframes
con plataformas en la nube Alguien como William, nuestro director de infraestructura de
TI, encargado de modernizar los sistemas mainframe de
una institución financiera Comprender el valor de la integración en la nube
híbrida es crucial. ¿Por qué debería tomar el labio de una infraestructura centrada en legado
a un modelo híbrido? ¿Qué hay en él para tu negocio? En esta lección, cubriremos uno, los tres beneficios de integrar mainframes
con plataformas en la nube, escalabilidad,
optimización de costos y flexibilidad Dos ejemplos del mundo real de la industria de
servicios financieros que muestran cómo las arquitecturas de
nube híbrida ya
están entregando resultados
medibles Al final de esta lección, comprenderá exactamente por qué un enfoque híbrido
no es solo una solución, sino una ventaja competitiva. Escalabilidad, satisfaciendo la demanda
sin sudar. Mainframes, diseñados
para la estabilidad pero limitados en escalabilidad mainframes están diseñados para manejar volúmenes masivos
de transacciones, pero lo hacen con una flexibilidad
limitada
en términos de escalado Escalar un mainframe significa agregar hardware
costoso y altamente especializado que puede llevar tiempo y no se
ajusta fácilmente a
picos inesperados de demanda Tomemos un ejemplo. Maine un escenario donde tu institución
financiera está lanzando un nuevo producto como una cuenta de ahorros con tasas de interés
promocionales. A medida que se acerca la fecha de lanzamiento, anticipas un mayor tráfico pero no tienes un pronóstico
exacto Los mainframes por sí solos podrían tener
dificultades para acomodar la afluencia repentina
de nuevas cuentas, registros o volúmenes de transacciones sin una planificación previa de la capacidad Nube, escalando bajo demanda. En un entorno de nube, escalado es prácticamente
instantáneo Las plataformas en la nube como AWS
o Azure le permiten escalar horizontalmente agregando más máquinas virtuales o
recursos a medida que aumenta la demanda. Con otras funciones de escalado, la nube puede manejar picos de
tráfico y picos estacionales sin requerir inversiones adicionales en
hardware Esto significa que puede
asignar recursos dinámicamente en función de las necesidades en tiempo real. Beneficio para William. La capacidad de escalar
aplicaciones bajo demanda, asegurando que picos inesperados de
carga no afecten el rendimiento, ya sea un aumento en las transacciones bancarias en línea o una promoción que cause
más actividad de los clientes, Cloud puede manejar el desbordamiento. Cómo funciona el híbrido. Con una
arquitectura de nube híbrida, sus
sistemas transaccionales principales pueden permanecer estables en el mainframe mientras que la nube toma
cargas de trabajo adicionales según Este modelo le permite aprovechar
lo mejor de ambos mundos, la estabilidad del mainframe y la elasticidad de la nube Optimización de costos, paga por
lo que usas cuando lo usas. Mainframes, confiables,
pero costosos de escalar. Si bien los mainframes ofrecen
una confiabilidad increíble, vienen con
un costo fijo significativo Estos sistemas requieren mantenimiento
continuo, personal
especializado
y costosas actualizaciones. Cada vez que necesitas
agregar capacidad, estás viendo grandes gastos de
capital. Esto hace que sea
difícil administrar demandas
fluctuantes sin sobreaprovisionar
su infraestructura Tomemos un ejemplo. Piensa en el banco que tiene demanda
predecible la mayor parte
del año pero ve picos durante la temporada de impuestos o promociones
navideñas. aprovisionamiento excesivo de su mainframe para cumplir con estos picos raros significa pagar por capacidad adicional durante todo el año, lo que
infla Cloud, paga por uso precios. Una de las mayores ventajas de la plataforma
Cloud es el modelo de
pago por uso. Solo pagas por los
recursos que realmente usas. Durante periodos de baja demanda, tus costos se mantienen bajos. Cuando la demanda aumenta, la
nube se ajusta automáticamente, asegurando que tenga
los recursos que necesita sin invertir demasiado
en infraestructura. Beneficio para William.
La optimización de costos le permite administrar su
presupuesto de manera más efectiva. En lugar de sobrecomprometer
recursos para las horas pico, la nube le permite
escalar recursos hacia arriba o hacia abajo, ahorrando en hardware y costos
operativos Cómo ayuda el híbrido. Al mantener
las aplicaciones críticas en el mainframe y aprovechar la nube para cargas de trabajo
estacionales o temporales,
puede optimizar puede Reduces tus
gastos de capital y cambias a un modelo de gastos operativos
para ciertas cargas de trabajo, facilitando la
planificación financiera Flexibilidad innovar y
adaptarse sin restricciones. Mainframes, estabilidad
sobre flexibilidad. mainframes están diseñados para
brindar estabilidad y confiabilidad, pero no siempre son flexibles Si desea desarrollar
nuevas aplicaciones o experimentar con
tecnologías innovadoras como la IA, aprendizaje
automático o el análisis de
big data, mainframes no suelen ser
la plataforma ideal para esto Un ejemplo, una
institución financiera quiere desarrollar un sistema de
detección de fraude impulsado por IA que analice los
patrones de transacción en tiempo real. mainframes son excelentes para
manejar las transacciones en tiempo real, pero ejecutar modelos complejos de IA en un mainframe es
menos eficiente Cloud, un patio de recreo
para la innovación. Las plataformas en la nube sobresalen en el soporte de tecnologías de
vanguardia. Con acceso a servicios
nativos en la nube como AWS Lambda o computación
sin servidor, Google Big Query
o análisis de datos o Azure machine learning
o AI y machine learning Se puede experimentar
e innovar sin restricciones. Beneficio para William. La nube le brinda
la flexibilidad experimentar con
nuevas aplicaciones y servicios rápidamente sin la sobrecarga de
administrar hardware. Esto le permite a su
organización mantenerse ágil, innovar más rápido y responder a los cambios
del mercado de manera más efectiva Cómo ayuda el híbrido. Una arquitectura de nube híbrida
le permite mantener sus
aplicaciones estables de misión crítica funcionando sin problemas en el mainframe mientras usa la nube como plataforma
para la innovación Por ejemplo, mientras
su mainframe maneja transacciones en tiempo real, la nube puede ejecutar algoritmos de
detección de fraude, analizar el comportamiento del cliente o crear nuevas aplicaciones orientadas al cliente Tomemos un
ejemplo. Hoy en día, muchos bancos ejecutan sus
operaciones bancarias principales en mainframes, pero utilizan la nube para crear aplicaciones de banca
móvil, ofrecer experiencias personalizadas a
los clientes o experimentar con nuevas funciones sin interrumpir el entorno del
mainframe conclusiones clave de
esta lección incluyen una, escalabilidad, nube híbrida, que le
permite escalar
aplicaciones sin problemas, que le
permite escalar
aplicaciones sin problemas, asegurando que sus sistemas puedan manejar cargas de trabajo
fluctuantes sin Dos, optimización de costos. Al trasladar ciertas
cargas de trabajo a la nube, puedes reducir los gastos de capital y solo pagar por los
recursos que usas,
haciendo que la presupuestación sea
más Tres, flexibilidad, los entornos
híbridos
le permiten innovar rápidamente mediante el uso de plataformas en la nube
para nuevos servicios mientras mantiene la estabilidad para aplicaciones
críticas
en su mainframe Actividad de aprendizaje, reflexión. Considere la infraestructura
actual de su organización. Hay áreas donde
la escalabilidad de las nubes podría proporcionar más flexibilidad
o ayudar a reducir costos? Qué cargas de trabajo se
mantienen mejor en el mainframe y cuáles se
trasladarían a la nube Pregunta de discusión,
post en el formulario. ¿Qué escalabilidad de beneficios, optimización de
costos o flexibilidad considera que
son los más valiosos para su
organización y por qué? Siguiente lección, evaluar sistemas
heredados para la integración
en la nube. En la siguiente lección,
profundizaremos en cómo evaluar sus
sistemas mainframe para la integración en la nube La lección uno del Módulo
dos se centrará en evaluar su infraestructura de
mainframe actual, enseñarle a
auditar sistemas heredados e identificar
aplicaciones críticas que podrían beneficiar la migración a la nube Listo para dar el siguiente paso, sigamos adelante y
comencemos a evaluar su
infraestructura para el éxito de la nube
híbrida.
6. Lección 1: cómo definir la infraestructura de mainframe actual: Módulo dos, evaluando sistemas
heredados para la integración
en la nube. Los estudiantes
aprenderán a evaluar sus sistemas
mainframe existentes para
identificar a los mejores candidatos
para la integración en la nube Este módulo cubre las
consideraciones técnicas y operativas de migrar aplicaciones
heredadas
y cargas de trabajo a la nube mientras se mantiene el
rendimiento y Lección uno, evaluar la
infraestructura de mainframe actual Bienvenido al Módulo dos, donde comenzamos el proceso
de evaluación de
su
infraestructura de mainframe existente para
determinar cómo se puede
modernizar a determinar cómo se puede través de la integración
en la nube En esta primera
lección, nos centraremos en evaluar sus sistemas
mainframe actuales, un paso
esencial para prepararse para una transición exitosa a una arquitectura de nube
híbrida Para alguien como William, el
director de infraestructura de TI responsable mantener un complejo sistemas
heredados de instituciones
financieras, entender cómo auditar
su infraestructura es clave. Este proceso le ayudará a identificar aplicaciones críticas, identificar flujos de datos y
reconocer qué partes de su sistema son las principales
candidatas para la migración a la nube En esta lección, cubriremos una, cómo auditar sus sistemas
mainframe heredados para obtener una visión clara de
su entorno actual Dos, cómo identificar aplicaciones
críticas y flujos de
datos dentro de
su infraestructura. Tres, ¿qué partes de su infraestructura se pueden
optimizar para la migración a la nube? Al final de esta lección, tendrás una hoja de ruta
para determinar dónde más sentido la integración
en la nube para tu negocio Auditar sus sistemas
mainframe heredados. Antes de tomar cualquier decisión sobre qué migrar
a la nube, es importante realizar un inventario
completo de su entorno de
mainframe actual Piense en ello como
inspeccionar los cimientos de una casa antes de
comenzar una renovación Una auditoría exhaustiva
le permitirá tomar decisiones
informadas, mitigar riesgos e identificar cualquier profundidad técnica
o limitación. Por qué la auditoría es crítica. Los sistemas mainframe suelen ser altamente personalizados y han
evolucionado a lo largo de décadas El desafío es que, si bien
han sido increíblemente confiables, no
se construyeron pensando en
la compatibilidad con la nube. Entender lo que tienes
tanto en términos de hardware software es el primer paso
hacia la integración en la nube. Esto es en lo que debes
enfocarte durante tu auditoría. Pasos para auditar
su mainframe. Uno, aplicaciones de inventario
y cargas de trabajo. Documente todas las aplicaciones
que se ejecutan en el mainframe, desde sistemas
críticos
como el
procesamiento de transacciones hasta cargas de trabajo menos
esenciales Para cada aplicación, tenga en cuenta la función de negocio
que admite, frecuencia con la que se usa y quiénes son
los grupos de interés clave. Dos, evaluar los recursos de
hardware, evaluar la potencia de cómputos
y la capacidad de almacenamiento que se están utilizando
actualmente. ¿Qué porcentaje de sus recursos de
mainframes están dedicados a
diversas cargas de trabajo ¿Enfrentas algún problema
de capacidad? ¿Tiene recursos inactivos que podrían ser descargados
a la nube Tres, evaluar software
y licenciamiento. Toma nota de todo el software y middleware en
tu entorno. Muchos mainframes dependen software propietario
antiguo que puede no ser compatible con la nube Evaluar los acuerdos de licencia. Algunos programas pueden
tener limitaciones al migrar a la
nube o pueden requerir versiones
específicas
compatibles con la nube o identificar profundidad técnica ¿Hay partes de
su sistema que estén desactualizadas o demasiado complejas? La profundidad técnica se refiere a atajos o
soluciones alternativas que se
han ido acumulando a lo largo de los años y pueden dificultar Ejemplo, puede encontrar que ciertas aplicaciones
están escritas en CBO, haciéndolas más difíciles de
refactorizar o volver a la plataforma
para el entorno en la nube Identificación de
aplicaciones críticas y flujos de datos. Una vez que haya completado
su auditoría, el siguiente paso es
priorizar sus aplicaciones e identificar los flujos de datos que son centrales
para su negocio No todas las aplicaciones
necesitan o deben
trasladarse a la nube. El objetivo es determinar
qué partes de su sistema son críticas y qué
partes se pueden modernizar Clasificar aplicaciones, aplicaciones de
misión crítica. Estas son las aplicaciones sin las que tu negocio no puede
funcionar. En una institución financiera, esto podría incluir procesamiento de
transacciones en tiempo real, sistemas de
pago o administración de
cuentas. Estas aplicaciones
requieren el más alto nivel de disponibilidad,
rendimiento y seguridad. En muchos casos,
es mejor mantenerlos en el mainframe a menos que
esté disponible una alternativa altamente segura en la nube Dos aplicaciones no críticas. Estas aplicaciones,
aunque importantes, no requieren el mismo nivel
de procesamiento en tiempo real. Los ejemplos pueden incluir la generación de
informes, el procesamiento
por lotes o los sistemas
internos de empleados. Las cargas de trabajo no críticas suelen ser buenas candidatas para
la migración a la nube, donde pueden aprovechar la escalabilidad de la nube
y la rentabilidad Mapeo de flujos de datos. Los flujos de datos se refieren
a cómo
se mueve la información entre diferentes
partes de su sistema, ya sea entre aplicaciones, bases de datos o sistemas externos. Uno, identificar interacciones clave
de datos. Mapee cómo se
transfieren los datos entre
sus aplicaciones principales. Por ejemplo, ¿
su portal
web orientado al cliente interactúa con
su sistema de transacciones? Comprender estas dependencias te
ayudará a decidir qué se puede mover a la nube y qué necesita
para permanecer en las instalaciones Dos, evaluar la sensibilidad de los datos. La seguridad de los datos es una preocupación
crítica, especialmente en
industrias reguladas como la banca. Identifique qué datos son más
sensibles, por ejemplo, registros de
clientes o transacciones
financieras
y asegúrese de que estén protegidos tanto durante la migración su entorno de
nube espinal. Por ejemplo, datos de transacciones que involucran información de
identificación personal, BII puede necesitar permanecer en las
instalaciones para cumplir con los requisitos
reglamentarios,
mientras que los datos no confidenciales como archivos de
registro o análisis podrían
trasladarse a la nube Optimización de su infraestructura
para la migración a la nube. Una vez que haya auditado su sistema e identificado los componentes
críticos, es hora de determinar
qué partes de
su
infraestructura de mainframe
se pueden optimizar para la nube El objetivo aquí es mover
estratégicamente las cargas de trabajo
que se beneficiarán servicios
en la nube mientras mantienen intactas las operaciones de
misión crítica en el mainframe Factores clave para la optimización de
la nube. Uno, flexibilidad de carga de trabajo. Las aplicaciones que requieren escalado
dinámico, como sitios web
orientados al cliente o aplicaciones móviles son ideales para
entornos en la nube. Estos se pueden escalar hacia arriba
o hacia abajo según la demanda, evitando el costo y complejidad de agregar
capacidad a su mainframe Dos, procesamiento por lotes
y análisis de datos. Las cargas de trabajo, como
el procesamiento por lotes o el análisis de datos suelen ser adecuadas
para las plataformas en la nube Estos procesos se pueden ejecutar en la nube durante las horas
pico, haciendo ping a los recursos de mainframe
para tareas más críticas Tres, DevOps y entornos
de prueba. entornos de desarrollo y pruebas se pueden trasladar a la nube, donde los equipos pueden marcha
rápidamente
nuevos entornos, ejecutar pruebas y apagarlos, todo sin sobrecargar
el Estos proporcionan una mayor agilidad de
flexión y reducen la necesidad de costosos recursos
principales.
Tomemos un ejemplo. En una compañía de servicios financieros, la generación de
informes
y el análisis de datos se
pueden trasladar a la nube, aprovechando su
potencia informática durante las horas
pico apagadas para reducir la
tensión en el mainframe Mientras tanto, el
procesamiento de transacciones en tiempo real
continúa ejecutándose en el mainframe para garantizar la estabilidad
y el rendimiento puntos clave de
esta lección incluyen,
uno, auditar su mainframe es el primer paso
hacia la Esto implica documentar
aplicaciones, evaluar hardware y evaluar dependencias de
software Dos, identificar
aplicaciones críticas y mapear flujos de datos
le ayuda a priorizar lo que debe permanecer en las instalaciones y lo que se
puede trasladar a la nube tercer lugar, ciertas cargas de trabajo,
como el procesamiento por lotes, el análisis de
datos
y las aplicaciones no críticas, y las aplicaciones no críticas se
pueden optimizar para la migración a
la nube, mejorando la escalabilidad
y la rentabilidad Actividad de aprendizaje, reflexión, realizar una evaluación preliminar de su infraestructura actual. ¿Qué aplicaciones
o flujos de datos son los más críticos para las operaciones de su
organización? ¿Qué partes de su sistema parecen candidatos ideales
para la migración a la nube? Pregunta de Distutón
planteada en el foro. ¿Qué retos
prevé en la auditoría de
sus sistemas mainframe? prevé en la auditoría de
sus sistemas mainframe ¿Existen
aplicaciones o
cargas de trabajo específicas que usted cree que
serían difíciles de migrar Siguiente lección,
idoneidad de la carga de trabajo para la migración a la nube. En la siguiente lección,
profundizaremos en cómo
determinar qué cargas de trabajo son las
más adecuadas para la migración a determinar qué cargas de trabajo son las la nube Aprenderá a analizar las dependencias de las
aplicaciones, evaluar
los requisitos de rendimiento y considerar implicaciones de
seguridad
antes de realizar la mudanza. Emocionado por continuar. Preparémonos para evaluar sus cargas de trabajo y
averiguar qué es lo que mejor se
adapta a la nube
7. Lección 2: idoneidad de la carga de trabajo para la migración a la nube: Lección dos, idoneidad de la carga de trabajo
para la migración a la nube. Bienvenido de nuevo al Módulo dos de nuestro curso sobre arquitectura de
nube híbrida. En la
lección anterior, discutimos cómo evaluar su infraestructura de
mainframe actual Ahora, en la lección dos, vamos a ayudarle a tomar
decisiones inteligentes sobre qué cargas de trabajo son más
adecuadas para la migración a la nube Como William, director de
infraestructura de TI, probablemente
hayas escuchado sobre
los beneficios de la nube, pero mover todo
a la nube siempre
es el enfoque correcto. No todas las cargas de trabajo son igualmente
adecuadas para la migración a la nube. Algunos prosperan en la nube,
mientras que otros deben permanecer enraizados en su mainframe o
en El objetivo aquí es evaluar las dependencias de las
aplicaciones, los requisitos de
rendimiento y las consideraciones de seguridad
para garantizar que tome decisiones de
migración informadas y efectivas Al final de esta lección, podrás una, analizar las dependencias de tus aplicaciones y cómo
afectan a la integración en la nube Dos, evalúe los requisitos de
performance que son críticos
para sus cargas de trabajo Tres, comprender las consideraciones
de seguridad que podrían afectar qué
cargas de trabajo se mueven a la nube F, determinar qué tipos de cargas de trabajo son más
adecuados para la nube, pero un procesamiento por lotes
o análisis de datos Empecemos. Analizando
las dependencias de las aplicaciones, ¿qué deben permanecer juntos ¿Por qué importan
las dependencias de las aplicaciones? Al migrar a la nube, uno de los factores más críticos es comprender las dependencias de sus
aplicaciones Estas son las
relaciones interconectadas entre diferentes aplicaciones, bases de datos o sistemas que trabajan juntos para entregar
una operación semless migración de una
aplicación sin sus sistemas dependientes puede
dar lugar a problemas de rendimiento, latencia de
datos o incluso fallas en el
sistema Por ejemplo, en un entorno
bancario, su
sistema de cuentas de clientes podría depender comunicación en tiempo
real con
un sistema de procesamiento de pagos. Migrar solo uno de estos sistemas a la
nube sin el otro provocaría retrasos o crearía
desafíos de integración Pasos para identificar dependencias. Uno, mapear las
interacciones de la aplicación. Comienza creando
un mapa visual de cómo tus aplicaciones
interactúan entre sí. Esto le ayudará a identificar los flujos de datos y
puntos de comunicación entre sistemas. Por ejemplo, su sistema de procesamiento de
transacciones de mainframes puede tener múltiples dependencias en sistemas de almacenamiento de datos heredados, portales de
clientes y API de
terceros Dos, evaluar el flujo de datos
y las necesidades de comunicación. ¿Su aplicación requiere intercambio de datos en tiempo
real? De ser así, migrar solo una
parte del sistema
ralentizaría las transacciones
o causaría cuellos de
botella en el rendimiento Asegurar que cualquier sistema
interdependiente se considere en conjunto. Tres, agrupar aplicaciones
por niveles de dependencia. Categoriza tus
aplicaciones en dos. Uno, sistemas estrechamente acoplados
que requieren interacción
de
alta velocidad en tiempo real entre sí,
o dos, sin acoplar, sistemas que interactúan
pero no requieren comunicación en tiempo
real y pueden tolerar algo de sueño latente Los
sistemas estrechamente acoplados suelen quedar
mejor juntos,
ya sea en el mainframe o migrados juntos a la
nube. Tomemos un ejemplo. En una institución financiera, sistemas de procesamiento de
transacciones y detección de
fraude pueden estar estrechamente acoplados. Si bien el procesamiento de
transacciones en tiempo real debe permanecer en el mainframe, detección de
fraude puede
ejecutarse en la nube, siempre que tenga una conexión de baja latencia
al mainframe Al comprender
estas dependencias, William puede garantizar operaciones
fluidas sin crear nuevos
problemas durante la migración Requerimientos de desempeño. ¿La nube puede manejar
su carga de trabajo? Definición de necesidades de desempeño. rendimiento suele ser
el factor
que define si una carga de trabajo
debe trasladarse a la nube. Si bien las plataformas en la nube son excelentes para muchos
tipos de cargas de trabajo, algunas aplicaciones requieren métricas de rendimiento
específicas como alto rendimiento, baja latencia o disponibilidad
constante que su mainframe puede
manejar de manera más efectiva Preguntas para hacer
sobre el desempeño. Primero, ¿cuál es el tiempo de respuesta
actual de la aplicación? Algunas aplicaciones, como las plataformas de negociación en tiempo
real o los sistemas de procesamiento de
transacciones requieren tiempos de
respuesta instantáneos Mover estas cargas de trabajo a la nube podría
introducir latencia si la infraestructura de la nube no está optimizada para ese
nivel de rendimiento Dos, ¿qué nivel de
tiempo de actividad se requiere? Para
aplicaciones de misión crítica, cualquier tiempo de inactividad podría
significar pérdida de ingresos, insatisfacción del
cliente o
incluso sanciones regulatorias mainframes son conocidos por su disponibilidad del
90 nueve.39 por ciento, lo que puede ser difícil de
replicar en Tres, ¿la aplicación requiere una potencia informática intensiva? Algunas cargas de trabajo, como el
análisis de datos, se benefician de la escalabilidad de las plataformas
en la nube donde puede
escalar fácilmente la potencia de procesamiento Sin embargo, para los sistemas intensivos de
transacciones pesadas, la potencia de procesamiento sin procesar de un mainframe
puede seguir siendo la mejor opción Cargas de trabajo que prosperan en la
nube. Procesamiento por lotes. Las tareas que no requieren retroalimentación
inmediata y se pueden ejecutar a intervalos específicos son ideales para
entornos en la nube. Estas cargas de trabajo pueden escalar durante el procesamiento y
luego reducir
los costos de ahorro. Analítica de datos. tareas de análisis de datos a gran escala se benefician de la escalabilidad en la nube En la nube, puedes
aprovechar herramientas avanzadas como Amazon Redshift o
Google BigQuery para un análisis rápido y
eficiente
de grandes conjuntos de Tomemos un ejemplo. En un banco, las conciliaciones diarias de
transacciones se
trasladarían a la nube ya que no requieren procesamiento en tiempo
real y
se pueden programar para las horas pico Mientras tanto, la detección de
fraude en tiempo real debe permanecer en el
mainframe donde
se puede integrar con los sistemas de
procesamiento de transacciones para proporcionar
alertas y decisiones instantáneas Consideraciones de seguridad,
manteniendo sus datos seguros. El modelo de responsabilidad compartida. Cuando mueves cargas de trabajo
a la nube, entras en lo que se llama el modelo de responsabilidad compartida Esto significa que el
proveedor de la nube, por ejemplo, AWS o Azure es responsable de asegurar
la infraestructura, pero usted es el
responsable de asegurar sus datos y garantizar que los controles de
acceso estén configurados
correctamente. La seguridad es especialmente importante cuando se manejan datos
sensibles como transacciones
financieras o información
personal identificable o PII Veamos algunas consideraciones
críticas. Preguntas clave de seguridad
a considerar. Uno, ¿qué tan sensibles son los datos? ¿La aplicación maneja PII, datos
financieros u otra información
regulada Por ejemplo, las cargas de trabajo que administran la información
bancaria del cliente pueden estar sujetas a requisitos de
cumplimiento como PCI DSS o GDPR, que imponen estrictos controles sobre cómo y dónde se almacenan los datos Es el cifrado disponible
y requerido, asegúrese de que sus datos puedan ser encriptados tanto
direccionados como en tránsito. Los proveedores ruidosos suelen ser servicios de
encriptación, pero debes
configurarlos correctamente y entender qué datos
deben ser encriptados. Tres, ¿qué
controles de acceso existen? Los entornos en la nube le brindan la flexibilidad para implementar controles de acceso ecológicos
finos. Debe asegurarse de
que solo
los usuarios y sistemas autorizados puedan
acceder a cargas de trabajo sensibles Utilice la
autenticación multifactor y administración de
identidades y accesos o las mejores prácticas de
IAM para proteger
su entorno Cloud Tomemos un ejemplo. Para la organización
Williams, los datos de transacciones
densitivos
deban permanecer en el mainframe para cumplir con las leyes de residencia de
datos y los requisitos
reglamentarios Sin embargo, los datos menos sensibles como el análisis de
campañas de marketing, migrarían de forma segura
a la nube donde el cifrado y los controles de acceso
garantizan la protección de datos Determinar qué cargas de trabajo son las más
adecuadas para la nube Ahora que comprende
cómo evaluar las dependencias, el rendimiento
y la seguridad, resumiremos
algunos tipos de carga que comúnmente son adecuados
para la migración a la nube Las cargas de trabajo más adecuadas
para una migración a la nube incluyen un procesamiento por lotes Se trata de tareas no en
tiempo real como generación de
informes o la reconciliación de
datos que se pueden ejecutar de forma programada y escalar a pedido Dos, análisis de datos
y big data. Cargas de trabajo que requieren un procesamiento
intensivo de datos, pero que no necesitan resultados en tiempo real como análisis del
comportamiento del cliente, algoritmos de detección de
fraude o
paneles de inteligencia empresarial Tres, entornos de desarrollo y
pruebas. Las plataformas en
la nube ofrecen la flexibilidad poner en marcha rápidamente
el entorno de desarrollo, ejecutar pruebas y luego
cerrarlas. Esto reduce la carga
en su mainframe y proporciona una solución ágil y
rentable para sus equipos de desarrollo o aplicaciones
web orientadas
al cliente Las aplicaciones front-end como las plataformas de banca
móvil pueden beneficiarse de la escalabilidad en la nube, lo que le permite manejar alto tráfico sin
afectar el mainframe Las cargas de trabajo se mantienen mejor
en el mainframe. Esto incluye un procesamiento de
transacciones en tiempo real. Las cargas de trabajo
transaccionales de alta velocidad , como las transacciones en cajeros automáticos o procesamiento de pagos con tarjeta de
crédito,
son manejadas mejor por el mainframe para garantizar una baja
latencia y una Dos, o aplicaciones bancarias. Las aplicaciones que requieren
99 d39 por ciento de tiempo de actividad y manejan datos
críticos de misión deben permanecer en el mainframe
para Las conclusiones clave de
esta lección incluyen, una, analizar
las dependencias de las aplicaciones para garantizar integración
fluida entre
mainframe y nube, especialmente para sistemas estrechamente
acoplados Dos,
los requisitos de rendimiento determinan dónde debe ejecutarse la carga de trabajo. Las cargas de trabajo no en tiempo real, como procesamiento
por lotes
o el análisis de datos son ideales para la nube, mientras que el procesamiento de
transacciones en tiempo real es el más adecuado para
el mainframe Tres,
las consideraciones de seguridad son críticas a la hora de
migrar cargas de trabajo Siempre evalúe
la sensibilidad de los datos y los requisitos
de
cumplimiento antes de tomar decisiones. Actividad de aprendizaje, reflexión. Mire sus cargas de trabajo existentes. ¿Qué cargas de trabajo están estrechamente
acopladas con otras? Que podría
desacoplarse y trasladarse a la nube sin
causar problemas de rendimiento Pregunta de discusión
planteada en el foro. ¿Qué tipos de cargas de trabajo en su organización cree que son candidatos ideales
para la migración a la nube ¿Hay alguna preocupación de
seguridad que le impida migrar
ciertas aplicaciones Siguiente lección,
análisis costo-beneficio de la migración a la nube. En la siguiente lección,
exploraremos las implicaciones de costos de mover cargas de trabajo del
mainframe a la nube Discutiremos cómo equilibrar los ahorros
operativos
con el costo de
mantener los sistemas críticos en las instalaciones. Preparados para aprender a tomar decisiones financieramente sólidas
al trasladarnos a la nube,
analicemos la Lección
tres y exploremos el análisis de costos y beneficios
de la migración a la nube.
8. Lección 3: análisis costo-beneficio de la migración a la nube: Lección tres,
análisis costo-beneficio de la migración a la nube. Bienvenido a la lección
tres del Módulo dos, donde profundizaremos en el aspecto financiero de
la
migración de cargas de trabajo de
su mainframe a Como
director de infraestructura de TI, administrando un proyecto de
modernización de mainframe, William entiende los
beneficios operativos de la nube, pero también necesita
evaluar si los costos financieros se alinean con los objetivos de la
organización organizada En esta lección
te ayudaremos a responder una pregunta clave. ¿Vale la pena el costo de migrar ciertas cargas de trabajo
a la nube Si bien la nube
promete escalabilidad, flexibilidad y ahorro de costos, hay que considerar importantes costos
iniciales, gastos
ocultos e inversiones a largo
plazo Comprender el
equilibrio entre los
ahorros operativos que ofrece la nube y el costo continuo de mantener los sistemas
críticos en su mainframe es esencial para tomar decisiones
comerciales sólidas Al final de esta lección, podrá examinar las implicaciones de costos de mover
cargas de trabajo de entornos mainframe a cloud y
comprender el equilibrio entre los ahorros operativos
potenciales
en la nube y el costo
de mantener los sistemas mainframe locales Empecemos. El costo de la migración a la nube,
lo que necesitas saber. Costo inicial de la migración. migración de cargas
de trabajo de un mainframe a la nube no está exenta de gastos Si bien la nube puede
proporcionar ahorros a largo plazo, llegar allí requiere
inversión en infraestructura,
planificación y ejecución. Aquí hay un desglose
del costo inicial común que enfrentará Uno,
estrategia y planeación migratoria. Desarrollar una estrategia de
migración a la nube requiere tiempo y experiencia. Es posible que deba invertir
en consultores o expertos en migración a
la nube para ayudar a elaborar una hoja de ruta detallada que se alinee
con sus objetivos comerciales Implicaciones de costos de esto. Contratar ayuda externa para planeación y estrategia
puede ser costoso, pero reduce el riesgo de errores
costosos durante
el proceso de migración. Dos, rehospedar, refactorizar
o reemplazar aplicaciones. Algunas cargas de trabajo pueden ser
levantadas y trasladadas a la nube o realojadas, mientras que otras necesitan ser
refactorizadas o completamente
reescritas para ejecutarse de manera efectiva Implicaciones de costos. Refactorizar aplicaciones
heredadas puede llevar mucho tiempo
y ser costoso. Si decide reescribir
aplicaciones desde cero, esto agrega costos adicionales de desarrollo
y prueba Tres, transferencia de datos
y configuración en la nube. transferencia de datos desde su mainframe
local a la nube conlleva un costo de transferencia de datos, especialmente si hay grandes volúmenes
de datos involucrados Además, los proveedores de nube como
AWS cobran por la salida de datos. Eso significa que si estás moviendo datos fuera de
sus servicios en la nube , como entre
regiones o de Cloud a on premise,
incurrirás en tarifas Tomemos un ejemplo. Para la
institución financiera Williams, migración de la cuenta de cliente
a la nube puede requerir mecanismos
seguros de transferencia de datos para garantizar el cumplimiento normativo, lo
que aumenta el costo Además, la refactorización de aplicaciones de pareja
heredadas para que se ejecuten en un
entorno de nube moderno podría implicar un equipo de desarrolladores y
varios meses de esfuerzo Ahorro operativo
en la Nube, el modelo de pago por uso, paga por lo que usa. Una de las
mayores ventajas de la nube es su rentabilidad operativa a través de un modelo de pago por uso. A diferencia de la
infraestructura in situ, donde pagas por capacidad, ya sea que la uses o
no, la Nube te permite pagar solo por los recursos
que realmente consumes. Esto incluye potencia informática, almacenamiento, redes y más. Veamos algunos de los ahorros operativos
clave. El primero es la elasticidad
y escalabilidad. La nube le permite escalar
recursos hacia arriba y hacia abajo en
función de la demanda. Esto significa que puede manejar picos
estacionales
como impuestos y para bancos sin sobreaprovisionar hardware
costoso en las instalaciones. Ahorro de costos. Evita pagar por la capacidad
no utilizada, que es un problema común con
la infraestructura in prem Esto es especialmente
beneficioso para cargas de trabajo con demandas
fluctuantes. Segundo, optimización de recursos. En un entorno de nube, puede aprovechar el
escalado automático para asegurarse de que solo usa la cantidad exacta
de recursos necesarios. Además, las instancias puntuales para cargas de trabajo a
largo plazo
y las instancias reservadas para compromisos a largo plazo
proporcionan más ahorros Ahorro de costos. Al optimizar
el uso de los recursos de la nube, las organizaciones pueden reducir los gastos
innecesarios
y optimizar su costo total de
propiedad o TCO. Tercero, mantenimiento y gestión de
infraestructura. Con una nube, la
responsabilidad mantener el
hardware físico como servidores, sistemas de
almacenamiento y
equipos de red se traslada al proveedor de
la nube. Esto reduce la
necesidad de contar con un gran equipo interno de operaciones de TI. Ahorro de costos. Al externalizar la administración de
infraestructura, reduce los gastos
operativos relacionados con el mantenimiento del hardware, las actualizaciones y el espacio físico
en sus centros de datos. Tomemos un ejemplo. Imagine Williams
Financial Institution está migrando
cargas de trabajo de procesamiento por lotes a la nube En lugar de mantener la capacidad
adicional de mainframe varias veces al año, cuando los trabajos por lotes aumentan, la nube puede escalar automáticamente
durante esas motas Una vez que se realiza
el procesamiento, los recursos se
reducen reduciendo costos al pagar
solo la potencia de
procesamiento durante las ejecuciones reales del trabajo El costo continuo de
mantener los sistemas
mainframe críticos Si bien migrar
algunas cargas de trabajo a la nube reducirá los costos
operativos, es importante
reconocer que mantener aplicaciones
críticas
en su mainframe sigue siendo un No todas las cargas de trabajo
deben trasladarse a la nube y su
mainframe puede continuar manejando
sistemas de misión crítica en los próximos años la nube y su
mainframe puede continuar
manejando
sistemas de misión crítica en los próximos años
. Costos de mainframe. Primero, el costo fijo de la infraestructura de
mainframe. Los mainframes requieren una importante
inversión de capital por adelantado, incluido el costo de hardware, software e instalaciones para
albergar la Adicionalmente, el hardware de mainframe debe actualizarse periódicamente, agregando a los gastos de capital Costos operativos. Aún tendrá que asignar un presupuesto para equipos de
soporte de mainframe, mantenimiento de
hardware
y licencias de software Segundo, personal especializado. entornos de mainframe requieren administradores de
sistemas altamente calificados e ingenieros de mainframe para que todo
funcione sin problemas A medida que estos profesionales
se especializan, encontrar y retener
talento puede resultar costoso. Los costos operativos, mantener un
equipo de mainframe dedicado con experiencia en sistemas heredados
como COBOL
seguirán siendo parte
de su presupuesto de TI Tercero, cumplimiento y seguridad. Muchas organizaciones en industrias
reguladas como Finanzas están obligadas a cumplir con
estrictos estándares de cumplimiento. Mantener datos confidenciales y sistemas de transacciones en tiempo
real
en el mainframe puede reducir el riesgo de cumplimiento
asociado con mover todo a la nube.
Costo operativo. Asegurarse de que su mainframe
cumpla con los estándares de cumplimiento y sea auditado regularmente y se sume a sus gastos
operativos Equilibrar el ahorro en la nube
con la inversión en mainframe. El objetivo es encontrar
un equilibrio entre mover cargas de trabajo a la
nube donde pueda obtener ahorros
operativos
y mantener sistemas
críticos en el
mainframe donde los
requisitos de rendimiento, seguridad y cumplimiento lo requieran Este enfoque le permite
optimizar sus gastos de TI mientras mantiene las operaciones clave seguras y confiables.
Tomemos un ejemplo. organización Williams, mueve
cargas de trabajo no críticas a la nube, como
las aplicaciones orientadas al cliente y análisis de
datos, puede liberar
recursos y reducir costos Sin embargo, los costos,
los sistemas principales de
procesamiento de transacciones y la detección de fraudes en tiempo real pueden necesitar permanecer en
el mainframe para cumplir con los requisitos
reglamentarios y de tiempo de actividad, asegurando un equilibrio
entre el ahorro en la nube y el costo continuo de las operaciones
críticas Construyendo un modelo de costos, calculando el costo total
de propiedad o TCO. Para tomar decisiones informadas, debe calcular el costo
total de propiedad o TCO tanto
para su
infraestructura
de mainframe como para su estrategia migración a la nube Esto le ayuda a comprender el impacto financiero a largo plazo
de sus inversiones en TI. Pasos para construir un modelo de TCO. Primero, calcule los costos de
mainframe. Incluya gastos de capital
como licencias de hardware y
software, factor en
costos operativos como personal, mantenimiento y consumo
de energía. No olvide los gastos de cumplimiento y
auditoría o
ambiente regulado dos, estime los costos de
la nube Utilice las calculadoras en la nube
disponibles en AWS, Azure y otros para estimar costos de almacenamiento de
cómputos y
redes en
función de su uso esperado Incluya los
costos de transferencia de datos y cualquier asociado con el escalado
o el cambio de tamaño de las cargas de trabajo Factorizar los costos de migración, incluyendo
aplicaciones de refactorización y transferencia inicial de datos Tres, compara los costos a lo largo del tiempo. Considera el horizonte temporal
para tu análisis de costos. Por ejemplo, tres
años, cinco años. ¿Cuáles son los
ahorros a largo plazo de mudarse a la nube en comparación con
mantener la
infraestructura en las instalaciones? Factorizar los posibles picos de costos, como los
ciclos de actualización de hardware o el uso de la nube habla Tomemos un ejemplo. William puede usar un modelo de TCO para
comparar el costo de mantener las aplicaciones bancarias
principales
en el mainframe frente a trasladar cargas de trabajo no críticas como análisis de clientes
a Al calcular los costos
operativos continuos de mantener sistemas
heredados y los ahorros potenciales
de la elasticidad de la nube, puede determinar qué
cargas de trabajo ofrecen el mayor valor en un entorno de nube
híbrida Las conclusiones clave de esta
lección incluyen las siguientes. Primero, los costos iniciales de la
migración a la nube incluyen planificación, refactorización y transferencia de datos Pero estos a menudo se compensan ahorros
operativos en la nube a través de la elasticidad y la optimización de
recursos. Dos, los costos continuos de mainframe como el mantenimiento del hardware, software
especializado y
el cumplimiento, deben
equilibrarse con los
ahorros potenciales de la migración a la nube En tercer lugar, construir un modelo de costo total de propiedad o TCO ayuda a cuantificar el impacto financiero a largo
plazo de su estrategia de migración, asegurando que tome decisiones informadas y
rentables Actividad de aprendizaje, reflexión. Considere sus cargas de trabajo de
mainframe actuales. ¿Qué cargas de trabajo
parecen
beneficiarse de la
rentabilidad de la migración a la nube? Cuáles son los más adecuados para
permanecer en el mainframe debido a requisitos críticos de rendimiento
o seguridad Pregunta de discusión
planteada en el foro. ¿Cómo mide
actualmente su organización el costo
de las operaciones de mainframe
frente a la infraestructura de nube ¿Qué desafíos
anticipa al
calcular su
costo total de propiedad para el TCO? calcular su
costo total de propiedad para el TCO Siguiente lección, factibilidad técnica
para la integración en la nube. En la siguiente lección,
exploraremos los desafíos técnicos que implica mover cargas de trabajo
a la nube, como tratar
con código heredado, evaluar la
compatibilidad del sistema y considerar
enfoques de modernización como rehospedar,
refactorizar o reemplazar aplicaciones Listo para abordar el
obstáculo técnico de la integración en la nube, pasemos a la lección
cuatro y exploremos cómo
evaluar la viabilidad
técnica de su estrategia de
migración a la nube
9. Lección 4: viabilidad técnica para la integración de la nube: Lección cuatro, factibilidad técnica
para la integración en la nube. Bienvenido de nuevo al Módulo
dos de nuestro curso sobre evaluación de sistemas heredados
para la integración en la nube. En esta lección, nos
centraremos en uno de los aspectos más críticos de
su viaje de migración a la nube, la viabilidad
técnica. Como William, el director de
infraestructura de TI, cara a un proyecto de
modernización de mainframe, ya comprende
el valor de la nube Pero antes de poder hacer el, es esencial evaluar los
desafíos técnicos que implica trasladar
los
sistemas heredados a la nube. Los sistemas heredados, especialmente
los que funcionan con Cobalt,
EL, uno u otros lenguajes más antiguos presentan desafíos únicos cuando se trata de la integración en la nube. Al final de esta lección, podrá
evaluar
los desafíos técnicos,
como el código heredado, los requisitos de
rendimiento
y la compatibilidad del sistema
al considerar la migración a la
nube,
y explorar
enfoques de modernización, rehospedaje,
refactorización y
reemplazo de aplicaciones para ayudarlo
a decidir la mejor
estrategia para cada evaluar
los desafíos técnicos,
como el código heredado, los requisitos de
rendimiento y la compatibilidad del sistema al considerar la migración a la
nube,
y explorar
enfoques de modernización, rehospedaje,
refactorización y
reemplazo de aplicaciones ayudarlo
a decidir la mejor
estrategia para Vamos a sumergirnos en los frutos secos y bolls de factibilidad técnica Evaluar
retos técnicos en sistemas heredados. Al considerar
la migración a la nube, uno de los primeros
pasos es identificar los obstáculos técnicos que podrían ralentizar o
complicar el proceso Los sistemas heredados a menudo están profundamente personalizados y optimizados
para hardware específico, lo que hace que la migración a la
nube sea una tarea compleja. A, código heredado,
navegando por lenguajes antiguos. Los mainframes a menudo se basan en código
heredado escrito
hace décadas en lenguajes como CBO, PL one o ensamblador Estos lenguajes,
aunque siguen siendo potentes, no
fueron diseñados para entornos
en la nube. De hecho, a menudo están estrechamente acoplados al
hardware específico en el que se ejecutan, hace que el proceso
de moverlos a un
entorno de nube virtualizado sea un desafío El desafío,
refactorizar el código heredado puede llevar mucho tiempo
y ser costoso, especialmente cuando hay una
falta de experiencia interna. Encontrar desarrolladores
con un profundo conocimiento de estos lenguajes más antiguos también
puede ser difícil ya gran parte de estos talentos
se acerca a la jubilación Tomemos un ejemplo. El equipo de William podría estar usando un sistema de
procesamiento de transacciones basado en CBL que maneja millones
de transacciones diariamente Este sistema se ha adaptado al hardware específico
del
mainframe y moverlo a
la nube probablemente requeriría una refactorización extensa para trabajar de
manera eficiente en la infraestructura manera eficiente en B, rendimiento, potencia de procesamiento de
mainframe coincidente. Mainframes itcell en el manejo de transacciones de alto volumen y alta
velocidad Para aplicaciones que procesan miles de
transacciones por segundo, el desempeño no es negociable La nube puede escalar para
manejar muchas cargas de trabajo, pero garantizar que la
infraestructura de la nube pueda igualar la potencia de procesamiento y confiabilidad de un mainframe
es una preocupación común El reto, los entornos Cloud
utilizan el escalado horizontal. Eso es agregar más servidores, mientras que los mainframes
dependen del escalado vertical Eso significa aumentar la
potencia de una sola máquina. Esta diferencia en la
arquitectura puede
generar problemas de rendimiento
si la nube está mal optimizada
para cargas de trabajo que requieren alto rendimiento
y baja latencia Tomemos un ejemplo. Imagine que
la organización Williams ejecuta un
sistema de pago en tiempo real en el mainframe El sistema procesa miles de
transacciones con tarjetas de crédito por segundo. Mover esta carga de trabajo
a la nube podría resultar en cuellos de botella en el
rendimiento si la infraestructura de la nube
no está
ajustada para manejar la misma C, compatibilidad del sistema. ¿Puede funcionar con una nube? Otro reto
es garantizar que sus sistemas y
software existentes sean compatibles
con los entornos Cloud. Muchas aplicaciones heredadas están estrechamente integradas
con otros sistemas, bases de datos o API que pueden no transferirse fácilmente
a plataformas en la nube. El reto, garantizar que todos los
sistemas interconectados, por ejemplo, bases de datos o dispositivos externos seguirán funcionando según lo previsto una vez que parte de la infraestructura
se traslade a la nube. También puede encontrar
dificultades con las licencias de
software que no permiten implementaciones
basadas en la nube Tomemos un ejemplo.
William podría estar administrando un sistema bancario central
que se integra con procesadores de pagos de
terceros y herramientas de cumplimiento externo. Si estas dependencias no son
totalmente compatibles con la nube, la mudanza podría causar interrupciones en las funciones críticas del
negocio. Explorando
enfoques de modernización. Existen varias
estrategias diferentes que puedes usar para modernizar y migrar tus sistemas heredados
a la nube Esto va desde el simple realojamiento hasta la rearquitectura completa de aplicaciones. Elegir el enfoque adecuado depende de la complejidad
de la aplicación, los requisitos del
negocio y la viabilidad
técnica. El primero es el rehosting o lo que se llama el enfoque
lift and shift Rehsting, también conocido como
lift and shift, implica mover aplicaciones a la nube sin realizar
cambios significativos en el código Este enfoque suele ser el
más rápido y el menos costoso, pero puede que no
aproveche al máximo las capacidades de la nube. Es mejor para aplicaciones
que no necesitan ser
rediseñadas y pueden ejecutarse tal cual en
un entorno de nube Rhosting es útil cuando
necesitas
migrar rápidamente y tener tiempo
o presupuesto limitados para cambios importantes Tomemos un ejemplo.
La organización Williams podría volver a alojar sus sistemas de
procesamiento por lotes en
la nube donde no
requieren un alto rendimiento o cambios significativos para
aprovechar la
infraestructura de la nube. Esto permite que la organización
se mueva rápidamente evitando una revisión completa de
los sistemas En segundo lugar, la refactorización, la
optimización para la Nube. refactorización implica modificar
la base de código existente ajuste mejor
al entorno de la
nube Esto le permite
optimizar la aplicación
para lograr escalabilidad, resiliencia y funciones
nativas de Cloud Si bien consume
más tiempo que el rehosting, refactorización puede ofrecer beneficios a
largo plazo Es mejor para aplicaciones que son críticas para el negocio y necesitan aprovechar las capacidades nativas de la nube,
como el escalado automático, redundancia y la optimización de
costos Tomemos un ejemplo. Para los sistemas de
procesamiento de transacciones Williams, refactorización puede ser
necesaria para garantizar que la aplicación pueda escalar en la nube mientras se mantiene un
alto rendimiento La aplicación refactorizada podría aprovechar los
servicios nativos de la nube como AWS Lambda o funciones
sin servidor o
Amazon RDS o administración de bases Amazon RDS El tercero es reemplazar
o comenzar fresco. En algunos casos, puede tener
sentido reemplazar completamente
las aplicaciones heredadas. Esto implica
construir o adaptar una nueva aplicación nativa en la nube que reemplace al sistema heredado. Si bien esta suele ser la opción más cara y
que consume mucho tiempo, puede proporcionar el
mayor valor a largo plazo. Es mejor para aplicaciones
que son difíciles refactorizar o que ya no satisfacen
las necesidades del negocio El reemplazo es ideal
cuando una nueva solución puede proporcionar una funcionalidad
y un rendimiento significativamente mejorados. Por ejemplo, el equipo de Williams
podría considerar reemplazar un sistema de
informes interno obsoleto una
plataforma de análisis moderna basada en la nube como AWS, Red Shift o Google BigQuery, lo que permite obtener mejores conocimientos, mejorar el rendimiento y reducir dependencia de la tecnología heredada El cuarto es el
re plataformas, que está en algún punto intermedio Un enfoque híbrido entre rehosting y refactorización
es el re plataformas, donde se realizan algunos pequeños
cambios para optimizar la aplicación para la nube sin hacer Esto podría implicar pasar a un servicio administrado en lugar de simplemente migrar
la infraestructura Es mejor para
aplicaciones que podrían beneficiarse de algunas características
nativas de la nube pero que
no necesitan una rearquitectura completa.
Tomemos un ejemplo. El equipo de William podría reorganizar
una base de datos heredada
moviéndola a Amazon RDS, un servicio de base de datos administrado Esto reduciría la
sobrecarga de administrar
la base de datos mientras se
beneficiaba de la escalabilidad en la nube Consideraciones clave
para cada enfoque. A medida que evalúa
si desea realojar, refactorizar o reemplazar sus aplicaciones
heredadas, hay varias
consideraciones clave a tener en El primero es el marco de tiempo. Rhosting ofrece la ruta de migración
más rápida, pero es posible que no brinde los beneficios de
rendimiento a largo plazo de la refactorización o sustitución. La refactorización lleva más tiempo, pero optimiza las aplicaciones para la elasticidad
y escalabilidad de las nubes El reemplazo requiere
una inversión de tiempo significativa ya que las nuevas aplicaciones
necesitan ser construidas o adaptadas. Segundo, es costo. Rehosting es el más rentable
a corto plazo, pero podría no reducir
costos a largo plazo refactorización requiere una inversión inicial
en el desarrollo, pero puede generar ahorros
operativos significativos en sustitución puede implicar el costo
más alto por adelantado, pero puede proporcionar
el mayor valor si sistemas
heredados se actualizan
o se acercan al final de Tercero es el riesgo. Rhosting conlleva el riesgo de la lista ya que
no estás cambiando la aplicación, pero puede que no mejore el
rendimiento o la seguridad La refactorización introduce cierto riesgo durante el proceso de migración, pero una planificación cuidadosa
puede mitigarlo Reemplazar implica el
mayor riesgo, ya que está repasando completamente
los sistemas en los que el negocio puede confiar La
planificación cuidadosa de la transición es fundamental. Los puntos clave de
esta lección incluyen uno, los desafíos
técnicos como código
heredado,
los requisitos de rendimiento y la compatibilidad del sistema deben evaluarse antes de
migrar a la nube Estos obstáculos pueden afectar la viabilidad de la migración a
la nube. Dos, el realojamiento, la refactorización y reemplazo son tres enfoques comunes de
modernización, cada uno con diferentes costos, riesgos y plazos Elegir el
enfoque adecuado
depende de sus necesidades comerciales
y técnicas específicas. En tercer lugar,
la migración exitosa
a la nube requiere una planificación cuidadosa para equilibrar la velocidad, el
costo y el rendimiento,
asegurando que viabilidad
técnica de
cada aplicación se evalúe a fondo. Ganar actividad, reflexión. Revisa las aplicaciones que estás considerando para la migración a la nube. ¿Son más adecuados para rehospedar, refactorizar o reemplazar? Considere el tiempo, costo y riesgo involucrados
en cada enfoque. Pregunta de discusión,
post en el foro. ¿Qué retos técnicos prevé
para migrar sus
sistemas heredados a la nube
? migrar sus
sistemas heredados a la nube ¿Cómo piensa
superar estos retos? Siguiente lección, planeación estratégica para la integración en la nube híbrida. En el siguiente módulo,
comenzaremos a explorar cómo planificar estratégicamente la integración en la nube
híbrida En la lección uno del Módulo tres, aprenderemos a definir metas
comerciales y técnicas para adaptación a la nube
híbrida y asegurarnos de
que su estrategia se alinee con
objetivos organizacionales
más amplios,
como la escalabilidad y que su estrategia se alinee con objetivos organizacionales
más amplios,
como la escalabilidad Listo para comenzar a construir
su estrategia de nube híbrida, continuemos en el Módulo
tres y asegurémonos de que su plan de migración se alinee
con sus objetivos comerciales.
10. Lección 1: planificación estratégica para la integración de la nube híbrida: Bienvenido al estudio de módulos, diseñando una
estrategia y arquitectura de nube híbrida. Este módulo se enfoca en desarrollar una estrategia de nube
híbrida a medida. Los estudiantes aprenderán a
diseñar entornos híbridos, incluyendo qué servicios hospedar en las instalaciones versus en la nube. También explorarán k patrones de diseño y herramientas
para entornos híbridos, enfocándose
específicamente
en la integración de AWS. Lección uno, planificación estratégica para la integración en la nube híbrida. Bienvenido al Módulo tres de
su viaje a la nube híbrida. En este módulo,
comenzaremos sentando las bases para una estrategia exitosa de nube
híbrida. El primer paso para diseñar una arquitectura de nube híbrida
es la planificación estratégica, asegurando que sus objetivos de integración
en la nube alineen con sus objetivos generales de
negocio. Para alguien como William, nuestro director de infraestructura de TI, esto significa definir objetivos
claros sobre cómo la
nube híbrida beneficiará a la organización y apoyará tanto las operaciones
a corto plazo como el crecimiento a largo plazo. Al final de esta lección, podrá definir objetivos
comerciales y técnicos
para la adopción de la nube híbrida. Comprender la
importancia de alinear su estrategia de nube híbrida con objetivos comerciales
más amplios,
como la escalabilidad, la innovación y la rentabilidad Definición de objetivos comerciales
y técnicos o adopción de la nube híbrida. exitosa estrategia de
nube híbrida comienza con una definición clara de sus objetivos comerciales y
técnicos. Mudarse a la nube no se trata
solo de adoptar
nuevas tecnologías. Se trata de asegurarse de
que la tecnología respalde misión de
su organización
y los objetivos a largo plazo. Oye, metas de negocio. ¿Qué quieres lograr? Los objetivos de negocio proporcionan un por qué detrás de su estrategia de
nube híbrida. Estos objetivos se centran en lo que
la organización espera
lograr integrando tecnologías
en la nube con sistemas
mainframe Aquí hay algunos objetivos
comerciales típicos en los que organizaciones como
Williams podrían enfocarse. Escalabilidad, es la
capacidad de expandir los recursos de
TI de manera rápida y rentable a medida que crece
el negocio Por ejemplo, durante períodos
de altos volúmenes de consacción, como las temporadas de
compras navideñas, una nube híbrida puede ayudar a escalar aplicaciones orientadas
al cliente al tiempo que mantiene
estables las operaciones bancarias centrales en el mainframe Innovación, permitiendo un desarrollo
más rápido de nuevos servicios y productos. La nube se puede utilizar
como plataforma para experimentar con nuevas tecnologías como el aprendizaje
automático, análisis de
big data
o la cadena de bloques En los servicios financieros, por
ejemplo, equipo de
Williams podría
usar una nube para construir sistemas de
detección de fraude impulsados por
IA sin interrumpir
las operaciones bancarias centrales en el mainframe Eficiencia de costos, equilibrando los costos
operativos mientras se mantiene un
alto rendimiento. entornos
en la nube ofrecen precios bajo demanda, donde solo paga por los
recursos que realmente usa, lo que ayuda a evitar el alto costo
fijo en los sistemas locales. La organización Williams
puede descargar cargas de trabajo
no críticas, como procesamiento
por lotes, a
la nube durante las horas pico,
lo que
reduce Gestión de riesgos, reduciendo el riesgo
operativo, incluido el tiempo de inactividad, fallas
del sistema y brechas de seguridad Los modelos de nube híbrida proporcionan opciones de
failover
donde las cargas de trabajo pueden cambiar entre mainframe
in premise y servicios en la nube en
caso de emergencia B, metas técnicas. ¿Cómo lo
lograrás? Los objetivos técnicos garantizan que
su estrategia de nube híbrida sea técnicamente factible
y se alinee con su TI existente
en la arquitectura Estos objetivos suelen girar en torno rendimiento, la seguridad
y la integración Optimización del rendimiento,
asegurando que la nube híbrida ofrezca un alto rendimiento
tanto para cargas de trabajo basadas en mainframe como para las cargas de trabajo basadas en
la nube Para
la organización Williams, esto significa asegurarse de que el procesamiento de
transacciones en tiempo real continúe funcionando sin problemas
en el mainframe mientras aprovecha la
nube para análisis y servicios orientados al cliente Seguridad y cumplimiento, manteniendo la seguridad de los datos
y asegurando que la nube híbrida cumpla con los requisitos de cumplimiento de
la industria
como PCIDSS o GDPR La organización Williams
debe garantizar que
los datos confidenciales de los clientes se mantengan seguros, ya sea que se procesen en el mainframe o
se almacenen en la nube Estímulo la integración,
asegurando que los
entornos mainframe y la nube funcionen juntos sin problemas sin
interrumpir las operaciones diarias Esto implica configurar conexiones
de red, sincronizar flujos de datos y administrar
dependencias de aplicaciones Alineación de la estrategia de la nube híbrida
con los objetivos de negocio. Una estrategia de nube híbrida solo
puede tener éxito si está alineada con los objetivos comerciales
generales de su organización . La nube no es una
solución única para todos. Debe diseñarse para satisfacer las necesidades únicas de su negocio, ya sea impulsando el crecimiento, mejorando la experiencia del cliente
o reduciendo costos. A, la escalabilidad como ventaja
competitiva. Para las empresas que operan en mercados que cambian
rápidamente,
la escalabilidad es fundamental En los servicios financieros donde fluctúa la demanda de los
clientes, contar con una infraestructura escalable es clave para mantenerse competitivo Para la organización Williams, la capacidad de escalar rápidamente
con la nube significa que pueden soportar lanzamientos de nuevos
productos como una nueva oferta de tarjetas de crédito o absorber picos de tráfico
durante el período de alta demanda. Por ejemplo, un banco podría
experimentar una actividad
superior a lo normal durante un periodo promocional
para un nuevo producto. Con la nube híbrida, William puede escalar la
infraestructura de la nube para manejar el aumento de la
carga sin realizar cambios en el sistema
central central central B, innovación a través de la Nube. Las organizaciones que quieren seguir siendo competitivas
necesitan innovar La nube ofrece
oportunidades para la experimentación
rápida
y el desarrollo de productos sin poner en riesgo el
mainframe Por ejemplo, William podría
usar los servicios Cloud para probar nuevas funciones de banca móvil o desarrollar un programa de
fidelización de clientes. Un ejemplo, el equipo de William
podría decidir implementar un algoritmo de aprendizaje automático
en la nube para proporcionar a los clientes información
personalizada sobre sus patrones de gasto. Al mantener esta
característica innovadora en la nube, el equipo puede moverse
rápidamente sin las limitaciones de
los sistemas
mainframe heredados C, rentabilidad para impulsar el ROI. Los modelos de nube híbrida permiten a
las organizaciones
enfocarse en la eficiencia de costos, asegurando que los recursos se utilicen donde tengan más sentido. Los servicios en la nube permiten un modelo de
pago por uso, mientras que el mainframe maneja cargas de trabajo críticas con tiempo de actividad
garantizado. Un ejemplo,
la organización Williams podría ejecutar trabajos diarios de
procesamiento por lotes en la nube
aprovechando costos más bajos y
liberando recursos de mainframe para procesamiento en tiempo real Esto reduce
los gastos operativos al tiempo que garantiza que los sistemas
críticos permanezcan
operativos 24 en siete. B, gestión de riesgos y continuidad del
negocio. Las estrategias de nube híbrida
también ayudan a mejorar la continuidad del
negocio
al proporcionar una manera de recuperarse rápidamente de
desastres o fallas del sistema. Al implementar la nube híbrida, William puede garantizar que si hay un problema con
el mainframe local, la nube puede servir como respaldo para mantener las operaciones
comerciales Un ejemplo, en caso de un desastre natural afecte al centro de datos que
alberga el mainframe, organización de
William puede fallar los servicios clave
a la Nube, asegurando que
los clientes continúen
accediendo a servicios esenciales
como la banca en línea Pasos para definir una estrategia exitosa de nube
híbrida. Para definir de manera efectiva una estrategia de nube
híbrida, es importante seguir
un enfoque estructurado. Estos son los pasos que
William puede tomar, crear un plan estratégico
para la adopción de la nube híbrida. Uno, realizar un análisis de
las necesidades del negocio. Comprender los
objetivos principales de la organización, ya sea crecimiento,
ahorro de costos o innovación. Identificar qué cargas de trabajo son más críticas para
lograr esos objetivos Dos, establecer objetivos técnicos. Definir las métricas de rendimiento, los requisitos de
seguridad y los puntos de integración que guiarán el proceso de
migración. Asegúrese de que el
entorno de nube híbrida pueda escalar, proteger los datos y mantener un tiempo para las aplicaciones de misión
crítica. Tres, desarrollar un plan de
implementación por fases. Mueva primero las cargas de trabajo no críticas a la nube, por ejemplo, procesamiento
por lotes
y análisis de datos, seguido de aplicaciones más complejas y
estrechamente acopladas Garantice una transición sin problemas
mediante el uso de proyectos piloto para probar qué tan bien funcionan los recursos de
la nube con
un entorno de mainframe F, monitorear y
optimizar continuamente. Una vez que la
nube híbrida esté en su lugar, monitoree métricas clave
como el rendimiento, costo y la escalabilidad
para garantizar que la estrategia permanezca alineada
con los objetivos comerciales Refinar y optimizar continuamente el entorno de nube híbrida a
medida que el negocio evoluciona Las conclusiones clave de esta lección incluyen lo siguiente Primero, definir objetivos comerciales y
técnicos
claros es crucial para garantizar que su estrategia de nube
híbrida respalde los objetivos de crecimiento,
innovación y
rentabilidad de su
organización . Dos, alinear su enfoque de
nube híbrida con objetivos comerciales
más amplios garantiza que la nube se utilice estratégicamente
para escalar operaciones, impulsar la innovación
y administrar riesgos En tercer lugar, una estrategia exitosa de
nube híbrida debe ser escalonada, comenzando con cargas de trabajo no
críticas y monitoreada
continuamente para obtener rendimiento y
rentabilidad Ganar actividad, reflexión. Piensa en los objetivos
de tu organización. ¿Qué
objetivos de negocio estarían mejor respaldados por una estrategia de
nube híbrida? Considere áreas como escalabilidad, innovación o ahorro de costos Pregunta de discusión,
post en el formulario. ¿Qué objetivos de negocio
crees que se deben priorizar a hora de diseñar una estrategia de nube
híbrida para tu organización ¿Cómo puede la Nube ayudarte a
lograr estos objetivos? Siguiente lección, patrones
arquitectónicos para el diseño de Cloud híbrido. En la siguiente lección,
exploraremos los diferentes patrones
arquitectónicos para el diseño de la nube híbrida. Aprenderá sobre los datos
primero, procese primero y los enfoques de levantamiento y cambio, y cómo elegir
el patrón adecuado para las necesidades de su organización. Listo para explorar
la arquitectura detrás de una exitosa nube
híbrida, pasemos a la lección
dos del Módulo tres.
11. Lección 2: patrones arquitectónicos para el diseño de nube híbrida: Lección dos, patrones
arquitectónicos para el diseño de nubes híbridas. Bienvenido a la lección
dos del módulo tres, donde profundizaremos patrones
arquitectónicos
para el diseño de la nube híbrida. Como
director de infraestructura de TI como William, su principal desafío en la
modernización de los sistemas heredados y adaptación de las tecnologías en la nube es encontrar el enfoque
arquitectónico adecuado No todas las cargas de trabajo y aplicaciones
son iguales y sus
requisitos comerciales y técnicos dictarán qué arquitectura de nube híbrida es la mejor para su organización Al final de esta lección, comprenderá uno, los tres patrones principales de
arquitectura de nube híbrida, los datos primero, el proceso primero y la elevación
y el cambio. Dos, cuándo usar cada patrón en
función de
los objetivos de negocio y las necesidades
técnicas de
su organización. Esta lección
le dará las herramientas para tomar las decisiones
arquitectónicas correctas, asegurando que su
nube híbrida se integre sin problemas con sus sistemas mainframe
mientras admite escalabilidad, innovación
y rendimiento Enfoque de datos primero,
centralizando la gestión de datos. ¿Cuál es el primer enfoque de datos? El primer enfoque de datos para arquitectura de nube
híbrida
se centra en centralizar administración de
datos
mientras se mantiene el
procesamiento de aplicaciones
tanto en entornos de mainframe como en la nube En este patrón, los datos se
almacenan y administran de manera centralizada, ya sea en el mainframe o
en la nube y se accede por diversas aplicaciones distribuidas en
ambos entornos. Este enfoque a menudo es
elegido por organizaciones con datos críticos de
misión que deben permanecer altamente
seguros y disponibles. En este caso, las aplicaciones están diseñadas para sacar datos
de este hub central, ya sea que se estén ejecutando en
la nube o en las instalaciones. Cuándo usar el enfoque de datos
primero, seguridad de
datos y requisitos de
cumplimiento. Si su organización trata con datos
confidenciales como registros
financieros o PII de
clientes o información de
identificación personal y necesita garantizar la residencia de
los datos, mantener los datos centralizados es clave Datos consistentes en todos los sistemas. Este enfoque garantiza
que todas las aplicaciones, independientemente de dónde se
estén ejecutando, accedan a los mismos datos consistentes. Por ejemplo, si una institución
financiera procesa
datos de clientes en su mainframe, puede
almacenar y administrar esos datos de manera centralizada mientras
que los servicios basados en
la nube acceden a ellos
para análisis en tiempo real Un ejemplo, la institución
financiera Williams puede adoptar el enfoque de datos
primero si necesita mantener control
centralizado sobre los datos
transaccionales mientras permite que las aplicaciones en la nube
realicen análisis de
datos en tiempo real Los datos permanecen en
las instalaciones para mayor seguridad, mientras que las aplicaciones Cloud pueden acceder a ellos de
forma segura o
ejecutar informes o análisis
predictivos
sin replicar datos en múltiples ubicaciones Ventajas clave del primer enfoque de
datos. Uno, mejora de la seguridad de los datos. Los datos confidenciales se controlan
centralmente, lo que
facilita el cumplimiento de las normas
regulatorias. Dos, consistencia. Produce problemas con la duplicación o
fragmentación de
datos ya que
todas las aplicaciones acceden a la misma
fuente de vía. Primer enfoque de proceso,
optimizando los flujos de trabajo de las aplicaciones. ¿Cuál es el
primer enfoque del proceso? En el primer enfoque de procesos,
el enfoque cambia de los datos a
los procesos de negocio o flujos de trabajo de
aplicaciones. Aquí, la carga de trabajo, los procesos o el pase se distribuye entre el mainframe y la
nube dependiendo dónde se pueda ejecutar de manera
más eficiente El mainframe maneja el procesamiento
transaccional de
alto volumen de
misión crítica, procesamiento
transaccional de
alto volumen mientras que la nube se utiliza para flujos de trabajo que requieren elasticidad, escalabilidad Este patrón
generalmente se adopta cuando las organizaciones desean mantener los sistemas de transacciones
principales
en el mainframe, pero aprovechan la nube para cargas de trabajo como procesamiento por lotes, aplicaciones orientadas
al cliente
o análisis de datos Cuándo usar el
primer enfoque del proceso. Uno, transacciones de alto volumen. Si su organización depende en
gran medida del procesamiento de
transacciones en tiempo real, como las transacciones financieras, es posible que desee mantener
estos procesos en el mainframe mientras aprovecha
la nube para otras tareas Dos, la segmentación del flujo de trabajo, las aplicaciones que se pueden
desglosar en
flujos de trabajo o tareas más pequeñas, algunas de las cuales pueden ejecutarse en la nube se
benefician de este enfoque Tomemos un ejemplo. Williams Bank podría
elegir el
primer enfoque de proceso para mantener las transacciones bancarias
centrales
en el mainframe, donde se pueden procesar con la confiabilidad
y seguridad requeridas En tanto, las aplicaciones
orientadas al cliente, como la
aplicación de banca móvil, podrían ejecutarse en la Nube, accediendo a
los datos de transacciones desde el mainframe,
pero descargando cargas de trabajo
menos
críticas como la
aplicación de banca móvil, podrían ejecutarse en la Nube,
accediendo a
los datos de transacciones desde el mainframe,
pero descargando cargas de trabajo
menos
críticas a entornos en la nube. Ventajas clave del primer enfoque del
proceso. Uno, asignación eficiente
de recursos. Cada proceso se ejecuta donde
es más eficiente. Las transacciones en tiempo real permanecen en el mainframe mientras la nube
maneja cargas de trabajo elásticas Dos, pasado el tiempo de salida al mercado. Las aplicaciones basadas en la nube
se pueden actualizar con mayor frecuencia, lo que permite una innovación más rápida sin impactar ni procesar Enfoque de elevación y cambio, migración
rápida y sencilla a la nube. ¿Cuál es el enfoque de elevación
y cambio? El enfoque de elevación y cambio
implica migrar aplicaciones
existentes
a la nube sin modificar su arquitectura
subyacente Este enfoque se usa a menudo para aplicaciones
heredadas
que necesitan trasladarse rápidamente y con
un mínimo esfuerzo a la nube con el objetivo
principal de
reducir los costos de infraestructura o aprovechar la escalabilidad de
la nube Esta es una buena opción para las organizaciones que
desean reducir rápidamente su huella en línea
o aprovechar los recursos de la nube sin volver
a diseñar aplicaciones Cuándo usar el enfoque de elevación
y cambio. Uno, se necesitan cambios mínimos. Si su organización tiene
cargas de trabajo que
se pueden mover a la nube con
poca o ninguna modificación, y el objetivo es simplemente
reducir los costos operativos Este es un método eficiente. Dos limitaciones de tiempo. Cuando necesite moverse rápidamente,
tal vez debido a los plazos de
migración del centro de datos o limitaciones de infraestructura, lift and shift puede
proporcionar una solución rápida Un ejemplo, el equipo de William podría optar por un
ascensor y cambio para cargas de trabajo de
procesamiento por lotes
no críticas donde la organización puede reducir costos ejecutando estos
trabajos en la nube La aplicación en sí no está
rediseñada para la
nube, sino el entorno existente
se replica en
una infraestructura basada en la nube
como modelo de servicio IAAS Ventaja clave del enfoque de
elevación y cambio. Uno, migración rápida. Este es el camino más rápido hacia la migración a la nube porque no es necesario modificar
la aplicación. Dos, reducir el riesgo. Al mantener la arquitectura de la
aplicación, reduce el riesgo
de introducir nuevos errores o
problemas de rendimiento durante la migración. Analizar cuándo
usar cada patrón. El patrón de
arquitectura de nube híbrida adecuado depende de sus objetivos
comerciales, necesidades
técnicas y limitaciones de
recursos. Analicemos cómo decidir
qué enfoque es el mejor
para diferentes escenarios. , use el
enfoque de datos primero cuando uno, seguridad de
los datos y el cumplimiento
son sus principales preocupaciones. Dos, su aplicación
necesita un acceso consistente y
centralizado
a datos críticos. Dos, use el
enfoque de proceso primero cuando desee
optimizar los flujos de trabajo ejecutando diferentes procesos en
la nube y en las instalaciones. Cuando la escalabilidad y la elasticidad son importantes para tareas
no críticas, pero las transacciones centrales deben
permanecer en el mainframe Tres, utilice el enfoque de lista y
turno cuando necesite migrar rápidamente con cambios
mínimos en las aplicaciones
existentes. Cuando el objetivo es reducir los costos de
infraestructura sin
refactorizar la aplicación. Los puntos clave de
esta lección incluyen, uno, el enfoque de los datos primero
se centra en centralizar los datos al tiempo que permite que las aplicaciones en ambos entornos
accedan a esos datos, lo que garantiza la seguridad
y la consistencia segundo lugar, el enfoque de proceso primero optimiza los flujos de trabajo de las
aplicaciones, permitiendo que las tareas de misión
crítica permanezcan en las instalaciones mientras se descarga
otros procesos a la nube tres, el enfoque de elevación
y cambio es ideal para una migración rápida, moviendo las aplicaciones existentes a la nube sin modificar
su arquitectura. Ganar actividad, reflexión. Revise sus
cargas de trabajo y procesos actuales. Qué
patrón de nube híbrida, datos primero, proceso primero o elevación y cambio serían los que mejor respaldarían las necesidades de su
organización. ¿Por qué? Pregunta de discusión
planteada en el foro. Qué patrón de
arquitectura de nube híbrida
crees que proporcionaría el valor más inmediato a
tu organización? ¿Cuáles son los riesgos o
desafíos potenciales en la implementación de
ese enfoque? Siguiente lección, colocación de
carga de trabajo híbrida. En la siguiente lección,
discutiremos cómo determinar qué aplicaciones y servicios deben permanecer en las instalaciones
frente a en la nube. Aprenderá a analizar las características de la
carga de trabajo,
como los requisitos de latencia, las preocupaciones de cumplimiento y las necesidades de rendimiento para tomar
decisiones informadas. Preparados para profundizar en las ubicaciones de cargas de trabajo
híbridas, pasemos a la lección
tres y exploremos cómo decidir a dónde pertenecen sus
aplicaciones
12. Lección 3: colocación de cargas de trabajo híbridas: Lección tres, colocación híbrida de la
carga de trabajo. Bienvenido de nuevo al Módulo tres de nuestro curso sobre el diseño de la estrategia de Nube
Híbrida. En las lecciones anteriores, exploramos diferentes patrones
arquitectónicos y estrategias para integrar sus entornos mainframe y
cloud. Hoy en la Lección tres, nos sumergiremos en uno de los aspectos más cruciales del diseño
de la nube híbrida. Colocación de cargas de trabajo híbridas. Como
director de infraestructura de TI como William, necesita tomar decisiones
informadas sobre qué aplicaciones
y servicios deben permanecer en las instalaciones su mainframe y cuáles
deben trasladarse a la nube No todas las cargas de trabajo
son adecuadas para
la nube y una ubicación
incorrecta puede generar problemas de rendimiento, riesgos de
seguridad e ineficiencias de
costos La clave es comprender las características de la carga de trabajo
de las decisiones de colocación de unidades. Al final de esta lección, sabrá cómo evaluar las características de la
carga de trabajo,
como la latencia, cumplimiento y los requisitos de
rendimiento, para determinar la mejor
ubicación para cada carga de trabajo. Dos, decidir si
una aplicación o servicio debe permanecer en las instalaciones o
migrarse a la nube Empecemos. Comprender las
características de la carga de trabajo. Antes de
decidir dónde colocar una carga de trabajo, es
necesario analizar sus características
clave. Estas características le
ayudarán a evaluar si una aplicación debe permanecer en su mainframe o
trasladarse a la nube A, latencia, ¿qué tan sensible
es su carga de trabajo a los retrasos? latencia se refiere al
tiempo que tardan los datos en viajar entre diferentes
sistemas o aplicaciones. Para ciertas aplicaciones, incluso un ligero retraso puede
causar problemas importantes, particularmente aquellos que
requieren procesamiento en tiempo real. Cargas de trabajo
sensibles a alta latencia. Estas cargas de trabajo exigen rendimiento en tiempo real o casi en tiempo real Por ejemplo, en los servicios
financieros, los sistemas de procesamiento de
transacciones
son sensibles a la latencia. Si un cliente realiza un pago con tarjeta de
crédito, el sistema debe procesar
la transacción instantáneamente. Para estos tipos de cargas de trabajo, mantenerlas en el mainframe
suele ser la mejor opción para garantizar una baja latencia
y una alta confiabilidad Cargas de trabajo tolerantes a baja latencia. Otras cargas de trabajo,
como el análisis de datos o el procesamiento por lotes, pueden
tolerar latencias más altas Estos procesos no requieren retroalimentación
inmediata y
se pueden realizar en horas fuera de pico, lo que los convierte en buenos candidatos para la nube donde
se pueden escalar de manera eficiente Un ejemplo, el equipo de William maneja la
detección de fraude en tiempo real en su computadora central, ya que cualquier retraso en la identificación actividades
fraudulentas podría resultar en pérdidas financieras significativas Sin embargo, el sistema de informes
de fin de día del banco, que agrega
datos de transacciones y genera informes, puede ejecutarse con unos minutos o incluso
horas de latencia, lo
que lo convierte en un candidato perfecto
para la migración a la nube. B, cumplimiento. ¿Existen
restricciones regulatorias? En industrias como las finanzas, la
atención médica y el gobierno, el cumplimiento juega un papel
importante en la determinación de dónde se pueden colocar
las cargas Las regulaciones pueden requerir
que ciertos datos permanezcan en las instalaciones para garantizar la
residencia, seguridad o privacidad de los datos. Cargas de trabajo sensibles y
reguladas. Las cargas de trabajo que manejan información de
identificación personal o PII, datos financieros o registros de salud a menudo necesitan permanecer en las instalaciones debido
a regulaciones
estrictas como
PCIDSS, HIPAA Estas regulaciones pueden dictar
dónde se pueden almacenar los datos, quién puede acceder a ellos y
cómo se protegen En tales casos, puede ser
necesario almacenar
datos en su mainframe o nube privada para garantizar el cumplimiento Cargas de trabajo no reguladas.
Por otro lado, las cargas de trabajo que no involucran datos
confidenciales normalmente
se pueden migrar a la nube pública Esto puede incluir aplicaciones
orientadas al cliente, análisis de
marketing o plataformas internas de
inteligencia de negocios. Tomemos un ejemplo. En
Williams Financial Institution, información de la cuenta del
cliente debe permanecer en el mainframe para cumplir
con las regulaciones PCI DSS Garantizar que los datos se mantengan seguros y cumplan con los requisitos de
residencia. Sin embargo, los
datos de análisis del
comportamiento del cliente despojados de PII, se
pueden procesar en
la nube para obtener información sobre los patrones y tendencias de
gasto de los clientes C, requisitos de desempeño. ¿Qué recursos necesitan sus
aplicaciones? diferentes cargas de trabajo requieren
diferentes niveles de potencia
informática,
memoria y almacenamiento Evaluar los requisitos
de
desempeño de sus aplicaciones es esencial para determinar dónde
funcionarán mejor. Cargas de trabajo de alto rendimiento. Las aplicaciones que requieren un procesamiento
de alto rendimiento o un tiempo de actividad garantizado
suelen ser las más adecuadas
para mainframes Estos sistemas están diseñados para cargas de trabajo de
misión crítica que exigen
99 que triplican 9% disponibilidad y un sólido procesamiento de
transacciones Cargas de trabajo escalables. Las cargas de trabajo que requieren escalado
elástico como aplicaciones
web o trabajos por lotes
estacionales se benefician de la escalabilidad de las
nubes La nube puede proporcionar
recursos bajo demanda, lo que le permite escalar durante períodos de uso
pico y
reducir la escala durante tiempos más lentos, lo que
ayuda a optimizar los costos. Tomemos un ejemplo.
El equipo de Williams ejecuta procesamiento de transacciones en tiempo
real en el mainframe, ya que requiere un procesamiento rápido
con alta disponibilidad Sin embargo, la aplicación móvil orientada
al cliente del banco, que ve el
tráfico variable se ejecuta en la nube, donde puede escalar de forma automática
durante períodos ocupados como durante las promociones
sin poner estrés en el mainframe Decidir sobre las instalaciones frente a
la nube, consideraciones clave. Ahora que entendemos las características de la
carga de trabajo, exploremos
cómo decidir dónde debe colocarse
cada carga de trabajo. A, aplicaciones que
deben permanecer en las instalaciones. Ciertas cargas de trabajo siempre serán más adecuadas para permanecer
en su mainframe Estas incluyen una, transacciones de misión
crítica. Cualquier aplicación que maneje procesamiento de transacciones en tiempo
real, como redes ATM, pasarelas de
pago o plataformas de negociación
financiera debe permanecer en el mainframe
donde la latencia es mínima y el tiempo de actividad Dos cargas de trabajo altamente reguladas. Las aplicaciones que manejan datos
confidenciales de los clientes como el procesamiento de tarjetas de crédito
o los registros médicos, están sujetas a
restricciones regulatorias deben permanecer en instalaciones para garantizar la
seguridad y el cumplimiento de los datos. Tres,
procesamiento de alto rendimiento. Las cargas de trabajo que requieren
una potencia informática significativa para un procesamiento rápido de datos, como la detección de
fraudes en tiempo real deben permanecer en el mainframe, que está diseñado para manejar altos volúmenes de transacciones
con una latencia mínima B, aplicaciones que
deberían trasladarse a la nube. Otras cargas de trabajo son más
adecuadas para la nube. Estos incluyen, uno, procesamiento por lotes no
críticos. Las aplicaciones que
realizan procesamiento por lotes como informes de fin de día o grandes agregaciones de datos, se
pueden mover a la nube, donde se
pueden programar durante las horas
pico y escalarse según Dos, análisis de datos
y aprendizaje automático. Las cargas de trabajo que involucran análisis de
datos, inteligencia de
negocios
o aprendizaje automático se
pueden migrar a la
nube para aprovechar la escalabilidad
y el poder
de cómputos de plataformas
en la nube
como AWS Tres, aplicaciones
web orientadas al cliente. Las aplicaciones como las aplicaciones de banca
móvil o los portales de atención al cliente son
muy adecuadas para la nube, donde pueden escalar
durante períodos de alta eficiencia
e integrarse con
servicios de backend que se ejecutan
en el Tomemos un ejemplo. Williams Bank mantiene los sistemas
bancarios principales, como procesamiento de
pagos,
en el mainframe para garantizar el rendimiento
y el cumplimiento, mientras que
los servicios de banca móvil se ejecutan en la nube para manejar la demanda
fluctuante, la demanda fluctuante de los usuarios
, lo que garantiza el mejor
rendimiento y escalabilidad del mundo Mejores prácticas para la colocación de
cargas de trabajo híbridas. hora de determinar la ubicación de la
carga de trabajo, es esencial seguir
algunas de las mejores prácticas. Uno, evaluar la latencia y la sensibilidad de
rendimiento. Siempre priorice las aplicaciones
sensibles a la latencia para la infraestructura
in situ, mientras que cargas de trabajo
menos sensibles o menos sensibles al
tiempo se
pueden descargar a la nube. Dos, evaluar el cumplimiento
y la seguridad. Asegúrese de que los datos deben cumplir con las regulaciones de
la industria
permanecen en las instalaciones, mientras que los datos menos
confidenciales se
pueden mover a la nube. Tres, aproveche la nube
para mayor flexibilidad. Utilice la nube para cargas de trabajo
escalables como aplicaciones
orientadas al cliente, análisis de
datos y procesamiento
por lotes, donde la elasticidad y la
rentabilidad son clave Tomemos un ejemplo. organización Williams
utiliza estas mejores prácticas para determinar qué cargas de trabajo
mantener en el mainframe, como el procesamiento de
transacciones de alto rendimiento y cuáles migrar
a la nube,
como el procesamiento
por lotes no críticos y el análisis de clientes, lo que garantiza un equilibrio entre seguridad, rendimiento
y escalabilidad Los puntos clave de
esta lección incluyen uno, cargas de trabajo sensibles a la
latencia y de misión
crítica, como procesamiento de
transacciones,
deben permanecer en el mainframe para un rendimiento de baja latencia y alta confiabilidad Dos cargas de trabajo
sensibles conformes, particularmente aquellas sujetas a estrictos
requisitos reglamentarios, deben permanecer en las instalaciones, mientras que las cargas de trabajo
no reguladas
pueden trasladarse a la nube Tres, use la nube para cargas de trabajo
escalables no críticas, como aplicaciones orientadas
al cliente
y análisis de datos donde la elasticidad y la
optimización de costos son clave Ganar actividad, reflexión, evaluar las cargas de trabajo
en su organización Que son sensibles a la latencia y cumplimiento pesado y
deben permanecer en las instalaciones. Lo que podría beneficiarse de la escalabilidad de las nubes
y la rentabilidad Pregunta de discusión
planteada en el foro. ¿Cómo determina
actualmente su organización si una carga de trabajo debe permanecer en las instalaciones o
trasladarse a la nube? ¿Cuáles son los principales factores que
influyen en estas decisiones? Siguiente lección, Selección de
servicios en la nube. En la siguiente lección,
discutiremos cómo seleccionar los servicios Cloud adecuados o su estrategia de nube híbrida. Aprenderá a elegir
entre proveedores como AWS, Azure y Google Cloud y explorar el papel de las herramientas
nativas de la nube como contenedores, microservicios y arquitecturas de listas de
servidores
en Emocionados por aprender más sobre cómo elegir los servicios en la nube
adecuados, vamos a sumergirnos en la Lección cuatro
y explorar cómo hacer la mejor selección para su entorno de nube
híbrida. Um,
13. Lección 4: selección de servicios en la nube: Lección cuatro, Selección de
servicios en la nube. Bienvenido a la lección
cuatro del Módulo tres. En esta lección, vamos
a explorar cómo seleccionar los servicios Cloud adecuados para su arquitectura de
nube híbrida. Como
director de infraestructura de TI como William, seleccionar la plataforma
Cloud adecuada es una de las
decisiones más importantes que tomará durante el viaje de modernización de la
nube de su organización. Deberá comprender
cómo los servicios de AWS, Microsoft Azure o
Google Cloud se alinean con las necesidades de
su organización y cómo las herramientas nativas de la nube
como contenedores, microservicios y arquitecturas
sin servidores se
pueden aprovechar Al final de esta lección, podrá seleccionar los servicios
Cloud adecuados para su caso de uso y objetivos de
rendimiento. Dos, comprenda cómo integrar
herramientas nativas de la nube como contenedores, microservicios y arquitecturas
menos de servidores en su entorno de nube híbrida Vamos a sumergirnos. Seleccionar
la plataforma Cloud adecuada, AWS, Azure o Google Cloud. Los tres principales proveedores de Cloud, Amazon Web Services o
AWS, Microsoft Azure y Google Cloud
Platform o GCP, ofrecen
cada uno una amplia
gama de servicios, pero sus fortalezas
difieren ligeramente según las necesidades específicas de su
organización Elegir la plataforma adecuada para su
arquitectura de nube híbrida
dependerá de sus requisitos de
carga de trabajo, objetivos de
rendimiento e infraestructura
existente. A, Amazon Web Services o
AWS, el líder en Cloud. AWS es ampliamente considerado el líder del mercado
en servicios en la nube que ofrece una amplia gama de herramientas y servicios para
casi cualquier caso de uso. AwuseCels ofrece soluciones flexibles y
escalables para
empresas de todos los tamaños y es una excelente opción para
las empresas que buscan aprovechar un sólido
conjunto Fortalezas. AWS es conocida
por su escalabilidad, amplio conjunto de herramientas
y su deseo global Cuenta con un mercado masivo
de servicios y herramientas en la nube, que incluyen potencia informática,
bases de datos y almacenamiento de datos. AWS también se integra bien con entornos
híbridos a través de
servicios como AWS Outpost, que llevan servicios nativos de AWS a su entorno local Mejores casos de uso. AWS es ideal para organizaciones
que necesitan escalabilidad, tienen
operaciones globales o requieren herramientas
específicas como capacidades de
AI ML, servicios
IOT o análisis de
big data Tomemos un ejemplo. La organización Williams
podría elegir AWS si está buscando
escalabilidad para las aplicaciones nativas de la
nube como su aplicación de
banca móvil, o para aprovechar herramientas de big data de
AWS para analizar los datos de transacciones de los
clientes Microsoft Azure lo mejor
para la integración híbrida. Microsoft Azure es conocido por su profunda integración con sistemas
locales y aplicaciones
empresariales, particularmente para empresas que ya cuentan con una infraestructura
basada en Windows. Azure se ha convertido en un fuerte
competidor en el espacio de la nube, especialmente para las configuraciones de nube
híbrida, gracias a sus robustas herramientas de integración
híbrida Fuerza Azure es fuerte en entornos de nube
híbrida, ofreciendo servicios como
Azure arc para administrar tanto en la nube como en las recursos
tanto en la nube como en las
instalaciones desde
un solo plano de control. Su estrecha integración
con productos de Microsoft como Active Directory,
Window Server y SQL Server hace de
Azure una opción convincente para las organizaciones que ya confían en las
tecnologías de Microsoft. Mejores casos de uso. Azure es ideal para
empresas que buscan extender sus
entornos Microsoft
locales existentes a la nube, como aquellos que utilizan
aplicaciones basadas en web u Office 365. También es un fuerte contendiente
para las industrias que necesitan capacidades de nube
híbrida para administrar tanto en entornos prem
como en la nube Tomemos un
ejemplo. Para William, si su
institución financiera depende
en gran medida de la infraestructura basada en Windows
y el directorio activo, Azure sería una
excelente opción para administrar su
entorno híbrido y garantizar una
integración perfecta entre sus aplicaciones mainframe y
en la nube Google Cloud Platform o GCP, el innovador en datos e IA Google Cloud es mejor conocido por su liderazgo en análisis de
datos, aprendizaje
automático e inteligencia artificial. servicios en la nube de Google
proporcionan una gama de herramientas Los servicios en la nube de Google
proporcionan una gama de herramientas
altamente optimizadas para procesamiento y análisis de
datos, lo
que los convierte en una opción sólida para las organizaciones
que buscan aprovechar tecnologías de
vanguardia. Fortalezas. GCP sobresale
en gestión de datos, analítica y aprendizaje automático Servicios como Big
Query, Flujo de datos y AutoML convierten a GCP en la plataforma ideal para cargas de trabajo
pesadas de datos e innovación impulsada por IA GCP también es conocido por
sus herramientas amigables para desarrolladores e integraciones de código
abierto
como Mejores casos de uso. Google Cloud es mejor para empresas
enfocadas en análisis de datos, proyectos de
AI ML o procesamiento de datos en
tiempo real. Su flexibilidad y soporte de
código abierto
lo convierten en una excelente opción para las empresas que buscan
innovar rápidamente Tomemos un ejemplo. El equipo de Williams puede elegir GCP si están
enfocados en el análisis de big data o planean implementar modelos
avanzados de
aprendizaje automático para
proporcionar información a partir de los datos de los clientes Las herramientas de APs
ayudarían al banco a analizar grandes cantidades de datos de
transacciones de clientes para marketing personalizado
y detección de fraude. Herramientas nativas en la nube para entornos
híbridos. En una arquitectura de nube híbrida, es crucial aprovechar las herramientas nativas de
la nube que ofrezcan flexibilidad,
escalabilidad y eficiencia Haga clic en tres
tecnologías nativas clave en la nube son contenedores, microservicios y arquitecturas
sin servidor Estas herramientas están
diseñadas para mejorar la agilidad y el rendimiento
en un entorno híbrido, lo que permite una
integración perfecta entre sus sistemas mainframe
locales
y los servicios en la nube A, contenedores, portabilidad
y consistencia. Los contenedores, como los administrados por Docker
y orquestados por Kubernetis, permiten empaquetar aplicaciones con sus Los contenedores son
portátiles, ligeros y permiten una operación consistente en diferentes entornos, ya sea en las instalaciones
o en la nube. Fortalezas. Los contenedores
proporcionan portabilidad y facilitan el
movimiento de aplicaciones entre la nube y su entorno de
mainframe También promueven la escalabilidad
al permitir que los desarrolladores implementen actualizaciones rápidamente sin afectar el sistema en general Mejores casos de uso. Los contenedores son ideales para organizaciones
formadas para implementar aplicaciones en
múltiples entornos o necesitan escalar
microservicios dinámicamente Son especialmente útiles
para aplicaciones nativas de Cloud o aplicaciones que necesitan migrarse
incrementalmente a la Un ejemplo, el
equipo de Williams podría usar Kubernetes para administrar contenedores para su aplicación
bancaria orientada al cliente, asegurando que puedan implementar
fácilmente actualizaciones en la nube mientras mantienen los servicios bancarios
principales
en Microservicios, dividiendo las aplicaciones en servicios
independientes más pequeños Una arquitectura de microservicios
divide las aplicaciones en pequeños servicios independientes que se comunican a través de API Cada microservicio
se puede desarrollar, implementar
y escalar de forma independiente, y escalar de forma independiente, mejorando la agilidad
y la tolerancia a fallas Fortalezas, los microservicios ofrecen flexibilidad
y escalabilidad, permitiendo
a las organizaciones actualizar o escalar servicios específicos sin afectar a
toda la aplicación Esta arquitectura es ideal
para entornos híbridos donde ciertos microservicios pueden ejecutarse en las instalaciones y
otros en la nube Mejores casos de uso. Los microservicios
son ideales para aplicaciones que requieren actualizaciones frecuentes o se componen de muchas funciones
independientes A menudo se utilizan en desarrollos nativos de
la nube para mejorar el rendimiento
y la confiabilidad. Tomemos un ejemplo. El equipo de Williams podría usar
microservicios, dividir su
plataforma de banca en línea servicios
más pequeños, como inicio de sesión, administración de
cuentas e historial de
transacciones Algunos microservicios pueden
ejecutarse en la nube mientras que otros, como el procesamiento de pagos,
permanecen en el mainframe Arquitectura sin servidor,
paga solo por lo que uses. arquitectura sin servidor
elimina la necesidad administrar servidores subyacentes Con plataformas menos servidor
como AWS Lambda, funciones de
Azure o funciones de
Google Cloud, se
escribe código que se ejecuta
en respuesta a eventos y el proveedor de Cloud administra los recursos de
escalado de infraestructura automáticamente en función de la demanda. Fortalezas, Server LS ofrece ahorro de
costos y escalabilidad
automática, ya que solo paga por los recursos que usa
cuando se ejecuta la función Es perfecto para manejar tareas impulsadas por
eventos y operaciones de
corta duración que no requieren infraestructura de
funcionamiento continuo. Mejores casos de uso. La arquitectura sin servidor es adecuada para aplicaciones
impulsadas por eventos, como procesar transacciones, responder a eventos de usuario o activar acciones
basadas en llamadas a la API Tomemos un ejemplo.
La organización Williams podría usar AWS Lambda para
manejar tareas específicas como activar notificaciones
cuando un usuario realiza ciertas acciones en la aplicación de banca móvil o ejecutar código sin servidor para manejar
alertas de detección de fraude en tiempo real Mejores prácticas para la selección de servicios en la
nube en entornos híbridos. Al seleccionar servicios en la nube
para un entorno híbrido, es esencial alinear sus elecciones con sus objetivos comerciales y requisitos
técnicos. Estas son algunas de
las mejores prácticas a seguir. Uno, evaluar las
capacidades de integración. Elija una plataforma en la nube
que se integre bien con su mainframe existente
y los sistemas locales Los servicios como los
puestos avanzados de AWS o el arte de Azure están diseñados para proporcionar una integración
perfecta entre los entornos Cloud y
locales. Dos, priorizar la seguridad
y el cumplimiento. Asegúrese de que los servicios
en la nube que elija cumplan con los requisitos de
cumplimiento de su industria. Por ejemplo, si
estás en finanzas, lidera servicios que cumplen con
PCI DSS o GDPR Tres, aproveche las herramientas nativas de
Cloud. Incorpore contenedores,
microservicios y
arquitecturas sin servidores para maximizar escalabilidad y la agilidad en
su Estas herramientas están diseñadas
para mejorar el
rendimiento de las aplicaciones, la portabilidad y la velocidad de
implementación Tomemos un ejemplo. William Stein puede usar contenedores
ubernatsp
y AWS Lambda para funciones
sin servidor
para garantizar que su
entorno de nube híbrida siga siendo escalable, ágil Al aprovechar las mejores herramientas nativas de la
nube, pueden garantizar que
sus servicios en la nube integren sin problemas con su infraestructura de
mainframe Los puntos clave de
esta lección incluyen uno,
AWS, Azure y GCP, cada uno tiene fortalezas
dependiendo de los objetivos de su organización AWS es lo mejor para la escalabilidad, Azure para la integración híbrida y GCP para
análisis de datos e IA Dos, las herramientas nativas de la nube como contenedores,
microservicios y arquitecturas sin servidor son clave para mejorar la
escalabilidad, la
portabilidad y la agilidad
en entornos Tres, al elegir los servicios
en la nube, asegúrese de que se integren bien
con sus sistemas locales, cumplan con los requisitos de seguridad y
cumplimiento y respalden sus objetivos de
rendimiento. Actividad de aprendizaje, reflexión. Considera los objetivos de tu
organización. ¿Qué plataforma Cloud, AWS, Azure o GCP crees que se alinea mejor con tu estrategia de nube
híbrida ¿De qué manera
las herramientas Cloud Native como los contenedores o el servidor menos ayudarían a mejorar el rendimiento de
su aplicación? Pregunta de discusión
planteada en el foro. ¿Cuáles son los factores clave
que considera
su organización a la hora de seleccionar los servicios
Cloud para entornos
híbridos? ¿Cómo planea aprovechar las herramientas nativas de
la nube como microservicios o contenedores
en su estrategia Siguiente lección, desarrollar una estrategia
de migración de datos. En el siguiente módulo, cambiaremos nuestro enfoque hacia la migración datos y aplicaciones
a la nube En la lección uno del Módulo cuatro, exploraremos cómo desarrollar
una estrategia de migración de datos, incluida la elección entre
diferentes métodos de migración. Por ejemplo, big bang versus migración
base y entender
los pros y los contras. Listo para planificar su migración a
la nube. Continuemos en el
Módulo cuatro y comencemos a construir su estrategia de
migración de datos. Um,
14. Lección 1: desarrollo de una estrategia de migración de datos: Módulo cuatro, migración de datos y aplicaciones a la Nube En este módulo, los alumnos aprenderán el proceso
de migración de datos, aplicaciones y cargas de trabajo
de mainframes a Cubre las mejores prácticas
para la migración segura de datos, minimizando el tiempo de inactividad
y manteniendo la integridad de
los datos durante
el proceso de migración. las herramientas
y técnicas de migración del mundo real También se explorarán las herramientas
y técnicas de migración del mundo real. Lección uno, desarrollar una estrategia
de migración de datos. Bienvenido al Módulo cuatro, donde iniciamos el proceso
crítico de
migración de datos y
aplicaciones a la nube En esta primera lección,
nos centraremos en desarrollar una estrategia sólida de
migración de datos. Para alguien como William, un director de infraestructura de TI, encargado de modernizar los sistemas mainframe
heredados, tener una estrategia clara de
migración de datos es esencial para garantizar una
transición fluida a Ya sea que esté moviendo
grandes cantidades de datos
confidenciales de clientes o
migrando aplicaciones, la estrategia correcta puede
ayudarlo a minimizar el tiempo de inactividad, mitigar el riesgo y
garantizar la integridad de los datos Al final de esta lección, comprenderá
los componentes clave de un plan de migración de datos. Dos, ser capaz de
evaluar diferentes métodos de
migración como big bang y enfrentar la migración y comprender las ventajas
y desafíos de cada uno. Empecemos.
Comprender los fundamentos de un plan de migración de datos Una estrategia de migración de datos es un plan para mover datos de un
entorno a otro, ya sea de su mainframe
local a
la nube o entre
diferentes servicios en la nube Una estrategia exitosa garantiza que la migración
se complete tiempo con una interrupción
mínima e integridad de datos intacta. A continuación se detallan los elementos clave
a incluir en tu plan. A, definiendo tus metas
migratorias. Antes de comenzar tu migración, necesitas tener una
comprensión clara de tus objetivos. ¿Qué quieres lograr con esta migración?
Mejora del desempeño. ¿Está migrando para mejorar el rendimiento de las aplicaciones
o reducir la latencia Escalabilidad. ¿Está moviendo datos a la nube para escalar
las operaciones a medida que aumenta la demanda? Optimización de costos. ¿Está buscando reducir los costos de
infraestructura trasladando datos
no críticos a la nube? Estos objetivos darán forma a su estrategia general
y dictarán qué datos se priorizan durante
la migración Tomemos un ejemplo. Para el equipo de William, el
objetivo podría ser descargar datos
no críticos como registros
históricos de
transacciones de clientes a
la nube para
almacenamiento a largo plazo mientras se mantienen datos de transacciones en tiempo
real en el mainframe por B, inventario y evaluación
de datos. Una vez que defina sus objetivos, debe realizar un
inventario completo de sus datos. Este paso implica identificar qué datos deben migrarse, su ubicación actual, tamaño,
formato y dependencias Pregúntese, ¿qué conjuntos de datos son críticos para la misión y
deben migrarse primero? ¿Hay alguna dependencia de datos entre aplicaciones que
deba considerarse? ¿Cuál es el volumen de datos? ¿Estás migrando gigabytes, terabytes o parabitos Evaluar el formato de los datos. Por ejemplo, estructurados,
no estructurados y de calidad, mala calidad de los datos pueden complicar
el proceso de migración Por lo tanto, considere limpiar los datos
antes de migrarlos para garantizar la precisión y consistencia.
Tomemos un ejemplo. En un entorno bancario, William podría descubrir que algunos datos, como la PII
del cliente, requieren medidas de cifrado
adicionales, mientras que los datos de archivo
no confidenciales se
pueden transferir más fácilmente Planeación para tiempos de inactividad
y gestión de riesgos. Una parte clave de su
estrategia es planificar el tiempo de inactividad
potencial durante el proceso de migración. Dependiendo del
método que elija, algunos tiempos de inactividad pueden
ser inevitables Para mitigar esto, es necesario
identificar datos de alto riesgo que podrían afectar las operaciones
si no están disponibles. Programe la migración durante periodos de
poco tráfico para
minimizar las interrupciones. Contar con un
plan de contingencia en caso que la migración encuentre problemas como pérdida de datos o corrupción Al planificar cuidadosamente las ventanas de tiempo de
inactividad y crear copias de seguridad, puede reducir el riesgo de
interrupción de las operaciones
comerciales. Un ejemplo, William podría
programar la migración de datos de servicio al cliente
no críticos durante las horas pico para minimizar el impacto en las aplicaciones
orientadas al cliente. Explorando métodos de
migración de datos, big bang versus migración de fase. Hay dos métodos primarios de migración de
datos, Big Bang
y migración de fase. Cada método tiene sus
ventajas y desafíos, y el adecuado para
su organización dependerá de factores
como el volumen de datos, complejidad y la tolerancia al riesgo. Migración Big Bang, moviendo
todo a la vez. En una migración Big Bang, todos los datos se migran a la vez, normalmente dentro de un
corto período de tiempo. Este método es rápido y se puede completar rápidamente si el volumen de
datos es manejable Sin embargo, requiere
una planificación
y preparación minuciosas para evitar problemas, ya que puede llevar a
un tiempo de inactividad significativo y arriesgar si algo sale mal. Ventajas. Rápido.
Toda la migración ocurre dentro de un solo evento, minimizando el cronograma general. Menos complejidad con un
solo
proceso de migración para administrar, no tiene que
manejar múltiples fases. Desafíos, riesgo de tiempo de inactividad. Un enfoque de big bang a menudo
da como resultado un tiempo de inactividad más prolongado, lo que puede interrumpir
las operaciones, todo o nada. Si surge algún problema
durante la migración, puede afectar a todos los datos, lo que lleva a una posible
pérdida o corrupción de datos. Tomemos un ejemplo. La organización Williams podría usar una migración Big Bang para un conjunto de datos
relativamente pequeño, como mover los registros
financieros de archivo al sistema de almacenamiento
en la nube donde inactividad no afectaría las operaciones
críticas. Migración de fase, transición gradual
de control. Una migración de fase extiende el proceso
de migración en múltiples etapas, a menudo migrando cargas de trabajo
o conjuntos Este método es más manejable para grandes
entornos complejos donde minimizar el riesgo y mantener las operaciones
continuas
son prioridades clave Ventajas, menor riesgo. Al migrar los datos por fases,
se reduce la probabilidad
de fallas críticas que afecten a todo el
sistema. Tiempo de inactividad limitado. Dado que la migración es gradual, es más fácil administrar el tiempo de
inactividad en pequeños incrementos, limita las
interrupciones operativas. Reversión más fácil Si hay problemas
con una fase específica, es más fácil retroceder sin afectar
toda la migración. Desafíos, cronograma extendido. Las migraciones de fases
tardan más en completarse y requieren una cuidadosa
coordinación entre fases Complejidad. La administración de
múltiples fases de migración aumenta
la complejidad operativa, requiriendo mucha
atención a los detalles. Tomemos un ejemplo.
La institución financiera Williams podría optar por una
migración de fase para
mover gradualmente las aplicaciones de ritmo
a la nube mientras mantiene los sistemas
críticos como procesamiento de
pagos
en el mainframe durante el período de transición Esto garantiza un
tiempo de inactividad mínimo para los clientes. Consideraciones clave a la hora de
elegir un método de migración. Al decidir entre el big
bang y la migración de fase, considere los siguientes factores. Volumen de datos. Los grandes volúmenes de datos son más adecuados
para la migración de fases, mientras que los conjuntos de datos más pequeños pueden ser manejables con un enfoque de
Big Bang Complejidad. Las arquitecturas de datos complejas con
muchas dependencias se migran mejor en fases para garantizar que nada se interrumpa Tolerancia al tiempo de inactividad. Si su organización no puede
permitirse un tiempo de inactividad significativo, la migración de fases es
la mejor opción. Para los sistemas donde el tiempo de inactividad
es menos crítico, una migración Big Bang podría
ser más rápida. Tolerancia al riesgo. migración de fases reduce
el riesgo general, especialmente para
las organizaciones que manejan datos
confidenciales o sistemas de misión
crítica. Las conclusiones clave de
esta lección incluyen, una,
una estrategia sólida de migración de datos que es esencial para garantizar que sus datos se transfieran forma segura a tiempo y
con una interrupción mínima Dos, la migración Big Bang ofrece un enfoque rápido, todo
a la vez, pero viene con un mayor
riesgo y el potencial inactividad, mientras que la migración de fase proporciona más control
y menor riesgo, pero tarda más en completarse. Tres, factores como el volumen de
datos, la complejidad y la tolerancia al tiempo de inactividad
deben guiar su decisión al seleccionar el método de
migración adecuado. Ganar actividad, reflexión. Considere las necesidades de migración de
datos de su organización. ¿Es un big bang o migración de
fase más adecuado para sus cargas de trabajo
actuales y objetivos operativos? ¿Por qué? Pregunta de discusión
planteada en el foro. ¿Cómo
planifica su organización el tiempo de inactividad
durante una migración? ¿Has vivido retos
en una migración previa, qué se podría haber
hecho de manera diferente? Siguiente lección,
herramientas y técnicas de migración de datos. En la siguiente lección,
exploraremos las herramientas y técnicas disponibles para ayudarle a ejecutar su estrategia de
migración de datos. Veremos las herramientas de
migración como AWS Direct Connect, las VPN y las soluciones de terceros, así
como cómo transferir
datos de
forma segura desde su mainframe
a entornos de nube Listo para comenzar a construir
su kit de herramientas de migración. Pasemos a la lección
dos del Módulo cuatro.
15. Lección 2: herramientas y técnicas de migración de datos: Y Lección dos,
herramientas y técnicas de migración de datos. Bienvenido a la Lección
Dos del Módulo Cuatro. Exploraremos las herramientas
y técnicas disponibles para migrar datos de sus
sistemas mainframe a la nube Seleccionar las herramientas adecuadas es fundamental para garantizar un proceso de
migración seguro, eficiente y confiable. Como
director de infraestructura de TI como William, necesita evaluar
diversas herramientas, que van desde soluciones
nativas en la nube hasta plataformas de migración de
terceros que
lo ayudarán a lograr sus
objetivos de migración con una interrupción mínima. Al final de esta
lección,
comprenderá las diferentes herramientas de migración de
datos como AWS Direct Connect, VPN y soluciones de terceros Para aprender a aprovechar las herramientas nativas de
Cloud para transferir datos de
forma segura desde sistemas
mainframe a entornos
Cloud. Exploremos estas herramientas
y técnicas en detalle. Visión general de las herramientas comunes
de migración de datos. Al mover datos de las
instalaciones a la nube, las organizaciones necesitan conexiones seguras
y escalables. Dependiendo de su
volumen de datos, requisitos de red y necesidades de seguridad, deberá elegir entre
diferentes herramientas de migración. A continuación se presentan algunas de las opciones más
utilizadas. A, AWS Direct Connect, pase privado y confiable. AWS Direct Connect es una conexión de red dedicada que permite a las organizaciones establecer un
vínculo directo entre su centro de datos
local y los servicios web de
Amazon. Esta es una gran opción para
las organizaciones que necesitan transferencias de datos de
alta velocidad y desean evitar
el uso de Internet público, reduciendo el riesgo
de exposiciones de datos Las ventajas incluyen
seguro y privado. Direct Connect proporciona una línea
dedicada a AWS sin pasar por Internet, lo que garantiza una mayor seguridad.
Alto ancho de banda. Ofrece mayor ancho de banda
para transferencias de datos más rápidas, lo
que lo hace ideal para migraciones a
gran escala Rendimiento consistente, conexión
directa proporciona un rendimiento de red
consistente, lo cual es esencial para las migraciones de
misión crítica se debe minimizar el tiempo de
inactividad Los mejores casos de uso incluyen mover grandes conjuntos de datos de forma
rápida y segura. Organizaciones que requieren conexiones
altamente seguras con rendimiento garantizado para datos
confidenciales como instituciones
financieras
o agencias gubernamentales. Tomemos un ejemplo. institución financiera Williams podría usar AWS Direct Connect para transferir de
forma segura los datos de las transacciones de los
clientes y los
registros históricos a la nube, asegurando un alto nivel
de seguridad y reduciendo el riesgo de
exposición durante la migración. VPNs, seguras pero
más accesibles. Una red privada virtual o VPN proporciona una conexión
encriptada segura a través de Internet pública. Las VPN son útiles cuando necesitas una
forma flexible pero segura de conectar tu
centro de datos local con una nube Si bien las VPN son
generalmente más lentas que las conexiones
directas como
AWS Direct Connect, son ampliamente utilizadas para migraciones
más pequeñas o conectividad
continua Las ventajas incluyen
costo efectivo. Las VPN suelen ser
menos costosas que
las conexiones de red dedicadas como Direct Connect Seguridad, las VPN utilizan cifrado para garantizar que los datos se
transmitan de forma segura a través de Internet
pública Accesibilidad, las VPN se pueden
configurar más fácilmente que las conexiones
dedicadas y son ideales para la migración de tamaño pequeño a
mediano Los mejores casos de uso incluyen organizaciones con volúmenes de datos
más pequeños o que no requieren conexiones de gran
ancho y empresas que
buscan una conexión asequible y
segura para sumideros de datos
continuos o migraciones a menor escala Tomemos un ejemplo. Para
menos datos críticos de misión, equipo de
Williams podría usar una VPN para establecer
conexiones seguras a la nube y mover datos
no confidenciales como registros
del sistema o informes analíticos a un costo menor que
AWS Direct Connect. Soluciones de migración de terceros, flexibilidad y herramientas ricas en
funciones. Existen muchas plataformas de migración de
datos de terceros diseñadas específicamente para
ayudar a las organizaciones a transferir datos entre
entornos locales y la nube. Estas herramientas a menudo proporcionan funciones
avanzadas
como replicación de datos, migración en tiempo
real
y seguridad incorporada. Algunas plataformas populares incluyen Cloud Ajure ZRTO
y Las ventajas incluyen ricas en funciones. Muchas
soluciones de terceros vienen con características como replicación continua de
datos, análisis en tiempo
real
y recuperación ante desastres. Capacidades cruzadas en la nube. Por lo tanto, las soluciones permiten migraciones de
nubes
múltiples o híbridas, haciéndolas
más flexibles que las herramientas específicas del proveedor Reduzca la complejidad. Estas plataformas suelen automatizar gran parte del proceso de migración, facilitando a
las organizaciones la gestión de migraciones
complejas Los mejores casos de uso
incluyen organizaciones que necesitan
capacidades multicloud o que están migrando una combinación
de entornos locales y en la
nube y negocios
que requieren replicación
continua
y que requieren replicación
continua hundimiento de datos en tiempo real durante Un ejemplo, el
equipo de Williams podría usar CloudEndure para replicar
continuamente datos desde el mainframe a
AWS durante el proceso de
migración,
asegurando que incluso
durante la migración, el negocio pueda Explorar las herramientas nativas de la nube para la migración de marco a nube. Para las organizaciones que mueven datos de
sistemas mainframe a la Nube, existen herramientas nativas específicas de
Cloud diseñadas para facilitar este proceso mientras se mantiene integridad, la seguridad
y el cumplimiento de
los datos Estas herramientas garantizan una migración de
datos fluida, segura y eficiente sin causar interrupciones en las operaciones diarias de sus
mainframes A, Modernización de mainframe de AWS, Bridging legacy y Cloud La modernización de mainframe de AWS es un conjunto de servicios que ofrece AWS para ayudar a las organizaciones a migrar y modernizar las aplicaciones de
mainframe Proporciona herramientas para
analizar, refactorizar, replataforma y automatizar
la migración de datos y aplicaciones de
mainframes a la Las características clave incluyen la migración
automatizada. modernización de mainframe de AWS ofrece herramientas
automatizadas para
reducir la complejidad de migrar datos y
aplicaciones de mainframe Integración con los servicios de AWS. Una vez que los datos están en la nube, se pueden integrar fácilmente con otros servicios de AWS
como AWS Lambda, que es
computación sin servidor o Amazon RDS, que es una base de datos
relacional administrada Optimización de costos. Al migrar
cargas de trabajo de mainframe a AWS, las organizaciones pueden
beneficiarse de los precios de pago por uso y reducir Un ejemplo, la
institución financiera Williams podría usar modernización de mainframe de
AWS para
descargar los datos de los clientes y las aplicaciones
heredadas de
su mainframe Al refactorizar
aplicaciones críticas para la nube, pueden reducir los costos
operativos mientras mantienen un
alto rendimiento B, caja de datos Azure, moviendo grandes volúmenes de datos. Azure data boox es un
servicio de Microsoft diseñado para ayudar a
la organización a mover grandes cantidades de datos a la nube de forma segura El cuadro de datos es un dispositivo físico que Microsoft envía a
su centro de datos, lo que le permite cargar
datos directamente en él antes de enviarlos de vuelta a Microsoft para su integración en la nube. Las características clave incluyen la transferencia de datos
fuera de línea. Al transferir datos físicamente, Azure Data Box evita los retrasos y
el riesgo de
seguridad de las transferencias de datos
basadas en Internet. Altamente seguro. Los datos se cifran y protegen
durante el tránsito, lo que garantiza que
la información confidencial no esté expuesta. Ideal para grandes conjuntos de datos. Esta solución es ideal para
mover petabytes de datos a la Nube donde las
transferencias en línea pueden ser Un ejemplo,
la organización Williams podría usar Azure Data Box para transferir conjuntos de datos a
gran escala, como registros históricos de
transacciones al almacenamiento de
Azure Cloud, donde se
pueden archivar para fines de
cumplimiento. C, Google Transfer Appliance, transferencia
masiva de datos
a Google Cloud. Google Transfer Appliance funciona manera similar a la caja de
datos de Azure y proporciona un dispositivo físico para mover grandes conjuntos de
datos de su centro de datos a Google Cloud. Está diseñado para organizaciones
con cantidades masivas de datos que necesitan ser trasladados
a la nube de manera eficiente
y segura. Las características clave incluyen, es
compatible con grandes volúmenes de datos. Transfer Appliance puede manejar los terabytes a
petabytes de datos, lo
que lo hace adecuado para Es seguro y eficiente. El dispositivo está encriptado
y una vez llenado, se devuelve a Google
para la carga de datos Esto reduce la necesidad extender los
tiempos de transferencia de datos a través de la red. Un ejemplo, si la institución
financiera Williams estuviera migrando a Google Cloud, podrían usar Google
Transfer Appliance
para transferir de forma segura y rápida gran cantidad de datos de clientes y
registros históricos a la nube Mejores prácticas para seleccionar herramientas
de migración de datos. Al seleccionar las herramientas de migración
adecuadas para su organización, tenga en cuenta las siguientes mejores
prácticas. Uno, evaluar los requisitos de volumen de datos y velocidad de
transferencia. Para conjuntos de datos más pequeños, las
VPN pueden ser suficientes, pero para migraciones más grandes, considere herramientas como
AWS Direct Connect, Azure Data Box o Google Transfer Appliance para más
rápidas y seguras Dos, considere las necesidades de seguridad
y cumplimiento. Si está migrando datos
confidenciales como PII
del cliente o las transacciones
financieras, asegúrese de que sus herramientas proporcionen
cifrado extremo a extremo y cumplan con estándares de
cumplimiento
como PCIDSS Tres, aproveche las herramientas nativas de la
nube para
una integración perfecta. Las herramientas nativas de la nube, como la modernización de
mainframe de AWS o Azure Migrate, simplifican el proceso
de integración de sus datos migrados
con los servicios en la nube, lo que le permite desbloquear todo
el potencial
de la computación en la nube Los puntos clave de
esta lección incluyen,
una, AWS Direct, Direct Connect, VPN y herramientas de
migración de terceros ofrecen diferentes niveles de seguridad,
velocidad y flexibilidad Elija la herramienta adecuada en
función de su volumen de datos, necesidades
de seguridad y cronograma de
migración. Dos, las herramientas nativas de la nube, como modernización de mainframe de
AWS,
la caja de datos Joe
y Google Transfer Appliance, y Google Transfer Appliance están diseñadas para ayudar a
transferir datos de forma segura desde los sistemas
mainframe a la nube con
una interrupción mínima En tercer lugar, al seleccionar
una herramienta de migración, priorice la seguridad de los datos, la velocidad y las capacidades de integración para garantizar una
transición semless a la nube Actividad de aprendizaje, reflexión. ¿Qué herramientas de migración serán las más adecuadas para
su organización? Considere su volumen de datos, requisitos de
seguridad y cronograma al
hacer su selección. Pregunta de discusión
planteada en el foro. ¿Su organización ha utilizado antes
una herramienta de
migración de terceros? ¿Cuáles fueron los principales retos
y beneficios que experimentas? Siguiente lección, minimizando el
tiempo de inactividad durante la migración. En la siguiente lección, nos
centraremos en estrategias para minimizar el tiempo de inactividad
durante la migración de datos. Aprenderá las mejores prácticas para mantener la
continuidad operativa y explorará técnicas como la
migración en vivo y las
bases de datos en la sombra para que su negocio funcione sin problemas
durante la transición. Preparados para garantizar una migración
perfecta, pasemos a la lección
tres del Módulo cuatro.
16. Lección 3: minimizar el tiempo de inactividad durante la migración: Tres. Lección tres, minimizando el tiempo de inactividad
durante la migración. Bienvenido a la lección
tres del Módulo cuatro. En esta lección,
exploraremos cómo
minimizar el tiempo de inactividad y mantener sus sistemas
funcionando sin problemas durante la
migración de datos y aplicaciones a la nube. Para un
director de infraestructura de TI como William, minimizar el tiempo de inactividad es fundamental, especialmente en entornos como servicios
financieros
donde cada segundo de interrupción puede afectar experiencia
del cliente y
provocar pérdidas de ingresos. Cubriremos
las mejores prácticas para reducir el inactividad y exploraremos técnicas
avanzadas como la migración en vivo
y las bases de datos en la sombra que garantizan la
disponibilidad continua durante la migración. Al final de esta
lección,
comprenderá las mejores prácticas para minimizar el tiempo de inactividad
durante la migración. Dos, poder aplicar
técnicas como migración
en vivo y
bases de datos sombra para garantizar la continuidad
operativa. Empecemos.
Mejores prácticas para minimizar el tiempo de inactividad
durante la migración. Minimizar el tiempo de inactividad durante la
migración implica planificar, elegir las herramientas adecuadas e implementar estrategias
que permitan a su empresa continuar operando mientras se transfieren
los datos. A continuación se presentan las mejores
prácticas a tener en cuenta al migrar datos desde
el local a la nube A, planifique el tiempo de inactividad temprano. Uno de los
aspectos clave para minimizar el tiempo de inactividad es una planificación cuidadosa. Esto implica analizar
sus cargas de trabajo y determinar cuánto tiempo de inactividad es aceptable para
cada tipo de sistema No todos los sistemas
requieren tiempo de inactividad cero, por lo que es importante identificar los sistemas de misión crítica que necesitan
mantenerse en funcionamiento. Identificar cargas de trabajo críticas. Comience clasificando
sus cargas de trabajo en procesos no críticos y
por lotes Las cargas de trabajo críticas, como el procesamiento de transacciones
en
tiempo real en un entorno bancario, deben permanecer disponibles
con poco o ningún tiempo de inactividad Establezca un presupuesto de tiempo de inactividad, establezca un tiempo de inactividad máximo que sea aceptable
para cada sistema. Esto debe hacerse
en colaboración con las partes interesadas del negocio para garantizar que tanto las unidades de TI como las unidades de
negocio estén alineadas. Tomemos un ejemplo. Para William, los servicios de
procesamiento de pagos y banca
en línea
tendrán un
requisito de tiempo de inactividad cero, mientras que los trabajos de generación de informes históricos
y procesamiento por lotes pueden tolerar más tiempo de inactividad ya que no afectan a
los clientes en tiempo real. B,
planes de migración de prueba con corridas en seco. Antes de ejecutar una migración a escala
completa, realice
siempre migraciones secas
o pruebas Se trata de
pruebas a pequeña escala que simulan el proceso de migración para identificar posibles
problemas de antemano. Identificar los cuellos de botella temprano. corridas en seco ayudan a identificar cuellos de botella en el
rendimiento, problemas de transferencia de
datos e incompatibilidades
del sistema
antes de que Las corridas en seco ayudan a identificar cuellos de botella en el
rendimiento, problemas de transferencia de
datos e incompatibilidades
del sistema
antes de que
afecten la migración real. Procedimientos de reversión de pruebas. En caso de una falla de migración, querrá saber
cómo retroceder
al sistema original sin
causar interrupciones. Probar
los procedimientos de reversión durante una operación en seco garantiza que esté preparado para cualquier problema que pueda surgir durante
la migración en vivo Tomemos un ejemplo. El equipo de William podría
simular la migración un pequeño conjunto de datos o una aplicación no
crítica a AWS para probar el proceso de
transferencia de datos y garantizar que los sistemas permanezcan
estables y operativos C, migrar durante horas
fuera de pico. Siempre que sea posible,
programe migraciones
durante las horas pico. Esto minimiza el
impacto en los usuarios y las operaciones
comerciales al reducir la probabilidad de interrupciones del
servicio
durante los períodos ocupados Monitoree los patrones de tráfico. Utilice herramientas de monitoreo de tráfico para comprender los tiempos pico de uso. Para instituciones financieras
como Williams, tráfico puede aumentar durante el horario
comercial o después de los días de pago Programar migraciones en
las primeras horas de la mañana o en un fin de semana puede reducir el
riesgo de interrupción del servicio Anunciar ventanas de mantenimiento. Informar a los clientes y empleados sobre el tiempo de inactividad potencial con mucha
antelación. Esto asegura que
todos estén al tanto
del momento y minimice las interrupciones
inesperadas Tomemos un ejemplo. equipo de William podría
programar la migración de servicios no esenciales
como
registros de chat de atención al cliente o
datos de marketing por
la noche o los fines de semana para evitar impactar los sistemas orientados
al cliente Técnicas de
disponibilidad continua durante la migración. Para cargas de trabajo de misión crítica que no pueden permitirse ningún tiempo de inactividad, necesitará implementar técnicas
avanzadas para mantener el sistema operativo
mientras se produce la migración Dos técnicas comunes son migración
en vivo y las bases de datos
sombra. Migración en vivo, manteniendo los
sistemas en línea. La migración en vivo es una técnica en la que los datos o aplicaciones se mueven de un entorno a otro sin
apagar el sistema de origen Esto permite que el sistema de origen
continúe operando de manera normal durante el
proceso de migración. Cómo funciona. Con la migración en vivo, el
sistema sigue funcionando en el entorno de origen mientras
los datos se copian a la nube. Una vez que los datos se han transferido por
completo, el sistema se cambia
al entorno de la nube con una interrupción mínima.
Mejores casos de uso. La migración en vivo es ideal para máquinas
virtuales o VMs, aplicaciones en tiempo
real o bases de datos donde el tiempo de inactividad
debe mantenerse al mínimo absoluto Un ejemplo, para la institución
financiera Williams, migración
en vivo podría
usarse para transferir sistemas de procesamiento de transacciones en tiempo
real a la nube. La migración ocurriría mientras el sistema permanezca operativo asegurando que
no se interrumpan los pagos de los
clientes y el acceso a la
cuenta. Bases de datos Shadow, sincronizando
datos en tiempo real. La base de datos Shadow es
una técnica donde
se crea una réplica de su base de datos principal en la nube. La base de datos sombra
permanece sincronizada con su sistema primario recibiendo
actualizaciones en tiempo real. Una vez que se completa la migración, la base de datos en la sombra puede hacerse
cargo de la primaria
sin tiempo de inactividad. Cómo funciona. La base de datos Shadow replica
transacciones y cambios de
datos de su sistema
local en tiempo real Una vez que los datos en las instalaciones
se replican completamente, la base de datos basada en la nube puede
convertirse en la base de datos principal Mejores casos de uso. Las bases de datos Shadow son
perfectas para sistemas que requieren actualizaciones continuas y replicación de datos en tiempo
real, como plataformas bancarias y de
comercio electrónico. Un ejemplo, el
equipo de William usaría una base de datos sombra para mantener registros de transacciones de los
clientes sincronizados los registros de transacciones de los
clientes mientras
los migraba a la nube Una vez que se completa la
migración de datos, la base de datos basada en la nube
puede hacerse cargo sin problemas, lo que permite una transición
sin problemas sin ningún tiempo de inactividad. Administración de cargas de trabajo híbridas
durante la migración. Si está migrando solo
una parte de sus sistemas a la nube mientras que otros
permanecen en las instalaciones, deberá administrar las cargas de trabajo
híbridas durante el proceso de migración Esto asegura que tanto los sistemas basados en
la nube como en las instalaciones continúen
comunicándose de manera efectiva. Mintain sincronización. Asegúrese de que los datos y
las aplicaciones que se ejecutan tanto en la nube como en las instalaciones se sincronicen a lo largo
del proceso de migración. Utilice herramientas de replicación de datos y middleware para
administrar el flujo de información entre entornos.
Supervisar el rendimiento. Monitoree el rendimiento tanto
de los sistemas basados
en la nube como en los sistemas principales
durante la migración para garantizar que el
proceso de migración no cause degradación en los
tiempos de respuesta ni en la disponibilidad. Un ejemplo, el
equipo de William podría migrar las cargas de trabajo de análisis de
clientes
a la nube mientras mantiene el
procesamiento de transacciones en el mainframe durante
el Al garantizar que los dos
sistemas permanezcan sincronizados, pueden evitar retrasos o inconsistencias
en los datos de los clientes Validación y pruebas posteriores a la migración. Después de la migración, es fundamental realizar pruebas exhaustivas para garantizar que todos los sistemas funcionen
como
se esperaba en el nuevo entorno de
nube. Este paso ayuda a detectar cualquier inconsistencia de
datos, rendimiento o problemas de
conectividad
antes de que afecten a los antes de que afecten a Validar la precisión de los datos. Asegúrese de que todos los
datos transferidos a la nube coincidan con
los datos del sistema original. Esto puede incluir verificaciones de
integridad, validación de integridad de
datos y pruebas de
rendimiento.
Flujos de trabajo de prueba. Ejecute pruebas de extremo
a extremo para garantizar que tus procesos de
negocio y flujos de trabajo continúen funcionando correctamente en
el nuevo entorno. Supervisar el rendimiento.
Continúe monitoreando el rendimiento del
sistema para detectar
cualquier signo de latencia, cuellos de botella u
otros problemas que puedan afectar sus operaciones.
Un ejemplo. Después de completar
la migración de las aplicaciones orientadas
al cliente a AWS, equipo de
Williams realizaría pruebas de
rendimiento para garantizar
que el sistema funcione manera eficiente y
verificaciones de integridad de datos para validar que todos los
registros de tasas de transacción migraron correctamente Las conclusiones clave de
esta lección incluyen,
una, planificar el tiempo de
inactividad temprano, realizar corridas en seco y
programar migraciones durante las horas
pico, son esenciales
para reducir la interrupción horas
pico, son esenciales operativa Dos, la migración en vivo
y las bases de datos sombra son técnicas avanzadas que garantizan
la disponibilidad continua los sistemas críticos
durante la migración. En tercer lugar, realice siempre
la validación y
pruebas posteriores a la migración para garantizar la integridad de los datos y el rendimiento del sistema en
el nuevo entorno de nube. Ganar actividad, reflexión. Considere los sistemas
más críticos de su organización. ¿Cómo
implementarías técnicas como migración en vivo o
bases de datos en la sombra para garantizar
que esos sistemas permanezcan operativos
durante la migración Pregunta de discusión
planteada en la forma. ¿Ha experimentado tiempo de inactividad durante una migración anterior? ¿Qué estrategias o técnicas podrían haber utilizado
para minimizarlo? Siguiente lección, asegurando la
integridad y seguridad de los datos. En la siguiente lección,
discutiremos cómo
garantizar la integridad y
seguridad de los datos durante la migración. Exploraremos estrategias para mantener la consistencia de
los datos, implementar el cifrado y
garantizar el cumplimiento los estándares
regulatorios durante
el proceso de migración. Listo para proteger sus
datos durante la migración, vamos a sumergirnos en la Lección
cuatro del Módulo cuatro.
17. Lección 4: garantizar la integridad y seguridad de los datos: Lección cuatro, garantizar la
integridad y seguridad de los datos. Bienvenidos a la Lección
Cuatro, Módulo Cuatro. En esta lección nos
centraremos en uno de los
aspectos más críticos de la migración de datos y aplicaciones
a la nube,
garantizando la integridad
y seguridad de los datos Para los
directores de infraestructura de TI como William, mantener la
precisión, consistencia es esencial
mantener la
precisión, consistencia
y seguridad de los datos durante la
migración, especialmente cuando se maneja información
confidencial financiera o de
clientes. Exploraremos cómo
garantizar la consistencia de los datos, implementar el cifrado y garantizar cumplimiento de los estándares
regulatorios durante todo el proceso de
migración. Al final de esta
lección,
aprenderá estrategias para
garantizar la consistencia, integridad y seguridad de los datos durante la migración. Comprender la importancia del cifrado y
cómo cumplir con los estándares
regulatorios a la
hora de transferir datos
confidenciales.
Empecemos. Garantizar la consistencia e
integridad de los datos durante la migración. Mentorar la consistencia
e integridad de los datos es vital durante la migración para evitar problemas como pérdida de
datos, la corrupción
o la duplicación Esto es particularmente
importante cuando se migran sistemas
críticos de mainframes
locales a entornos en la
nube A continuación se presentan las estrategias para
garantizar que sus datos
permanezcan precisos y confiables durante todo
el proceso de migración. Consistencia de los datos,
manteniendo los datos alineados. La consistencia de los datos se refiere
a garantizar que sus datos permanezcan
sincronizados y
coherentes tanto en los
entornos de nube de origen in situ como en los de destino durante la migración. Implementar
sincronización en tiempo real. Utilice
herramientas de replicación
en tiempo real para mantener los datos sincronizados entre sus entornos on-premise
y Cloud. Esto asegura que cualquier
cambio realizado en los datos in situ durante la migración se refleje en el entorno
Cloud. Las herramientas de ejemplo, AWS Database
Migration Service o DMS o Azure Data Sync
pueden ayudar a replicar los cambios en tiempo real para
mantener la coherencia
durante la Monitorear la consistencia de los datos. Utilice comprobaciones automatizadas de
validación de datos para comparar los datos de su sistema de origen con los del sistema de nube de
destino. Esto se puede hacer
durante y después de la migración para garantizar que no se pierdan o corrompen
datos. Tomemos un ejemplo. institución financiera Williams podría usar sincronización en tiempo
real para garantizar que los datos de las
transacciones de los clientes permanezcan consistentes entre
el mainframe y AWS durante migración, de modo que no
se pierdan o retrasen las transacciones Integridad de los datos, salvaguardia
contra la corrupción. integridad de los datos garantiza
que los datos
permanezcan precisos y completos durante todo
el proceso de migración. Para evitar problemas como la corrupción o pérdida de
datos, es crucial implementar un mecanismo de
validación y
verificación de errores. Utilice sumas de comprobación para la validación. Implementar mecanismos de suma de comprobación
para verificar que los datos transferidos a la nube coincidan con los
datos originales en las instalaciones Las sumas de comprobación permiten detectar cualquier inconsistencia
o corrupción
que pueda ocurrir durante la que pueda ocurrir Validación de datos después de la migración. Una vez que los datos estén completamente migrados, ejecute procesos de validación
para garantizar que los datos migrados sean una copia
exacta del original Esto incluye la comprobación
de registros faltantes, archivos
dañados y datos
inconsistentes. Tomemos un ejemplo. Para el equipo de Williams,
validar que todos los
registros de cuentas de clientes migraron a la nube sin
corrupción asegura que las operaciones bancarias críticas
continúen sin errores Garantizar el cifrado y
protección de datos durante la transferencia. La seguridad de los datos es una
prioridad máxima durante la migración, especialmente cuando se transfiere información
confidencial del cliente, transacciones
financieras o información de
identificación personal o PII El objetivo es garantizar que
los datos permanezcan cifrados, protegidos y conformes a lo largo
del proceso de migración. Cifrado, seguridad de datos
en tránsito y dirección. El cifrado es esencial
para proteger los datos medida que se mueven entre entornos
in situ
y la nube. Asegura que incluso si los datos son interceptados
durante la transferencia, no
se puede acceder a ellos
ni manipularlos Cifrar datos en tránsito. Asegúrese de que todos los datos que se
migran estén cifrados
durante la transferencia El uso de VPN o
conexiones dedicadas como AWS Direct Connect o la ruta
Azure Express puede proporcionar conexiones
cifradas seguras entre sus
sistemas locales y la nube También puedes usar protocolos como SSL TLS para cifrar datos mientras se
transmiten a través de la red Herramientas de ejemplo para AWS, puede habilitar el cifrado SSL
para datos en tránsito entre sistemas principales y servicios en la nube como
S three o RDS Cifrar dirección de datos. Una vez que los datos
hayan llegado a una Nube, asegúrese de que siga siendo la dirección
cifrada. Esto implica servicios de
cifrado nativos en la nube como AWS KMS o Azure Key Vault para administrar claves de
cifrado y proteger la información confidencial almacenada en el entorno de la nube. Tomemos un ejemplo.
El equipo de William podría usar el cifrado
SSLTLS
o Data Intransit para proteger los registros
financieros de los clientes mientras se
transfieren Una vez que los datos están en AWS, cifrado
AMS puede asegurar la dirección asegurando una protección
continua. Asegurar
el acceso durante la migración. Asegurar los datos durante la migración no
se trata solo de cifrado. También se trata de
controlar quién tiene acceso a los datos durante
el proceso de migración. Implementar control de
acceso basado en roles o RBAC. Utilice RBAC para limitar el acceso
al proceso de migración. Solo el personal autorizado
, como ingenieros de datos o administradores de
seguridad,
debe tener acceso a los datos confidenciales
durante la migración. Utilice
autenticación multifactor o MFA. Para mayor seguridad,
implemente MFA para cualquier persona que acceda a
las herramientas de migración o al entorno de la nube Esto agrega una capa adicional de protección y evita el acceso
no autorizado. Tomemos un ejemplo.
El equipo de Williams podría implementar RBAC para garantizar que solo
los ingenieros de datos senior y personal de
seguridad tengan acceso
al sistema de migración También se podría
requerir MFA para cualquier persona involucrada en la transferencia de datos
confidenciales de los clientes Cumplimiento de las normas
regulatorias. Para muchas organizaciones,
especialmente en
industrias altamente reguladas como la banca, es esencial
garantizar el cumplimiento regulaciones de protección de
datos
durante la migración. El incumplimiento de
regulaciones como PCIDSS, GDPR o HIPA puede generar repercusiones
legales Cumplimiento normativo
durante la transferencia de datos. Para garantizar el cumplimiento,
es fundamental verificar que el proveedor de servicios
en la nube y el propio
proceso de migración cumplan con los estándares
regulatorios de seguridad y privacidad de
los datos. Garantizar el cumplimiento
con los proveedores de Cloud. Antes de migrar, asegúrese que su
proveedor de Cloud elegido cumpla con los
estándares y certificaciones de la industria necesarios Por ejemplo, AWS y Azure cumplen con
PCIDSS y GDPR, lo que los hace adecuados para
manejar datos financieros e
información de identificación personal o Utilice el cifrado y el
enmascaramiento para el cumplimiento. Muchas regulaciones requieren que los datos
confidenciales estén encriptados
o enmascarados durante la transferencia El cifrado asegura
que incluso si los datos son interceptados,
permanecen ilegibles enmascaramiento de datos puede
proteger aún más los datos al oscurecer información
confidencial
como números de tarjetas de crédito
o números de seguro social Tomemos un ejemplo. Si el equipo de Williams está migrando datos de transacciones de
clientes a AWS, deben asegurarse de que
los servicios de AWS cumplan con PCI DSS y que se utilicen
técnicas de enmascaramiento de datos para proteger
los campos de datos confidenciales durante la Requisitos de residencia de datos. Ciertas regulaciones también
pueden tener requisitos de residencia de
datos que dictan dónde deben almacenarse y
procesarse los datos Por ejemplo, GDPR requiere que datos de los ciudadanos de la UE
se almacenen dentro la Unión Europea,
mientras que los datos financieros pueden necesitar permanecer dentro de ubicaciones geográficas
específicas. Elija cuidadosamente las regiones de datos. Al migrar datos,
asegúrese de elegir regiones
Cloud que cumplan con las regulaciones de residencia de datos Tanto AWS como Azure ofrecen regiones
específicas en
diferentes países que pueden cumplir con los
requisitos de residencia. Un ejemplo, la institución Williams podría necesitar asegurarse de que los datos de los
clientes relacionados con clientes
europeos permanezcan dentro las regiones de la UE de
AWS para
cumplir con el RGPD, mientras que los datos de los clientes estadounidenses podrían almacenarse en regiones de la nube
basadas en Estados Unidos. Implementación de
pistas de auditoría y monitoreo. Para mejorar aún más la
seguridad y el cumplimiento, es importante
implementar pistas de auditoría y monitoreo durante todo
el proceso de migración. Habilite el registro y la auditoría. Las plataformas en la nube como AWS
CloudTrail o Azure Monitor le permiten realizar un seguimiento de
todas las acciones y cambios realizados durante
el proceso de migración Estos registros le ayudan a identificar cualquier intento de acceso no autorizado o posibles violaciones de seguridad Monitorear el proceso de migración. monitoreo continuo
del proceso de migración ayuda a identificar cuellos de botella en el
rendimiento, errores o amenazas potenciales en tiempo real, lo que permite Un ejemplo, el
equipo de William podría permitir que AWS CloudTrail audite cada acción tomada durante
el proceso de migración, asegurando una
transparencia completa y proporcionando un registro para fines de
cumplimiento conclusiones clave de esta
lección incluyen una, integridad y consistencia de
los datos
durante la migración se pueden asegurar
a través de técnicas como la sincronización en tiempo
real y sumas de comprobación para validar los Dos, el cifrado de
datos en tránsito y dirección es fundamental para
proteger la información confidencial durante la migración control de acceso basado en roles o RBAC, y la
autenticación multifactor o MFA aseguran aún más el En tres, el cumplimiento de estándares
regulatorios como PCI DSS o GDPR es crucial
durante la migración Asegúrese de que los proveedores de la nube
cumplan con los estándares e implementen los
requisitos de residencia de datos según sea necesario. Ganar actividad, reflexión. Otorgue a su organización la obligación
regulatoria. Por ejemplo, PCI DSS y GDPR. ¿Cómo garantizarías el cifrado y el
cumplimiento de
los datos durante
tu migración a la nube? Pregunta de discusión,
publicación en foro, ¿cómo garantiza su
organización la integridad y
seguridad de
los datos durante la migración? ¿Qué herramientas o prácticas
has encontrado más efectivas? Siguiente lección, Introducción a
DevOps en sistemas híbridos. En el siguiente módulo, nos
centraremos en el papel de DevOps en la gestión de entornos de
nube híbrida En la lección uno del Módulo cinco, exploraremos cómo las prácticas de
DevOps como la
integración continua y la entrega
continua, optimizaremos las operaciones en sistemas híbridos
y mejoraremos la automatización Listo para desbloquear el poder de automatización en su entorno de
nube híbrida, pasemos al Módulo cinco y exploremos cómo DevOps puede
optimizar su estrategia de nube
18. Lección 1: introducción a DevOps en sistemas híbridos: Bienvenido al Módulo cinco, Implementación de automatización y DevOps en entornos híbridos. Este módulo enseña cómo
implementar prácticas de DevOps y herramientas de
automatización dentro de
una arquitectura híbrida de mainframe
Cloud Cubre técnicas de automatización
como canalizaciones CICD, orquestación con
Kubernetes y herramientas de automatización de
AWS
como CloudFormation,
lo que permite operaciones eficientes y herramientas de automatización de
AWS
como CloudFormation, orquestación con
Kubernetes y herramientas de automatización de
AWS
como CloudFormation,
lo que permite operaciones eficientes y optimizadas. Lección uno, introducción a
DevOps en sistemas híbridos. Bienvenido al Módulo cinco. En esta lección,
presentaremos el papel de DevOps en la administración de entornos de
nube híbrida Para los
directores de infraestructura de TI como William, que están supervisando la
modernización de los sistemas heredados, adoptar prácticas de DevOps
puede ser un cambio de juego DevOps combina desarrollo y operaciones para crear una cultura colaborativa
donde la automatización, integración
continua
y la entrega continua son clave para optimizar los flujos de trabajo de la nube
híbrida Al final de esta
lección,
comprenderá, primero, el papel de DevOps en la
administración de entornos de
nube híbrida Reconozca los
beneficios de adaptar canalizaciones de
CICD para automatizar la implementación y agilizar los procesos de la nube
híbrida Exploremos cómo DevOps puede transformar la forma en que administra su infraestructura de
nube híbrida Definir el papel de DevOps
en entornos de nube híbrida. DevOps es un conjunto de
prácticas que promueve la colaboración entre los equipos de
desarrollo y
operaciones de TI Su objetivo es acortar el ciclo de vida del
desarrollo, entregar
aplicaciones de alta calidad rápidamente y garantizar que los cambios de
infraestructura ocurran sin problemas
y automáticamente En entornos de nube híbrida
donde las aplicaciones se ejecutan tanto en
sistemas mainframe como en plataformas en la nube, DevOps juega un papel fundamental en la integración y
automatización DevOps, rompiendo silos. Tradicionalmente, los equipos de desarrollo y operaciones de TI
trabajan por separado. Esto a menudo resultó
en cuellos de botella, implementaciones
lentas y falta DevOps rompe los silos fomentando una cultura
de colaboración donde los
desarrolladores y los equipos de operaciones trabajan en estrecha colaboración a lo largo del ciclo de vida de
una aplicación, desde desarrollo y las pruebas hasta la
implementación y monitoreo En un entorno de nube híbrida
donde los sistemas heredados, los mainframes necesitan interactuar con las aplicaciones nativas de la nube, DevOps puede cerrar la brecha
entre los sistemas tradicionales
y los modernos Garantiza que tanto los
sistemas
locales como en la nube se gestionen sin problemas y que los cambios se
puedan implementar manera consistente en
ambos entornos. Tomemos un ejemplo. Para William, Devos
se implementarán prácticas para agilizar
la implementación de aplicaciones basadas en la nube
orientadas al cliente,
como las aplicaciones de banca móvil, al
tiempo que garantizan que estas aplicaciones interactúen
sin problemas con los sistemas mainframe
locales que
manejan transacciones en los sistemas mainframe
locales tiempo real DevOps en la automatización de
la nube híbrida en múltiples entornos. En entornos de nube híbrida, la administración de aplicaciones en múltiples infraestructuras
puede ser compleja. DevOps le permite automatizar tareas clave
como implementación, monitoreo y escalado en sus
entornos locales
y en la nube. Esto es especialmente valioso en sistemas
híbridos donde
diferentes partes de una aplicación pueden ejecutarse en la nube mientras que otras
permanecen en las instalaciones. Con herramientas
y metodologías desarrolladas, puede implementar
infraestructura como código o IAC,
donde su infraestructura como
redes, máquinas virtuales y bases de datos se administra
y aprovisiona a través scripts legibles por
máquina en lugar de configurar
manualmente
hardware o sistemas Tomemos un ejemplo. El equipo de Williams podría usar IAC para automatizar el aprovisionamiento
de servidores en la nube para aplicaciones orientadas
al cliente mientras mantiene operaciones bancarias
centrales
ejecutándose en el mainframe Las herramientas de DevOps pueden garantizar
que ambos sistemas se actualicen y escalen
automáticamente según las demandas de carga de trabajo Se adapta a la adopción de CICD para automatizar procesos de
nube híbrida La integración continua, CI y CD de entrega
continua son dos componentes clave de
la metodología DevOps Juntos, ayudan a
las organizaciones a automatizar todo
el proceso
de
lanzamiento de software , desde el desarrollo de código
hasta la implementación, haciéndolo más rápido, más confiable y menos propenso a errores humanos. En entornos de nube híbrida, canalizaciones
CICD se pueden utilizar
para automatizar la implementación de aplicaciones tanto en mainframes
locales como en plataformas en la nube Integración continua,
fusionando código automáticamente. integración continua
se refiere a la práctica de fusionar
regularmente los cambios de
código de múltiples desarrolladores en
un repositorio compartido Cada vez que se fusiona el nuevo código, se activan pruebas
automatizadas para
validar que el código
funcione como se esperaba. Esto ayuda a los equipos a identificar
y solucionar problemas tempranamente, evitando problemas mayores más adelante en el ciclo de vida del desarrollo. Los beneficios clave incluyen un desarrollo
más rápido. Los desarrolladores pueden realizar pequeñas actualizaciones
incrementales que se prueban e
implementan con frecuencia. Los errores Wdced, las pruebas automatizadas garantizan que los nuevos cambios no rompan la
funcionalidad existente Colaboración sin tallo, CI permite que varios equipos trabajen juntos de manera
más eficiente, incluso en entornos
híbridos complejos Tomemos un ejemplo. En el sistema Williams Hybrid Cloud, el equipo de DevOP podría
usar CI para automatizar la integración de código para aplicaciones basadas en la
nube como la aplicación móvil del banco al tiempo que garantiza que cualquier cambio no interrumpa los sistemas de
mainframes back end que
manejan Entrega continua,
automatizando despliegues. entrega continua es la práctica de implementar
automáticamente los cambios de
código en un entorno de
almacenamiento temporal después de que pasan la canalización de CI. TD permite a los equipos lanzar actualizaciones de
software de manera más rápida y confiable al automatizar
el proceso de implementación Garantiza que los cambios
estén siempre listos para ser desplegados a la producción con
una mínima intervención humana. Los beneficios clave incluyen lanzamientos
más rápidos. CD permite
lanzamientos más frecuentes de nuevas funciones, correcciones de errores y actualizaciones. Reversiones automatizadas. Si se detecta un problema
durante la implementación, los sistemas de
CD pueden retroceder
automáticamente a la versión anterior,
minimizando el tiempo de inactividad. Escalabilidad, las canalizaciones de CD pueden escalar a través de sistemas híbridos, lo que garantiza que
los cambios se implementen manera consistente tanto en los sistemas
locales como en la nube Un ejemplo,
la organización Williams podría implementar CID para
automatizar la implementación de
herramientas de análisis basadas en la nube que ayuden a rastrear los hábitos de gasto de los clientes al
tiempo que garantizan que estas herramientas permanezcan integradas con los sistemas principales de la unidad central Esto permitiría al banco liberar actualizaciones
con mayor frecuencia
al tiempo que minimizaría el riesgo de
interrupciones del servicio Los ductos CICD funcionan en entornos
híbridos. En una configuración de nube híbrida, canalizaciones
CICD se pueden configurar para automatizar todo el
proceso de desarrollo, prueba e implementación aplicaciones en
múltiples entornos. Así es como funciona. El código está
comprometido e integrado CI. Los desarrolladores comprometen código a un repositorio compartido como Git. Esto desencadena la tubería de CI. Se ejecutan pruebas automatizadas para garantizar que el nuevo código
no introduzca errores. Luego, el código se integra
con otras partes de la aplicación, como mainframe o
los servicios basados en
la nube El código se
despliega automáticamente para CD. Una vez pasada la prueba, el código se
despliega automáticamente en un entorno de
ensayo. Si todo funciona como se esperaba, el código es promovido
a producción, asegurando que tanto el
mainframe como los sistemas cloud se actualicen simultáneamente Si surge algún problema, la canalización de CD puede
retroceder
automáticamente a una versión estable
de la aplicación,
minimizando el tiempo de inactividad
y el impacto del usuario. Un ejemplo, en el sistema de nube
híbrida de William, este proceso
permitiría a su equipo implementar
rápidamente actualizaciones en las aplicaciones
móviles orientadas al cliente
al tiempo que aseguraría que
esas aplicaciones permanezcan completamente integradas con los sistemas
transaccionales se ejecutan en el mainframe La conclusión clave de
esta lección incluye una, DevOps juega un
papel crucial en la gestión entornos de nube
híbrida al
romper los silos entre el
desarrollo y las operaciones,
lo que permite la colaboración
y lo que permite la colaboración Dos, las canalizaciones de CICD automatizan el proceso de
integración, prueba e implementación de código
en sistemas híbridos, reduciendo errores,
mejorando la velocidad y mejorando la escalabilidad Tres, en entornos híbridos, DevOps garantiza una implementación consistente
y confiable de aplicaciones tanto en sistemas
locales como en plataformas en
la nube Ganar actividad, reflexión. Considere cómo
las prácticas de DevOps como CICD podrían mejorar
la administración de su entorno de
nube híbrida ¿Cuáles son los
beneficios potenciales para tu equipo? Pregunta de discusión
planteada en el foro. ¿Cómo podría la adopción de
canalizaciones CICD ayudar a su organización automatizar
los procesos de implementación y mejorar la eficiencia operativa
en todos los sistemas híbridos Siguiente lección, Herramientas clave de DevOps para la gestión de la nube híbrida En la siguiente lección,
profundizaremos en las
herramientas específicas de DevOP que puede usar para automatizar y administrar sistemas de nube
híbrida Exploraremos herramientas populares
como Jenkins, Terraform, AWS Lambda y Kubernetes
y discutiremos cómo
se pueden usar para optimizar la
implementación, monitoreo y el escalado en todo el entorno Emocionado por explorar
las herramientas que
impulsarán la automatización en
su nube híbrida. Pasemos a la lección
dos del Módulo cinco. A,
19. Lección 2: herramientas clave de DevOps para la gestión de la nube híbrida: Lección dos, herramientas clave de DevOps
para la gestión de la nube híbrida. Bienvenido a la lección
dos del Módulo cinco. En esta lección, profundizaremos
en algunas de
las herramientas de DevOps más populares y
poderosas para administrar entornos de
nube híbrida Como
director de infraestructura de TI, como William, seleccionar las herramientas adecuadas es esencial para automatizar
y optimizar sus flujos de trabajo tanto en mainframes
locales como en entornos de nube. Cubriremos herramientas como Jenkins, Perra form, AWS Lambda y Kubernetes y exploraremos cómo se pueden usar
para administrar la implementación, monitoreo y escalado
en Al final de esta
lección,
comprenderá el papel de las herramientas clave de
DevOps en la automatización y administración de entornos de
nube híbrida Dos, saber cómo aplicar herramientas
como Jenkins, Terraform, AWS Lambda y Kubernetes
para automatizar la implementación, monitoreo y Empecemos.
Jenkins, automatizando la integración
continua y entrega
continua CICD ¿Qué es Jenkins? Jenkins es uno de los servidores de automatización de
código abierto más utilizados que facilita la integración
continua, CI y entrega continua de CD Jenkins automatiza las tareas repetitivas
involucradas en la construcción, prueba e Es altamente extensible
con cientos de complementos que se pueden integrar con otras herramientas de DevOps
y servicios en la nube, lo
que lo hace ideal para entornos de
nube híbrida Las características clave incluyen
la automatización de construcciones y pruebas. Jenkins automatiza el proceso de integración de cambios de código, ejecución de pruebas e implementación aplicaciones en la nube y
en entornos locales Extensibilidad.
Jenkins establece complementos para casi todos los
principales desarrolladores de taburetes, lo que le permite integrarse a la
perfección con herramientas como Docker,
ubernets Flexibilidad, Jenkins trabaja con múltiples plataformas en la nube,
lo que le permite
crear canalizaciones para implementar código en entornos híbridos, incluidos mainframes y sistemas nativos
en la nube Tomemos un ejemplo. El equipo de William puede usar
Jenkins para automatizar la canalización de CICD para aplicaciones que se ejecutan en su entorno de nube
híbrida Por ejemplo, pueden
automatizar la implementación de aplicaciones orientadas al cliente basadas en la
nube al tiempo que garantizan que los procesos de backend en el mainframe se
actualicen ¿Cómo se puede utilizar Jenkins en entornos de nube
híbrida? En un entorno de nube híbrida, Jenkins se puede utilizar para automatizar todo
el pipeline de CI City desde la integración de código hasta las
pruebas y la implementación Permite a los desarrolladores
escribir código que se integra perfección tanto con la infraestructura local
como en la nube. Caso de uso, el equipo de Williams puede
configurar una canalización de Jenkins que
despliega automáticamente actualizaciones en aplicaciones
en la nube como
su aplicación de banca móvil, al aplicaciones
en la nube como
su aplicación de banca móvil, tiempo que garantiza que los sistemas
bancarios principales que se ejecutan en el mainframe también se prueben e implementan sin
intervención manual Terraform,
infraestructura como código, IAC para sistemas híbridos ¿Qué es Traform? Terraform desarrollado por
HashiCorp, es una infraestructura, herramienta
IAC que le permite definir y administrar su Esto significa que puede aprovisionar, configurar y administrar
recursos a través múltiples proveedores de nube y sistemas
locales de una manera
consistente y repetible Las características clave incluyen soporte
multicloud. Terraform admite una variedad de plataformas
en la nube, incluyendo AWS, Azure, Google Cloud y
entornos locales, lo
que lo hace ideal
para la configuración híbrida Lenguaje declarativo, define cómo debe ser su
infraestructura, y Theraform realiza
automáticamente los cambios necesarios para
lograr
el Control de versiones.
Los cambios de infraestructura se
pueden rastrear en sistemas de
control de versiones como Git, lo que garantiza que su
infraestructura siga siendo consistente
en todos los entornos. Un ejemplo, el equipo de Williams
puede usar Terraform para
aprovisionar recursos
tanto en su entorno de mainframe como en su infraestructura de nube Por ejemplo,
podrían usar Terraform para implementar un clúster de Kubernet en AWS mientras mantienen la infraestructura
existente en su Cómo Terraform se puede utilizar en entornos de nube
híbrida. En un entorno de nube híbrida, Terraform permite a los equipos administrar su
infraestructura como código, asegurando que los recursos
en mainframes locales y entornos de
nube se
configuren y entornos de
nube se administren Caso de uso, el
equipo de Williams podría usar Terraform para automatizar el aprovisionamiento de recursos
en la nube Por ejemplo, servicios de almacenamiento y
computación para datos de
clientes mientras se mantiene el mainframe para el procesamiento de
transacciones en tiempo real AWS Lambda, servidor menos automatización para procesos habilitados para
la nube. ¿Qué es AWS Lambda? AWS Lambda es un
servicio de computación sin servidor que
ejecuta automáticamente códigos en respuesta a eventos y escala
los recursos según sea necesario. Con Lambda, no es necesario aprovisionar
ni administrar servidores. Se escala automáticamente en
función de la demanda de sus aplicaciones,
lo que le permite concentrarse en escribir
e implementar código. Las características clave incluyen sin servidor. AWS Lambda maneja toda la
administración de la infraestructura por usted, lo que le permite ejecutar código sin aprovisionar
ni administrar servidores. funciones Lambda impulsadas Las funciones Lambda impulsadas por eventos son activadas por eventos
de otros servicios de AWS, lo que las
hace ideales para automatizar tareas como procesamiento de
datos, monitoreo de
aplicaciones
o escalado de aplicaciones Escalabilidad, Lambda escala
automáticamente en respuesta al
número de solicitudes, asegurando que sus
aplicaciones puedan manejar picos de demanda sin intervención
manual Un ejemplo, el equipo de Williams
podría usar AWS Lambda para automatizar tareas de procesamiento de
datos en tiempo real desencadenadas por eventos como transacciones
habituales. Por ejemplo, Lambda
podría desencadenar algoritmos de detección de
fraude cuando ocurren
transacciones sospechosas, permitiendo que el sistema se escale
según sea necesario sin participación
manual. ¿Cómo se puede utilizar AWSamda en entornos de nube
híbrida? En una configuración de nube híbrida, AWS Lambda se puede
utilizar para descargar tareas
específicas a
la nube mientras mantienen los
sistemas críticos en el Lambda también se puede integrar
con otros servicios de AWS, lo que le permite automatizar tareas tanto en entornos locales
como en la nube. Caso de uso. El equipo de Williams
podría usar Lambda para automatizar los
trabajos de procesamiento por lotes en la nube mientras mantiene
las operaciones bancarias centrales en el mainframe Lambda podría manejar tareas
no críticas como el análisis del
comportamiento del cliente, liberando recursos de mainframe
para transacciones en tiempo real Kubernetes, orquestando contenedores ¿Qué es Kubernetes? Kubernetes es una plataforma de
orquestación de contenedores de
código abierto plataforma de
orquestación de contenedores de
código que automatiza la implementación, el
escalado y la administración de aplicaciones contenerizadas Garantiza que su aplicación
se ejecute en un entorno consistente y
escalable, ya sea
en las instalaciones o en la nube. Las características clave incluyen la orquestación de
contenedores. Kubernetes administra
contenedores entre clústeres, automatizando tareas como implementación, Escalabilidad, Kubernetes escala
automáticamente las aplicaciones según la demanda,
asegurando que su sistema pueda
manejar las fluctuaciones en asegurando que su sistema pueda manejar Soporte de Nube Híbrida. Kubernetes se puede ejecutar en las instalaciones en la nube o en
ambos entornos, lo
que lo convierte en una poderosa herramienta para administrar la infraestructura de la nube híbrida Tomemos un ejemplo. podría usar Kubernetes para administrar aplicaciones
contenerizadas
que se ejecutan
tanto en su centro
de datos
local como en su El equipo de William
podría usar Kubernetes para administrar aplicaciones
contenerizadas
que se ejecutan
tanto en su centro
de datos
local como en su infraestructura de nube. Por ejemplo, Kubernetes podría orquestar la implementación
de microservicios
que procesan los
datos de los clientes en la nube
mientras interactúan con sistemas backend
en el mientras interactúan con sistemas backend Cómo se puede utilizar Kubernts en entornos de nube
híbrida. En los sistemas de nube híbrida, Kubernetes permite a los equipos ejecutar aplicaciones
contenerizadas
en múltiples entornos, que
garantiza que las
aplicaciones puedan escalar dinámicamente tanto en los sistemas
principales como en la nube Caso de uso, el equipo de Williams usaría Kubernetes para
administrar microservicios ejecutan en la nube para aplicaciones orientadas
al cliente al tiempo que garantiza que esos microservicios
permanezcan integrados con sistemas
transaccionales Combinando herramientas de DevOps para
una automatización integral. Las herramientas mencionadas Jenkins,
Terraform, AWS Lambda y Kubernts trabajan juntas para
proporcionar automatización
integral para entornos y Kubernts trabajan juntas para
proporcionar automatización
integral para entornos de nube híbrida. Al combinar estas herramientas, puede automatizar todo desde el
aprovisionamiento de infraestructura hasta la implementación,
escalado y monitoreo de aplicaciones. Un ejemplo de flujo de trabajo. Terraform proporciona la infraestructura de nube necesaria
para una nueva aplicación Jenkins automatiza
la canalización de CICD, asegurando que el
código de la aplicación se construye, prueba e implementa en entornos locales y
en la nube Kubernetes administra la aplicación
contenerizada, asegurando que se escala Entonces AWS Lambda automatiza tareas
específicas como procesamiento impulsado por
eventos
o la
supervisión en tiempo real sin la
necesidad de servidores adicionales Un ejemplo, el equipo de William podría usar Terraform para administrar recursos en la
nube, Jenkins para
implementaciones automatizadas, ubernts para
autocrating contenedores nube y
en sistemas principales, y AwAmDA para activar procesos impulsados por
eventos para aplicaciones orientadas al cliente usar Terraform para administrar recursos en la
nube,
Jenkins para
implementaciones automatizadas,
ubernts para
autocrating contenedores en la
nube y
en sistemas principales, y AwAmDA para activar procesos impulsados por
eventos para aplicaciones orientadas al cliente. Los resultados de esta
lección incluyen, uno, Jenkins automatiza el proceso CICD,
asegurando que
el código
se integre, asegurando que
el código
se integre, pruebe e implemente en entornos Jenkins automatiza el proceso CICD,
asegurando que
el código
se integre,
pruebe e implemente en entornos
híbridos sin problemas. Dos, el formulario
le permite administrar la
infraestructura como código, lo que permite un
aprovisionamiento y una
configuración consistentes en todos los sistemas en la nube
y en las instalaciones. En tres, AWS Lambda proporciona automatización
sin servidor para tareas como el procesamiento de datos en tiempo real, mientras que Kubernetes orquesta contenerizadas Actividad de aprendizaje, reflexión. Considere cómo herramientas
como Terraform, Jenkins y Kubernetes
optimizarían las operaciones en ¿Qué tarea
automatizarías usando estas herramientas? Pregunta de discusión,
post en el foro. ¿Qué desarrollo de herramientas ha
utilizado o planeado usar
para administrar su entorno de nube
híbrida? ¿Cómo
mejorarían estas herramientas tu flujo de trabajo? Siguiente lección, construir un
pipeline CICD para la Nube Híbrida. En la siguiente lección,
nos centraremos en construir una canalización CICD para entornos de
nube híbrida Aprenderá a
crear e implementar una canalización CICD paso a paso, y exploraremos
cómo automatizar las implementaciones en entornos de mainframe
y cloud Listo para construir una tubería completamente
automatizada, profundicemos en la lección
tres del Módulo cinco.
20. Lección 3: creación de una tubería de CI/CD para la nube híbrida: Lección tres, construir un
pipeline CICD para la Nube Híbrida. Ven a la Lección Tres
del Módulo Cinco. En esta lección, recorreremos el proceso de construcción de un pipeline CICD adaptado para entornos de nube
híbrida Para los
directores de infraestructura de TI como William, que administran sistemas
mainframe junto con la infraestructura Cloud, implementar una
canalización CICD es crucial para automatizar implementaciones Al final de esta lección, sabrá cómo
diseñar y construir una canalización CICD que integre aplicaciones de
mainframe
con sistemas nativos en la nube garantiza una implementación más rápida y
confiable Al final de esta
lección,
comprenderá el
proceso paso a paso de crear e implementar una canalización CICD para entornos de nube híbrida Explorar cómo automatizar la
implementación en sistemas mainframe y plataformas
en la nube.
Empecemos. ¿Qué es un pipeline CICD? Una canalización de CICD es un proceso automatizado que integra
integración continua, CI y
CD de entrega continua para garantizar que los cambios de
código se
prueben, validan e implementen automáticamente prueben, validan e implementen En un
entorno de nube híbrida donde partes de la aplicación pueden ejecutarse en el mainframe mientras que otras
partes se ejecutan en la nube Una canalización de CICD garantiza que
las actualizaciones se puedan
implementar de manera consistente en ambas infraestructuras sin intervención
manual CI de integración continua fusiona
y prueba automáticamente los cambios de código de múltiples desarrolladores en
un repositorio compartido CD de entrega continua automatiza la implementación de código
superpuesto en entornos de producción, asegurando que las aplicaciones
estén siempre listas para su lanzamiento Tomemos un ejemplo. El equipo de Williams podría usar una canalización de CICD para
automatizar la implementación de aplicaciones web orientadas
al cliente se ejecutan en la nube y al
mismo tiempo actualizarlas y los sistemas
mainframe que manejan el procesamiento de
transacciones Da un paso en la construcción de un
pipeline CICD para la nube híbrida. construcción de una
canalización CICD implica varios pasos clave, desde la integración del código hasta la implementación
automatizada Aquí hay una
guía paso a paso para construir una canalización CICD para entornos de
nube híbrida Paso uno, configura un repositorio de código
compartido. El primer paso para construir una canalización de CICD es configurar
un repositorio de código compartido Aquí es donde los desarrolladores
almacenarán y administrarán su código, permitiendo la colaboración
y el control de versiones. Los repositorios populares incluyen Git Hub GitLab y Bit Bucket Estructura del repositorio. Organice su repositorio de
una manera que separe el código de
mainframe del código de aplicación basado en la
nube mientras permite que se
integren en la misma canalización Código de mainframe, almacena adoquín JCL o código ensamblador que
se ejecuta Código en la nube, código de tienda escrito en
lenguajes modernos como JavaScript, Python o GO, que se ejecuta
en plataformas Cloud. Tomemos un ejemplo.
El equipo de William puede usar Github como repositorio
compartido para almacenar tanto los scripts
de procesamiento de
transacciones de mainframe el código basado en la nube
para la aplicación de banca móvil Paso dos, integrar la integración
continua. El siguiente paso es integrar CI de integración
continua en su pipeline. CI implica
crear y probar automáticamente código cada vez que un desarrollador
realiza un cambio. Esto asegura que el
nuevo código no rompa el sistema y
que los errores se capten principio del
ciclo de desarrollo. Automatización de construcción. Utilice herramientas como Jenkins o Gitlab CI para automatizar el proceso de compilación tanto para
mainframe como para Jenkins puede activar
construcciones basadas en cambios de
código y ejecutar pruebas
automatizadas Pruebas. Implementar
pruebas automatizadas para ambos entornos. Para el código de mainframe, use CA endeavor o la unidad IBM
Z para realizar pruebas Para aplicaciones en la nube, use marcos
de prueba como la unidad
J o el selenio Tomemos un ejemplo.
Cuando un desarrollador del equipo de
Williams comete cambios el código de la aplicación de banca móvil, Jenkins activará
automáticamente una prueba de compilación y ejecución para garantizar que la aplicación se integre sin problemas con el back-end de
mainframes Paso tres, automatice la entrega
continua. CD de entrega continua automatiza
el proceso de implementación, asegurando que sus aplicaciones estén siempre en un estado
desplegable En una nube híbrida,
CD manejará implementación en entornos de mainframe
y cloud. Implementación de mainframe,
use herramientas como IBM Urban C Deploy o automatización
CarLease para automatizar la implementación de aplicaciones de
mainframe Implementación en la nube. Para entornos
en la nube, herramientas como AWS C
Deploy o Azure DevOps pueden automatizar la implementación de aplicaciones en
múltiples instancias de Cloud Un ejemplo, para el equipo de Williams, CD asegura que cualquier actualización de
código realizada la aplicación móvil se implemente
automáticamente en AWS, mientras que
las actualizaciones correspondientes se aplican
al mainframe para mantener sincronizado el procesamiento de
transacciones Paso cuatro, configura reversiones
automatizadas. Los
mecanismos automatizados de reversión son críticos en las tuberías CICD, especialmente en entornos
híbridos donde una falla en un sistema, por
ejemplo, en el mainframe puede afectar a toda la
aplicación Los retrocesos le permiten volver rápidamente
a una versión estable anterior si algo sale mal
durante Reversiones de mainframe. Utilice herramientas de control de versiones
como esforzarnos por retroceder a versiones
anteriores de aplicaciones de mainframe.
Reversiones en la nube En entornos de nube, las herramientas de
CD como AWS
Lambda o Kubernetes pueden retroceder automáticamente para garantizar que las implementaciones fallidas se inviertan rápidamente. Un ejemplo, si una actualización aplicación móvil de
William causa un problema con el procesamiento de
transacciones, la canalización de CICD revertirá automáticamente los cambios,
asegurando que el mainframe
y los sistemas en la nube permanezcan operativos
sin Paso cinco, monitorear y
optimizar la tubería. Una vez que la
tubería CICD esté en su lugar, deberá monitorearla y
optimizarla
continuamente para asegurarse de
que funcione sin problemas Las herramientas de monitoreo
brindan
visibilidad sobre el estado de
sus aplicaciones, lo que le permite detectar
posibles problemas antes de que afecten a los usuarios. Herramientas de monitoreo, use herramientas de
monitoreo como
Prometheus Grafana o New Relic para realizar un seguimiento de las métricas de rendimiento tanto
en la nube
como en los sistemas herramientas de
monitoreo como
Prometheus Grafana
o New Relic para realizar un seguimiento de las métricas de
rendimiento tanto
en la nube
como en los sistemas on-premise. Optimización de tuberías. Optimice continuamente
su canalización reduciendo los tiempos de construcción, mejorando la cobertura de pruebas y refinando las estrategias de
implementación. Un ejemplo, el equipo de William
podría usar Grafana para monitorear métricas
clave de rendimiento,
como el tiempo de respuesta de la aplicación móvil y la
velocidad de procesamiento de transacciones en el mainframe, asegurando que ambos
entornos funcionen Desafíos y
mejores prácticas para los pipeline CICD de nube híbrida construcción y administración de
una canalización CICD en entornos de nube
híbrida viene con su propio conjunto de desafíos Sin embargo, seguir las
mejores prácticas puede ayudar a mitigar
estos desafíos. Sincronización entre
mainframe y Cloud. Uno de los principales desafíos es garantizar que las actualizaciones de código tanto en el mainframe
como en los sistemas en la nube se implementen de forma sincrónica Una discordancia en el tiempo de
implementación puede dar lugar a
fallas o inconsistencias en las aplicaciones Mejores prácticas. Implemente una
estrecha sincronización entre las implementaciones de
mainframe y cloud asegurando que ambos mainframes utilicen las mismas
herramientas y procesos de canalización Seguridad y cumplimiento. En entornos híbridos, particularmente en
industrias como la banca, la seguridad y el cumplimiento
son críticos. Su canalización de CICD debe incorporar
comprobaciones de seguridad para garantizar que tanto los sistemas en la nube los sistemas
in situ
cumplan con las regulaciones La mejor práctica, use
debsecppPractices para
integrar verificaciones de seguridad en la Por ejemplo, utilice
AWS Security Hub o Azure Security
Center para automatizar las comprobaciones de
seguridad y cumplimiento durante el proceso de implementación. Complejidad en la gestión de sistemas
heredados. mainframes suelen ser complejos y menos flexibles que los entornos
en la nube. Integrar mainframe en
una canalización CICD moderna puede ser un desafío debido a las herramientas
y procesos especializados Las mejores prácticas, aproveche herramientas
especializadas como la implementación conjunta urbana o las implementaciones de
mainframe y asegúrese de que la
canalización CICD se adapte a las necesidades específicas de los
entornos mainframe puntos clave de esta
lección incluyen uno,
una canalización de CICD automatiza
el proceso de integración,
prueba e implementación de código
en entornos híbridos,
asegurando que las
actualizaciones se implementen asegurando que las
actualizaciones se implementen manera consistente tanto en
mainframes Dos, herramientas como Jenkins, IBM Urban C Deploy y AWS codploy son esenciales para administrar canalizaciones CICD
en entornos de nube híbrida, lo que permite actualizaciones fluidas en ambas infraestructuras Tres, el monitoreo
y la optimización de la canalización CICD garantizan
que las aplicaciones sigan funcionando y sean resilientes con mecanismos automatizados
de reversión implementados para manejar fallas Ganar actividad, reflexión. Considere cómo una canalización
CICD con implementaciones
optimizadas en sus
entornos mainframe y
Cloud, ¿qué desafíos prevé
para implementar esta automatización? implementaciones
optimizadas en sus
entornos mainframe y
Cloud,
¿qué desafíos prevé
para implementar esta automatización? Pregunta de discusión.
Publicar en el foro, ¿qué herramientas
utilizarías para automatizar CICD en tu entorno de
nube híbrida ¿Cómo
sincronizarías las actualizaciones entre los sistemas on premise
y las plataformas Cloud Siguiente lección, estrategias de
automatización para entornos híbridos. En la siguiente lección,
exploraremos estrategias de
automatización para administrar
entornos híbridos de manera eficiente. Aprenderá a
usar la infraestructura como código o IAC para administrar sistemas híbridos
complejos y discutir desafíos
comunes de automatización
y cómo superarlos. Listo para sumergirnos en estrategias avanzadas de
automatización, pasemos a la lección
cuatro del Módulo cinco.
21. Lección 4: estrategias de automatización para entornos híbridos: Lección cuatro, estrategias de
automatización para entornos híbridos. Bienvenido a la Lección
Cuatro del Módulo Cinco. En esta lección, exploraremos estrategias de
automatización diseñadas
para entornos híbridos. Los sistemas se
distribuyen a través de mainframes
locales
y plataformas en la nube Para un
director de infraestructura de TI como William, implementar la estrategia de
automatización correcta puede mejorar significativamente la eficiencia
operativa, reducir errores y permitir administración
fluida
de ambos entornos. Nos centraremos en cómo usar el código de
infraestructuras para administrar estos complejos
sistemas y discutir los desafíos
comunes de automatización
y cómo superarlos. Al final de esta
lección, uno
comprenderá cómo usar el código de
infraestructuras para código de
infraestructuras administrar de
manera eficiente los entornos
híbridos. Dos, identificar desafíos comunes de
automatización en sistemas híbridos y aprender
estrategias para superarlos. Profundicemos en estrategias de
automatización que potenciarán su entorno de nube
híbrida. Comprender el código
de
infraestructuras para entornos híbridos. código de infraestructuras o IAC es la práctica de
administrar y aprovisionar infraestructura usando archivos de configuración
legibles por máquina en lugar de configurar manualmente
hardware y sistemas En entornos de nube híbrida
donde la infraestructura abarca tanto sistemas mainframe como plataformas en la nube,
IAC es una herramienta poderosa para garantizar la
consistencia, escalabilidad
y IAC es una herramienta poderosa para garantizar consistencia, escalabilidad ¿Qué es la infraestructura como código? IAC le permite definir y administrar infraestructura
como servidores,
redes, bases de datos y balanceadores de
carga usando código Esto facilita la
automatización de la creación y administración de recursos
en entornos locales y en
la nube. Al usar IAC, puede tratar infraestructura
como el software lo que le permite actualizarlo, probarlo y automatizarlo Planteamiento declarativo. En IAC, describe cómo
debe ser
su infraestructura y el sistema automáticamente asegura
que su entorno coincida con el estado deseado Repetibilidad y consistencia. IAC elimina el proceso manual de
configuración de la infraestructura, reduce los errores humanos y garantiza que los entornos
se configuran de manera consistente Tomemos un ejemplo. El equipo de Williams podría
usar IAC para automatizar el aprovisionamiento de
ambos recursos en la nube para sus clientes, aplicaciones
bancarias
y recursos de mainframe que manejan transacciones en
tiempo real Por ejemplo, Terraform se
puede utilizar para definir y administrar
la infraestructura en ambos entornos, asegurando una configuración consistente en
todos los sistemas híbridos Implementación de IAC en entornos
híbridos. Cuando se utiliza la
infraestructura como código o IAC en entornos híbridos, el objetivo es automatizar el
aprovisionamiento, la configuración y la administración de
recursos tanto en sistemas
principales como mainframes y plataformas en la nube como AWS, Azure o Google Aquí le mostramos cómo puede implementar IAC de manera efectiva en un entorno
híbrido Selección de herramientas para IAD híbrido. Para automatizar entornos híbridos, necesitará herramientas
que puedan manejar tanto los recursos de la nube como
la infraestructura in situ. Aquí hay algunas herramientas comunes para IAC y entornos híbridos. Terraform, una de las herramientas de IAC
más populares, Terraform admite
múltiples plataformas en la nube y entornos locales Permite definir la
infraestructura en un lenguaje declarativo y administrar recursos
a través de sistemas híbridos Answerable es una herramienta de
automatización de código abierto que puede automatizar el
aprovisionamiento tanto en sistemas principales como en entornos
Cloud Es particularmente útil para
automatizar la administración de configuración
en entornos híbridos. AWS CloudFormation. Para entornos
híbridos específicos de AWS, la formación de la nube se puede utilizar para definir y administrar recursos. Se integra bien con los sistemas
primarios a través de servicios
como AWS outpost Tomemos un ejemplo. El equipo de Williams puede
usar Terraform para definir tanto recursos
basados en la nube como AWS EC two instance y bases de datos
RDS e infraestructura de
mainframe in premise Al escribir el código de la
infraestructura, el equipo puede
aprovisionar y administrar recursos en ambos
entornos de manera consistente. Automatizar el aprovisionamiento
y la configuración. Una vez que haya seleccionado
sus herramientas de IAC, el siguiente paso es automatizar el aprovisionamiento y la
configuración de los recursos IAC le permite crear scripts que automatizan la
implementación de servidores, redes, almacenamiento y otros componentes de
infraestructura Aprovisionamiento automatizado,
escritura de scripts para automatizar la creación de entornos
en la nube y recursos de
mainframe Estos scripts pueden aprovisionar
infraestructura en cuestión de minutos, eliminando la necesidad de configuraciones
manuales. Configuración automatizada. Utiliza herramientas como Ansibl o Puppet para automatizar
la configuración de servidores y aplicaciones, asegurando que
estén correctamente configurados y
alineados con los requerimientos de tu
negocio Tomemos un ejemplo. Cuando la institución
financiera Williams lanza un nuevo producto bancario, su equipo puede usar la provisión de
TerraForm, la infraestructura en la nube
necesaria para alojar el producto y Ansibl configurar el sistema
mainframe que
procesará Control de versiones y
colaboración con IAC. Una de las ventajas clave
de IAC es que código de
infraestructura se puede almacenar en
sistemas de control de versiones como Git Esto permite la colaboración entre múltiples equipos y los cambios en la infraestructura
pueden ser rastreados y revisados al igual que el código de
la aplicación. Control de versiones, almacenar
scripts IAC en repositorios
como GitHub o
Gitlab permitiendo a tu equipo colaborar y revisar los cambios de
infraestructura
antes de que Integración continua. Integre IAC con
sus canalizaciones CICD para probar y validar
automáticamente los cambios de
infraestructura
antes de que se implementen Tomemos un ejemplo. El equipo de William almacenaría sus
scripts Terraform en GitHub, donde los miembros del equipo pueden
revisar los cambios propuestos la infraestructura de Cloud o configuraciones de
mainframe
antes de implementarlos Esto asegura que todos los cambios
sean revisados y aprobados. Superar los desafíos comunes de
automatización en entornos híbridos. Si bien la automatización es crucial
en entornos híbridos, existen
desafíos específicos que suelen enfrentar los equipos. Aquí, exploraremos algunos de los desafíos más comunes
y cómo superarlos. Garantizar la consistencia en entornos locales y en la nube. Uno de los mayores desafíos en entornos
híbridos es garantizar coherencia entre los sistemas mainframe locales y la infraestructura de nube Diferentes entornos pueden requerir diferentes
configuraciones, lo que lleva a posibles
discrepancias. Solución, se
herramientas de IAC como Terraform, que soportan múltiples
plataformas para definir una
infraestructura consistente
tanto en entornos locales como en
la nube Esto asegura que
las configuraciones permanezcan alineadas incluso a medida que la
infraestructura evoluciona Un ejemplo, el
equipo de Williams puede usar Terraform para definir los recursos de
infraestructura tanto
para la nube como para los sistemas locales, asegurando que las
configuraciones de red, las políticas de
seguridad y los recursos informáticos se
apliquen de manera consistente Gestionar dependencias complejas. En entornos híbridos, los sistemas suelen tener dependencias
complejas que abarcan tanto la nube como la infraestructura
local Por ejemplo, una aplicación
basada en la nube puede depender de una base de datos de mainframe para el procesamiento de
transacciones en tiempo real La administración de estas
dependencias puede ser difícil durante las implementaciones
automatizadas Solución, use herramientas de
orquestación como Kubernetes o Jenkins para coordinar implementaciones
en entornos híbridos, asegurando que todas las
dependencias Kubernetes o Jenkins para
coordinar implementaciones
en entornos híbridos,
asegurando que todas las
dependencias se tengan en cuenta y manejen correctamente. Un ejemplo, el
equipo de Williams puede usar Jenkins para orquestar la implementación de
nuevas funciones en la aplicación de banca
móvil,
asegurando que las actualizaciones se
integren sin problemas
con el sistema de procesamiento de
transacciones basado en mainframe Seguridad y cumplimiento. automatización de entornos híbridos introduce nuevos desafíos de
seguridad, especialmente en lo que respecta a la protección de
datos confidenciales y al
cumplimiento de las regulaciones de
la industria como PCIDSS Solución, implemente las mejores prácticas de
seguridad dentro de sus scripts de IAC, como la definición de configuraciones de
red seguras, cifrado y políticas de
control de acceso Además, integre comprobaciones de
seguridad en su canalización de automatización para garantizar el cumplimiento de los requisitos
reglamentarios. Un ejemplo, el
equipo de Williams puede usar NSB para automatizar la configuración
de firewalls, políticas de
cifrado y controles de acceso
tanto en su infraestructura de mainframe como en la
nube, asegurando que el sistema bancario siga cumpliendo con Mejores prácticas para la
automatización en la Nube Híbrida. Para aprovechar al máximo la automatización
en entornos de nube híbrida, es importante seguir las
mejores prácticas que garanticen escalabilidad, la seguridad
y la eficiencia Modularizar el código de infraestructura. división de su IAC en componentes modulares
más pequeños permite una mejor reutilización
y mantenibilidad Cada módulo puede representar
una parte específica de su infraestructura, como una configuración de red
o una configuración de base de datos, que se puede reutilizar en
múltiples entornos. Ejemplo, el
equipo de Williams puede crear un módulo o
configuraciones de base de datos que
se pueden aplicar tanto para las bases de datos
mainframe como para las bases de datos Cloud, asegurando que ambos sistemas
utilicen una configuración similar Integre las pruebas en las tuberías de
automatización. Siempre pruebe los cambios de
infraestructura antes de que se implementen. Utilice herramientas como T test o inspeccionar para escribir
pruebas automatizadas para su infraestructura, asegurando que todo esté configurado de manera correcta
y segura. Por ejemplo, el equipo de Williams puede integrar pruebas automatizadas en su canalización de CICD para
garantizar que los cambios recursos de
la nube y mainframe se
validen antes de que se implementen Monitoree y optimice la automatización. Finalmente, monitoree continuamente
sus procesos de automatización para identificar cuellos de botella Utilice herramientas de monitoreo como
Prometheus o AWS Cloud watch para obtener visibilidad el rendimiento de
su infraestructura
y flujo de trabajo de automatización Ejemplo, el equipo de Williams puede usar Prometheus para monitorear el rendimiento de la
infraestructura, identificando áreas donde los scripts de
automatización necesitan optimización para reducir los tiempos de
implementación o mejorar el rendimiento del sistema Las conclusiones clave de
esta lección incluyen, una, código de
infraestructuras IAC
le permite automatizar el aprovisionamiento
y la administración de
recursos en entornos de nube híbrida, que garantiza la consistencia
y Dos, superar los desafíos comunes
en la automatización híbrida, como administrar dependencias, garantizar la consistencia
y abordar problemas de
seguridad mediante el uso herramientas de
orquestación y mejores prácticas de
automatización Tres, siga las mejores prácticas como modularización del código de
infraestructura, integración de
pruebas automatizadas y
monitoreo continuo de sus
procesos de automatización o mejoras Ganar actividad, reflexión. ¿Cómo aplicaría
IAC para automatizar y
administrar tanto en entornos primis como
Plowd en
su organización? administrar tanto en entornos primis como
Plowd en ¿Qué retos específicos prevé y cómo los
superaría? Pregunta de discusión,
post en el foro, ¿qué herramientas de IAC
has usado o planeas usar
para automatizar tu infraestructura de nube
híbrida ¿Cómo han mejorado estas herramientas la eficiencia
operativa? Siguiente lección, retos de seguridad
en sistemas de nube híbrida. En el siguiente módulo,
cambiaremos nuestro enfoque hacia la seguridad, el cumplimiento y la gobernanza
en sistemas híbridos. En la lección uno del Módulo seis, exploraremos los desafíos de
seguridad únicos que surgen en
entornos híbridos, especialmente en industrias como las
finanzas, y discutiremos cómo
mantener la seguridad en entornos locales y en la nube. Emocionados por proteger su infraestructura
híbrida, pasemos al Módulo seis
y aprendamos a superar los desafíos de
seguridad en los sistemas de nube
híbrida.
22. Lección 1: desafíos de seguridad en los sistemas de nube híbrida: Bienvenido al Módulo seis, asegurando el cumplimiento y
la gobernanza en sistemas híbridos. seguridad y el cumplimiento son fundamentales para las arquitecturas de
nube híbrida, especialmente en
industrias reguladas como Este módulo cubre marcos
de seguridad, métodos de
cifrado y estrategias de
cumplimiento. Los estudiantes también aprenderán a implementar
políticas de gobierno que cumplan con
los requisitos regulatorios
tanto en entornos mainframe como
en la nube. Lección uno, desafíos de seguridad
en sistemas de nube híbrida. A Bienvenido al Módulo seis, donde nos centraremos en la seguridad, cumplimiento y la gobernanza en entornos de nube
híbrida. Para un
director de infraestructura de TI como William, la naturaleza única
de los sistemas híbridos, combinación de
mainframes locales y entornos de
nube presenta un conjunto distinto de desafíos de
seguridad Esta lección proporcionará una
visión general de esos desafíos, particularmente para
industrias reguladas como las finanzas, donde mantener la
seguridad tanto de los
sistemas
locales como en la nube es primordial. Al final de esta
lección,
comprenderá los desafíos de seguridad únicos
en los entornos de nube híbrida. Dos, aprender a mantener la seguridad tanto en las infraestructuras
locales como en la nube, particularmente en industrias con estrictos
requisitos reglamentarios. Comencemos examinando el panorama de la seguridad
en los sistemas híbridos e identificando los
desafíos críticos que organizaciones como la
suya deben abordar. Descripción general del desafío de seguridad en entornos de nube híbrida. En entornos híbridos,
las organizaciones deben asegurar dos infraestructuras distintas
en sistemas locales como mainframes y plataformas
basadas en la nube como AWS, Azure o Google Cloud Cada infraestructura tiene sus
propios requisitos de seguridad y combinarlos en un solo sistema cohesivo
introduce nuevas vulnerabilidades Analicemos los principales desafíos
de seguridad. Expandiendo la superficie de ataque. entornos híbridos
aumentan la superficie de ataque porque abarcan tanto los sistemas locales como
en la nube. Esto crea más puntos de entrada
para posibles atacantes. La necesidad de proteger
los datos y el tránsito entre los entornos locales y en
la nube, junto con asegurar las aplicaciones para abarcar ambas infraestructuras, hacen que los sistemas híbridos sean inherentemente
más complejos de asegurar Seguridad en las instalaciones. Los sistemas locales,
como los mainframes,
suelen estar protegidos a través de firewalls de
red, sistemas de detección de
intrusiones y controles de acceso físico Seguridad en la nube. En entornos
Cloud, las organizaciones confían en modelos de
responsabilidad compartida con proveedores de nube donde el proveedor de Cloud maneja cierta seguridad como la seguridad del centro de datos físico, pero la organización
es responsable asegurar la
aplicación de datos y el acceso. Tomemos un ejemplo. institución financiera Williams procesa transacciones de clientes en tiempo
real en el mainframe mientras almacena los datos de los
clientes en la nube Ambos sistemas necesitan ser protegidos
contra ataques como brechas de
datos o ataques de Dios
cruzan ambas infraestructuras Seguridad y cumplimiento de los datos. Para industrias reguladas
como Finanzas, mantener el cumplimiento de
regulaciones como PCIDSS, GDPR e HIPA agrega complejidad
a la seguridad de la nube híbrida Estas regulaciones
requieren controles estrictos sobre cómo se manejan
los datos confidenciales, incluido el cifrado, administración de
acceso
y las pistas de auditoría. El desafío en los
entornos híbridos es garantizar que las políticas de seguridad de
datos se apliquen manera consistente tanto en entornos locales como en
la nube. Datos en tránsito. Los datos
transferidos entre los sistemas
primarios y
la nube deben estar encriptados para evitar la
interceptación durante el tránsito Dirección de datos. Tanto los datos en la nube
como los locales deben estar protegidos mediante políticas de cifrado
y control de acceso para proteger contra el acceso
no autorizado. Tomemos un ejemplo. Williams Institution
necesita cifrar los
datos financieros de los clientes cuando se transfieren del mainframe
a la nube para su procesamiento También deben garantizar que los datos almacenados en entornos
Cloud cumplan con los estándares PCIDSS para asegurar la información de pago Gestión de Identidad y Acceso. Otro reto importante en entornos
híbridos es administrar identidad y el control de acceso a través de dos
infraestructuras distintas. En entornos locales, las organizaciones suelen
utilizar sistemas como Active Directory o EDAP
para la autenticación Mientras están en la nube,
confían en servicios como AWS IAM o Azure 80 Garantizar un
control de acceso consistente y evitar acceso
no autorizado en ambos entornos
puede ser difícil. Autenticación multifactor o MFA. uso de MFA es esencial para asegurar acceso tanto a los recursos locales
como a los recursos en la nube, asegurando que incluso si
las credenciales están comprometidas, atacantes no pueden obtener acceso
fácilmente Control de acceso basado en roles o RBAC. Implementar RBAC para controlar quién tiene acceso a sistemas
específicos y garantizar que los usuarios solo tengan los permisos
necesarios para su rol Tomemos un ejemplo. En la organización Williams, el equipo de
DevOps necesita acceso
tanto a entornos en la nube para implementación
de
aplicaciones como a sistemas mainframe para el procesamiento de backend La implementación de MFA y RBAC
garantiza que el acceso esté estrictamente controlado y que solo el personal
autorizado pueda modificar los sistemas críticos Um, mantener la seguridad
en entornos locales y en
la nube. Ahora que hemos identificado
los desafíos, veamos algunas estrategias para mantener la seguridad tanto en las infraestructuras locales como en
la nube en un entorno híbrido. Asegurar los datos en tránsito. Una de las medidas de
seguridad más críticas en el sistema híbrido es asegurar los datos en tránsito entre sistemas locales
y plataformas en la nube. Sin
la seguridad adecuada, los datos podrían ser interceptados durante la
transmisión, lo que llevaría a posibles violaciones de datos Cifrado en tránsito. Utilice el
cifrado TLS SSL para proteger
los datos a medida que se mueven entre entornos locales y
en
la nube. Toda la comunicación entre
sistemas debe cifrarse para garantizar que la
información confidencial permanezca segura. Conexiones de red seguras. Utilice VPN o
conexiones dedicadas como AWS Direct Connect o Azure
Express Route para crear conexiones privadas
seguras entre sus sistemas locales
y su entorno en la nube Estas conexiones pasan por alto
la Internet pública, reduciendo el riesgo
de interceptación. Tomemos un ejemplo.
El equipo de Williams puede implementar AWS
Direct Connect para transmitir de
forma segura los datos de las transacciones de los
clientes desde su mainframe a
AWS para su procesamiento en la nube Esta conexión dedicada
garantiza que los datos se cifren y transmitan de
forma segura sin exposición a
la Internet pública. Políticas de seguridad consistentes
en todos los entornos. Conseguir
políticas de seguridad consistentes tanto en
entornos
locales como en la nube es esencial para evitar
brechas en la seguridad Estas políticas deben
regir el control de acceso, cifrado, la
protección de datos y la auditoría. Gestión Unificada de Seguridad. Utilice herramientas como Azure
Security Center, AWS Security Hub o soluciones de
terceros para centralizar la
administración de la seguridad tanto en entornos locales como en
la nube. Estas herramientas proporcionan un único
panel de vidrio para monitorear y aplicar políticas de seguridad manera consistente en todas
las infraestructuras. Auditorías de seguridad automatizadas, auditar regularmente las políticas de
seguridad
y garantizar que tanto
los entornos locales como en
la nube cumplan con los
requisitos reglamentarios. Las herramientas de automatización
pueden ayudar a monitorear el cumplimiento y alertar a
los equipos de cualquier incumplimiento de seguridad Un ejemplo, el equipo de Williams
puede usar AWS Security Hub para monitorear y aplicar políticas de seguridad
consistentes tanto en la nube en
sus sistemas
mainframe locales Esto garantiza que se las mismas políticas
de cifrado y control de
acceso apliquen
las mismas políticas
de cifrado y control de
acceso en
ambos entornos. Asegurar cargas de trabajo híbridas
con arquitectura de confianza cero. La adopción de una arquitectura de
confianza cero garantiza que cada solicitud de
acceso, ya sea desde dentro o fuera la red, se verifique
antes de que se otorgue el acceso. Esto es especialmente importante en entornos
híbridos donde las cargas de trabajo abarcan múltiples
infraestructuras Principios de Zero Trust. Implemente principios de confianza cero como el acceso menos privilegiado, autenticación
continua y la microsegmentación
para garantizar que incluso los usuarios internos sean verificados antes de acceder a recursos
confidenciales Micro segmentación. Utilice la microsegmentación para dividir su entorno híbrido
en segmentos más pequeños, aislando las cargas de trabajo y limitando el impacto de las brechas de seguridad Un ejemplo, en la organización
Williams, la microsegmentación se
puede utilizar para aislar diferentes partes de
la infraestructura híbrida, asegurando que incluso si se incumple el entorno de la
nube,
el sistema
mainframe permanece seguro Mejores prácticas para la seguridad en la nube
híbrida. Para proteger eficazmente los entornos
híbridos, es esencial seguir las
mejores prácticas que aborden los desafíos únicos
de administrar infraestructuras
tanto en las instalaciones como en
la nube. Implementar seguridad
de múltiples capas. Utilice un enfoque de
seguridad de múltiples capas que incluya cifrado, control de
acceso, monitoreo
y detección de amenazas. Este enfoque por capas asegura que incluso si una
capa se ve comprometida, las capas restantes
continúan protegiendo el sistema. Cifrado. Utilice el cifrado tanto para los datos en tránsito como
para la dirección de datos. Gestión de Identidad. Utilice
mecanismos de autenticación fuertes como MFA y RBAC Monitoree continuamente su entorno híbrido con herramientas como AWS CloudWatch, Azure Monitor o Splunk para obtener visibilidad
en tiempo
real de las amenazas de seguridad Monitoreo y respuesta de seguridad centralizados. Implemente un sistema
de monitoreo de seguridad centralizado para supervisar tanto sus entornos en la nube
como en las instalaciones. Tener un único punto de control permite a
los equipos de seguridad monitorear y responder a las amenazas rápidamente.
Respuesta a incidentes. Asegúrese de que su plan de respuesta a
incidentes incluya procedimientos tanto
para los sistemas en la
nube como en las instalaciones para que los equipos de
seguridad puedan responder a las amenazas en toda la infraestructura
híbrida. Auditorías periódicas de seguridad
y comprobaciones de cumplimiento. Realice auditorías de seguridad periódicas y verificaciones de cumplimiento
para garantizar que su
entorno híbrido se adhiera a las regulaciones de
la industria y a las políticas de seguridad
interna Las herramientas de automatización pueden ayudar con el monitoreo continuo del
cumplimiento. Monitoreo de cumplimiento. Utilice herramientas automatizadas
para monitorear
continuamente el cumplimiento regulaciones como
PCIDSS, GDPR e Las conclusiones clave de
esta lección incluyen,
uno, los entornos híbridos presentan desafíos de
seguridad únicos, incluida una superficie de
ataque ampliada, requisitos de seguridad de
datos
y administración de identidad
y acceso a través de sistemas
locales y en la nube Dos, el tránsito de datos de seguridad
con cifrado y el uso conexiones de red
dedicadas son cruciales para proteger los datos confidenciales a medida que se mueven entre entornos. tercer
lugar, adopte una
arquitectura de confianza cero e implemente políticas de seguridad
consistentes tanto en políticas de seguridad
consistentes tanto en entornos locales como en la nube para garantizar una
protección integral. Ganar actividad, reflexión. ¿Cómo protegería los datos
en tránsito y garantizaría políticas de seguridad
consistentes en todo su entorno híbrido? ¿Qué retos podrías enfrentar y cómo los
superarías? Pregunta de discusión,
post en el foro, ¿cómo gestiona su
organización la identidad y el
control de acceso tanto en la nube como en el entorno
local? ¿Cómo se asegura la consistencia
en las políticas de seguridad? Siguiente lección, desarrollar un marco de
seguridad en la nube híbrida. En la siguiente lección,
exploraremos cómo desarrollar un marco de
seguridad integral para entornos híbridos. Aprenderá a
incorporar elementos clave como cifrado, autenticación
multifactor y arquitecturas de confianza cero, y discutiremos las
mejores prácticas para proteger los datos tanto durante el
tránsito Listo para construir un marco
de seguridad para su nube híbrida. Pasemos a la lección
dos del Módulo seis. Um,
23. Lección 2: desarrollo de un marco de seguridad en la nube híbrida: Lección dos, desarrollar un marco de seguridad
en la nube híbrida. Bienvenido a la Lección
Dos del Módulo Seis. En esta lección, nos
centraremos en cómo desarrollar un marco de
seguridad integral adaptado a entornos de
nube híbrida. Para un
director de infraestructura de TI como William, construir un
marco de seguridad que incorpore elementos clave
como el cifrado, autenticación
multifactor
y las arquitecturas de confianza cero es crucial para proteger tanto
en sistemas principales como en entornos También nos sumergiremos en las
mejores prácticas para proteger los datos en tránsito
y la dirección de datos, asegurando el más alto nivel de seguridad en toda su infraestructura
híbrida. Al final de esta
lección,
aprenderá a crear un marco de seguridad
integral
en la nube híbrida con elementos clave
como cifrado, MFA y Zero Trust Para, explorar las mejores prácticas para proteger los datos durante el
tránsito y la dirección. Profundicemos en los componentes
esenciales del marco de seguridad de la nube
híbrida y cómo
implementarlos de manera efectiva. Elementos clave de un marco de seguridad
integral
en la nube híbrida. Un marco de seguridad sólido para entornos
híbridos
debe tener en cuenta los desafíos específicos de administrar tanto mainframes
locales como plataformas en la nube Vamos a desglosar
los elementos clave de este marco y
cómo implementarlos. Cifrado, protección de datos
en tránsito y dirección. El cifrado es fundamental
para cualquier marco de seguridad. En un entorno de nube híbrida, cifrado garantiza que los datos
confidenciales permanezcan protegidos a medida que se mueven entre el sistema local
y las plataformas en la nube, así
como cuando se almacenan
en cualquiera de los dos entornos. Cifrado en tránsito. Cifrar los datos durante la transferencia
entre sus sistemas en las instalaciones y en la nube es fundamental para evitar el acceso
no autorizado Utilice protocolos de encriptación TLS SSL
para todas las transferencias de datos. Las herramientas de ejemplo utilizan AWS Direct Connect o
Azure Express Route para conexiones cifradas seguras entre
centros de datos locales y la nube. Dirección de cifrado. Asegúrese de que los datos estén
cifrados cuando se almacenan
tanto en sus
sistemas mainframe locales como en el almacenamiento en la nube Utilice
herramientas nativas de la nube como AWS KMS o Azure Key volt para administrar claves de cifrado y proteger los datos
almacenados en la nube. Ejemplo, implementación, encriptar
registros financieros confidenciales y datos de clientes almacenados en AWS usando KMS para garantizar que incluso si el
almacenamiento en la nube está comprometido, los datos permanecen inaccesibles sin las claves de
descifrado adecuadas Tomemos un ejemplo.
El equipo de Williams puede usar el cifrado DLS para
asegurar la transferencia de datos financieros de los
clientes
desde el mainframe a AWS y KMS para garantizar los datos una vez que se
almacenan en la nube Esto garantiza que tanto los datos como el
tránsito y los datos abordados
estén completamente protegidos. Autenticación multifactor o MFA, fortaleciendo la protección de la
identidad Autenticación de múltiples factores, MFA agrega una capa adicional de seguridad al requerir que los usuarios
verifiquen su identidad
usando múltiples factores Normalmente, algo que
saben como una contraseña, algo que tienen
un token de seguridad o teléfono y algo
que son biométricos Soluciones de MFA en la Nube. En entornos Cloud, MFA se puede implementar usando
servicios como AWS MFA, Azure MFA o herramientas de
terceros MFA asegura que incluso si las credenciales de
un usuario
están comprometidas, atacantes no pueden acceder a sistemas
críticos sin el segundo factor de
autenticación Por ejemplo, la implementación,
requieren MFA para todos los inicios de sesión tanto en aplicaciones
Cloud como en sistemas locales, especialmente para usuarios
con acceso privilegiado, como administradores
e ingenieros de DevOps En Premisa MFA. Amplíe también las soluciones de MFA
a sus sistemas in situ. Integrar Active Directory
o LDAP con MFA y ayudar a proteger aplicaciones críticas en las
instalaciones como las que se ejecutan en su mainframe Tomemos un ejemplo. Para Williams Institution, se puede requerir
MFA para cualquier empleado que acceda al mainframe o a los
sistemas en la nube de forma remota, lo que garantiza que solo el personal
autorizado pueda acceder a los sistemas sensibles Arquitectura Zero Trust, no
confíe en nadie, siempre verifique. Un modelo de seguridad Zero Trust opera bajo el
principio de nunca confiar, siempre verificar, es
decir, que nadie, ya sea dentro o fuera la organización es de
confianza por defecto. Toda solicitud de acceso
debe ser autenticada, autorizada y validada
continuamente Acceso menos privilegiado. Aplicar el principio de menor
privilegio asegurando que los usuarios solo tengan acceso a
los recursos que necesitan para realizar su
trabajo y nada más. Esto limita el potencial de una brecha de seguridad al reducir la cantidad de sistemas a los que
un atacante puede acceder si
compromete una cuenta. Implementación de ejemplo, use
AWS IAM o Azure AD para crear controles de acceso basados en
roles RBAC que otorguen acceso
limitado a los recursos de
la nube en
función de las funciones del usuario
dentro de la organización Autenticación continua. Implementar
autenticación continua para garantizar que los usuarios permanezcan verificados durante toda
su sesión, especialmente para el acceso a datos o aplicaciones
confidenciales. Implementación de muestras, integración de verificación biométrica o autenticación basada en contexto, por ejemplo, detectar ubicaciones
o dispositivos de inicio de sesión
inusuales para agregar una
capa adicional de protección Tomemos un ejemplo. El equipo Williams podría usar AWSIAM para crear un estricto
acceso basado en reglas para diferentes Limitar a los ingenieros de DevOps
solo a los recursos
que necesitan para administrar las implementaciones
en la nube y, al mismo tiempo,
garantizar que los
administradores de mainframe solo tengan
acceso a Mejores prácticas para asegurar
datos en entornos híbridos. Los datos son el
activo más valioso en cualquier organización, especialmente para
industrias como las finanzas, donde proteger los datos de clientes y transacciones es fundamental. Estas son
las mejores prácticas para proteger los datos durante el tránsito y la dirección. Asegurar los datos en tránsito. Los datos que se mueven entre sus
sistemas locales y los entornos
Cloud son especialmente vulnerables
durante el tránsito. A continuación, le indicamos cómo asegurarlo
encriptar todas las transferencias. Cifrar siempre las
transferencias de datos utilizando protocolos de cifrado
SSL TLS para evitar la interceptación
por parte Ejemplo, para Williams
Financial Institution, DLS se puede utilizar para
cifrar datos que se mueven de bases de datos de mainframe a AWSs tres u otras Utilice conexiones de red privadas. En lugar de confiar en la Internet pública para
transferir datos confidenciales, use conexiones dedicadas como AWS Direct Connect o
Azure Express Route para crear conexiones privadas de alta
velocidad entre los sistemas locales
y en la nube. Tomemos un ejemplo.
El equipo de Williams puede configurar AWS Direct Connect para transferir de
forma segura los registros
de
transacciones del mainframe a la nube evitando el riesgo asociado con una Internet
pública Asegurar la dirección de datos. Los datos almacenados en
entornos Cloud o en sistemas
principales deben
cifrarse y
protegerse del acceso no autorizado. Cifrado en la nube, encripte todos los datos almacenados en la nube
usando herramientas como AWSKMS o Azure Keyvolt y asegúrese de que las claves de cifrado se administren y
roten correctamente Ejemplo, cifrar todos los datos de la
cuenta de cliente almacenados en la base de datos AWSRDS o Azure SQL
usando KMS Cifrado en las instalaciones. Para los sistemas mainframe, implemente el cifrado de datos
a nivel de almacenamiento utilizando herramientas de
cifrado integradas para proteger las bases de datos locales Por ejemplo, utilice la facilidad de
cifrado ZOS de IBM para cifrar la dirección de
datos del mainframe, asegurando que los registros
financieros de los clientes almacenados en el mainframe permanezcan seguros Un ejemplo, el equipo de Williams puede
asegurarse de que los datos de los clientes almacenados en el mainframe se cifren mediante el cifrado IBM
ZOS, mientras que los datos almacenados
en la nube están protegidos mediante AWS KMS Esto garantiza que
ambos entornos cumplan con los estándares de
cifrado necesarios. Supervisar y auditar su marco de seguridad
híbrido. El monitoreo y la auditoría regulares son fundamentales para garantizar que su marco de seguridad siga siendo efectivo y cumpla
con las regulaciones. A continuación, le indicamos cómo implementar
estos controles. Monitoreo centralizado. Utilice una solución de
monitoreo de seguridad centralizada para realizar un seguimiento las actividades tanto en entornos
locales como en la nube. Soluciones como AWS Cloud
Watch, Azure Security Center y Splunk proporcionan monitoreo en tiempo
real de eventos
de seguridad, lo que permite a su equipo detectar y responder a posibles
amenazas rápidamente Por ejemplo, implementar
AWS Cloud Watch para monitorear las actividades en la nube mientras usa Splunk para
rastrear eventos principales y generar alertas de seguridad
para cualquier comportamiento sospechoso Auditoría continua
y comprobaciones de cumplimiento. Las auditorías periódicas garantizan que
su marco de seguridad cumpla con los estándares
regulatorios y se adhiera a las políticas de seguridad internas Auditorías automatizadas. Utilice herramientas como AWS
Config o Azure Policy auditar automáticamente las configuraciones y garantizar el
cumplimiento de PCIDSS, GDPR y otras regulaciones de
la industria Por ejemplo, el equipo de Williams puede usar AWS Config para
verificar automáticamente que todos los recursos de la nube cumplan con los
requisitos de PCI DSS mientras ejecuta auditorías
periódicas en sistemas
mainframe para garantizar el cumplimiento del RGPD Los puntos clave de
esta lección incluyen, uno, un marco de
seguridad integral para entornos
híbridos que debe incluir elementos
clave como cifrado, autenticación
multifactor arquitecturas de confianza cero para
garantizar la
protección de datos
y el
acceso seguro a través de sistemas locales
y en Dos, el cifrado tanto para los datos en tránsito como para la
dirección de datos es esencial para evitar el acceso
no autorizado a información confidencial. Tres, son
necesarios controles regulares de monitoreo, auditoría y
cumplimiento para garantizar que
su marco de seguridad siga siendo efectivo y alineado con
los requisitos reglamentarios. Actividad de aprendizaje, reflexión. Considere las necesidades específicas del entorno
híbrido de
su organización. ¿Cómo se implementa el
cifrado, MFA y Zero Trust para asegurar
los sistemas locales
y en la nube Pregunta de discusión,
post en el foro. ¿Qué estrategias ha
implementado para proteger los datos en tránsito y la confianza de los datos en su entorno híbrido? ¿Cómo se asegura la
consistencia en ambas infraestructuras? Siguiente lección, cumplimiento
en un entorno híbrido. En la siguiente lección, nos
centraremos en el cumplimiento
en sistemas híbridos. Exploraremos los requisitos
regulatorios para las instituciones
financieras, el cuidado de la
salud y otras industrias reguladas y discutiremos cómo implementar monitoreo
continuo del cumplimiento en los sistemas Cloud y
mainframe Listo para garantizar que su entorno
híbrido cumpla con los estándares regulatorios. Pasemos a la lección
tres del Módulo seis.
24. Lección 3: cumplimiento normativo en un entorno híbrido: Cumplimiento en un entorno
híbrido. Bienvenido a la Lección
Tres del Módulo Seis. En esta lección,
exploraremos los requisitos regulatorios
para entornos híbridos, centrándonos en industrias como las
finanzas y la atención médica, que espacian estrictos mandatos de
cumplimiento. Administrar el cumplimiento
en sistemas híbridos donde los datos y las aplicaciones
se distribuyen entre
mainframes locales y entornos
Cloud presenta desafíos
únicos Discutiremos la importancia del
monitoreo
continuo del cumplimiento y cómo implementar sistemas que garanticen el cumplimiento tanto
en la nube como en la infraestructura
local. Al final de esta
lección,
comprenderá los requisitos
regulatorios
para las instituciones financieras, la para las instituciones financieras, atención médica y otras industrias
reguladas en entornos híbridos. En segundo lugar, aprenda a
implementar la supervisión continua del
cumplimiento tanto
en la nube como en los sistemas
mainframe para garantizar el cumplimiento de los estándares
regulatorios Comencemos por examinar los desafíos específicos de
cumplimiento enfrentan los sistemas
híbridos y
cómo abordarlos. Comprender
los requisitos reglamentarios para sistemas híbridos. En entornos híbridos donde se sistemas heredados como utilizan sistemas heredados como
mainframes y
plataformas en la nube, las organizaciones necesitan
cumplir con una variedad de requisitos
normativos
basados en su industria regulaciones clave de
cumplimiento Las regulaciones clave de
cumplimiento incluyen PCIDSS, GDPR
e HIPA, que requieren una
estricta protección de datos, controles de
privacidad y PCI DSS, estándar de seguridad de
datos de la industria de tarjetas de
pago Para organizaciones que manejan datos de tarjetas de
pago como Williams
Financial Institution, el cumplimiento de PCI
DSS es obligatorio Esta regulación garantiza que información de pago de
los clientes
esté protegida contra fraudes, incumplimientos y
accesos no autorizados Requisitos de cifrado. PCIDSS exige el cifrado de los datos
confidenciales del titular de la tarjeta durante transmisión a través de
redes abiertas y Tanto los entornos Cloud como los
locales deben implementar tecnologías de
encriptación. Ejemplo, encriptar todos los datos de los
titulares de tarjetas almacenados en mainframes y asegurar que cualquier dato de pago transferido a los sistemas
Cloud también esté Control de acceso, implementar control de acceso basado en
roles RBAC para limitar acceso a
los datos del titular de la tarjeta solo a aquellos empleados o sistemas que necesitaban para
realizar sus trabajos Tomemos un ejemplo. El equipo de Williams debe asegurarse de que todos los datos de pago de los clientes almacenados en la nube
y procesados por el mainframe estén cifrados usando criptografía
fuerte como AS 256 y que los controles de acceso se apliquen en ambos entornos
para cumplir con PCI DSS GDPR, Reglamento General de
Protección de Datos. Para las organizaciones que
operan dentro la Unión Europea o que
manejan datos de ciudadanos de la UE, GDPR requiere un
control estricto sobre cómo se almacenan,
procesan y transmiten los datos
personales. Derechos del sujeto de datos. GDPR otorga a los
sujetos de datos derechos
como el derecho al olvido y el derecho a
acceder a sus datos. Las organizaciones deben asegurarse que puedan localizar, recuperar y eliminar
datos personales cuando lo soliciten, independientemente de
si esos datos se almacenan en un mainframe
o en la nube Notificación de Violación de Datos. GDPR exige que cualquier violación de
datos que involucre datos
personales debe
ser reportada a las autoridades correspondientes
dentro de las 72 horas. Los entornos híbridos deben
tener la capacidad de detectar, registrar y responder a las
brechas rápidamente Tomemos un ejemplo. Williams Institution
debe asegurarse de que todos los datos de los clientes se
almacenen de conformidad con GDPR, lo que
significa que debe ser posible
recuperar o eliminar datos personales de
un cliente
tanto de las bases de datos de mainframe como del almacenamiento
en la nube a pedido HIPAA, Ley de Portabilidad
y Rendición de Cuentas del Seguro de
Salud En atención médica, HIPAA
establece requisitos para proteger la información de
salud protegida, Las organizaciones de atención médica que utilizan entornos de nube
híbrida deben
garantizar que la PHI esté debidamente protegida tanto en los sistemas locales
como en la nube. Cifrado de datos. La HIPAA
requiere el cifrado de PHI, tanto de dirección como en tránsito, ya sea que los datos se almacenen en mainframes o en
plataformas Cloud Rastros de auditoría. La HIPA exige la creación de pistas de auditoría
para rastrear quién accedió a la PHI, cuándo se accedió a ella
y con qué propósito Estos registros de auditoría
deben estar disponibles tanto
en la nube como
en los sistemas locales. Tomemos un ejemplo. Las organizaciones de atención médica como
hospitales o clínicas que utilizan mainframes para registros de
pacientes y servicios
en la nube para medicamentos de
conteo, deben garantizar que la PHI esté
encriptada en todas las etapas y que acceso a los datos del paciente esté completamente registrado y rastreable para
cumplir con los requisitos de HIPA Implementación de monitoreo continuo de
cumplimiento en entornos híbridos. Garantizar
el cumplimiento continuo en entornos híbridos es una tarea
desafiante pero necesaria. Con datos y
aplicaciones distribuidos entre mainframes locales
y plataformas en la nube, las organizaciones necesitan implementar soluciones de
monitoreo, proporcionar visibilidad
en tiempo real del estado de cumplimiento e identificar
posibles violaciones antes de liderar las sanciones
regulatorias Soluciones
de monitoreo centralizado. Una de las
formas más efectivas de monitorear el cumplimiento en entornos
híbridos es mediante implementación de soluciones de
monitoreo centralizadas. Estas herramientas proporcionan
una visión unificada del cumplimiento tanto en los sistemas
locales como en la nube, lo que permite a los equipos de seguridad detectar violaciones y responder
a las amenazas en tiempo real. Monitoreo basado en la nube. Herramientas como AWS CloudTrail, Azor y las operaciones de Google Cloud proporcionan información sobre las configuraciones de
recursos de la nube, los registros de
acceso y los eventos de
seguridad Estas herramientas ayudan a
monitorear el cumplimiento responsabilidades del proveedor de servicios en la
nube bajo el modelo de
responsabilidad compartida. Por ejemplo, el equipo de Williams puede usar AWS Cloud Trail
para monitorear el acceso y los cambios a los datos
financieros confidenciales en la nube, asegurando que solo los usuarios
autorizados realicen cambios y que todos los accesos
se registren para su cumplimiento. Monitoreo en las instalaciones. Para los sistemas mainframe, herramientas como Splunk
o IBM Z secure pueden rastrear eventos relacionados con el cumplimiento y detectar posibles violaciones Estas herramientas ayudan a
monitorear la actividad de los usuarios, acceso a
los datos y incidentes
de seguridad
dentro de los sistemas heredados. Por ejemplo, use IBM Z
secure para monitorear acceso a
bases de datos de mainframe y generar alertas si se detectan
intentos no autorizados Automatizar el
cumplimiento de políticas y alertas. Para mantener el
cumplimiento continuo, las organizaciones deben
automatizar la aplicación de políticas de seguridad y configurar alertas
de tiempo de calidad para
detectar cualquier infracción automatización del cumplimiento
reduce el riesgo de errores humanos y ayuda a garantizar que todos los sistemas manera consistente con los requisitos
reglamentarios Aplicación automatizada de políticas. Herramientas como AWS Config
o política de Azure para automatizar la aplicación de políticas de seguridad y
cumplimiento. Estas herramientas pueden
verificar automáticamente configuraciones como si el cifrado está habilitado o si los datos confidenciales
se almacenan de forma segura. Por ejemplo, el equipo de Williams
puede usar AWS Config para aplicar
automáticamente políticas de
cifrado para todos los datos
financieros almacenados en la nube, asegurando que los requisitos de PCI
DSS se cumplan en todos los recursos de
la nube Alertas en tiempo real,
configura alertas que notifiquen al equipo de seguridad cuando ocurran
violaciones de cumplimiento. Estas alertas pueden
basarse en eventos específicos como acceso
no autorizado
a los datos del cliente o configuraciones erróneas
en entornos de nube. Por ejemplo, use tablón para
generar alertas cuando usuarios
no autorizados
intenten acceder a datos
confidenciales almacenados
en el mainframe, asegurando que
se puedan tomar medidas inmediatas para evitar violaciones Auditoría
e informes continuos. Minetear el cumplimiento requiere una auditoría e
informes
continuos para identificar brechas y garantizar el cumplimiento de las normas
regulatorias Las auditorías regulares también ayudan a preparar a las organizaciones para
auditorías externas de los organismos reguladores. Herramientas de auditoría automatizadas. Utilice herramientas como AWS
Audit Manager, Azure Security Center o Google Cloud Audit Logs para
automatizar las auditorías de cumplimiento. Estas herramientas generan
informes que ayudan a rastrear el estado de
cumplimiento de la organización a lo largo tiempo e identificar
áreas de mejora. Por ejemplo, el equipo de Williams puede usar AWS Audit Manager para generar informes de auditoría
automatizados que rastreen el cumplimiento de PCIDSS, asegurando que todos los
sistemas que manejan datos de
pago cumplan con los estándares
regulatorios Tomemos un ejemplo. Para cumplir con la HIPAA,
una organización de atención médica podría usar Azure Security Center para auditar continuamente el
estado de cifrado de los datos de pacientes almacenados en la nube mientras
usa IBM Z secure para auditar registros de mainframe o
acceder a registros confidenciales Mejores prácticas para el cumplimiento
en entornos híbridos. Para gestionar satisfactoriamente el cumplimiento y los entornos
híbridos, siga las mejores prácticas. Implementar el modelo de
responsabilidad compartida. En entornos Cloud,
el cumplimiento es una responsabilidad compartida entre el proveedor de Cloud
y la organización. Mientras que los proveedores de nube gestionan la seguridad de la infraestructura
Cloud, las organizaciones son
responsables de asegurar sus aplicaciones de datos
y controles de acceso. Mejores prácticas. Comprenda el modelo de responsabilidad
compartida para cada proveedor de Cloud
y asegúrese de que las responsabilidades de cumplimiento de
su organización, como cifrado de
datos y la
administración de identidades , estén
completamente implementadas. Políticas de seguridad estandarizadas en todos los entornos. Para evitar inconsistencias, las políticas de
seguridad y cumplimiento deben estandarizarse tanto
en los sistemas
locales como en las plataformas en la nube Las políticas unificadas garantizan que se apliquen
los mismos
controles de seguridad independientemente de dónde
se almacenen
o procesen los datos . Mejores prácticas. Utilice herramientas de
administración de seguridad unificadas para aplicar políticas
consistentes en ambos entornos. Esto puede ayudar a garantizar que el
cifrado, el control de acceso y el registro se apliquen en cada capa de
su infraestructura. Garantizar la visibilidad y
la auditoría en todos los sistemas. Lograr el cumplimiento de normas requiere una
visibilidad
continua tanto de su entorno en la nube como
en las instalaciones. Implemente herramientas de auditoría que proporcionen información
en tiempo real sobre el acceso a los datos, configuración de
los sistemas y la actividad de los usuarios
en todos los sistemas. Mejores prácticas. Implemente soluciones
centralizadas de monitoreo y
auditoría para rastrear eventos de
cumplimiento y detectar
violaciones en tiempo real. conclusiones clave de
esta lección incluyen, una, el cumplimiento en
entornos híbridos es esencial para las industrias
reguladas
como las finanzas y la atención médica, que deben cumplir con estándares
como PCI DSS, GDPR e HIPA tanto en los sistemas locales como en la
nube Dos, implementar monitoreo continuo de
cumplimiento utilizando herramientas centralizadas que proporcionan
visibilidad en tiempo real del estado de
cumplimiento
tanto en estado de
cumplimiento mainframe como en el entorno de
nube Tres, automatice
las auditorías de cumplimiento, la aplicación de políticas y las alertas en tiempo real para
garantizar que los controles de seguridad se apliquen de manera consistente y que las violaciones se
detecten rápidamente. Ganar actividad, reflexión. ¿Cómo implementaría monitoreo
continuo de cumplimiento en su entorno híbrido? ¿Qué desafíos pueden
surgir al estandarizar las políticas
de seguridad en los sistemas
locales y en la nube Pregunta de discusión,
post en el formulario, ¿cómo
maneja su organización el cumplimiento
en todos los sistemas híbridos? Qué herramientas utiliza para supervisión
y auditoría
continuas y qué tan efectivas son la siguiente lección, gobernanza y gestión
de políticas. En la siguiente lección,
nos centraremos en la gobernanza y la gestión de políticas
en entornos híbridos. Aprenderá a aplicar
políticas tanto en la nube como en sistemas
heredados con
un enfoque en la privacidad de los datos, gestión de
riesgos y la recuperación
ante desastres. Preparados para enfrentar los desafíos de
gobernanza, pasemos a la lección
cuatro del Módulo seis.
25. Lección 4: gobierno y gestión de políticas: Lección cuatro, gobernanza
y gestión de políticas. Bienvenido a la Lección
Cuatro del Módulo Seis. En esta lección,
exploraremos el papel crítico de la gobernanza y la gestión de políticas en entornos de nube híbrida. Para un
director de infraestructura de TI como William, administrar una combinación de mainframes
locales y plataformas en la
nube requiere una gobernanza
sólida para garantizar la privacidad de los datos, gestión de
riesgos y recuperación
ante desastres en
ambas infraestructuras Esta lección
le proporcionará estrategias
para crear y hacer cumplir políticas de
gobierno
que sean consistentes y alineadas con los sistemas Cloud
y heredados. Al final de esta
lección,
comprenderá la importancia de la
gobernanza en entornos de
nube híbrida, incluida la gestión de la privacidad de los datos, la privacidad de los datos recuperación de
riesgos y desastres
para aprender a hacer cumplir gobernanza y la gestión de políticas manera consistente en la nube
y en los sistemas primarios Comencemos entendiendo por qué la gobernanza es tan crítica en entornos de nube
híbrida
y cómo desarrollar marcos de
gobierno
funcionan
tanto en sistemas heredados como modernos. Por qué la gobernanza es esencial
en entornos híbridos. gobernanza en
entornos híbridos consiste garantizar que
las políticas, los procesos
y los marcos de gestión de riesgos de su organización se apliquen de manera consistente tanto en
mainframes locales como en plataformas en la nube La complejidad de administrar ambas infraestructuras
simultáneamente requiere un
marco de gobierno sólido que aborde los desafíos únicos que
plantea
el entorno híbrido. Privacidad de datos, protegiendo
la información sensible. En entornos híbridos, las regulaciones de privacidad de
datos
como GDPR, PCIDSS e HIPA se aplican por igual a los datos locales
y a los datos almacenados en la nube Es fundamental contar políticas de
gobierno
que garanticen el
cumplimiento de estas regulaciones mediante implementación de estrictos controles de acceso a
datos, estándares de
cifrado
y políticas de privacidad. Políticas de control de acceso. Implemente controles de
acceso consistentes basados en roles RBAC
tanto en la nube como en los sistemas heredados para limitar quién puede
acceder a los datos confidenciales Esto minimiza el riesgo de violaciones de datos y
acceso no autorizado Ejemplo, el
equipo de Williams puede crear políticas de
control de acceso
unificadas que gobiernan el acceso tanto a las aplicaciones en la
nube, por ejemplo, AWS y Azure como a los sistemas
mainframe locales, asegurando que los datos de los clientes solo sean accesibles para el personal
autorizado Auditorías de privacidad de datos. Audite regularmente sus políticas de privacidad de
datos para garantizar que cumplan con las regulaciones y se apliquen de
manera consistente
en ambos entornos. Herramientas como AWS Config y Azure Security Center pueden ayudar a automatizar las comprobaciones de
cumplimiento de la privacidad. Tomemos un ejemplo. Para la
institución financiera Williams, los datos financieros de los clientes almacenados
en el mainframe deben ser tan seguros y privados como los mismos datos
almacenados en la nube Un marco de gobierno unificado garantiza que tanto los
entornos
locales como en la nube cumplan con los requisitos de
PCI DSS para privacidad y cifrado de datos Gestión de riesgos, gestión
proactiva de riesgos
de seguridad y cumplimiento gestión de riesgos en entornos
híbridos implica identificar, evaluar y mitigar los riesgos de seguridad
y cumplimiento que surgen del uso de sistemas
heredados
y plataformas en la nube marcos de gobierno
deben incluir políticas
claras sobre evaluación de
riesgos, respuesta a
incidentes y recuperación
ante desastres para proteger contra posibles
fallas o incidentes de seguridad. Marcos de Evaluación de Riesgos. Implementar un
marco de gestión de riesgos que cubra el riesgo específico asociado
con ambos sistemas mainframe, por
ejemplo, software obsoleto, agilidad
limitada y plataformas
en la nube Por ejemplo, las violaciones de datos
de riesgo de seguridad de terceros. Una evaluación regular de riesgos
ayuda a las organizaciones a anticipar vulnerabilidades
y abordarlas de manera proactiva Ejemplo, el
equipo de Williams puede realizar evaluaciones de riesgo
trimestrales que evalúen tanto la infraestructura
in situ, por ejemplo,
parches de seguridad de mainframe como servicios en la nube, por ejemplo, monitoreo de proveedores
externos Planes de respuesta a incidentes. marcos de gobierno
deben incluir procedimientos
detallados de respuesta a incidentes que
describan cómo la organización manejará las brechas de
seguridad
o fallas del sistema en un entorno híbrido Este plan debe cubrir tanto los incidentes en las instalaciones como en la nube. Tomemos un ejemplo. Para el equipo de Williams, el riesgo
de una violación de datos en la aplicación
alojada en la nube puede requerir herramientas de monitoreo en tiempo
real
como AWS Cloud Lodge, mientras que el riesgo de
falla del sistema en el mainframe puede requerir procedimientos de
recuperación establecidos y un plan de recuperación ante desastres Recuperación ante desastres, asegurando la continuidad del
negocio. entornos de nube híbrida
aumentan la complejidad de recuperación
ante desastres
porque los sistemas y los datos se distribuyen en
múltiples ubicaciones. marcos de gobierno
deben incluir planes
integrales de
recuperación ante desastres que garanticen la continuidad
del negocio en caso de falla del sistema, pérdida de
datos o
desastre natural. Políticas de respaldo. Establezca políticas de copia de seguridad claras
que garanticen que las copias de seguridad de datos se creen
regularmente tanto para mainframes
locales como para sistemas
en la nube Las copias de seguridad regulares deben
cifrarse y almacenarse en ubicaciones
seguras como centros de datos externos o almacenamiento en
frío en la nube Por ejemplo, el equipo de Williams puede programar copias de seguridad diarias de bases de datos de
mainframe y copias de seguridad
semanales en la nube para garantizar que los datos
críticos para el negocio estén siempre disponibles
para su recuperación Recuperación multi ambiente. Los planes de recuperación ante desastres deben tener en cuenta la complejidad de la
recuperación de sistemas tanto en
las infraestructuras locales como en la nube. Automatice los procesos de recuperación
cuando sea posible para reducir el tiempo de inactividad y garantizar la restauración
rápida de los servicios. Por ejemplo, use herramientas como AWS Elastic Disaster Recovery
para automatizar la recuperación los servicios
en la nube y
combinarla con procesos de recuperación
manual para el mainframe para crear un plan
unificado de recuperación ante desastres Tomemos un ejemplo.
El equipo de Williams podría desarrollar un plan de recuperación ante desastres que incluya copias de seguridad regulares de los datos de los
clientes tanto desde el
mainframe como desde la nube con la capacidad de pasar a los sistemas de
respaldo si alguno de los
entornos
experimenta tiempo sistemas de
respaldo si alguno entornos
experimenta Hacer cumplir
las políticas de gobierno en
la nube y los sistemas heredados Implementar y hacer cumplir políticas de
gobierno manera consistente en todos los sistemas
heredados y en la nube requiere el uso de marcos de gobierno y herramientas que puedan cerrar la brecha
entre ambos entornos Aquí hay
estrategias clave para garantizar que las políticas se apliquen
en todas las infraestructuras. Gestión unificada de políticas. Para administrar la gobernanza en entornos
híbridos, las organizaciones deben implementar herramientas de administración de políticas unificadas que brinden control
centralizado
sobre políticas y configuraciones tanto en los sistemas
locales como en la nube. Herramientas de aplicación de políticas. Utilice herramientas como Azure Policy, AWS Organizations y el servidor de seguridad de
IBM Z para aplicar políticas de seguridad y
gobernanza manera consistente en todos los sistemas. Estas herramientas permiten a
los administradores definir plantillas de
políticas que se pueden aplicar a los servicios en la nube
y a los recursos de mainframe Por ejemplo, el equipo de Williams puede usar política de
Azure para aplicar políticas de
cifrado de datos en todos los
servicios de almacenamiento en la nube mientras usa servidor de seguridad
IBM Z para aplicar las mismas políticas a las bases de datos de mainframe
locales Cumplimiento de los marcos
de políticas. La organización debe alinear
sus políticas de gobierno con
marcos ampliamente reconocidos como COVID o ISO IEC 27 001 para garantizar que las prácticas de
gobernanza cumplan con los estándares de la industria. Tomemos un ejemplo. Para la
institución financiera Williams, aplicación de políticas de control de
acceso consistentes en la nube y los sistemas
heredados garantiza que la información confidencial del
cliente permanezca protegida independientemente
de dónde se almacene. Automatizar el cumplimiento de políticas. La automatización es clave para hacer cumplir las políticas de
gobierno de manera consistente
en todos los sistemas híbridos Las herramientas de automatización pueden monitorear configuraciones
del sistema, detectar violaciones de políticas y tomar acciones correctivas
sin intervención manual. Auditoría automatizada. Utilice la
configuración de AWS o el monitor Azure para realizar comprobaciones continuas de
conformidad y auditar las configuraciones de su
entorno en la nube, asegurando que el sistema
cumpla siempre con los requisitos de gobernanza y
seguridad. De manera similar, use herramientas de
monitoreo de mainframe como Splunk o Z secure para garantizar que sistemas de
políticas cumplan con las políticas de la
organización Por ejemplo, el
equipo de Williams puede configurar reglas de configuración de
AWS que verifiquen
automáticamente si los sistemas de
almacenamiento basados en la nube cumplen con las políticas de cifrado. Cualquier infracción desencadena una alerta asegurando que se puedan tomar
medidas inmediatas. Acciones correctivas.
Automatice las acciones correctivas cuando
se detecten violaciones de políticas. Por ejemplo, si se infringe una
política de cifrado, herramientas como AWS Systems Manager
o Azure Automation pueden aplicar
automáticamente la configuración
correcta para devolver los sistemas
a la conformidad. Tomemos un ejemplo. El equipo de Williams puede usar la
política de Azure para corregir automáticamente cualquier configuración en la nube que infrinja las políticas de cifrado o control de
acceso, asegurando el cumplimiento sin intervención
manual. Monitoreo de
gobernanza multiplataforma. gobernanza en entornos
híbridos requiere herramientas que proporcionen
una visión única de la seguridad, cumplimiento y la adherencia
a las políticas tanto en la nube como
en los sistemas locales. Tableros centralizados. Utilice paneles de
control centralizados que proporcionan una visión holística
del estado de seguridad
y cumplimiento de la organización en todos los sistemas Herramientas como AWS Control Tower, un centro de seguridad o Splunk
pueden agregar datos
tanto de entornos Cloud como heredados para brindar a
los administradores una visibilidad completa del cumplimiento de políticas Por ejemplo, el equipo de Williams puede usar AWS Control Tower para monitorear cumplimiento en
varias cuentas en la nube mientras usa Splunk para rastrear incidentes de
seguridad y violaciones de
políticas
en el mainframe Tomemos un ejemplo. Al integrar datos de AWS y el mainframe en
un panel centralizado, organización
Williams puede
monitorear el cumplimiento de las políticas y garantizar que
ambos entornos
cumplan con los estándares de gobierno Mejores prácticas para la gobernanza de la nube
híbrida. Para garantizar la gobernanza en entornos
híbridos, la organización debe seguir
estas mejores prácticas. Establecer un
marco de gobierno temprano. Establezca un
marco de gobierno desde el principio que
describa las políticas,
roles y responsabilidades clave para administrar los sistemas Cloud y
on premise. Esto asegura que todos
en la organización entiendan su papel en mantenimiento de la gobernanza
y el cumplimiento. Las mejores prácticas, desarrollar
un marco de gobierno alineado con los estándares de la industria
como COBIT o NIST, que pueden servir como base para administrar el cumplimiento de riesgos y la privacidad de datos en todo el entorno
híbrido Garantizar la
consistencia en todos los sistemas. Garantizar que las políticas gubernamentales, ya sea para la privacidad de los datos, la gestión de
riesgos
o la recuperación ante desastres, se apliquen manera consistente
tanto en las plataformas
en la nube como en los sistemas heredados. Esto reduce el riesgo
de violaciones de seguridad o
incumplimiento debido a la aplicación de políticas
inconsistentes Las mejores prácticas, use herramientas de administración de políticas
unificadas para aplicar políticas a todos los sistemas y audite regularmente las configuraciones
para garantizar la consistencia. Aplicación automatizada de políticas. Automatizar la gobernanza
y la gestión de políticas en entornos híbridos es fundamental para reducir los errores
manuales y
garantizar el cumplimiento Mejores prácticas. Implemente herramientas
automatizadas que puedan monitorear, auditar y hacer cumplir
las políticas de gobierno en tiempo real, permitiendo a la
organización detectar y responder a
las violaciones de políticas de inmediato. Las conclusiones clave de esta
lección son las siguientes. Primero, los marcos de gobierno en entornos
híbridos deben
abordar la privacidad de los datos, gestión de
riesgos y la recuperación
ante desastres para proteger tanto los sistemas en la nube
como en las instalaciones. En segundo lugar, utilice herramientas
unificadas de administración de políticas para hacer cumplir la gobernanza manera consistente en
todos los sistemas y automatizar las comprobaciones de cumplimiento para reducir el riesgo de errores humanos. Tres, la supervisión centralizada
permite
a las organizaciones mantener la visibilidad del cumplimiento de
políticas en todas las infraestructuras
híbridas, que garantiza que tanto las plataformas
en la nube como los sistemas heredados se gobiernen de manera efectiva.
Actividad ganadora. Reflexión. ¿Cómo
implementarías políticas de gobierno que aborden tanto los sistemas
on-premise como en la nube
en tu entorno híbrido? ¿Cuáles son los retos clave que esperas y cómo los
superarías? Pregunta de discusión,
post en el foro, ¿cómo su
organización impone las políticas de
gobierno a través del entorno
híbrido? ¿Qué herramientas o estrategias
ha encontrado más efectivas para garantizar el cumplimiento
y el cumplimiento de las políticas? Siguiente lección, herramientas de monitoreo
para entornos híbridos. En el siguiente módulo,
exploraremos monitoreo
del rendimiento en entornos de nube
híbrida. Aprenderá a usar herramientas
como AWS Cloud Watch, Datadog, Splunk para configurar paneles y
realizar un seguimiento del estado del sistema en los sistemas Cloud y realizar un seguimiento del estado del sistema en mainframe Emocionado por aprender a monitorear y optimizar sus sistemas
híbridos. Pasemos al Módulo Siete.
26. Lección 1: herramientas de monitoreo para entornos híbridos: Bienvenido al Módulo siete, optimizando y administrando sistemas de nube
híbrida
para el rendimiento. En el módulo final,
los alumnos aprenderán a monitorear
y optimizar
continuamente el rendimiento de sus sistemas de nube
híbrida. Los temas incluyen la supervisión del
rendimiento, equilibrio de
carga entre
mainframes y la nube, la optimización de
costos y la
solución de problemas comunes El módulo también
cubre estrategias de recuperación
ante desastres y continuidad del
negocio en entornos
híbridos. Lección uno, herramientas de monitoreo
para entornos híbridos. Bienvenido a la Lección
Uno del Módulo Siete. En esta lección, exploraremos las
herramientas de monitoreo más importantes para rastrear el rendimiento en entornos de
nube híbrida. Para un
director de infraestructura de TI como William, administrar tanto
mainframes locales como plataformas en la nube requiere una visibilidad profunda del rendimiento de
ambas infraestructuras En esta lección,
analizaremos herramientas como AWS, CloudWatch, Datadog y Splunk y
cómo se pueden usar
para monitorear el estado y el
rendimiento del sistema rendimiento También aprenderemos
a configurar cuadros de mando
y alertas para adelantarnos a los problemas
de rendimiento Al final de esta
lección, primero,
comprenderá cómo usar las herramientas de monitoreo del
rendimiento E para rastrear el estado del sistema
tanto en la nube como en los sistemas
locales. Aprender a
configurar dashboards y alertas para monitorear el
rendimiento y el
estado del sistema en tiempo real Profundicemos en las herramientas
y mejores prácticas para monitorear el rendimiento
en entornos híbridos. Descripción general de las
herramientas clave de monitoreo para entornos híbridos. Los entornos híbridos
introducen complejidad cuando se trata de
monitoreo, ya que los datos de
rendimiento
se distribuyen
tanto en plataformas de nube como en
mainframes de infraestructuras locales Para garantizar un monitoreo sin interrupciones, la organización necesita herramientas que brinden visibilidad en
ambos entornos. Estas son tres de las herramientas más
potentes y ampliamente utilizadas para monitorear entornos
híbridos,
AWS CloudWatch, Datadog Supervisión de la nube nativa de AWS
Cloud Watch. AWS CloudWatch es el servicio
nativo de monitoreo y
observabilidad de Amazon que
proporciona métricas,
registros y alarmas en tiempo real para
su infraestructura de AWS Es una poderosa herramienta para rastrear el estado
y el rendimiento de las aplicaciones,
servicios y recursos basados en la
nube. Métricas y registros. CloudWatch
recopila y rastrea métricas en todo, desde la utilización de la
CPU y DiO hasta la latencia de llamadas a la API También puede monitorear los registros de las
aplicaciones, proporcionando información sobre errores, advertencias y cuellos de botella de
rendimiento Por ejemplo, el equipo de Williams puede usar CloudWatch para monitorear
el rendimiento de sus aplicaciones
web orientadas al cliente alojadas en AWS EC two, rastrear la utilización de la CPU y configurar alarmas
para picos repentinos Tableros de mando y alarmas. CloudWatch le permite
crear paneles personalizados
que visualizan métricas
clave de rendimiento
y establecen alarmas para activar notificaciones cuando se cruza
un umbral Por ejemplo, puede
recibir alertas si uso de CPU de
una base excede un cierto porcentaje
durante un período prolongado. Por ejemplo, cree un panel de control de
CloudWatch que monitoree la ayuda instantánea de EC
two, rendimiento de
RDS y las métricas de almacenamiento S
three para que la
infraestructura de Williams Cloud funcione sin problemas Tomemos un ejemplo del mundo real. El equipo de William puede usar
CloudWatch para monitorear el rendimiento de su
aplicación de banca móvil
basada en la nube , asegurando que la latencia
y el uso de la CPU permanezcan dentro de los rangos aceptables Si surgen problemas de rendimiento, el equipo puede
identificar rápidamente si el problema radica en la infraestructura de la nube u otro componente del sistema. Monitoreo de pila completa de Datadog
para entornos híbridos. Datadog es una plataforma de
monitoreo nativa en la nube que proporciona visibilidad de pila
completa en entornos de
nube en infraestructura
y aplicaciones locales Es especialmente
adecuado para entornos
híbridos porque se integra con
cientos de herramientas incluidas plataformas Cloud
y sistemas heredados. Monitoreo multiplataforma. Datadog le permite monitorear toda
su infraestructura híbrida
desde una sola plataforma Puede realizar un seguimiento
de métricas de AWS, Azure, Google Cloud y sistemas
locales, lo que le
brinda una visión unificada del rendimiento
en todos los entornos. Ejemplo, el equipo de Williams puede
usar Datadog para monitorear tanto el rendimiento
de las cargas de trabajo en la nube mainframe
responsables
del procesamiento de backend,
asegurando que ambos sistemas asegurando que Monitoreo del desempeño de aplicaciones, APM. Datadog incluye capacidades
APM integradas para realizar un seguimiento del rendimiento a nivel de
aplicación,
incluido el
tiempo de respuesta, las
consultas de la base de datos y las tasas de error Esto es útil para monitorear aplicaciones distribuidas
complejas para abarcar tanto las infraestructuras locales como en
la nube. Por ejemplo, el equipo de Williams puede usar APM para realizar un seguimiento
del rendimiento de
la aplicación de banca móvil y, al
mismo tiempo, garantizar que las interacciones de
mainframe se manejen de manera rápida y eficiente Tableros de mando y alertas.
Al igual que CloudWatch, Datadog le permite crear paneles
personalizados y establecer alertas para notificarle
cuando se exceden los umbrales de rendimiento Por ejemplo, el equipo de Williams puede
crear paneles para visualizar tanto las
métricas de rendimiento de la nube como latencia de la
red y la utilización de
recursos métricas de carga de trabajo de
mainframe como velocidad de
transacción
y la carga de procesamiento Tomemos un ejemplo. Para William, Beta Dog
ofrece la capacidad de
monitorear el
rendimiento de extremo a extremo en todo el entorno
híbrido. Su equipo puede rastrear
la latencia de la API en la nube junto con la velocidad de
transacción del mainframe, asegurando que ambos
sistemas estén funcionando manera óptima para respaldar sus aplicaciones orientadas
al cliente Splunk, analizando registros
y monitoreando eventos. Splunk es una
plataforma avanzada para la gestión de registros, monitoreo de
eventos y análisis de datos en tiempo
real Es particularmente potente
para el monitoreo de mainframe, pero también se integra bien con entornos
en la nube.
Análisis logarítmico. Splunk recopila registros de
todo su entorno híbrido, lo que le permite analizarlos en
busca de problemas de rendimiento, amenazas de
seguridad
y eventos del sistema Sus potentes capacidades de búsqueda y
correlación le
permiten investigar
problemas rápidamente. Por ejemplo, el equipo de Williams puede usar Splunk para analizar
registros de mainframe o errores
de transacción o botella de rendimiento al
mismo tiempo que analiza registros de los servicios de AWS Monitoreo de eventos y alertas. Splunk puede monitorear eventos en tiempo
real y configurar alertas basadas
en datos de rendimiento Por ejemplo, puede recibir alertas cuando haya intentos
fallidos de inicio de sesión en sistemas mainframe o cuando el uso de CPU aumente en
su entorno de nube Ejemplo, el equipo de Williams puede
configurar alertas de Splunk para notificarles sobre
comportamientos inusuales como intentos
fallidos de acceder a datos
confidenciales en el mainframe, asegurando que cualquier riesgo de seguridad se aborde Tableros de mando e informes. Splunk ofrece paneles
personalizables que proporcionan una visión general clara del estado del sistema con
la capacidad de
profundizar en
métricas específicas o registrar eventos Se pueden generar reportes, analizar tendencias de desempeño a lo largo tiempo. Tomemos un ejemplo. Para la
institución financiera Williams, Splunk se puede utilizar para monitorear los registros de
transacciones en
el mainframe y
al mismo tiempo rastrear
el rendimiento de servicios basados en la
nube
como AWS Splunk proporciona
información sobre cómo
funciona
el entorno híbrido en su conjunto Configuración de cuadros de mando y alertas para el
monitoreo del rendimiento híbrido Una vez que haya seleccionado
sus herramientas de monitoreo, el siguiente paso es
configurar paneles y alertas para realizar un seguimiento de las métricas
clave de rendimiento Esto le permite
monitorear el estado del sistema en tiempo
real y responder manera proactiva a cualquier
problema que surja Configuración de panel personalizado. Los paneles proporcionan una
visión general visual del estado del sistema, lo
que facilita el seguimiento múltiples métricas de rendimiento
tanto en los sistemas Cloud como en los sistemas
primarios. A continuación, le indicamos cómo configurar cuadros de mando
efectivos. Seleccione métricas clave. Identificar las
métricas más importantes a realizar un seguimiento. Por ejemplo, supervise la
utilización de la CPU, el uso de memoria, E/S del
disco, la latencia de la red y los tiempos de respuesta de las aplicaciones tanto
para los sistemas en la nube como
en las instalaciones. Por ejemplo, el equipo de Williams puede
crear un panel que rastree el uso de la CPU de dos instancias de
AWS EC, la latencia de las aplicaciones orientadas
al cliente y la
velocidad de procesamiento de transacciones en el mainframe Crear visualizaciones en tiempo real. Utilice herramientas como AWS
Cloud Watch, Datadog o Splunk para crear gráficos, medidores y mapas de visitas
que muestren datos de rendimiento que muestren Asegúrese de que su tablero sea fácil de interpretar de un
vistazo. Ejemplo, configure un mapa de
visitas que muestre latencia en tiempo
real para todos los servicios en la nube mientras rastrea los
tiempos de transacción en el mainframe Configuración de alertas para monitoreo
proactivo. Las alertas notifican a su equipo de cualquier
problema potencial de rendimiento o falla del sistema, lo que le permite tomar medidas
correctivas antes de que
los problemas se intensifiquen. A continuación, le indicamos cómo configurar alertas
efectivas. Definir umbrales, establecer umbrales de rendimiento
para métricas clave Por ejemplo, es posible que desee recibir una alerta si el uso de la CPU supera el 85% durante más de 10 minutos o si la latencia de la red
aumenta inesperadamente Por ejemplo, el equipo de Williams puede configurar una alerta
para notificarles si utilización de la CPU de dos instancias de
AWS EC supera el 85% o si las velocidades de
transacción de mainframe caen por debajo de cierto umbral A los métodos de notificación. Decide cómo quieres que
te avisen. Puede configurar
notificaciones por correo electrónico, alertas por SMS o incluso integrarse
con herramientas como Slack o Microsoft Teams o colaboración en tiempo
real. Por ejemplo, el equipo de Williams puede recibir alertas a través de Slack cuando surgen problemas de
rendimiento, lo que les permite responder rápidamente y colaborar
en tiempo real. Mejores prácticas para monitorear sistemas de nube
híbrida. Para aprovechar al máximo
sus herramientas de monitoreo, siga estas mejores prácticas. Concéntrese en la visibilidad de extremo a extremo. Asegúrese de que su estrategia de
monitoreo cubra todo el sistema híbrido, incluidas las aplicaciones en
la nube y la infraestructura local. Esto le dará una visión
integral del rendimiento en
todos los entornos. La mejor práctica es utilizar
herramientas como Datadog o Splunk para consolidar el monitoreo en los sistemas de nube y
mainframe, asegurando que puede
realizar un seguimiento del rendimiento en todo
el entorno híbrido
desde Automatice las alertas para obtener respuestas
rápidas. Configura
alertas automatizadas para notificar a tu equipo de
problemas de desempeño en tiempo real. Las alertas automatizadas reducen el
riesgo de error humano y aseguran que los problemas se aborden antes de que
afecten a los usuarios finales. La mejor práctica es usar
Cloud Watch o Datadog para automatizar alertas basadas en umbrales clave de
rendimiento, como un uso elevado de CPU o
aumentar Refina continuamente los
cuadros de mando y las métricas. Sus necesidades de monitoreo
evolucionarán con el tiempo. Perfeccione continuamente sus
cuadros de mando y métricas para asegurarse de que reflejen objetivos de
rendimiento de
su organización Práctica recomendada: revise regularmente sus paneles y ajústelos según sea necesario para rastrear nuevas métricas, servicios o cuellos de
botella de rendimiento Las conclusiones clave de
esta lección incluyen una,
AWS Cloud Watch, Datadog
y Splunk son
potentes herramientas de monitoreo
para entornos híbridos, y Splunk son potentes herramientas de monitoreo
para entornos híbridos proporcionan información en
tiempo real sobre el rendimiento
tanto en la nube como en las Dos, configure un panel personalizado y alertas para realizar un seguimiento de las
métricas clave de
rendimiento en su entorno híbrido, asegurando que sus sistemas
funcionen sin problemas
y de manera eficiente. Tres, siga las mejores prácticas como
garantizar la visibilidad integral, automatizar las alertas
y
refinar continuamente su estrategia de
monitoreo para optimizar el rendimiento Ganar actividad, reflexión. ¿Qué herramientas de monitoreo
implementarías para rastrear el rendimiento de tu entorno de nube
híbrida? ¿Qué métricas
priorizarías para garantizar el estado
y el rendimiento del sistema Pregunta de discusión
planteada en el foro. ¿Qué desafíos ha
enfrentado al monitorear el rendimiento
en todos los sistemas híbridos? ¿Cómo has superado estos retos y
qué herramientas usas? Siguiente lección, ajuste del rendimiento en arquitecturas de nube híbrida En la siguiente lección, nos
sumergiremos en estrategias de
ajuste de rendimiento para arquitecturas de nube
híbrida Aprenderá a optimizar la distribución de la
carga de trabajo entre entornos
locales y en la nube, reducir la latencia y mejorar el rendimiento
del sistema. Listo para afinar su entorno
híbrido
para obtener el máximo rendimiento, pasemos a la lección
dos del Módulo siete.
27. Lección 2: afinación del rendimiento en arquitecturas de nube híbrida: Lección dos, ajuste del rendimiento en arquitecturas de nube híbrida Bienvenido a la Lección
Dos del Módulo Siete. En esta lección,
exploraremos estrategias de
ajuste de rendimiento para arquitecturas de nube
híbrida, centrándonos en cómo optimizar la distribución de la
carga de trabajo, reducir la latencia y mejorar el rendimiento
general del sistema Para un
director de infraestructura de TI como William, optimizar el
equilibrio entre los mainframes
locales y los
entornos en la nube es crucial para garantizar que las aplicaciones
y los servicios funcionen sin
problemas sin cuellos de botella ni retrasos Al final de esta
lección, uno
aprenderá estrategias para optimizar distribución de la
carga de trabajo entre el entorno
local y la nube. Dos, comprender cómo
reducir la latencia, administrar el uso de recursos y
mejorar el rendimiento del sistema. Profundicemos en
las mejores prácticas para optimizar el rendimiento en entornos de nube
híbrida y cómo
garantizar que sus sistemas estén sintonizados
para lograr la máxima eficiencia. Optimización de
la distribución de la carga
de trabajo entre entornos locales y
en la nube. Los sistemas de nube híbrida
a menudo implican cargas de trabajo que se ejecutan tanto en sistemas
mainframe heredados como en plataformas de nube modernas La
distribución eficiente de la carga de trabajo es fundamental para garantizar
que cada entorno esté acostumbrado a sus puntos fuertes
y que el rendimiento se maximice en
toda la infraestructura Colocación de la carga de trabajo, determinando el mejor ajuste para
cada entorno. Decidir dónde
colocar las cargas de trabajo, ya sea en mainframes
o en la nube es el primer paso para
optimizar el rendimiento diferentes cargas de trabajo tienen
diferentes requisitos en términos de latencia, potencia
informática y sensibilidad de
datos que deberían guiar
su ubicación En mainframes locales, los
mainframes son ideales para cargas de trabajo que requieren alta potencia de procesamiento, manejo de
transacciones de
baja latencia y estrictos controles de seguridad, especialmente en entornos bancarios y
financieros procesamiento en tiempo real de las transacciones de
los clientes y procesamiento
por lotes
de grandes conjuntos de datos son los más adecuados para mainframes Por ejemplo, el equipo de William puede decidir si el procesamiento de
transacciones en tiempo real en el mainframe donde la
velocidad y la seguridad son primordiales al
migrar
cargas de trabajo de análisis a Plataformas en la nube. Las plataformas en la nube son las más adecuadas para cargas de trabajo
que requieren escalabilidad, elasticidad y procesamiento
distribuido análisis de datos, las aplicaciones
web y los
servicios orientados al cliente pueden beneficiarse de la flexibilidad de los entornos
en la nube. Por ejemplo, el equipo de Williams puede trasladar
aplicaciones web orientadas al cliente a la nube para aprovechar la
escalabilidad de las máquinas virtuales AWS EC two o Azure que pueden manejar
grandes volúmenes de tráfico de usuarios Tomemos un ejemplo. Para Williams Financial
Institution, mantener el
procesamiento de transacciones en el mainframe garantiza que las transacciones de
los clientes
se procesen forma segura y rápida, mientras que la
migración del análisis de datos a la nube permite que
el equipo
aproveche la elasticidad
de la computación en la nube Estrategias de
distribución de cargas de trabajo híbridas. Existen varias estrategias para distribuir la carga de trabajo entre los sistemas de nube
híbrida
dependiendo de los objetivos de rendimiento y la arquitectura
del sistema. Aquí hay algunas estrategias clave. Estrategia DataFirst. En una estrategia de data First, los datos permanecen en las instalaciones, por
ejemplo, en el mainframe, mientras que el procesamiento
y las aplicaciones se alojan en la nube Esto reduce la necesidad migración de
datos y
ayuda a mantener el control sobre los datos confidenciales mientras se
descargan tareas intensivas de cómputos a la nube Por ejemplo, el equipo de William podría mantener
datos financieros confidenciales en el mainframe mientras ejecuta modelos de análisis de datos y aprendizaje
automático en AWS para aprovechar
sus recursos informáticos Procesar la primera estrategia. En una estrategia de proceso primero, la
tarea de levantamiento pesado, por ejemplo, computación o almacenamiento se
realiza en la nube mientras que ciertos procesos permanecen en instalaciones por razones de cumplimiento
o latencia Esto es útil para
aplicaciones que necesitan
mantener un acceso de baja latencia
a sistemas específicos. Por ejemplo, el equipo de Williams puede optar por procesar los registros de
transacciones en la nube pero mantener los sistemas
financieros en tiempo real en el marco principal para tareas críticas de baja latencia. Tomemos un ejemplo. Mediante
una estrategia de bosque de datos, institución
Williams puede mantener todos los datos financieros confidenciales
en las instalaciones mientras aprovecha servicios en
la nube
como las funciones de AWS Lambda o Azure o
procesa datos a escala Esto equilibra la necesidad de
seguridad y escalabilidad. Reducción de la latencia en un entorno de nube
híbrida. Latencia, el tiempo que tardan
los datos en viajar entre sistemas puede afectar significativamente el rendimiento de los sistemas de nube
híbrida. Reducir la latencia es esencial
para el procesamiento en tiempo real, especialmente en
entornos bancarios donde los retrasos pueden afectar las transacciones
y la experiencia del cliente. Optimización de redes,
mejorando la conectividad. En entornos híbridos, latencia de la
red es un cuello de botella
común, especialmente cuando
los datos se transfieren entre los
sistemas primarios y la nube Optimizar
el rendimiento de la red es fundamental para reducir la latencia. Conexiones de red dedicadas. Utilice conexiones dedicadas como AWS Direct Connect o
Azure Express Route para crear un enlace seguro de alta velocidad entre sus propios
sistemas principales y la nube. Estas conexiones evitan
la Internet pública, reduciendo
significativamente la latencia
y mejorando la confiabilidad. Por ejemplo, el
equipo de Williams puede implementar AWS Direct Connect para asegurar transferencia de datos
de Mainare a Garantizar una
conectividad rápida y confiable sin los retrasos asociados con las transferencias basadas en
Internet. Redes de entrega de contenido o CDN. Utilice CDN para almacenar en caché contenido estático como elementos de páginas web
más cerca de los usuarios finales, reduciendo la latencia y acelerando tiempos de
respuesta para las aplicaciones
orientadas al cliente alojadas en la nube Por ejemplo, para las aplicaciones web
orientadas al cliente de Williams, implementación de AWS Cloudfront
como CDN garantizará que el contenido web se entregue rápidamente independientemente de
la ubicación del usuario Tomemos un ejemplo. Al configurar AWS
Direct Connect para gestionar las transferencias de datos entre marco de
dominio y los servicios en la nube, equipo de
Williams puede reducir
significativamente la latencia, asegurando que los datos de las transacciones en
tiempo real se procesen sin demoras. Minimizar la latencia
en el procesamiento de datos. La latencia en el
procesamiento de datos puede ocurrir cuando las aplicaciones necesitan acceder a los datos almacenados en
diferentes entornos. Las estrategias para
reducir este tipo de latencia incluyen edge computing. En ciertos casos, la implementación recursos de computación
perimetral puede acercar el procesamiento a la fuente de
datos o al usuario final. Estos datos. Esto reduce la distancia que
los datos necesitan recorrer, mejorando el rendimiento para aplicaciones sensibles al
tiempo. Un ejemplo, el
equipo de Williams podría usar hierba verde de
AWS para
ejecutar aplicaciones en el borde más cerca de
sus fuentes de datos, reduciendo la necesidad de transferir
datos de un lado a otro
entre la nube y los sistemas
locales. Almacenamiento en caché de datos Implemente
estrategias de almacenamiento en caché para almacenar datos a los que se accede
con frecuencia
más cerca de la aplicación, ya sea en las
instalaciones o en la nube Esto reduce la
necesidad de obtener
datos constantemente de ubicaciones remotas, lo que puede agregar retrasos
significativos. Por ejemplo, el equipo de William puede almacenar en caché los
historiales de transacciones de los clientes localmente en el mainframe para una rápida
recuperación mientras usa almacenamiento en
la nube o datos de archivo a los que se accede Tomemos un
ejemplo. Al configurar los recursos de edge computing, equipo de
Williams puede procesar análisis en tiempo
real en el borde, reduciendo la latencia
que podría ocurrir si los datos tuvieran que ser enviados de vuelta a un entorno de nube
centralizado. Administrar el uso de recursos
para mejorar el rendimiento. La administración de recursos es crucial para el ajuste del rendimiento en entornos de nube
híbrida. Asegurar que los recursos se
utilicen de manera eficiente
tanto en la nube como en los sistemas de
primate puede evitar el aprovisionamiento
y la infrautilización Autoescalado en la Nube. Uno de los beneficios clave de los entornos
en la nube
es el autoescalado, que
ajusta automáticamente el número de recursos informáticos en
función de la demanda Esto asegura que las aplicaciones siempre aumenten siete recursos durante períodos de alta demanda mientras minimizan los costos durante el período de uso
bajo. Escalado vertical y horizontal. Las plataformas en la nube como AWS y Azure admiten tanto el escalado
vertical, que está agregando
más recursos a una sola instancia como el escalado
horizontal, que está agregando más instancias. Los grupos de autoescalado pueden ajustar
automáticamente los niveles
de recursos en función de umbrales
predefinidos Por ejemplo, William
Stein puede configurar escalado automático de
AWS para garantizar
que los recursos
de la nube aumenten durante el pico de tráfico o su
aplicación de banca móvil y se
reduzcan durante
las horas libres para ahorrar costos Tomemos un ejemplo.
Al habilitar el escalado automático, equipo de
Williams puede garantizar que la infraestructura de la nube
se
ajuste automáticamente en función de la demanda de los usuarios, lo que permite que la aplicación de
banca móvil maneje picos en el tráfico sin
degradar el rendimiento Administración de recursos de mainframe. Los mainframes locales tienen
un conjunto fijo de recursos. La administración de recursos consiste en optimizar la forma en que esos recursos se asignan
a diferentes cargas de trabajo Las técnicas incluyen la programación de
cargas de trabajo, equilibrio de
carga y
la planificación de la capacidad. Programación de cargas de trabajo. Utilice herramientas
de programación como IBM Workloads scheduler para optimizar el tiempo
de los procesos por lotes, asegurando tareas de alta prioridad Tenemos los recursos necesarios cuando sea necesario sin
sobrecargar el sistema Por ejemplo, el equipo de Williams puede programar el procesamiento por lotes durante las horas pico cuando las demandas de procesamiento en tiempo
real son bajas, maximizando la eficiencia
del mainframe Planeación de capacidades.
Monitoree continuamente uso de
recursos en
el mainframe para identificar oportunidades
para la planificación de la capacidad Esto asegura que
el mainframe tenga suficiente capacidad para manejar cargas
máximas sin contención de
recursos Tomemos un ejemplo.
El equipo de Williams puede optimizar la
programación de la carga de trabajo para garantizar que el procesamiento
de transacciones reserve prioridad durante las horas
pico, mientras que procesamiento
por lotes se
realiza de la noche a la mañana, evitando conflictos de recursos y asegurando un
rendimiento óptimo. Las conclusiones clave de
esta lección incluyen, una, distribución de la
carga de trabajo es clave para optimizar el rendimiento
híbrido Colocar las cargas de trabajo adecuadas
en el entorno adecuado ya sea en primos o en la nube,
es esencial para En segundo lugar, reducir la latencia a través optimización de la
red y las estrategias de procesamiento de
datos es fundamental para garantizar que
las aplicaciones en tiempo real se ejecuten sin problemas en entornos
híbridos. tercer lugar, la administración de recursos
a través del escalado automático en la nube y la
programación de cargas de trabajo en mainframes garantiza que ambos
entornos se utilicen de manera eficiente y
sin cuellos de botella Ganar actividad, reflexión. ¿Cómo optimiza la
distribución de la carga de trabajo entre sus sistemas
on premise y Cloud
para maximizar el rendimiento? ¿Qué factores considerarías a hora de decidir dónde
colocar las cargas de trabajo Preguntas de discusión
planteadas en el foro. ¿Qué estrategias ha utilizado para reducir la latencia en entornos
híbridos? ¿Cómo administra el uso de recursos tanto
en la nube como
en los sistemas locales? Siguiente lección, optimización de costos
en sistemas híbridos. En la siguiente lección,
exploraremos estrategias de optimización de
costos
para sistemas híbridos. Aprenderá a
equilibrar el rendimiento con medidas de ahorro de
costos
como el escalado de recursos, ubicación de la
carga de trabajo y
la supervisión de costos en la nube. Emocionados por reducir los costos mientras se
mantiene el rendimiento, pasemos a la lección
tres del Módulo siete.
28. Lección 3: optimización de costos en sistemas híbridos: Lección tres, optimización de costos
en sistemas híbridos. Bienvenidos a la Lección
Tres del Módulo Siete. En esta lección, nos centraremos en las estrategias de optimización de
costos para arquitecturas de nube híbrida Para un
director de infraestructura de TI como William, administrar tanto mainframes
in premise como plataformas en la nube significa equilibrar el rendimiento con la
rentabilidad Optimizar los costos
sin comprometer el rendimiento requiere
comprensión, escalado de
recursos, ubicación de
carga y herramientas para monitorear y
administrar el gasto en la nube. Al final de esta lección, explorará las medidas de
ahorro de costos en arquitecturas de nube híbrida, incluido el escalado de recursos y cargas de trabajo
rentables Dos, aprender a monitorear el gasto
en la nube y
optimizar los presupuestos mientras se mantiene el rendimiento
del sistema. Profundicemos en cómo hacer que
su entorno híbrido sea
rentable y sin dejar de ofrecer el alto rendimiento que
su negocio requiere. Medidas de ahorro de costos en arquitecturas de nube
híbrida. optimización de costos en sistemas
híbridos implica decisiones
estratégicas sobre
cómo asignar recursos, distribuir cargas de trabajo y escalar la infraestructura de nube en
función de la demanda Al optimizar la forma en que
se utilizan los recursos como sistemas locales
y en la nube, puede minimizar los costos al
tiempo que garantiza el rendimiento. Escalado de recursos, paga
por lo que usas. Una de las principales ventajas del entorno
en la nube es la capacidad escalar
los recursos de forma dinámica, lo que le permite pagar por lo usa en lugar de mantener
el exceso de capacidad. escalado eficiente de recursos garantiza que sus sistemas tengan los recursos que necesitan durante las horas pico, pero evite pagar por la infraestructura
infrautilizada durante las horas pico. Auto escalado. Las plataformas en la nube
como AWS y Azure ofrecen capacidades de
escalado automático
que
le permiten ajustar automáticamente el número de
instancias de cómputos o máquinas
virtuales
en función de la demanda de tráfico Esto asegura que los recursos sólo
se destinen cuando sea necesario reduciendo costos durante
periodos de baja actividad. Por ejemplo, el
equipo de Williams puede configurar el
escalado automático de AWS para aumentar
automáticamente los recursos de la
nube durante
períodos de alta demanda, como durante los informes de fin de
trimestre financiero o las horas pico de banca y reducir la
escala durante las horas libres Instancias puntuales e instancias
reservadas. Utilice instancias puntuales
que son recursos informáticos temporales y
rentables para cargas de trabajo que pueden
tolerar interrupciones e instancias reservadas
que son capacidad informática
con descuento previo a la compra para cargas de trabajo a largo plazo Por ejemplo, el
equipo de Williams podría aprovechar las instancias puntuales de
AWS para el procesamiento
por lotes u otra carga de trabajo no crítica
y reservar instancias para
aplicaciones de misión crítica que necesitan un tiempo de actividad constante Tomemos un ejemplo. Al implementar el escalado automático de
AWS, equipo de
Williams puede reducir los costos al garantizar que los recursos
informáticos se escalen automáticamente durante horas
pico, pero minimizan
los costos durante las horas pico. Además,
pueden ahorrar hasta un 70% en costos de procesamiento por
lotes mediante el uso instancias
puntuales para cargas de trabajo menos sensibles al
tiempo Colocación de cargas de trabajo, utilizando recursos
rentables. Colocar las cargas de trabajo en el
entorno más rentable es clave para controlar los gastos en una arquitectura de nube híbrida Algunas cargas de trabajo pueden beneficiarse de la escalabilidad de las plataformas
en la nube, mientras que otras pueden ser más
rentables para ejecutarse en
sistemas mainframe heredados Comparación de
costos en la nube versus en las instalaciones. Si bien las plataformas en la nube proporcionan flexibilidad
y escalabilidad, ejecutar aplicaciones en infraestructura
heredada puede ser más rentable
para ciertas cargas de trabajo, especialmente si ya posee el hardware y solo
incurre en Por ejemplo, el
equipo de William puede encontrar que mantener el
procesamiento de transacciones en el mainframe donde ya
han invertido en
infraestructura es más
rentable que ejecutar la
misma carga de trabajo en AWS EC two Optimización híbrida de la carga de trabajo. Distribuya las cargas de trabajo en función su rentabilidad
en cada entorno Las cargas de trabajo de
análisis o procesamiento por lotes pueden ser más
rentables en la nube mientras que
las transacciones financieras en tiempo real pueden ser más asequibles y
seguras en las instalaciones Por ejemplo, mover
las cargas de trabajo de análisis de datos a la nube donde pueden escalar bajo demanda mientras
mantienen
el procesamiento de transacciones en el mainframe, reduciendo los costos de computación en la nube mientras mantienen un
alto rendimiento Tomemos un ejemplo. Para la
institución financiera Williams, migración de
análisis de datos a gran escala a la nube permite un equipo aproveche la elasticidad de la
nube para un procesamiento de alto volumen,
mientras que retener el procesamiento de
transacciones de alta seguridad en el mainframe garantiza un mejor control de costos sin
sacrificar Monitorizar el gasto en la nube
y optimizar el presupuesto. Para optimizar completamente los costos
en un entorno híbrido, es esencial el monitoreo
continuo del gasto
en la nube. Muchas organizaciones luchan con facturas
inesperadas en la nube debido a un
aprovisionamiento excesivo o a la falta de
información sobre el uso de recursos. La implementación de herramientas para el
seguimiento en tiempo real y la optimización de costos garantiza que los presupuestos de la nube se optimicen sin afectar el rendimiento
del sistema. Uso de herramientas nativas en la nube
para el monitoreo de costos. Las plataformas en la nube proporcionan herramientas
integradas para ayudarle a monitorear y administrar el gasto en
la nube en tiempo real. Estas herramientas
le permiten establecer presupuestos, realizar un seguimiento del
uso de la investigación y analizar las tendencias de
gasto para garantizar que se mantenga dentro de sus objetivos
financieros. Explorador de costos de AWS. AWS Cost Explorer le permite visualizar y analizar sus patrones de costo y uso de
AWS. Ayuda a identificar los recursos
no utilizados, comparar el uso real frente al
predictivo y encontrar oportunidades para ahorrar. Por ejemplo, el
equipo de Williams puede usar AWS Cost Explorer para realizar un seguimiento del gasto
mensual en la nube, identificando instancias de
EC dos infrautilizadas y
cerrándolas cuando no sea necesario Azure Cost Management
más facturación. Esta herramienta proporciona un desglose
detallado los costos
de recursos de Azure, lo que permite
a las organizaciones realizar un seguimiento de los gastos, comprar servicios y establecer alertas para cuando los costos exceden los umbrales
predefinidos Ejemplo, el equipo de William puede usar Azure Cost Management para
monitorear los servicios de Azure, configurando alertas si los costos de computación
en la nube superan su presupuesto mensual. Implementación de presupuestos y alertas. Para evitar gastos excesivos,
las organizaciones pueden establecer presupuestos para uso de
la nube e
implementar alertas que notifiquen a los equipos cuando el gasto se
acerca al umbral Esto permite que el equipo
tome medidas antes de que los
costos se salgan de control.
Alertas de presupuesto. Configura alertas de presupuesto para
notificar al equipo cuando el gasto
real supere o esté a punto de superar los montos
presupuestados Esto es útil para mantenerse proactivo en la gestión de los gastos en
la nube. Ejemplo, el equipo de Williams puede establecer
un presupuesto mensual en la nube para sus servicios de AWS y recibir notificaciones si el gasto
se acerca al 80% del presupuesto, lo que les permite
realizar ajustes para evitar superar su objetivo. Anomalías de costos. Utilice herramientas de detección de
anomalías de costos impulsadas por
aprendizaje automático,
como la detección de
anomalías de costos de AWS , para
identificar picos inusuales en uso de
la nube que podrían indicar errores de configuración Por ejemplo, si una carga de trabajo de
procesamiento por lotes utiliza más
recursos en la nube de los esperados, equipo de
Williams puede
detectar rápidamente la anomalía e investigar si hubo un error en la programación de la carga Tomemos un ejemplo.
El equipo de Williams puede establecer un presupuesto para la infraestructura de la
nube utilizando AWS Cost
Explorer y recibir alertas cuando el gasto supera el umbral
predeterminado, les
ayuda a evitar
gastos excesivos mientras optimiza el rendimiento Mejores prácticas para la optimización de
costos en sistemas de nube híbrida. Optimizar los costos en los sistemas de nube
híbrida consiste en alinear el
uso de recursos con las necesidades del negocio, asegurando que el rendimiento se mantenga sin incurrir en gastos
innecesarios A continuación se presentan las mejores prácticas para
optimizar de manera rentable. Recursos de tamaño correcto. tamaño correcto se refiere a
ajustar el tamaño de instancias
en la nube o las máquinas
virtuales para que coincidan con el
uso real de las cargas de trabajo Muchas organizaciones
sobreproveen recursos para evitar problemas de desempeño, pero estos a menudo conducen
a costos más altos. Revise y ajuste regularmente sus asignaciones de recursos
en función de los patrones de uso reales Mejor práctica, revisar regularmente uso de
recursos y reducir el tamaño cualquier instancia sobre provisiones Esto evita pagar
por la capacidad no utilizada al tiempo que garantiza que las cargas de trabajo
sigan funcionando de manera óptima Utilice instancias de reserva
y planes de ahorro. Las plataformas en la nube ofrecen instancias
reservadas y planes de
ahorro que brindan
importantes descuentos, hasta 70% para cargas de trabajo a largo
plazo Estos planes son ideales para cargas de trabajo y requieren un uso
consistente a lo largo del tiempo, lo que permite a las organizaciones reducir costos sin comprometer
el rendimiento La mejor práctica es
identificar las cargas que se ejecutan de manera consistente,
por ejemplo, bases de datos, aplicaciones
críticas
y compra instancias
reservadas
o planes de ahorro para que estas cargas de trabajo
bloqueen precios más bajos Optimice los costos de almacenamiento. Los costos de almacenamiento se pueden sumar
rápidamente, especialmente en entornos
híbridos donde los datos se
distribuyen en múltiples sistemas. Optimice el almacenamiento mediante opciones de almacenamiento entre pares
como AWS ST glaciar o asegurar el almacenamiento
de sangre o los datos
a los que se accede con poca frecuencia y el almacenamiento
bajo demanda para aplicaciones en tiempo real La mejor práctica, Archive accede a los datos
con poca frecuencia en opciones de almacenamiento a largo plazo
más baratas como AWS ST Glacier, mientras se usa un
almacenamiento más rápido, por ejemplo, SSD o datos de acceso
frecuente de misión crítica Una de las claves de
esta lección incluyen,
una, el escalado automático y la ubicación de la
carga de trabajo son estrategias
esenciales para
reducir costos mientras mantiene el rendimiento en entornos de nube
híbrida Dos, el
monitoreo continuo de costos en la nube mediante
herramientas como AWS Cost Explorer y la administración de costos le
garantiza mantenerse dentro del presupuesto
y evitar gastos excesivos Tres, implementar
mejores prácticas de ahorro de costos , como dimensionar recursos
adecuados, usar instancias de reserva y optimizar el almacenamiento de información para lograr una eficiencia de costos a
largo plazo. Actividad de aprendizaje, reflexión. Qué estrategias
implementarías para reducir costos en un entorno de
nube híbrida? ¿Cómo
equilibraría el ahorro de costos con mantener un
alto rendimiento? Pregunta de discusión
planteada en el foro. ¿Qué retos ha
enfrentado con la gestión de costos en la nube
en un entorno híbrido? ¿Cómo ha optimizado sus gastos a la vez que garantiza el rendimiento
del sistema? Siguiente lección, continuidad del negocio
y recuperación ante desastres. En la siguiente lección,
discutiremos cómo garantizar la continuidad del
negocio en entornos
híbridos
mediante el desarrollo sólidos planes de recuperación ante desastres. Aprenderá a implementar estrategias de
conmutación por error, garantizar la integridad de los datos y construir un sistema híbrido resiliente que pueda recuperarse de fallas
inesperadas Preparados para garantizar la continuidad del
negocio, pasemos a la lección
cuatro del Módulo siete.
29. Lección 4: continuidad del negocio y recuperación ante desastres: Lección cuatro, continuidad del negocio
y recuperación ante desastres. Bienvenidos a la Lección
Cuatro del Módulo Siete. Esta lección final nos centraremos en la continuidad del
negocio
y la recuperación ante desastres para entornos de nube híbrida. Para un
director de infraestructura de TI como William, garantizar que los sistemas sean resilientes y puedan
recuperarse rápidamente de interrupciones
inesperadas
es fundamental para mantener las operaciones
comerciales En esta lección, discutiremos las
mejores prácticas para la planificación de
recuperación ante desastres, cómo implementar estrategias de
pyover y soluciones de
respaldo efectivas para garantizar que su sistema de nube
híbrida pueda recuperarse de fallas
con un tiempo de inactividad mínimo Al final de esta lección, aprenderá
las mejores prácticas para garantizar continuidad del
negocio
con un enfoque en recuperación
ante desastres en entornos de nube
híbrida. Dos, comprender cómo
implementar estrategias de conmutación por error y soluciones de respaldo
tanto en la nube como en los sistemas
in situ Profundicemos en cómo construir sistemas
resilientes que puedan soportar
fallas inesperadas y mantener sus operaciones
funcionando sin problemas. Mejores prácticas para la continuidad del
negocio en entornos de nube híbrida. En entornos de nube híbrida, continuidad del
negocio
implica tener un plan sólido para garantizar la disponibilidad
del sistema, la integridad de
los datos y
un tiempo de inactividad mínimo en caso de
falla o desastre del sistema. Una estrategia de
recuperación ante desastres bien desarrollada es clave para mantener
las operaciones comerciales y la protección de datos. Desarrollo de un plan
de recuperación ante desastres, DRP. Un
plan de recuperación ante desastres es un enfoque detallado y
estructurado
para recuperar sistemas de
TI en
caso de desastre, ya sea un desastre natural, ataque
cibernético o
una falla del sistema. Para entornos de nube híbrida, los DRP deben abordar tanto la infraestructura
local como los sistemas en la nube.
Evaluación de riesgos. Identifique los sistemas,
aplicaciones y
datos críticos que deben priorizarse en su plan de recuperación
ante desastres En un entorno híbrido, esto incluye tanto sistemas
mainframe como aplicaciones
alojadas en la nube Por ejemplo, la institución
financiera Williams debe priorizar
el mainframe que procesa
las transacciones de los clientes y servicios en
la nube que manejan las aplicaciones
orientadas al cliente Estos sistemas deben ser restaurados rápidamente en
caso de fallo. Objetivo de tiempo de recuperación,
RTO y punto de recuperación RPO. Define su RTO, que es
el tiempo máximo aceptable, un sistema puede estar inactivo y RPO, que es la cantidad máxima de pérdida de datos que es aceptable, medida en el tiempo, en entornos
híbridos, RTO y RPO pueden variar
dependiendo del Para los sistemas de misión crítica, el RTO debe estar cerca de cero Ejemplo, para el sistema de procesamiento de transacciones
Williams en el mainframe, el RTO podría ser de 15 minutos Mientras que para una carga de trabajo de
análisis de datos no crítica en la nube, el RTO podría durar varias horas. Implementación de una arquitectura híbrida
de recuperación ante desastres. Para garantizar la
continuidad del negocio sin fisuras en los sistemas híbridos, la recuperación
ante desastres
debe
implementarse tanto en entornos locales
como en la nube. Esto implica implementar sistemas
redundantes, failover
automatizado y soluciones de backup Soluciones basadas en DR. Aproveche los servicios en la nube como AWS Elastic Disaster Recovery
o Azure Site Recovery para replicar y recuperar sistemas
locales en la nube Estas herramientas permiten
una rápida conmutación por error a la nube en caso de una falla del sistema o desastre Por ejemplo, el
equipo de Williams puede implementar recuperación ante desastres de
AWS Elastic para replicar cargas de trabajo críticas de
mainframe En caso de una interrupción, estas cargas de trabajo
se pueden girar rápidamente en la Nube asegurando la continuidad de
los datos para su operación bancaria Failover híbrido. En entornos
híbridos, estrategia de
conmutación por error debe
implementarse para garantizar
que los sistemas puedan cambiar de
infraestructura local
a entornos en la nube
cuando sea necesario Esto permite que
los sistemas críticos permanezcan operativos incluso
durante desastres. Ejemplo, el equipo de Williams
puede configurar la conmutación por error para su sistema de
transacciones del cliente modo que si el mainframe
experimenta tiempo de inactividad, el backup basado en la nube se haga
cargo hasta que se restaure el
mainframe Tomemos un ejemplo.
Para Williams Institution, herramientas de
recuperación ante desastres basadas en la
nube pueden replicar los sistemas
transaccionales de mainframes en
la Si el mainframe no está
disponible debido a
un corte de energía, copias de seguridad basadas en
la nube se
pueden
activar rápidamente para mantener la continuidad del
negocio Implementación de estrategias de failover
y soluciones de backup. Garantizar las capacidades de failover y
backup en entornos híbridos implica configurar
procesos automáticos que minimicen el tiempo de inactividad y
garanticen la disponibilidad de los datos En un sistema híbrido,
esto requiere un esfuerzo coordinado
tanto en los sistemas en las instalaciones
como en la nube. Estrategias de failover, asegurando la disponibilidad
del sistema. Las estrategias de conmutación por error garantizan que si falla un componente del sistema, las operaciones pueden
transferirse automáticamente a un sistema de respaldo En entornos híbridos, esto
puede implicar la acumulación de un sistema en primer lugar a un entorno de nube o de
una región de nube a otra por error activa activa.
En este enfoque, tanto
los sistemas on-premise como en la nube están activos y activos, asegurando que si uno falla, el otro continúe operando sin
interrupciones sin interrupciones. Ejemplo, la
institución Williams podría ejecutar procesamiento de transacciones en tiempo
real tanto en el mainframe
como en la nube Si el mainframe falla, la instancia de Cloud se hace cargo sin ninguna
interrupción notable para los clientes Pilover pasivo activo. En este enfoque, el sistema
primario, por ejemplo, on premise está activo, mientras que el sistema secundario, por ejemplo, en la nube
permanece en espera. El sistema secundario se activa sólo si falla
el primario. Por ejemplo, el
equipo de Williams puede configurar un sistema de
conmutación por error pasivo activo donde el marco principal
maneja todas las transacciones Pero si falla, se activa la copia
de seguridad de
AWS Cloud para continuar
procesando transacciones. B, soluciones de backup, protección de datos en entornos
híbridos. Las copias de seguridad son una parte esencial de cualquier plan de recuperación ante desastres, asegurando que los datos
puedan restaurarse en caso de
falla o pérdida de datos. En entornos híbridos, deben
crearse backups
regulares tanto para sistemas on premise como para entornos
Cloud. En las instalaciones de backup
para mainframes, las copias de seguridad se pueden almacenar
en centros de datos externos o replicarse en
entornos de nube para Por ejemplo, el equipo de Williams puede
programar copias
de seguridad diarias de sus bases
de datos de mainframe en una ubicación segura fuera del sitio y replicar datos clave
a AWSs tres para y replicar datos clave
a AWSs tres para obtener redundancia adicional.
Copia de seguridad en la nube. Los servicios en la nube ofrecen soluciones de respaldo
automatizadas para aplicaciones basadas en la nube. Herramientas como la copia de seguridad de AWS
o la copia de seguridad de Azure permiten a
las organizaciones realizar copias de seguridad
automáticas los
datos almacenados en la nube diferentes regiones
para obtener redundancia Por ejemplo, el equipo de Williams puede
usar la copia de seguridad de AWS para crear copias de seguridad diarias
automatizadas de bases de datos basadas en la
nube y almacenar copias en
diferentes regiones para protegerse contra interrupciones
regionales Tomemos un ejemplo.
El equipo de Williams puede garantizar la
protección de datos mediante el almacenamiento copias de seguridad de
mainframe en una ubicación
externa mientras usa copia de seguridad de
AWS para crear copias de seguridad en
la nube para aplicaciones
orientadas al cliente,
lo que garantiza una redundancia completa de datos Mejores prácticas para la recuperación
ante desastres en entornos híbridos. construcción de un sistema
híbrido resiliente requiere no solo soluciones de failover
y backup, sino también pruebas continuas y optimización de sus estrategias de
recuperación ante desastres Estas son algunas de
las mejores prácticas a considerar. Pruebe regularmente su plan de recuperación
ante desastres. Probar su plan de
recuperación ante desastres es fundamental para garantizar
que funcione cuando sea necesario. Simule eventos de conmutación por error
y escenarios de recuperación de datos para verificar que su plan funcione como se esperaba y
ajustarlo según sea necesario La mejor práctica es realizar simulacros regulares de recuperación
ante desastres para probar las capacidades de conmutación por error, asegurando que tanto los sistemas
locales como en la nube
puedan recuperarse dentro de su RTO y RPO
definidos Automatice los procesos de failover y
backup. La automatización es clave para minimizar
el tiempo de inactividad en caso de desastre. Automatice sus
procesos de failover y programas de backup para garantizar que los sistemas puedan recuperarse sin intervención
manual La mejor práctica es utilizar la recuperación ante desastres de AWS
Elastic o la recuperación de sitios de Azure para
automatizar la conmutación por error de los sistemas
locales a la
nube y usar herramientas como copia de seguridad de
AWS para programar copias de seguridad diarias
automáticas de datos en la
nube y en las instalaciones Optimizar un plan de recuperación
basado en las prioridades del sistema. Diferentes sistemas tienen diferentes requerimientos
de recuperación. Priorice los sistemas de misión
crítica , como los que manejan las transacciones de los
clientes
para una recuperación rápida mientras que los sistemas menos críticos
se pueden restaurar durante períodos más largos Práctica recomendada, defina RTO y RPO en función de la importancia
del sistema, asegurando que los sistemas críticos se restauren en cuestión de
minutos mientras las cargas de trabajo
no esenciales se puedan restaurar durante varias
horas conclusiones clave de esta
lección incluyen, una, un sólido plan de
recuperación ante desastres que es esencial para mantener la continuidad del
negocio en entornos
híbridos con objetivos
específicos de RTO y RPO tanto
para sistemas primus como en la nube Dos, implementar
estrategias de failover como failover
activo activo o
pasivo activo para garantizar que los sistemas puedan continuar funcionando sin problemas
durante una interrupción Tres, automatice
los procesos de copia de seguridad y pruebe regularmente su
plan de recuperación ante desastres para garantizar que su sistema de nube híbrida pueda recuperarse rápidamente y
sin pérdida de datos. Actividad de aprendizaje, reflexión. ¿Cómo implementarías
una estrategia de failover en tu entorno híbrido ¿Qué RTO y RPO
establecería para sus
sistemas más críticos y cómo
garantizaría que su
plan de recuperación ante desastres cumpla con esos objetivos Pregunta de discusión
planteada en el foro, ¿qué retos ha encontrado con recuperación
ante desastres en entornos
híbridos? ¿Cómo ha optimizado
sus procesos de backup y
failover? sus procesos de backup y
failover Enhorabuena por
completar el curso. Has completado el curso, modernización de MITs de
mainframe, dominando el diseño de la nube híbrida A través del curso,
ha obtenido información
valiosa sobre cómo
crear, optimizar y proteger entornos de
nube híbrida, integrar mainframes con infraestructuras de
nube y
garantizar el rendimiento, la
rentabilidad y la continuidad del
negocio Próximos pasos, poniendo en práctica tus
conocimientos. Ahora que ya has
completado el curso, es momento de poner en práctica tus
nuevas habilidades. Aplicar las estrategias
aprendidas en este curso para administrar proyectos de
modernización de mainframe, implementar soluciones de failover,
optimizar el gasto en la nube y garantizar la seguridad en entornos
híbridos Comience su viaje a la nube híbrida evaluando su infraestructura
actual, creando un plan de modernización y moviendo gradualmente
las cargas de trabajo a la nube Continúa tu
viaje de aprendizaje con estos cursos. Para ampliar aún más su experiencia en la
modernización del sistema mainframe, considere inscribirse en
uno de estos cursos Uno, DevOps de mainframe, integrando sistemas heredados
con prácticas ágiles Aprenda a introducir
los principios de DevOps en
las operaciones de mainframe y garantice
una colaboración fluida entre los sistemas Cloud y
on premise Dos, implementación de integración
continua
slash Continuous Delivery o CICD en mainframes Obtenga un
proceso paso a paso para establecer canalizaciones CICD
automatizadas
para bases de código de mainframe, integrando sistemas heredados
con prácticas de
desarrollo modernas Esperamos verte
en la siguiente fase de tu viaje de aprendizaje. Enhorabuena de nuevo
y mucha suerte en tus proyectos de
modernización de mainframe Sigamos modernizándonos.