Curso intensivo de marcos y regulaciones de IA - 2024 | Taimur Ijlal | Skillshare
Buscar

Velocidad de reproducción


1.0x


  • 0.5x
  • 0.75x
  • 1x (Normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Curso intensivo de marcos y regulaciones de IA - 2024

teacher avatar Taimur Ijlal, Cloud Security expert, teacher, blogger

Ve esta clase y miles más

Obtenga acceso ilimitado a todas las clases
Clases enseñadas por líderes de la industria y profesionales activos
Los temas incluyen ilustración, diseño, fotografía y más

Ve esta clase y miles más

Obtenga acceso ilimitado a todas las clases
Clases enseñadas por líderes de la industria y profesionales activos
Los temas incluyen ilustración, diseño, fotografía y más

Lecciones en esta clase

    • 1.

      1 introducción

      8:56

    • 2.

      2 riesgos de IA

      8:06

    • 3.

      3 marcos de IA

      12:07

    • 4.

      4 Ley de la UE 1

      11:42

    • 5.

      5 Ley de la UE 2

      9:04

    • 6.

      6 NIST 1

      8:17

    • 7.

      7 NIST 2

      8:40

    • 8.

      8 ISO 1

      6:49

    • 9.

      9 ISO 2

      8:04

    • 10.

      10 Google SAIF 1

      8:06

    • 11.

      11 Google SAIF 2

      5:15

    • 12.

      12 Cómo usar

      3:39

    • 13.

      13 Conclusión

      1:33

  • --
  • Nivel principiante
  • Nivel intermedio
  • Nivel avanzado
  • Todos los niveles

Generado por la comunidad

El nivel se determina según la opinión de la mayoría de los estudiantes que han dejado reseñas en esta clase. La recomendación del profesor o de la profesora se muestra hasta que se recopilen al menos 5 reseñas de estudiantes.

14

Estudiantes

--

Proyectos

Acerca de esta clase

En el dominio de la inteligencia artificial, que avanza rápidamente, navegar por la compleja red de marcos y regulaciones es crucial para garantizar el despliegue y el gobierno éticos. Este curso completo ofrece una exploración en profundidad de los marcos y regulaciones clave de IA, incluida la Ley de IA de la UE, NIST AI RMF, SAIF de Google e ISO 42001, lo que te equipa con los conocimientos para navegar en el panorama legal y ético del desarrollo y la implementación de IA.

Qué aprenderás

  • El papel crítico y las implicaciones de las regulaciones y los marcos de IA en el panorama tecnológico moderno.

  • Información detallada sobre las principales regulaciones y marcos de IA: la Ley de IA de la UE, el NIST AI RMF, el SAIF de Google e ISO 42001.

  • El proceso de alinear los proyectos de IA con las normas y los requisitos legales internacionales.

  • Estudios de casos que demuestren la aplicación y el impacto de estos marcos y regulaciones.

Esquema del curso

Introducción a los reglamentos y marcos de IA

  • Visión general de la IA y su potencial transformador.

  • La importancia de los marcos éticos y regulatorios en la IA.

Sumérgete en los marcos y regulaciones de IA

  • Comprender la ley de la UE sobre IA: alcance, requisitos e implicaciones.

  • Explorando el RMF de IA del NIST: principios, prácticas y aplicación.

  • SAIF de Google: un modelo para el desarrollo de IA.

  • ISO 42001: crea un sistema de gestión de IA

Estudios de casos

  • Análisis de implementaciones exitosas y desafiantes de las regulaciones de IA.

  • Lecciones aprendidas de aplicaciones del mundo real.

Quién debería tomar este curso

Este curso está diseñado para personas interesadas en dominar las dimensiones legales y éticas de la IA, que incluyen:

  • Ingenieros de IA y aprendizaje automático

  • Científicos de datos

  • Profesionales del derecho en tecnología

  • Responsables de políticas y reguladores

  • Defensores de la IA ética

Prerrequisitos

Se recomienda que comprendas los conceptos y tecnologías de IA, pero no se requiere ningún conocimiento previo de regulaciones ni marcos legales específicos.

Acompáñanos en este viaje para desmitificar el complejo panorama de las regulaciones y marcos de IA, asegurándote de que tus iniciativas de IA no solo sean innovadoras, sino también responsables y que cumplan las normas.

Conoce a tu profesor(a)

Teacher Profile Image

Taimur Ijlal

Cloud Security expert, teacher, blogger

Profesor(a)

Habilidades relacionadas

IA e innovación Fundamentos de la IA
Level: Beginner

Valoración de la clase

¿Se cumplieron las expectativas?
    ¡Superadas!
  • 0%
  • 0%
  • Un poco
  • 0%
  • No realmente
  • 0%

¿Por qué unirse a Skillshare?

Mira las galardonadas Skillshare Originals

Cada clase tiene lecciones cortas y proyectos prácticos

Tu membresía apoya a los profesores de Skillshare

Aprende desde cualquier lugar

Ve clases sobre la marcha con la aplicación de Skillshare. Progresa en línea o descarga las clases para verlas en el avión, el metro o donde sea que aprendas mejor.

Transcripciones

1. 1 introducción: Hola, hola a todos. Bienvenido a mi nuevo curso que es el Curso Crash de Reglamentos y Marcos de IA. Ahora el objetivo de este curso es educarte sobre los diferentes tipos de marcos y regulaciones de IA que han salido. Y para realmente darte una ventaja para entender todos los diferentes tipos de regulaciones que están saliendo, todos los marcos están saliendo. A veces parece que sale una nueva regulación cada literalmente cada mes que escuchamos sobre ella. Porque la IE se está desarrollando tan rápido, ¿verdad? Las regulaciones de la IE se están desarrollando muy rápido. Entonces necesitamos este tipo de control y regulaciones. Entonces este es el objetivo de este curso. Los objetivos de este curso son muy simples, que es hacerte entender el panorama global de la IE, regulatorio, ¿verdad? Todos los marcos que hay, por qué se necesitan, ¿cuál es el problema? ¿Y por qué necesitamos tantos marcos y estándares de IA? Y entonces lo que vamos a hacer es tomar las regulaciones y marcos de IA más importantes, los más críticos que están presentes. Y vamos a profundizar en ellos y te voy a dar algunos consejos prácticos de implementación. Así que no, no voy a simplemente llegar, leer el estándar, ¿verdad? Porque no me necesitas para eso. Es decir, puedes hacerlo tú mismo, honestamente hablando. Simplemente descárgalo y léelo. No, te voy a dar pasos prácticos de implementación. Cómo, lo que vamos a hacer es que vamos a tomar estudios de casos y ejemplos de estas especulaciones y estándares Y luego ver cómo una empresa haría sobre la implementación de estas normas. Entonces ese es el objetivo de este curso, darle una ventaja inicial sobre las regulaciones y gobernanza de AA, lo cual es sumamente crítico en el mundo actual. Entonces, ¿por qué deberías estar escuchándome? Sólo una breve introducción. Mi nombre es Tamurislahal. Soy un líder multipremiado en ciberseguridad. He ganado algunos premios aquí y allá. He estado en ciberseguridad durante los últimos 21 años. Y en el último par de años, me he centrado más en crear cursos y contenidos y escribir, retribuyendo a la industria. También ayudo a la gente a entrar en la ciberseguridad. Tengo un canal de Youtube llamado The Cloud Security Guy. Ojalá tuviera como millones de seguidores, pero es un canal muy pequeño. Pero básicamente hablo de seguridad en la nube en el ojo ahí. También he escrito un autor superventas y creador de cursos en múltiples plataformas Puedes comprobar que estos son algunos de mis libros. He escrito libros sobre IE, gobernanza y ciberseguridad. Escribe para principiantes, Cero confianza para principiantes. No me gusta escribir libros muy complicados, de buceo profundo. Siempre siento que dejar que las personas comiencen a correr con una tecnología en particular y luego dejar que encuentren su camino. ¿Correcto? También escribo en medios y Linked, me gusta dije una Youtubechannel. Estoy ahí en Twitter. También tengo un boletín gratuito que básicamente comparto cosas sobre la carrera de ciberseguridad ¿Por qué es la IA de seguridad en la nube? Entonces estas son las cosas que básicamente hago que solo quería mostrar como si supiera un poco IA cuando estoy hablando de ello. Entonces, antes que nada, ¿por qué necesitamos regulaciones de IA? Y empresas como estas son básicamente pautas, marcos de estándares diseñados para mitigar los riesgos de IA. Y al mismo tiempo impulsar la innovación y aumentar la confianza en los sistemas de IA, como ¿cuál es el problema? Bueno, antes que nada, consideraciones éticas . ¿ Qué significa eso? Bueno, los sistemas de IA pueden tomar decisiones que pueden impactar la vida humana y la sociedad, ¿verdad? Si la IA está tomando una decisión como darte un préstamo bancario y toma una decisión injusta, toma una decisión incorrecta, ¿verdad? Eso realmente puede impactar tu sustento, tu familia, ¿verdad? Y si la IA se está utilizando para hacer cumplir la ley y toma una decisión equivocada, eso puede llevar a que esa persona sea arrestada. Así que de nuevo, estas no son pequeñas cosas, ¿verdad? Y es por eso que se necesitan regulaciones de IA para proporcionar pautas que garanticen que los sistemas de IA se diseñen y utilicen de una manera que respete los derechos humanos y los valores. También tenemos como seguridad y protección, Para pensar en los sistemas de IA, particularmente en áreas como la salud, defensa del transporte. Necesitan ser confiables y seguros, ¿verdad? Y las regulaciones asegurarán que los sistemas de IA pasen por rigurosas pruebas y validación para asegurarse de que no haya fallas que puedan provocar daños o incluso la muerte de personas. ¿Correcto? Y por último, que es mi especialidad particular, los sistemas de IA pueden ser vulnerables a amenazas de seguridad como violaciones de datos, manipulación, y es por eso que también necesitas controles de ciberseguridad Entonces todas estas cosas donde la IA se está utilizando en áreas críticas, como hospitales, en sistemas penales, áreas financieras, pueden tener un impacto enorme. Es por eso que necesita regulaciones para establecer mejores prácticas y marcos y estándares para la IA. De ahí viene todo el asunto ahora. Entonces, ¿cuál es el problema, desafortunadamente, que he visto y por qué hice de este curso un curso acelerado, verdad? Y deliberadamente lo he hecho un curso acelerado. Podría haberlo hecho como un curso de diez horas porque sé que la gente se aburre, honestamente. El problema con el aprendizaje de los marcos de IA es importante reconocer este hecho, esa discusión en torno a los marcos y regulaciones de IA que a veces pueden parecer un poco secos y demasiado complejos. Porque la forma en que es el tema, correcto, tienes este lenguaje jurídico con conceptos técnicos avanzados. Lo hace muy inaccesible para la gente normal. El objetivo de este curso es descomponer todas estas cosas complejas y hacerla accesible. En cierto modo, todo el punto que he hecho este curso lo ha hecho accesible a todos, ¿verdad? Y el otro problema es navegar por el paisaje como uno de los mayores retos es que hay demasiados marcos. Es como navegar como una gran jungla. Tienes tantos frameworks. ¿Cómo sé cuál es el más importante, cuál me aplica? Y esto puede llevar a confusión, dificultándolo para. Desarrolladores, gente de ciberseguridad, gente de gobierno, empresas para decidir qué marco es relevante de ellos. Y lo otro es la implementación práctica. El otro problema que he visto es la brecha entre estos marcos y prácticamente aplicarlo. Por lo que las pautas ofrecen principios de muy alto nivel, como a veces profundizas demasiado en los detalles técnicos como cómo se debe configurar el algoritmo de aprendizaje automático. Entonces falta un eslabón, ¿verdad? Por lo tanto, un consejo práctico, procesable es lo que quiero darle sobre cómo implementar estas regulaciones en sus empresas regulares, en sus operaciones diarias para ayudarle a entender cómo proceder, ¿verdad Y asegurándose de que eres capaz de aplicar este conocimiento. Entonces, ¿para quién es este curso? Este es curso para cualquiera yo, profesionistas, ya sea que estés en riesgo, legal y cumplimiento, ciberseguridad, si eres CIO, CTO, cualquier persona interesada en No es necesario tener un conocimiento profundo de la IA. Sólo bastará con un entendimiento básico . ¿Y por qué debería importarte? Creo que no necesito dedicarme demasiado tiempo a esto. Ya sabes que la IA está impactando a todos los sectores, cada estándar, ¿verdad Y las empresas quieren este tipo de estándares y puntos de referencia de la industria para que puedan hacer el mejor sistema de IA, que sea competitivo y confiable. Y quieren asegurarse de que están siguiendo las mejores prácticas de IE, bien. Cuando obtienes un estándar ISO para tu empresa, le estás diciendo a la gente, mira, tengo la certificación ISO, misma manera que quieres para la IA. Y por último, por qué debería importarle. Ai está teniendo un impacto masivo en la industria laboral también. Y de eso es de lo que quería hablar. Existe una gran demanda de habilidades de gobernanza de escaneo de IA. Esto es de Gartner para 2026 que los modelos de IA que pueden operacionalizar la transparencia, la confianza y la seguridad de la IA lograrán una mejora del 50% en adopción y los objetivos comerciales y la aceptación La gente los aceptará, ¿verdad? Ellos querrán tener este tipo de sistemas de IA. Quieres esa confianza pública, por lo que impulsará la innovación. Adicionalmente, tienes estudios que muestran cómo IA generativa está cambiando la fuerza laboral, ¿verdad Al igual que mucha gente se preocupa de que vayan los trabajos, no se dan cuenta de cuántos nuevos trabajos van a gustar creados. Habrá pérdidas de empleos, sin duda cualquiera, porque la IA se hará cargo de muchas actividades. Pero también se van a crear nuevos empleos. Y para 2030, estiman que va a tener un impacto masivo y masivo en la economía. Y las empresas obviamente van a estar buscando personas con habilidades de IA. Entonces, al tomar este curso, realidad estás invirtiendo en tu futuro. Te estás asegurando de que tienes las habilidades relevantes, ¿de acuerdo? Y se puede ver que 96% de las empresas estarán buscando trabajadores con habilidades de IA. Y la IA no es sólo técnica. Mucha gente se confunde, piensan que necesito conocer ciencias de datos o estadísticas. No, se puede tener este conocimiento que son los marcos de IE, Gobernanza e IA, ¿verdad? Entonces esto es lo que quiero que hagas en este curso. Quiero que entiendas los estándares y los marcos que hay, Entender los conceptos comunes, repasar los estudios de caso y luego aplicar los conocimientos que has aprendido. Entonces, ¿cómo vas a aplicar este conocimiento? Tendremos un proyecto. Te voy a dar una tarea que hacer. Quiero que tomes eso y lo apliques para entender a fondo cómo va a funcionar este proyecto. Entonces espero que esto te haya motivado. Espero que entiendas ahora el nuevo mundo masivo en el que estás viviendo. Y esta es otra área donde la gobernanza y el riesgo de IA, donde realmente puedes brillar y puedes dejar tu propia huella. Espero que estés entusiasmado. Tanto si eres un riesgo de IA como de ciberseguridad, esta es una excelente manera de invertir en tu futuro Entonces sigamos adelante y nos vemos en la siguiente lección. Gracias. 2. 2 riesgos de IA: Hola a todos. Bienvenidos, bienvenidos al siguiente módulo que trata sobre Y yo Riesgos. Como una breve introducción. Y como dije antes, lo que vamos a cubrir aquí es brevemente te voy a contar sobre la IA y los tipos de riesgos de IA y la ville, ejemplos de fallas de IA sientes que lo sabes, puedes saltarlo. Yo recomendaría no saltarlo porque te da ese marco y contexto sobre este curso y por qué lo necesitamos Porque realmente quiero que entiendas los antecedentes sobre por qué han surgido estos marcos . ¿Qué es la IA? Antes de profundizar en esto, quiero que entiendas algo muy crucial, No necesitas ser una persona técnica para la IA. Ayuda tener ese trasfondo. Pero no, conozco a mucha gente que no es completamente técnica porque IA es muy masiva para entender las regulaciones y marcos de AA. Solo necesitas tener un alto nivel de comprensión de la IA y eso funcionará, honestamente hablando. Para que no te intimide la IA. ¿Bien? Mucha gente se preocupa. Puedes bucear en profundidad tanto como quieras, pero solo una comprensión de alto nivel también funcionará para ti. Entonces, ¿qué es la IA? Ai es una rama de la informática que se enfoca en crear sistemas que realizan funciones generalmente asociadas con la inteligencia humana, como el razonamiento, el aprendizaje y la superación personal. Esa es la aburrida definición de libro. En pocas palabras, los sistemas de IA. Ai es una rama de la informática que los sistemas informáticos se comportan como humanos. ¿Cómo? Al tomar decisiones como razonamiento y la comprensión de la información. ¿Cómo trabajamos los humanos? Tomamos mucha información que aprendemos de ella y la usamos para mejorarnos. Así es exactamente como funciona la IA, ¿verdad? Programas regulares, como tu calculadora, sigue un conjunto fijo de instrucciones y no cambia a menos que la actualices manualmente. Mientras que los sistemas de IA, pueden mejorar. Por lo que en realidad pueden usar la información existente y la anterior y utilizarla para hacerse más inteligentes con el tiempo. Y la IA puede tomar decisiones basadas en el análisis de datos. Se pueden evaluar situaciones complejas, ¿verdad? Y puede imitar cómo los seres humanos están tomando decisiones. Mientras que, como dije, las computadoras, solo tienen un predefinido, sus aplicaciones regulares, tienen un conjunto predefinido de instrucciones. Entonces puede manejar la ambigüedad y lo más grande de ella puede automatizar Puede hacer las cosas por sí mismo, ¿verdad? Al igual que los autos autoconducidos. No necesitas que los seres humanos entren y les guste conducir el auto, ¿verdad? Operará por sí mismo. Estas capacidades humanas son lo que es la IA. Cómo la IA está cambiando realmente el mundo desde 2022. Yo pensaría que Chip salió a pesar de que existía mucho antes de eso. Antes de eso estaba hablando de IA. Chagpt y generativo, realmente ha hecho que AA sea accesible para Por eso hay tanto interés en torno al tema. Ahora bien, ¿cómo funciona la IA sin meterse demasiado en el aprendizaje automático y cómo funciona el aprendizaje automático supervisado y no supervisado ¿Cómo funciona el aprendizaje profundo? En pocas palabras, la IA toma muchos datos, ¿verdad? Y luego usa un algoritmo para encontrar patrones en estos datos. Y luego usa estos patrones para tomar decisiones sobre las cosas futuras que sucederán. Entonces, si quieres desglosarlo, se necesita una gran cantidad de datos de diferentes fuentes, ¿verdad? Pueden ser números o datos no estructurados, como imágenes y encuentra patrones, ve correlaciones donde los seres humanos tal vez no Entonces esto puede tomar, aquí es donde entra el aprendizaje automático, ¿verdad? Como lo dice el nombre. La máquina es aprenderlo, tomar todos los datos y aprender sobre ello. Si le das muchas imágenes faciales, encontrará patrones y luego podrá reconocer a otras personas. Derecha. En base a esto y estos patrones y percepciones que se toman para los datos. Por eso dije que toma decisiones sobre el futuro. Por ejemplo, una IA podría predecir el comportamiento del cliente. Puede diagnosticar afecciones médicas. O puede optimizar como rutas vehiculares, rutas logísticas, ¿verdad? Cuantos más datos obtenga, más mejora, más mejora, mejor obtiene. Todo esto es como un ciclo constante, ¿verdad? Así es como funciona la IA en pocas palabras. Y claro que ya hablamos de esto. No voy a pasar demasiado tiempo, pero claro, la IA está teniendo un impacto masivo y masivo para 2030, 15 billones Dice que puede contribuir honestamente. Y por supuesto, habrá una interrupción masiva del trabajo, por lo que la gente se enfoca más en la pérdida de empleos. Habrá pérdidas de empleos absolutamente, porque trabajos que los seres humanos pueden hacer, mucha IA podrá hacer, pero se crearán nuevos empleos. Bien. Eso es lo que la gente olvida la cantidad de empleos que se van a quitar. Se olvida que la cantidad de nuevos empleos que se están creando. Nadie hablaba de gobernanza de IA, seguridad de IA, como hace algunos años en 2021. Recuerdo que estaba hablando de ello. Nadie estaba pagando intereses porque en pocas palabras, nadie le importaba tanto. Pero ahora la IA ha cambiado el mundo, ¿verdad? La disrupción, ha ocurrido. Entonces por eso se están creando nuevas industrias. Así que no te preocupes ni te asustes por la IA, abrázala y aprende de ella. Y entender el potencial que es la industria está ahí y por supuesto ¿cuál es el riesgo? Entonces, la IA está siendo adoptada por industrias críticas, ¿verdad? Tienes cosas como atención médica, aplicación de la ley. Y lo más importante es que la IA no es perfecta. Puede tomar decisiones equivocadas o sesgadas. Si le das información incorrecta, puede desarrollar una pelea de sesgos. cual como dije antes, puede tener un impacto masivo en las personas y las sociedades. Incluso puedes engañarlo. Te puede gustar manipularlo o engañarlo. Y puede ser atacado por ataques cibernéticos. Aquí es donde vemos el enorme impacto que puede suceder con la IA, ¿verdad? ¿Qué pasa si la IA detiene accidentalmente a la persona equivocada o la IA hace el diagnóstico médico incorrecto o la IA no le da un préstamo a una persona cuando necesita desesperadamente eso o tratamiento médico ¿Correcto? Estamos hablando impacto en la vida real y como dije, se puede manipular. Además, puede ser engañado Al igual que si tienes un sistema de reconocimiento facial, en realidad puedes crear una imagen falsa y engañar al sistema de IA. Y claro, tenemos nuevos tipos de ciberataques que están surgiendo, todas estas cosas Es como un nuevo mundo que ha salido por la IA, ¿verdad? Y entonces estos son algunos ejemplos. Es decir, encontrarás millones de ejemplos en Internet. Esta pobre persona, fue identificada erróneamente por un, sistema A y en realidad fue detenido Entonces puedes imaginar cuánto impacto podría suceder esto, cuánto traumatizado habría estado esta pobre persona por el reconocimiento facial Basado en Ai, se estaba utilizando y llevó a su detención. Justo de nuevo, los autos de conducción autónoma estaban teniendo esta swissing cada vez más introducción Estoy en el Reino Unido y ves como los autos de conducción autónoma están siendo probados. Pero desafortunadamente han cometido errores y han llevado a vidas humanas, ¿ verdad? Han ocurrido accidentes. Así que puedes imaginar a medida que los autos autoconducidos se vuelven cada vez más populares, los tipos de ataques que pueden ocurrir, los tipos de incidentes que pueden ocurrir, y esto puede suceder para llevar a como un impacto real en la vida de las personas. Entonces, es por eso que necesitamos asegurarnos de poder mitigar los riesgos de IA. Y aquí es donde yo, entran las regulaciones , bien, Y desafortunado. El triste hecho es que muchas empresas, sobre todo las del sector privado, se preocupan más por las ganancias, ¿verdad? Su prioridad no es poner en regulaciones y controles y gobernanza. Por eso necesitas esa regulación para entrar y decir, oye, espera, detente. No se puede seguir adelante sin poner estos controles en su lugar. Y aún falta regulaciones sobre AA. Siguen poniéndose al día. La velocidad a la que se desarrolla es mucho más rápida que cualquier regulación. E incluso las empresas que son responsables, que son éticas, dijeron que no, necesitamos asegurarnos de mitigar el riesgo. Quieren esa orientación, ¿verdad? Entonces por eso están saliendo estas regulaciones. Y por supuesto, la estandarización, quiere asegurarse de tener un estándar común en todos los ámbitos sobre el cual se pueden aplicar estos controles Entonces aquí es donde han surgido las regulaciones de la IE y por qué necesitamos regulaciones de IA. Entonces espero que esta haya sido una lección rápida sobre la visión general de la IA, los impactos de la IA, el impacto del riesgo de IA y por qué necesitamos todos estos marcos que están saliendo. Porque a nadie le gustan las regulaciones y los marcos, ¿verdad? La gente piensa que esto es solo para gustarte, ralentizar la innovación, ralentizar el desarrollo. Pero ahora te he mostrado por qué puede ocurrir el impacto si no metes en estas regulaciones. Entonces ahora hemos establecido el fondo. En la siguiente lección, vamos a hablar sobre las regulaciones y marcos de IA que hay en el alto nivel. Y luego vamos a comenzar a profundizar en regulaciones específicas. Gracias y nos vemos en la siguiente lección. 3. 3 marcos de IA: Hola, hola a todos. Bienvenido a este módulo que trata sobre regulaciones y marcos de IA. Una perspectiva global o una visión global. Hemos hablado de IA, ¿verdad? Hemos hablado sobre la IA y los daños que pueden ocurrir si la IA no se controla y regula adecuadamente, y los controles no están ahí. En este módulo, lo que vamos a hacer es que vamos a tener una introducción a los marcos y regulaciones de IA y realmente dar un paso atrás y mirar el panorama global que existe desde los marcos de IA. Y lo que está sucediendo a nivel regional y nacional. Y cuáles son los desafíos que se enfrentan al mirar esta lista masiva de marcos y regulaciones de IA que existen, ¿verdad? Y vamos a, antes de profundizar, necesitamos esta lección antes de profundizar en los marcos individuales y comenzar a mirarlo. Bien, entonces antes que nada, echemos un vistazo a qué son los marcos, estándares y regulaciones de IA . Se trata de un conjunto de lineamientos y requisitos legales, ¿verdad? El objetivo de esto es gobernar cómo se diseña, desarrolla, despliega la IA, ¿verdad? Queremos mitigar los riesgos. Quieren asegurarse de que los sistemas de IA sean éticos, que no estén siendo injustos, ¿verdad? Están a salvo. Están causando daños a la vida humana. Son transparentes, lo que significa que se puede entender por qué están tomando estas decisiones. Y en realidad están causando beneficios a la sociedad. Y se quiere mitigar los posibles riesgos de seguridad, vulnerabilidades y daños que le pueden ocurrir a la sociedad. El objetivo de crear cualquier marco sea cual sea el país del que estés hablando, ese es siempre el objetivo, ¿verdad Y así es como ayudan. Como ya hablé antes, que las empresas, se enfocan en el beneficio, ¿verdad? Quieren sacar la mayor cantidad de dinero. Y a veces pueden ir por la borda en esto e implementar IA sin que los controles adecuados estén ahí en su lugar Entonces, si tienes un reglamento, un reglamento obligatorio que está ahí, eso los encontrará como el de la UE, ¿verdad? Por lo que se verán obligados a asegurarse de que estos controles estén ahí. Y aunque no sea obligatorio, tal vez sea solo un marco. Un marco opcional, ¿verdad? Lo que va a pasar es que tendrán que seguir esto porque los clientes se divinizarán. Los clientes no comprarán sus sistemas. Dirán, no, queremos la certificación ISO aquí en su sistema. ¿Su sistema está certificado según el framework Nist y todo eso? Estos garantizarán que las empresas sigan buenos estándares a la hora de desarrollar sistemas de IE. Y claro, hacen rendición de cuentas y trazabilidad, así que se aseguran de que ¿por qué la IA se está comportando así Que esas cosas estén presentes. Protegen el sistema de IA contra la manipulación. Si alguien intenta atacar el sistema de IA o engañarlo porque sigue estos estándares, los controles estarán ahí. Lo mismo contra los ciberataques, ¿verdad? Tienes nuevos tipos de ciberataques ocurriendo. ¿Cómo se asegura de que el sistema esté protegido? Al hacer cumplir una línea base mínima, una norma mínima. Y hacen las evaluaciones de riesgo, hacen que las empresas adopten un enfoque basado en el riesgo. No todos los sistemas son iguales, ¿verdad? Algunos pueden ser muy, muy sensibles, como los que están trabajando en los hospitales. Y algunos podrían ser simplemente una simple aplicación de reconocimiento facial que tienes en tu teléfono móvil, ¿ verdad? Todos ellos. Obligar a las empresas a adoptar un enfoque basado en el riesgo. Y por último, la cooperación internacional, que es muy importante. Entonces no quieres que estos diferentes silos ocurran Tienes cooperación internacional ocurriendo a través de los países. Todo el mundo está trabajando juntos para mitigar esto. Suena como una utopía. Sé que muchos de ustedes podrían estar pensando que esto nunca sucederá. Pero desafortunadamente, el riesgo de IA es tan peligroso, estos están siendo forzados. Bien, como verás un nivel de armonía. El mejor ejemplo que te puedo dar es el RGPD. La UE dio a conocer su reglamento general de protección datos para la privacidad de datos si no estás familiarizado con él, pero debido a que era un estándar tan estricto y tan bien siguió literalmente a todos los países del mundo, han implementado su propio marco de privacidad de datos, pero han tomado elementos del RGPD porque se ha convertido en el referente mundial. Y igual que esto, si le echas una mirada de alto nivel a esto, hay muchos, muchos marcos, pero honestamente los más importantes y que impactan en todos los demás marcos que hay por ahí. En primer lugar, en la parte superior, se quiere comenzar con los principios de la OCDE sobre IA. Y vinculo estos marcos y estándares para que puedas echarle un vistazo. Entonces básicamente, la OCDE, la Organización para la Cooperación y el Desarrollo Económicos . Sí, es una organización internacional que trabaja para construir mejores políticas para una vida mejor, ¿de acuerdo? Ellos no mandan. Pero lo que han hecho es que han dado a conocer ciertos principios sobre IA, ¿verdad? Y lo que ha pasado es en la mayoría de los países del mundo, perdón, han tomado estos principios y los están utilizando para hacer sus propios estándares. Entonces las estrategias a nivel nacional que tienes en los grandes países como EU, Reino Unido, la Visión de Oriente Medio, la visión de Pac, todas ellas han asimilado, pero la mayoría de ellas, son consistentes con los principios básicos para IA definidos por la OCDE y avalados por ellos, ¿bien? Por lo general es más o menos lo mismo. La sustentabilidad de los derechos humanos, la transparencia, la fuerte gestión de riesgos. Verás estos. Verás cómo llamas los co-inquilinos que se repiten una y otra vez, y la mayoría de los países, están siguiendo estos principios. Aparte de eso, ahora tenemos la ISO 4201, si no estás familiarizado, ese es un estándar de sistema de gestión de IA que ha salido por la ISO Y eso es como un estándar internacional. Pronto, las empresas estarán certificando a este estándar, ¿verdad? Al igual que tienes la ISO 2701 para seguridad IS 9,001 para la gestión de la calidad . Lo mismo. Tendrás esto y también tendrás el Nist AI Risk Management Framework, que es un marco de gestión de riesgos de IA creado por Nist Es como un agnóstico tecnológico, agnóstico de proveedores, pero es un framework muy, muy poderoso Mucho, si estás en ciberseguridad, te resultará familiar que la mayoría de las empresas, han adoptado la ISO 2701 y el marco de seguridad Nist Saba, bien, como un marco general por lo bien que se hacen estos estándares Lo mismo que puedes esperar con la IA. Y aparte de eso, a nivel regional, el mayor cambio que va a ocurrir es la Ley de IA de la UE. El reglamento de IA de la UE que está saliendo, que toma un enfoque basado en el riesgo de estas regulaciones. Y vamos a profundizar en todas ellas y esto va a impactar las estrategias a nivel nacional en todas las regiones. Entonces estos son, esto es como un Holístico, como una vista de muy alto nivel. Entonces la OCDE, como dije, han dicho que hacen políticas globales para los países. Creo que tienen cinco de estos principios basados en valores y lo que ha sucedido es que se han convertido en un referente global que ayuda a las empresas y gobiernos a adoptar ese enfoque para crear sus propias estrategias nacionales. Definitivamente recomendaría echarles un vistazo. La mayoría de los países que ves haciendo estrategias, solo están influenciados por estos, ¿verdad? Y estos son los mismos locatarios, ¿verdad? Para asegurarse de que la IA está trabajando hacia el bienestar de los seres humanos. Ellos son justos, son transparentes, se tiene la debida seguridad y protección, y rendición de cuentas. Son de muy alto nivel. Pero han ayudado a las empresas a comenzar a formar sus propias políticas para que entiendan. ¿Correcto? Bien, aparte de eso, tienes la regulación de IA de la UE que está saliendo dentro de la región de la UE. Esto toma como un enfoque basado en el riesgo. Esto va a tener un impacto masivo. Vamos a sumergirnos profundamente en esta regulación debido a casos de gran importancia. Esta es la primera integral, como se puede decir regulación o ley. Y esto va a ser obligatorio para cualquier empresa que funcione. Son similares al PIB que se convirtió en el marco global para la privacidad de los datos. Esto va a convertirse en el marco global para las regulaciones de IA. Incluso los países que no siguen, que esta ley no es aplicable, van a tomar algunos principios de ahí. Por lo que definitivamente se recomienda entender esto de verdad. Voy a sumergirme profundamente en esto. El problema con las leyes de la UE es que son muy aburridas. Es decir, te duermes cuando las estás leyendo. Entonces te voy a llevar a través de ello paso a paso. Y sobre todo hay que entender cómo funciona el enfoque basado en el riesgo. Aparte de eso, tenemos ISO 4201 que es la primera, la norma de gestión adecuada I Al igual que tienes los sistemas de gestión de seguridad de la información, ISMS Ahora tienes para el sistema de gestión de IA e IA que es como el global, crea como un paraguas. Mejores prácticas, ¿verdad? Y es un estándar muy completo. Es opcional. No tiene mandato en este momento. Pero las empresas que realmente quieren, ¿cómo se llama obtener una ventaja competitiva? Ellos van a querer certificarse contra la norma, igual que tienes empresas hoy en día, Obtienen la certificación ISO 2701 o 9,001 Y tienen esto como ventaja competitiva Muestran a los clientes, miren, estamos certificados porque estamos siguiendo buenas prácticas. Las empresas que están construyendo IA, querrán echar un vistazo al estándar. Aparte de eso, tienes el Nist AI Risk Management Framework Nuevamente, este es un marco opcional, pero créeme cuando digo mayoría de las empresas que se toman en serio la gestión de riesgos, van a estar adoptando este marco igual que Nist lanza el marco de ciberseguridad Y eso se ha convertido en el estándar industrial de facto por lo bien que está. Lo que pasa con Nist es cuando lanzan estándares como cientos y miles de personas los revisan y realmente pasan bajo un alto escrutinio para que les guste realmente pulirlos Entonces esto se va a convertir en otro estándar importante y vamos a profundizar en esto también. Y también tenemos la Orden ejecutiva por el gobierno de Biden que salió, creo que salió 38 de octubre del año pasado a 2023 ¿Correcto? Y esto es, nuevamente, promover FN, desarrollo confiable de IA Se trata de una orden ejecutiva. No puede crear nuevas leyes o reglamentos por sí mismos, pero lo que hace es que desencadena el inicio de tales procesos. Y es un gran avance masivo en la rendición de cuentas de cómo se desarrolla e implementa la IA en todas las empresas. Y tiene una enorme cantidad de regulaciones, no regulaciones, perdón, recomendaciones, estándares. Y va a impactar a mucha gente. Nist ha estado muy involucrado dentro del desarrollo de estos marcos El marco de gestión de riesgos de IA, que hablé, es referenciado varias veces. Y lo que pasa es que estas órdenes ejecutivas salen y dan un mandato de alto nivel esa mirada, así va a ser. Las leyes salen a la luz. Y el sector público empieza a implementarlos. Y debido a que el sector público los está siguiendo, el sector privado sigue y se convierte en un mandato extraoficial en todos los ámbitos, ¿verdad? Entonces estos son solo algunos de los estándares de los que quería hablar. Los retos son, como yo, como dije antes, hay demasiados de ellos. Te da dolor de cabeza. Entonces por eso he elegido lo más importante. Y créeme, si entiendes bien estos, del que voy a estar hablando, prácticamente has cubierto la mayoría de ellos. Porque todos ellos se basan en los mismos conceptos. Bien. Y el otro reto es la armonización. Estoy tratando de entender dónde están los puntos en común y de los cuales discutiremos El otro es opcional versus obligatorio. Entonces cosas como Nist e ISO, no son obligatorias, ¿verdad El reglamento EUA lo es, una vez que entra en vigor, es obligatorio Entonces hay que entender qué es obligatorio, qué es opcional, ¿verdad? Y otra opción es específica de sector a través de sectores o a veces alguna normativa. Son específicos un sector en particular como la industria energética o la industria del agua. Y algunos están en todos los ámbitos, así que queremos echarle un vistazo a eso y entenderlos. Y por último, lo más importante, equilibrar la innovación y la regulación. Si pones demasiadas regulaciones, el ritmo al que se está innovando la IA, volverá atrás o la mayoría de las empresas intentarán salir de esa región, ¿verdad Entonces quieres equilibrarlo, quieres poner controles, pero queremos asegurarnos de que no impida que ocurra la innovación . Y lo último, el reto, que siempre está ahí, que la IA es muy, muy rápida, se desarrolla extremadamente rápido. Los reglamentos siempre están tratando de ponerse al día con este desarrollo. Entonces por eso estas regulaciones de IA a veces a un nivel bastante alto, ¿verdad? Quieren asegurarse de que cubren todo, así que no quieren ser específicos sobre ninguna tecnología ni ninguna para ser demasiado prescriptivos De lo contrario se van a desfasar muy, muy rápidamente. Entonces espero que esto te haya sido útil. Echamos un vistazo de alto nivel a los marcos y regulaciones de IA, qué se necesitan y regulaciones clave, y cuáles son algunos desafíos que surgen al adoptarlos. Ahora lo que vamos a hacer es que vamos a sumergirnos en una regulación en particular. Y empieza a bucearlo a profundidad, mirando sus componentes y cómo podemos conseguirlos implementados. Gracias y nos vemos la siguiente lección. 4. 4 Ley de la UE 1: Hola a todos. Bienvenidos, bienvenidos a esta lección. Y ahora vamos a dar inicio a una inmersión profunda. Y vamos a dar inicio a una inmersión profunda con posiblemente la regulación más importante que saldrá en breve, que es la Ley de Inteligencia Artificial de la Unión Europea . Esta será probablemente la primera ley dedicada a la inteligencia artificial. Se le conoce como la Ley de IA. Cuando se convierte en ley, va a establecer el punto de referencia global o el estándar para la regulación de la IA. Y otros países, otras jurisdicciones van a construir sus propias leyes nacionales, pero van a tomar de la Ley de IA de la UE. Y esto es, lo hemos visto históricamente también con cosas como el GDPR. Y te voy a mostrar y por qué suele suceder eso, que los mandaron como un referente global, ¿verdad? Y si bien la legislación a partir de febrero de 2024, aún necesita ser aprobada formalmente por cada negocio de órgano legislativo si está operando en la UE. Ahora tiene una imagen mucho más clara de lo que necesita hacer para cumplir con la Ley EUAI Una vez que entre en vigor, ¿verdad? Por lo general, se espera que se convierta en ley a principios de 2024. Estas cosas que llevan mucho tiempo, pero el marco está ahí y ahora sabemos lo que van a hacer cumplir básicamente a la UE básicamente quiere garantizar que la IA se use de manera ética y segura y se toman muy en serio la defensa de las leyes y derechos fundamentales ¿Correcto? Han adoptado como un enfoque proactivo para gobernar las tecnologías de IA basadas en el riesgo. Y eso es lo que vamos a echar un vistazo. Esto es lo que vamos a cubrir. Vamos a echar un vistazo a la visión general de EAA de esto, cuál es el enfoque basado en el riesgo, específicamente cuál es la IA de alto riesgo, porque ahí es donde va a ir la mayor parte del tiempo y cómo implementar ticket Vamos a tomar una compañía ficticia y de hecho ver paso a paso, lo que hay que hacer para implementar la Ley EA Voy a enfocarme en las disposiciones críticas del acto. El acto en sí, como la mayoría de la U, es como muy aburrido de leer. Te quedarás dormido si empiezas a leerlo, honestamente, a menos que seas un tipo legal, alguien en legal o de cumplimiento a quien le guste leer esto. Entonces, lo que he tomado es que me he centrado deliberadamente en las áreas clave. Las áreas donde se necesitará mayor esfuerzo, que es el enfoque basado en el riesgo de los sistemas EAI, y eso es lo que va a tener un impacto masivo. Como un breve resumen. Ahora bien, esta es la primera ley propiamente dicha, como se puede decir, dedicada a la IA. Y tiene el potencial, y yo diría que se va a convertir en un referente global para la regulación de la IA. Similar a cómo la regulación general de protección de datos se establece como un estándar global para la privacidad de datos. Y si estás trabajando en privacidad, ya sabes, sea cual sea el país en el que estés de una manera u otra, tu ley se ha visto impactada por el RGPD. De igual manera, la regulación EUA va a establecer el punto de referencia global para la IA ¿Por qué? Porque antes que nada, es uno de los marcos más completos enfocados específicamente a regular la IA. ¿Bien? Lo que hace, se enfoca en los riesgos que existen. Y se asegura de que proporcione un enfoque regulatorio muy detallado. Se va a convertir en un modelo para otros países. Y lo más importante, se necesita un enfoque basado en el riesgo. Por lo que clasifica los sistemas en función del riesgo que tienen, así que desde el riesgo mínimo hasta el riesgo inaceptable Y esto te da un enfoque equilibrado, ¿verdad? Porque no dice que no. Cada sistema de IA va a ser así. Ahora bien, un sistema de IA que es, digamos, trabajar en un hospital o en las fuerzas del orden, no es lo mismo que un simple chatbot en tu sitio web, ¿verdad Contestando preguntas, claro que no. No quieres aplicar los mismos controles ahí. Pero la UE es un mercado masivo. Es un jugador económico global significativo, ¿verdad? Las empresas que operan o venden en el mercado de la UE deberán cumplir con los requisitos de EAI Y esta presión de cumplimiento llevará a que las empresas todo el mundo adopten estándares similares que están influenciados por la EIA. Por eso he empezado esto. Entonces definitivamente se va a convertir en un referente global y va a influir en muchos países y negocios. Y claro, al igual que el GDPR, las sanciones son bastante severas. Creo que del 2% al 7% de la facturación anual global. Y depende, claro, ahí hay mucho gravamen, pero las multas pueden ser bastante severas Si alguna vez tiene alguna duda, eche un vistazo a cómo el GDPF a veces encuentra empresas y tendrá una mejor idea de cómo potencialmente las empresas que no cumplen con esto en el futuro o lo toman con demasiada indulgencia, cómo pueden verse impactadas Entonces, ¿a quién se le está impactando? Básicamente, las empresas que desarrollan o crean sistemas de IA, ¿verdad? Como tecnología de software, desarrolladores de software o firmas de tecnología. A lo mejor los estás desplegando. Por lo tanto, está implementando y utilizando sistemas de IA independientemente de la industria en la que se encuentre. Organismos públicos, ¿verdad? Por lo tanto, organismos gubernamentales y organismos que están desplegando sistemas de IA para servicios públicos, organismos reguladores y de control. Las autoridades encargadas de vigilar y asegurar el cumplimiento de la EUA actúan como agencias de protección de datos ¿Correcto? Y los consumidores por supuesto, el público en general. Y como dije, va a tener un impacto global aunque seas una organización que no sea de la UE, pero estás ofreciendo servicios a ciudadanos de la UE, entonces será aplicable. Por eso dije que va a tener un impacto global y empresas que incluso están fuera de la UE. Serán como forzar el cumplimiento de esto. Por eso es tan importante entender esto. Ahora bien, el punto clave, el punto más importante de la Ley EAI es que clasifica los sistemas de IE en cuatro niveles de riesgo En base a ese nivel de riesgo, hay que poner controles. Cuanto mayor sea el riesgo, más estrictos serán los controles que tienes que implementar. Ahora primero que nada es el riesgo no mínimo. Estos son la mayoría de los sistemas de IA que no tienen riesgo y no enfrentarán ninguna regulación como un simple bot de chat que no está recopilando ningún dato ni nada, ¿verdad? El otro son los riesgos limitados. Los sistemas de IA con riesgo limitado, tendrán obligaciones de transparencia. ¿Qué significa eso? Tienen que revelar que este es contenido se genera IA, ¿verdad? Y hay que informar, como dije, charlar pot o tal vez algo que esté usando IA generativa, ya sabes Entonces hay que asegurarse de que esas cosas estén ahí. Los riesgos altos también están ahí alto riesgo. Los sistemas I serán autorizados con requisitos y obligaciones específicas para el acceso al mercado. Aquí es donde va a entrar la mayor parte del esfuerzo. Y por último es un riesgo inaceptable que simplemente está prohibido. No se permitirá este tipo particular de sistemas de IA. Y han dado una definición muy detallada como los sistemas de IA que intentan manipular las emociones, o están regulando como si realmente estuvieran monitoreando las emociones en lugares de trabajo, instituciones educativas O están usando el reconocimiento facial para la identificación biométrica remota Han dado algunas excepciones para la biometría, pero ya sabes, la UE es muy, muy estricta cuando se trata de privacidad de datos Entonces creo que ninguna jurisdicción es más estricta que la UE. Por lo que han tomado este enfoque basado en el riesgo. Y entonces si lo miras, esto es de EU, así es como se ve, ¿verdad? Si comienzas desde abajo, hay riesgo mínimo, sin obligación, transparencia de riesgo limitada. Hay que echar un vistazo y conseguir, hay que revelar que esto se basa en IA. alto riesgo es una evaluación de conformidad que es como una auditoría. Se puede decir que hay que hacer cumplir este nivel de controles antes de que se le permita. El riesgo inaceptable simplemente está prohibido, lo siento, si tu aplicación de IA es así y estas son las cosas que estás haciendo, lo siento, estás completamente prohibida. ¿Y qué es inaceptable o prohibido? Así que básicamente cualquier cosa, ciertas acciones que han definido, ¿verdad? ¿Qué significa que los sistemas de IA técnicas subliminales, qué significa eso? Déjame traducirlo. Los sistemas de inteligencia artificial que utilizan métodos subconscientes furtivos para cambiar drásticamente el comportamiento de una persona están completamente Ya sabes, están tratando de influir en tu comportamiento, influir en tus emociones. Biométricos que utilizan características sensibles como creencias políticas, religiosas, filosóficas religiosas, filosóficas. No, no están permitidos. biometría se permite con excepciones o son secuencias de comandos similares no dirigidas de imágenes faciales de Internet o imágenes CCD para generar bases de para generar puntuación social, la mayor IA que se está utilizando para explotar las vulnerabilidades de las personas, derecho, por su edad o discapacidad, quedarán completamente prohibidas. No están bromeando sobre, sobre esto, EU es muy, muy sensible sobre la privacidad Es por eso que la identificación biométrica remota en tiempo real en espacios públicos similares a menos que piense que han dado ciertas excepciones o eso pero han prohibido por completo esos sistemas de IA Alto riesgo es alto riesgo son aquellos sistemas que están permitidos pero pueden representar riesgos significativos para la salud o la seguridad, los derechos y libertades fundamentales. Incluirán sistemas de IA que se utilizan en infraestructura crítica o en su educación. El empleo esencial como los servicios públicos y gubernamentales, ¿verdad? Y requieren un estricto cumplimiento, estrictos requisitos obligatorios antes de que puedas ponerlos en el mercado. ¿Cuáles son esos requisitos? Es necesario hacer una evaluación de riesgos adecuada. Tienen que llenar una adecuada evaluación de riesgos, documentar la evaluación de impacto lo que están haciendo, unos altos estándares de calidad de datos, lo que los datos que está siendo utilizado por la IA. Necesitan asegurarse de que los datos, los datos no hayan sido comprometidos, ni envenenados, o influenciados de ninguna manera. Necesitan hacer documentación detallada y llevar registros. Si alguna vez has estado en una auditoría GDPR, conoces la cantidad de documentación, tienes que ponerla a disposición, ¿verdad? Y por supuesto, la transparencia. Por lo que hay que proporcionar información clara sobre las capacidades de los sistemas de IA, para qué se está utilizando. Y esto es si estás en un sistema de alto riesgo. Esto es de la página web de la UE. Esto es como, estas son las condiciones bajo escalones. Entonces, si desarrollaste un sistema I de alto riesgo, tendrían que someterse a esta evaluación. Se registra en la base de datos de la UE y se pone en signo. Básicamente, se obtiene el CE marcando la Unión Europea. Una vez que es vida, ha estado en la base de datos sobre los cambios. Si hay algún cambio importante, es necesario volver al paso dos. Hazte como la aprobación hecha. Sistemas de alto riesgo, son muy, muy serios al respecto. No son como bromear al respecto, ¿verdad? Por último, el riesgo limitado o mínimo como hablamos aquí, como cosas simples como el chat sobre una IA generativa, que no es tomar datos, Quieres asegurarte de que ahí tienes transparencia. El riesgo limitado o mínimo es más o menos, tienen el mismo riesgo mínimo. Al igual que no necesitas riesgos limitados, necesitas ser divulgado. El hecho de que estés usando como la salida es AI generado. Entonces así es como se ve el acto de EAI desde mil pies de vista ¿Cómo te preparas para ello? ¿Correcto? Entonces como dije, no intentes memorizar el estándar a menos que seas abogado Aunque seas abogado, no te recomendaría memorizarlo porque ese no es el punto del acto EUAI, Entonces, mientras el acto aún está a punto de aprobarse, puedes empezar a ser proactivo al respecto. Para que puedas comenzar a inventar y clasificar tus sistemas, implementando un marco de gobierno de IA Entonces, para asegurarse de que esos procesos y un gráfico estén ahí. Haciendo un análisis de brechas, priorizando y averiguando los riesgos que existen, ¿verdad Y luego haciendo entrenamiento y comunicación. Y en lugar de que yo solo hable de esto ciegamente, tomemos un estudio de caso, ¿verdad Tomemos una empresa que está a punto de implementar la Ley de IA de la UE y veamos cómo lo harían para que te hagas una mejor idea. Eso envuelve esta lección. Hemos visto qué es la Ley EUAI, cómo funciona, el enfoque basado en el riesgo y cómo se tratan los sistemas de IA de alto riesgo, y ahora los requisitos también por el enfoque basado en riesgos Entonces tomemos un ejemplo de una empresa y veamos cómo se verá en acción el acto de la EUAI Gracias y nos vemos en la siguiente lección. 5. 5 Ley de la UE 2: Hola a todos. Bienvenidos, bienvenidos a esta lección, que es que ahora hemos hablado de la Ley EAI Y como mencioné, la Ley de la UAA puede llegar a ser muy seca de leer Si solo estás leyendo la teoría, no entenderás, te olvidarás de ella. Quiero mostrarles cómo teóricamente una empresa se encargaría implementar la Ley EAI, Y hay múltiples formas de hacerlo, pero vamos a tomar un ejemplo simplista que entiendas los conceptos clave Y recuerda eso es en lo que siempre me concentro, por eso hice este curso. Por favor, no intentes memorizar estos estándares porque te olvidarás de ellos, ¿de acuerdo? Si haces un estudio de caso o lo haces valer tú mismo, entonces ese conocimiento nunca, jamás olvidarás . Y eso es lo más importante. Creo que también te mostré esta diapositiva en la lección anterior. Pero así es como una empresa típica prepararía para la Ley EAI Ellos inventariarían y clasificarían. ¿Qué significa eso? Ellos revisarían los sistemas de IA existentes y los casos de uso y los categorizarían que, oye, ¿tengo algún sistema de alto riesgo que requiera el cumplimiento de la Ley EA Puedes usar cuestionario, tal vez usar algún sistema automatizado que averigue el propósito de esto. Si ya tienes un inventario, puedes usarlo. Entonces irían sobre la implementación de un marco de gobierno de IA. Debido a que la IA no existe en el vacío, necesita un marco de gobierno adecuado. Se necesitan comités. Necesitas un gráfico de Acto. Se necesitan procesos implementados para implementar realmente correctamente la Ley EUA Y luego harás un análisis de brechas. Por lo que hacemos un análisis adecuado de brechas frente a los requisitos. ¿Qué es lo que ya tienes? Si tienes un sistema hier, ¿con cuántas partes de la Ley EAA cumplo ¿Verdad? Entonces lo que pasa es que obtendrás un plan de acción. Sabrías cuáles son los riesgos, cuáles son los problemas, y luego priorizarías y administrarías esos riesgos de IA, ¿verdad Empezarías a hacerlos cumplir, tratando de arreglarlos. A lo mejor no tienes la documentación adecuada, mejor no tienes ahí los controles de seguridad de IA adecuados. Y por último, empezarías a hacer el entrenamiento y la comunicación porque hay muchas cosas. Tal vez sus desarrolladores necesitarían ser informados, Su alta dirección tendría que ser consciente de ello. Entonces estos son los pasos clave. Los pasos fundamentales en los que tendría que pensar cuando esté aplicando la ley de IA de la UE en el futuro Entonces tomemos un estudio de caso, ¿ verdad? Un simple estudio de caso. A lo mejor tienes una firma de tecnología global que se especializa en analítica de datos, sistemas de IA, ¿verdad? Y ahí tienen que alinear sus operaciones con los EUA la gestión de actos le preocupa Km, y esto parece serio. ¿Qué pasa si nos multan, verdad? Porque tienen una cartera muy amplia de productos y servicios impulsados por IA. Realmente han ganado mucho dinero con el boom de la IA, pero ahora se dan cuenta de que viene la regulación y aquí son bastante inteligentes. Han decidido de manera proactiva ajustar sus prácticas para cumplir con el nuevo panorama regulatorio de IA en la Unión Europea Te han contratado como si estuvieras pensando en cómo hacerlo, ¿verdad? Entonces el primer paso, como mencioné, inventariar y clasificar sus sistemas de IA, bien, para entender las implicaciones Entonces primero debes averiguar si tengo modelos de IA en uso o en desarrollo, o a punto de adquirir Cuál podría caer dentro de la categoría más alta, ¿verdad? Muchos servicios que utilizaban, como los modelos existentes que compraban en algún lugar. O tal vez los han construido en casa. Entonces necesitas tener este tipo de inventario de modelos. A lo mejor puedas hacerlo manualmente, difundir cuestionarios. O tal vez tenga un sistema automatizado que pueda averiguar rápidamente cuáles son los sistemas de IA. Supongamos que se está ejecutando en la nube, sabría cuántos servicios de IA está ejecutando, ¿verdad Entonces hay muchas formas de hacerlo. No es una regla dura y rápida, pero el primer paso siempre es inventariar y clasificar Entérate de lo que tienes y qué hay que hacer, ¿verdad? Y así suponiendo que la esfera de datos se encuentre como un sistema que podría ser de alto riesgo, tomemos un ejemplo Tienen una herramienta de diagnóstico impulsada por IA que ayuda a los médicos a identificar enfermedades raras en función de los datos de los pacientes. Y dado el impacto potencial en salud del paciente y la naturaleza de los diagnósticos médicos, este sistema de IA caería en el alto riesgo bajo la Ley EAI ¿Qué tendrán que hacer? Tendrán que hacer una evaluación detallada del riesgo de la herramienta diagnóstica, ¿verdad? Evaluarían su impacto para afectar la seguridad del paciente y la precisión del diagnóstico médico. Les gustaría mejorar su cumplimiento para asegurarse de que MI cumpla con la Ley EOAI o no, ¿verdad? que MI cumpla con la Ley EOAI o no, ¿verdad Ellos harían una revisión ética y regulatoria. ¿Cuál es la implicación para la privacidad y preocupación del paciente? ¿Tengo permiso del paciente? Saben que esto es un acto EUAI, ¿verdad? Eso, perdón, este es un sistema de IA que está tomando decisiones. Mejorarían el gobierno de los datos, la privacidad y la seguridad de los datos en torno a estos controles, ¿verdad? Transparencia y divulgación. Están proporcionando información clara a médicos y pacientes sobre cómo la herramienta de IA está haciendo sus diagnósticos, qué datos está utilizando y luego monitoreo de implementación, ¿verdad? Entonces, ¿se está desplegando en el ambiente clínico controlado adecuado con monitoreo implementado? Y ¿tiene documentación e informes que informan a los auditores de lo que se está utilizando? ¿Y estamos comprometiéndonos con los dueños de la salud como los hospitales para obtener comentarios? Porque al dar estos pasos, no sólo asegurarán que su herramienta de diagnóstico cumpla con la Ley EAI, sino que también demostrarán que están manteniendo altos Estos son los pasos que deberán tomar para asegurarse de que cumplen con la Ley EAI El siguiente paso sería mejorar el marco de gobernanza de la IA, ¿verdad? A lo mejor no tienen un buen gobierno en estos momentos. No tienen a nadie dedicado a la IA. No tienen políticas, no tienen marcos. ¿Cómo se asegurarán de que quién decida si un sistema de IA es compatible o no y lo detiene? ¿Cuáles son los checklist? ¿ Alguien los está auditando? ¿Alguien está implementando estos controles? Necesitan contratar gente. Necesitan cambiar sus políticas y procedimientos. Entonces aquí es donde su gobierno de IA entrará en su lugar. Podría caer dentro de la gestión general del riesgo o podría ser una nueva función. Pero estas son las decisiones que necesitas tomar. Y luego por supuesto, análisis de brechas, obtendrás una larga lista de ítems, de cosas que necesitas arreglar. Entonces tendrías que hacer un análisis de brechas adecuado, Entérate cuáles son las áreas en las que necesitamos trabajar. Estas políticas faltan. Estas acciones faltan. Estas personas necesitan ser contratadas. Estos sistemas de riesgo de IA necesitan ser fijos. Entonces estas son las cosas en las que tendrías que pensar y ponerte agrieta. Tener un seguimiento adecuado sucediendo, ¿verdad? Y por supuesto, la evaluación del sistema, hay que asegurarse, bien, sistemas vivos, una vez que haya obtenido la conformidad, cómo sabe asegurarse de que si ocurre algún cambio, tendría que averiguar cuáles son los cambios. ¿Necesitamos hacer una auditoría de reconformización? Todo ese tipo de cosas tienen que estar ahí. Y más adelante cuando hablamos del estándar de foto uno que hace cumplir un sistema de gestión de IA, ¿verdad? Aquí es donde actúan la UE y la ISO que está saliendo. Pueden complementarse y ayudarse mutuamente. Y manejo de riesgos de IA por supuesto, ¿verdad? Entonces esto se formará bajo el gobierno. Por lo tanto, debe asegurarse de que sus procesos de gestión de riesgos han sido mejorados y ellos saben cuáles son las formas adecuadas de averiguar las tasas de riesgo I de IA son muy, muy diferentes, bien, de los ataques tradicionales de IA. Ai temas de seguridad. Todos son muy diferentes. ¿Tienes una forma adecuada de identificar estos riesgos? Y aquí es donde surgirá el marco de gestión de riesgos de IA Nist , que discutiremos en las próximas lecciones Entonces todas estas cosas en las que hay que pensar. Por último, y la parte que más odia a todos, que es la documentación Como dije, si alguna vez has hecho una auditoría adecuada del RGPD, sabrás cuánta documentación hay que hacer, y esto vuelve locos a todos. Comienza a crear ese repositorio para asegurarte de que todos los sistemas de IA estén debidamente documentados, lo que has hecho. Entonces, si alguien viene a la auditoría, tienes lista esta documentación completa mostrándole cuáles eran los procesos ahí. Y por supuesto, la capacitación de los empleados sobre ética y cumplimiento de la IA. La fuerza laboral necesita estar informada. Tendría que gustar educar a sus desarrolladores, a sus científicos de datos, su personal de gestión de riesgos de IA, a su alta dirección, para asegurarse de que entiendan qué nuevas obligaciones están saliendo. Esto promoverá una cultura adecuada consciente del riesgo para que las personas comprendan el nuevo entorno que está saliendo, ¿verdad? Para que la gente simplemente no siga adelante y compre sistemas de IA sin informarle, sin informar a los equipos de gestión de riesgos. Y por último, la comunicación de las partes interesadas para que todos sepan, ¿el hospital, están al tanto los hospitales? Tienen que informarnos si ocurre algún problema. ¿Estamos recibiendo comentarios de los hospitales, de los médicos, si ocurre algún problema? ¿Sabemos si ocurre algún incidente? ¿Cómo informar a las autoridades legislativas de la UE que ha ocurrido algún incidente? La documentación adecuada, la descripción adecuada del trabajo necesita estar ahí. Los procesos necesitan estar ahí. Así es como lo harías a un alto nivel, haciendo cumplir la ley de EA Espero que esto te haya dado una mejor idea. Ahora bien, en lugar de que yo lea línea por línea, estas son las cláusulas que les mostré cómo una empresa haría realmente hacer cumplir esto Úsalo como punto de guía. Estoy seguro que probablemente podrías agregar más cosas aquí, pero esto es solo para darte una visión de alto nivel de cómo hacer cumplir la Ley EUAI Cada vez más empresas comenzarán a implementarlo y nos enteraremos de cosas nuevas. Pero esto te da una muy buena manera comenzar con la Ley EUAI Espero que esto te haya sido útil y te veré en la siguiente lección. 6. 6 NIST 1: Hola a todos. Bienvenidos, bienvenidos a la lección. Y en esta lección, vamos a profundizar en un nuevo marco de IA, que es el Nist AI Risk Management Framework Esto no es una ley, esto no es como una regulación, como la Ley de IA de la UE, de la que hablamos. No, esto es un marco, pero es sumamente importante y te voy a mostrar por qué y por qué va a tener un impacto tan grande como la IA de la UE actúa como hablamos. Va a tener un impacto global. Esto también va a tener otro impacto global. Y como dije, esta es una, esta ha sido desarrollada específicamente para abordar los riesgos de IA. Si recuerdas, cuando estábamos discutiendo la Ley de IA de la UE, hablaron sobre la creación un marco de gestión de riesgos de IA. Bueno, eso suena muy bien, pero ¿cómo lo haces? ¿Correcto? ¿Cómo se crea un marco para evaluar , identificar y gestionar los riesgos de IA? Entonces aquí es donde Nist se ha basado este marco que es un marco absolutamente excelente Y vamos a sumergirnos profundamente en esto en esta lección. Entonces, antes que nada, vamos a cubrir quién es, ¿ por qué deberíamos escucharlos? La introducción al marco y visión general, los componentes y los beneficios del mismo. Y como dije, como siempre hago, vamos a hacer un estudio de caso, vamos a tomar una empresa que está implementando este marco. Y cuáles son los pasos de alto nivel que tendrían que hacer. Entonces ojalá puedas tomar esas lecciones e implicarlas dentro de tu propio entorno también. Entonces, antes que nada, ¿qué es Nist? El Instituto Nacional de Estándares y Tecnología. Es un sustantivo, agencia reguladora Departamento de Comercio de Estados Unidos Su misión es promover la innovación y la competitividad industrial y las diversas publicaciones. Bien, y si estás en ciberseguridad T, mejor que los conozcas para el Nist Cybersecurity Framework, o el CSF, que básicamente es como un conjunto de pautas y El marco fue creado entre expertos similares de la industria y del gobierno. Creo que salió hace más de diez años en 2014. E inicialmente, estaba dirigido a como la infraestructura crítica, ¿verdad? No obstante, fue un documento tan excelente, los lineamientos y todo lo que su uso se ha extendido más allá de la infraestructura crítica. Ha sido ampliamente adoptado por empresas aparte de la infraestructura crítica en Estados Unidos y a nivel mundial. Y prácticamente todos los sectores están usando esto de una forma u otra si estás en ciberseguridad Créeme, has oído hablar de Nist. Y Nist CSF, se ve así, ¿verdad? Y lo han actualizado recientemente a, creo que 2.0 Así que solían tener el tipo de co funciones de alto nivel. Inicialmente solían ser cinco, que es como identificar, proteger, detectar, responder, recuperar, y ahora han lanzado uno nuevo que es Govern. Y es extremadamente potente porque es flexible y se puede adaptar a las necesidades específicas de cualquier empresa, ¿verdad? Para que puedas tomar las mejores prácticas y principios y utilizarlos para mejorar tu empresa. Podrías estar pensando, ¿por qué te estoy hablando del framework de Ciberseguridad Nist? Te estoy mostrando esto? Porque entonces podrás apreciar el marco de gestión de riesgos de IA porque está construido de manera similar, ¿verdad? Entonces, como mencioné, han lanzado este framework de manera completamente gratuita porque también reconocen la cantidad de riesgos y amenazas que son posibles con la IA. Por lo que esto dio origen al Nist AI Risk Management Framework Y al igual que la Ley EUA, no sólo están hablando de las cosas negativas Quieren maximizar la innovación, maximizar los aspectos positivos de la IA. Le brinda un enfoque estructurado para identificar, evaluar y mitigar los riesgos que existen con los sistemas de IA. Y con la IA, es tan técnico. Entonces necesitas tener algún tipo de marco. ¿Qué aspecto tiene el marco, verdad? Entonces, como dije, es un conjunto de lineamientos, ¿no? No es una ley, es completamente opcional. Si lo quieres hacer cumplir, sí. Si no lo quieres hacer cumplir, nadie te puede hacer cumplir. ¿Correcto? Pero antes que nada, más importante es el agnóstico tecnológico Está diseñado para ser aplicable específico independientemente de la tecnología que esté utilizando. Por lo tanto, se puede aplicar a la IA construida con cualquier tecnología en la nube prem Por lo que permite que un framework siga siendo relevante e independiente del proveedor, por lo que no están orientados a ninguna plataforma en la nube en particular Entonces es tanto agnóstico de proveedor como agnóstico de tecnología. Y define lo que es un sistema de IA confiable. Por lo que te da un criterio muy claro. ¿Qué es una IA en la que se puede confiar? Te voy a mostrar cuál es el criterio. Cosas como equidad, confiabilidad, transparencia. Y te da unas pautas claras de que si estás desarrollando un sistema y si cumples con este criterio, tu IA caerá en algo llamado confiable. Y se divide en dos partes. Entonces te dan información fundacional. Estos son los principios básicos de la IA, la gestión de riesgos. Sabes por qué lo necesitas, ¿cuáles son los conceptos fundacionales Y entonces el núcleo es la parte orientada a la acción. Y vamos a mostrar lo que eso significa. El núcleo es donde pondrás en los procesos para mitigar, y así es como se ve, así es como se ve el núcleo. Como dije, esta es la acción orientada, es como implementas la gestión de AI dentro de tu empresa. Por lo que detalla un funcionamiento clave como establecer una estructura de gobierno mapeando, midiendo, manejando el riesgo A. Y se puede ver que le resulta muy familiar al marco de ciberseguridad Entonces, si solo voy unas diapositivas hacia atrás, este es el Nist IRMF, y este es el marco de ciberseguridad Entonces ese fue el punto de mostrarte esto, así es como. Se necesita un enfoque muy amplio pero muy detallado sobre cómo implementar como un marco de gestión de riesgos que le ayudará a identificar y mitigar los riesgos de IA dentro de su entorno. Entonces hablamos de que Nist te dice cómo es un sistema de IA confiable Algo que tu empresa pondrá en marcha, y los clientes pueden confiar en que no va a quedar comprometida, va a tratar sus datos de manera justa. Entonces estos son los aspectos de los que hablaron, válidos y confiables. Entonces no baja las salidas que se da, esas son como en ellas se puede confiar Es seguro. No pone en peligro a la gente. Es seguro, ¿verdad? No va a quedar comprometida mañana. Resilientes. Es responsable y transparente. Entonces te dice cómo está llegando a sus decisiones. Es explicable. Entonces la documentación está ahí. Protege la privacidad, y es justo. Por lo que no se precia a una raza en particular, a una empresa en particular, a un género en particular. Toma en cuenta todas estas cosas. Y así es como Nist define el daño que causa el EI. Ese daño puede sucederle a personas como personas que reciben el diagnóstico equivocado, o son atropellados por un auto auto que conduce. El daño a la reputación de una empresa puede resultar perjudicado, ¿verdad? Sus operaciones comerciales pueden verse impactadas. E incluso daño a un ecosistema. Entonces esto es algo que la gente olvida que ya sabes, incluso el ecosistema financiero global, tu entorno global. A medida que más y más cosas se mueven hacia la IA, esas cosas también se ponen en práctica. Todas estas cosas se tienen en cuenta. Entonces, ¿cuáles son los beneficios del marco de gestión de riesgos de Nist Air En primer lugar, es una excelente manera de poner en un marco efectivo de gestión de riesgos para identificar y mitigar riesgos Te da confiabilidad. Hablamos de cómo te dice lo que es un sistema de IA confiable, ¿verdad? Y va a hacer que sea más fácil estar en cumplimiento de las mejores prácticas. Si has implementado NistirMF, vamos a hablar También será más fácil cumplir con la normatividad de la Ley EUAI, ¿verdad? Y te muestra cómo crear una colaboración adecuada dentro de tu propia empresa. Todas estas cosas, cuando se piensa en ello, hace que lo que se llama la reunión, el cumplimiento de los demás reglamentos también. Entonces, si lo comparas con la Ley EUAI, el Nist es completamente optativo, Fomenta la adopción voluntaria, mientras que la UE es más obligatoria. Dice, no, hay que hacerlo. Pero el Nist AI Risk Management Framework, puede servir de guía práctica para las empresas sobre cómo implementar los principios y requisitos en la Ley de EUA Especialmente donde no hay mucho detalle se proporciona, ¿verdad? Cómo implementar un marco de gestión de riesgos, cómo hacerlo, ¿verdad? Entonces esto es como una visión general de alto nivel del Marco de Gestión de Riesgos de IA Nist Entonces esto es de lo que hablamos, qué es, cuáles son los componentes clave, fundamental y el núcleo, y qué son confiables es la IA Entonces, como ya he dicho antes, en lugar de que yo solo balbucee y como tratar de hacerte memorizarlo, echemos un vistazo a cómo hacer cumplir el primer marco de gestión de riesgos de IA dentro Gracias y nos vemos en la siguiente lección. 7. 7 NIST 2: Hola a todos. Bienvenidos, bienvenidos a esta lección, que es una continuación de la lección anterior. En esta, vamos a implementar el Nist AI Risk Management Framework, y ver cómo se tomarían los pasos Entonces esto es similar a lo que hicimos anteriormente, pero a un alto nivel, estos son los pasos que darías por ahí entendiendo el marco, evaluando tu nivel actual de uso de IA. Y luego implementar el núcleo del marco de gestión de riesgos y asegurarse de tener una formación y un cambio cultural dentro su empresa a la hora de aplicarlo Y si parece un acto muy similar al EA, sí, eso es correcto. Al igual que los pasos que hay ahí, verás mucha consistencia dentro de los pasos porque ahí es donde ocurre la superposición y se vuelve más fácil para ti hacerlo, ¿verdad? Entonces estos son los pasos que harías. Tendrías una iniciativa educativa, ¿verdad? Se aseguraría de que las personas estén capacitadas sobre el próximo marco de administración de AIS, los beneficios y cómo gobernaría, mapearía, mediría y administraría AIS. ¿Puedo hablar de esto en detalle, pero lo harías a través de capacitaciones y talleres para que la gente entienda cómo está sucediendo esto? Antes de hacerlo al respecto, como harías una valoración, ¿verdad? Oye, ¿cuántos sistemas de IA tengo? Tendrías que ir a circular cuestionarios, mirar tus sistemas de IA, hacer como una consulta de stakeholders, Y tal vez descubras algunos riesgos en esta etapa inicial. Pero aquí es donde darías la vuelta. Por lo general, mire la documentación existente, cree encuestas, cuestionarios, mire sus sistemas de IA solo para obtener un inventario de posición a partir de hoy con respecto a su uso de IA Entonces aquí es donde, una vez que tengas ese inventario, aquí es donde empezarías a implementar el núcleo del marco de gestión de riesgos de IA Nist, que es la primera parte que es gobernar, gobernar es tu marco general, ¿verdad Por eso está en medio del diagrama. Y usted iría por ahí creando políticas, desarrollando o actualizando políticas relacionadas con la gestión de IA, uso ético de IA, gobierno de datos, gestión de riesgos de IA. Y tú alinearías a tu organización. ¿Qué significa eso? La gobernanza ai no debe ser una función aislada, ¿verdad? Ai gestión de riesgos, debe caer dentro de la gestión de riesgos. Deberías tener un gráfico adecuado. ¿Crearías una rendición de cuentas adecuada quién es responsable de tomar decisiones de ir, no ir cuando se trata de IA? Y tendrías transparencia en las políticas éticas. ¿Hay que algún sistema de IA que se cree, tiene que documentar lo que está haciendo, cómo está llegando a sus decisiones Y nuevamente, las partes interesadas, se pondrían en contacto con lo legal, se comunicarían con sus clientes para averiguar cómo se está haciendo cumplir la IA. ¿Cuáles son las cosas que están pasando? Entonces esta sería la primera parte que es el gobernador. La siguiente parte es el mapeo. En la parte de mapeo, pasarías por ahí identificando los riesgos que existen. Entonces tienes el inventario, has creado el framework. Ahora harías una identificación integral de los riesgos y beneficios potenciales asociados a cada sistema de IA, ¿verdad? Y esto podría ser como, mejor la IA es vulnerable a los riesgos de seguridad, lo mejor tiene sesgo, a lo mejor los datos no se están limpiando. Se pondría en contacto con las partes interesadas, personal de TI, los científicos de datos, las partes externas, ¿verdad? Y entonces tendrías que considerar el contexto en el que opero, ¿verdad? Cuál es el ambiente regulado, cuáles son las dinámicas del mercado, cuáles son los impactos sociales como dirías. Y ustedes, por supuesto, documentan todos estos hallazgos. Entonces esta es, dirías, la parte de identificación y ahora harías la medición. Entonces has identificado los riesgos, ahora cuantificarías o calificarías esto como usar algún tipo de análisis de riesgos para averiguar cuáles son las áreas clave, como cuáles son los riesgos críticos, ¿cuáles son los riesgos altos Utiliza tus propios sistemas internos de puntuación de riesgos, ¿verdad? Y también establecerías métricas de rendimiento para tus sistemas de IA que ¿para qué sirven las métricas de rendimiento? Exactitud, equidad, transparencia, ¿qué es inaceptable, qué es aceptable Y pondría en consideración la implementación continua como monitoreo de sus sistemas de IA y haría cumplir un ciclo de retroalimentación. Así que crearías algún tipo de mecanismo para obtener información del proceso de gestión de riesgos. Este bucle informará, y esto te ayudará a ajustar tus sistemas de IA. ¿Y si el sistema NAS está funcionando, repente su seguridad baja? O si la resiliencia baja, ¿cómo lo sabrías? ¿Correcto? Harías monitoreo y estarías recibiendo comentarios de los usuarios. Esto le permitiría tener un bucle de retroalimentación constante. Y por último, está manejando el riesgo de IA. Entonces ahora que has identificado, los has medido. Aquí es donde surge la mitigación. Desarrollarías estrategias para mitigar los riesgos identificados. Tal vez podrías volver a entrenar el modelo de IA para reducir el sesgo, poner más controles de seguridad, poner en supervisión humana A lo mejor la IA está llegando a una decisión equivocada. Entonces estas son todas las cosas que harías. Usted, por supuesto, necesitaría recursos para hacer esto y para asegurarse de que la mitigación del riesgo está ocurriendo. Se comunicaría sobre este ARS a sus grupos de interés. Si ocurre algún problema, ¿cómo se lo dices a los clientes, verdad? Y esto se hace a través de políticas y procedimientos. Y claro, todo este proceso sería cíclico, Harías revisiones regulares para asegurarte de que todo se está haciendo de una manera adecuada. Y claro, por último, lo mismo con la Ley EAI. Tendrías que hacer un cambio cultural, ¿verdad? Asegúrate de tener capacitaciones en el nivel ejecutivo, el nivel de gestión medio tanto para técnicos como para personas seguridad y, por supuesto , tu liderazgo necesita estar involucrado Entonces esto es como un curso acelerado hacer cumplir el marco de gestión de riesgos de Nist Air Tomemos un ejemplo de una empresa en lugar de que yo solo traquetee lo que tienes que hacer. Tomemos una empresa. Entonces, tal vez tengas una empresa de tamaño mediano y ellos se especialicen en soluciones analíticas impulsadas por IA Y quieren hacer cumplir, ese es marco de gestión de las IA porque ven el beneficio del mismo. Quieren asegurarse de que los riesgos que hay, hacen cumplir, ¿verdad? Por lo que el primer paso sería, por supuesto, desarrollar talleres y sesiones de capacitación dirigidas por expertos. Contratarían personas para hacerlas cumplir. Y esta capacitación repasaría los componentes centrales que rigen el mapeo, medición, de lo que hablamos, ¿verdad? Y entonces claro, harían una evaluación, harían una auditoría de IA. Realizarían una auditoría de todos los sistemas de IA y usarían cuáles son los propósitos y los riesgos potenciales. Quizás usarían las herramientas existentes y obtendrían aportes a través de cuestionarios sobre cómo estos sistemas impactan en sus operaciones, cuáles son los riesgos potenciales que existen Y entonces comenzarían a hacer cumplir el núcleo que ahora gobierna Actualizarían todas sus políticas. Contratarían gente. Crearían un marco, ¿verdad? Y establecerían roles y responsabilidades claros. Mira, la aprobación de esta persona es necesaria antes de que cualquier nuevo sistema de IA entre en el bucle. Y ese sistema, esa persona se aseguraría de que cualquier sistema de IA, cuando entre en producción, esté cumpliendo con el marco de gestión de riesgos de IA Nist Con tus políticas internas y listas de verificación. Y el siguiente paso sería mapear. Entonces, como ya hablamos antes, evaluarían los riesgos y beneficios del sistema EI. Haz una evaluación de riesgos adecuada, así crearías un documento de todos los hallazgos. Tendrías una lista completa de los riesgos que se han identificado en esta fase. Y luego el siguiente paso, mediríamos por dónde empiezas a medirlas, ¿verdad? Tú decidirías las métricas. ¿Cómo decides si un sistema es confiable, como si fuera seguro? ¿Y cómo vigilarías este tipo de cosas? Entonces se establecerían todos esos criterios, el siguiente paso sería gestionar. Ahora tendrías que mitigar, ¿verdad? ¿Cómo pondrías en los controles si tienen un sistema de IA que no es seguro o que no es justo, que no está documentado, tendrías que poner esos controles y revisar y actualizar periódicamente sus estrategias de gestión de riesgos para asegurarse de que cumplen con esto Y ya hablamos de esto antes, una capacitación, formación continua porque no haces entrenamiento una vez y luego te olvidas de ello. De lo contrario, no habrá ningún cambio cultural. Entonces todas estas cosas tendrás que hacer y ¿cuáles son los beneficios? Mejorarías tu gestión de riesgos. Aumentarías la confiabilidad de sus sistemas, aumentarías su Como hablé antes, Nist, RMF se alinea muy bien con la Ley de IA y tendrías un uso estratégico adecuado de los sistemas de IA y tu empresa básicamente se vuelve más resistente a cualquier riesgo que pueda estar ahí Entonces es solo beneficio sobre beneficio, ¿verdad? Entonces de esto es de lo que hablamos aquí. Un estudio de caso de muestra con los resultados clave para cada paso, utilízalo como punto de partida. No estoy diciendo que esto sea, ya entiendes todo sobre el framework NistirMF Tengo otros cursos que profundizan en el marco. Recuerden lo que dije antes que esto complementa la orientación de más alto nivel de la EAI puede utilizar ambos No es una Ley EA es obligatoria. Nist, IRMF es más opcional, pero es más minucioso y más detallado Úsalo, coloca la Ley EA en la parte superior y usa el Nist FMI para crear ese marco que necesitas Espero que esto te haya sido muy útil. Ahora cubrimos otro marco y otro estándar en la siguiente lección. Gracias, te veré ahí. 8. 8 ISO 1: Hola, hola a todos. Bienvenido a esta nueva lección, que ahora trata sobre un nuevo estándar, que es ISO 42 double 01, que es un sistema de gestión de IA. A estas alturas ya hemos cubierto algunos marcos y regulaciones. Deberías estar haciéndote una idea de cómo funcionan estos y cuáles son las cosas clave que están cubriendo. Ahora estamos cubriendo una muy, muy importante que ha salido recientemente, que es SO 42 doble 01. Si alguna vez has trabajado en ciberseguridad o calidad, estarías familiarizado con la norma ISO justo antes de ISO 27 doble 01, ISO 9,001 Vamos a cubrir cómo usar el estándar, entendiendo qué es un sistema de gestión de IA, y vamos a hacer un estudio de caso para implementarlo, Entonces, antes que nada, demos un paso atrás antes de saltar a esto, ¿Qué es un sistema de gestión, verdad? El sistema de gestión, por lo que estos están diseñados para ayudar a las empresas a mejorar su desempeño especificando una serie de procesos y prácticas estructuradas. Por lo tanto, tienen sistemas de gestión de estructuras de alto nivel, y esta es una estructura común de alto nivel que es como estandarizada a través los estándares ISO. ¿Y por qué es así? Porque asegura consistencia y compatibilidad. Entonces se vuelve más fácil si estás certificado a 9,001 Obtener la certificación 2701 será más fácil, Debido a que se están siguiendo las mismas cláusulas, en la misma estructura se está siguiendo. Para que puedas crear múltiples sistemas de gestión. Uno es un sistema de gestión de calidad, otro es un sistema de gestión de seguridad de la información. Y ahora tienes un sistema de gestión de IA, ¿verdad? Y cada uno de estos sistemas de gestión, son como dominios específicos, como ahí se menciona. Entonces tienes 2701 por seguridad. Tienes uno de privacidad. Ahora tienes uno de IA. Tienes uno de continuidad de negocio. Y esto permite a las empresas abordar aspectos específicos de sus áreas, ¿verdad? No desea obtener un sistema de gestión que cubra todo lo que desea enfocarse, privacidad o seguridad, o IA, y sistemas de gestión. Tienen lo que pasa con la mejora continua. Enfatizan un proceso repetible de mejora continua el cual se capta en algo llamado el plan, do, check, act. Vamos a cubrir eso. Y este enfoque básicamente anima a las empresas a evaluar y mejorar continuamente sus prácticas para lograr mejores resultados a lo largo del tiempo. Es un enfoque basado en el riesgo. Estos estándares, adoptan un enfoque de gestión basado en el riesgo, requiriendo que las empresas identifiquen, evalúen y administren los riesgos que son específicos de su dominio. Es un riesgo basado, no solo implementas todo, lo implementas todo basado en el riesgo. Y por último importante, la certificación por parte de organizaciones de terceros que una vez que han desarrollado e implementado un sistema de gestión, pueden optar por obtener la certificación un estándar de sistema de gestión por terceros independientes. Por lo general, implica una auditoría externa para verificar que el sistema de la compañía en realidad está cumpliendo con esta norma Y esto realmente ayuda a impulsar el perfil y la credibilidad de la compañía. Si estás en seguridad obteniendo ISO 2701, si estás en continuidad del negocio, creo que es 2201, podría estar equivocado ahí Pero si estás en calidad 9,001 y ahora tenemos un estándar de IA, por eso se ha vuelto tan importante, verdad? Y se ha convertido en una gran noticia. Entonces estos son los beneficios de los estándares de gestión. Como dije, son reconocidos internacionalmente y en todo el mundo. Todo el mundo sabe lo que es la ISO 2701, los clientes, confían en las normas ISO para su aseguramiento y confianza, ¿verdad Si vas a una cocina y en la parte superior de la cocina, dice con certificación ISO 9,001 Entonces, ya sabes que la cocina está siguiendo un estándar de calidad. De igual manera con la empresa con el 27 doble 01 certificado, y junto con todos los beneficios y los procesos madurados, las empresas también pueden utilizarlos como ventaja competitiva ¿Verdad? Pueden decirle con orgullo al cliente, mira, estoy certificado a ISO dos dobles 01, ¿verdad? Que es como el estándar para 27 dobles 01 que es el estándar de seguridad. Por lo que realmente te ayuda a destacar dentro del mercado. Y ahora estamos llegando al SO 42 doble 01. Esto se conoce como un sistema de gestión de IA, algo relativamente nuevo. Es un nuevo marco que está diseñado para abordar el rápido desarrollo y adopción de la IA en diversas industrias, ¿verdad? Y define un sistema de gestión de IA. ¿Qué es eso? Es como un marco integral diseñado para proporcionar políticas, metas y procedimientos para el desarrollo responsable de la IA. Todo de lo que estuvimos hablando antes con él y con la norma de la UE, ¿verdad? Y ayudan a poner como un estándar ético para que puedas crear sistemas de IA confiables y éticos. Y la mejor parte es porque proporciona como un enfoque estructurado para las empresas pongan en estos procesos como la ética de confianza, la gestión de riesgos. Por lo que en realidad se alinea con la Ley EAI y las demás normas ISO también porque está siguiendo lo mismo, Seguridad Hablamos antes de transparencia, hablamos de sesgo, cómo asegurar estos sistemas de IA. Todas estas cosas aquí encapsuladas a un nivel muy alto. Y en realidad es un si estás cumpliendo con la Ley EA, también puedes poner en el sistema de gestión de IA para asegurarte se están siguiendo todos estos procesos y para la gestión de riesgos puedes usar nist Y vamos a hablar de cómo todos estos diferentes estándares pueden unirse. Entonces así es como se ve. Puedes ir al sitio web, hacer una vista previa gratuita de cómo se ve solo para tener una mejor idea de lo que un sistema de gestión de IA es un sistema de gestión de IA y cómo se verá, ¿verdad? Entonces esta es la estructura de alto nivel. Es muy similar a ISO 27 D01. Por lo que tiene cláusulas de alto nivel y anexión, que tiene un listado de los controles pertenecientes a las políticas de IA, ciclo de vida del sistema de IA, análisis de impacto, gestión de datos Tienen múltiples cláusulas. En cláusulas de alto nivel, tienen cosas sobre el contexto de la organización, como cómo está funcionando la organización, planeación de liderazgo, apoyo, todas estas cosas, justo a un alto nivel. Y luego se baja al antar donde entra en detalles sobre los controles que van a estar ahí. Como liderazgo, tendrás que decidir, bien, ¿qué tengo que implementar, verdad? ¿Cuál es el alcance del sistema de gestión de IA? Y si decido seguir adelante con ello, ¿cuáles son los controles? Voy a necesitar poner, es un estándar muy maduro, tiene toda la potencia de ISO detrás de él. Y por eso es un gran problema porque ahora las empresas que están desarrollando estos sistemas de IA, podrán obtener certificación con un estándar muy maduro y de hecho promocionarse como certificadas cuando se trata de IA. Entonces ahora lo que vamos a hacer es que hemos cubierto esto en el alto nivel y hemos hablado sobre los beneficios y qué es el estándar SO 42 Zubondival, cuál es Por qué no echamos un vistazo al estudio de caso y vemos si una empresa querría implementarlo. ¿Cuáles son los pasos que tendrán que hacer y cómo lo harían para implementarlo? Te veré en la siguiente lección. Muchas gracias. 9. 9 ISO 2: Hola a todos. Bienvenida. Bienvenido a esta lección, que es una continuación de una lección anterior sobre la norma ISO 4201 Ahora, vamos a tomar una compañía, una compañía ficticia, y ver cómo se implementa Una cosa muy importante, a partir del 2 de febrero de 2024, esta norma acaba de salir recientemente. Las empresas aún no han sido certificadas para auditar contra la norma. Pero eso es sólo una cosa menor porque es como que van a obtener la certificación y debes saber cuál es el proceso. Cualquiera que sea el estándar que elijas. Cuando se trata de ISO, sigue el plan, hacer, verificar, actuar. Esto es lo que recomiendan. ¿Qué es? Se trata de un método de gestión de cuatro pasos utilizado para la mejora continua de procesos y productos. Y cuando se trata de las normas ISO, lo llamo el Ciclo PDCS Te da un marco sistemático para implementar y mantener estos sistemas de gestión como 90012701 y ahora el AISMS Y es integral asegurarse de que la compañía siga mejorando continuamente. No solo son auditados y se olvidan de ello, ¿verdad Entonces el primer paso es el plan. Donde las empresas, empiezan a identificar lo que quieren hacer y los procesos que necesito entregar. Cómo es el alcance evaluarse a sí mismos para averiguar dónde están las brechas. El segundo paso es donde empiezan a implementar los procesos del plan. Ejecutas las cosas y actúas según lo que ellos decidieran. El tercer paso es verificar dónde empiezan a monitorear y medir los rendimientos y las políticas y todo, derecho a asegurarse de que las cosas funcionan correctamente o no. El último paso es un que es donde a partir del análisis, siguen mejorando la mejora continua del sistema para mejorar los procesos y todo, para asegurarse de cómo sucede esto. Entonces así es como funciona el PDC E. No es complicado, es muy sencillo. Entonces tomemos una empresa y veamos cómo la implementarían , ¿de acuerdo? Entonces esto es de lo que la compañía de la que estábamos hablando, innovaciones de tecnología verde. Ahora Green Tech es como una empresa de tecnología de tamaño mediano y se están enfocando en soluciones impulsadas por IA para el mercado de energía sostenible. Energía verde, energía sustentable, que es una industria muy caliente en estos momentos. Y se han embarcado en un viaje para implementar la norma ISO 4201 ¿Por qué? Porque realmente quieren demostrar que se toman en serio las obligaciones de IA IA responsable AI. Y realmente quieren estar a la vanguardia de esta industria. Y se dan cuenta de que obtener la certificación ISO con Willie les ayuda a obtener esa ventaja competitiva Realmente demuestra a sus clientes que saben lo importante que es la IA responsable tener un sistema de gestión de IA maduro. Y cuidaban como grados de energía inteligente, recursos renovables, consumo de energía, ¿verdad? Entonces, ¿cómo lo harían? Bueno, antes que nada, cuando se trata de iniciativas de IA como ¿cuál es la necesidad de implementar este estándar? Tenían preocupaciones éticas, ¿verdad? ¿No sabían que están cumpliendo con todas sus responsabilidades éticas o no? ¿Los sistemas de IA, cuando están tomando sus decisiones, lo están haciendo de manera adecuada? ¿Los datos se están recopilando correctamente? Y la otra cosa es que estoy cambiando tan rápido, quieren tener ahí algún tipo de marco maduro, un sistema de gestión que les diga y quieren asegurarse que se integre con sus sistemas de gestión ya establecidos como 27019001 Aquí es donde empieza el fondo. El primero arriba, ¿vamos a planear por supuesto dónde están estableciendo el sistema de gestión de AA? Lo más importante en primer lugar, es un alcance. No es necesario implementar un estándar de gestión en toda la empresa. Se puede elegir un sistema, se puede elegir una unidad de negocio, un área en particular, un departamento en particular amplio. Y por lo general eso es lo que recomendó que empieces poco a poco. Y cada año lo haces crecer cada vez más. Bien. Y así fue lo que primero hicieron. Decidieron el alcance, luego el equipo de liderazgo de Green Tech, desarrollaron una adecuada política de IE que se alineó con sus estándares. Y siguieron las cláusulas que estaban ahí en la norma ISO. Establecieron un contexto en el que opera la IE, como, ¿qué estamos haciendo? ¿Cuáles son los factores externos e internos que nos están impactando Y realizaron talleres y encuestas para entender como cuáles son las expectativas de los empleados, clientes, socios con respecto a ellos, ¿verdad? Entonces crearon todo un ecosistema para I. El siguiente paso fue hacer, donde hicieron algo llamado una evaluación de impacto y riesgo. Las evaluaciones de impacto son como una gran cosa en el AIMS, que es evaluar cómo los sistemas de IA afectan a las personas individualmente, ya sean grupos o la sociedad en su conjunto. Asegurarse de estar pensando en la seguridad y la transparencia y poniendo esos controles en su lugar. Estás haciendo esa evaluación de impacto y la evaluación de riesgos para asegurarte de que eres consciente de cuáles son los riesgos dentro de tus sistemas de IA. Entonces con base en eso, decidirán qué controles tomar del Anexo A, el anexo de la norma. Tendrá una lista de controles, ¿verdad? Aquí es donde te enfocarás, como tal vez ellos no saben sobre la administración de datos. ¿Nuestros datos están siendo recopilados manera abierta, responsable y transparente? ¿Los datos de entrenamiento se preparan adecuadamente? ¿Se realiza la preparación? No lo sabemos, ¿verdad? Entonces aquí es donde van a querer enfocarse porque ahí es donde está el impacto. Ahí es donde está el riesgo. Después se les acabarán los programas de capacitación porque el sistema de gestión de IA es un sistema. No es una solución, no es un producto. Tendrías que crear una cultura para educar a los empleados sobre las prácticas adecuadas de la IE y la importancia de consideraciones éticas similares en los sistemas de IA, ¿verdad? El siguiente paso es la verificación, que es la evaluación del desempeño. Entonces ahora van a implementar herramientas y procedimientos para asegurarse de que este sistema de gestión de IA esté siendo monitoreado. Y como cómo está impactando, ¿ está funcionando o no? Si los sistemas de IA están siendo impactados o no. No solo monitoreando, van a hacer auditorías. También, han establecido un cronograma para las auditorías internas. Los equipos internos van a verificar si el sistema de gestión de IA cumple con el estándar o no para asegurarse de que están obteniendo como si realmente estuvieran cumpliendo con el estándar y que estén siguiendo sus procesos. El último es Ley, que es la mejora continua. Crean mecanismos de retroalimentación. Van a realizar encuestas, van a extender cuestionarios a los clientes, a los usuarios, para averiguar si las aplicaciones funcionan como se esperaba Si el sistema de gestión AA es eficiente o no. Con base en esta lista de acciones correctivas y retroalimentación correctiva, van a seguir refinando los datos, tomando este desempeño, y van a seguir mejorando año tras año. Lo más importante es que si quieren ser auditados, tendrían que elegir como un organismo de certificación adecuado Piense en cosas como número de experiencia, número de auditorías. Y esto va a ser difícil en estos momentos con 42 dobles 01 porque está muy recién publicado. Pero se puede mirar a un organismo de certificación que tiene una sólida trayectoria con 27 dobles 019001 Entonces se puede hacer algo llamado una pre evaluación, Que hacen los auditores. Pueden usarlo para hacer una auditoría rápida decirle si está cumpliendo con los requisitos o no. Puedes usar esto como una forma de afinar tus procesos y entender lo que verá el auditor. Entonces por supuesto, haces una preparación de auditoría, asegúrate de que todas las brechas estén identificadas y arregladas. Usted hace su certificación y recuerda que la certificación tiene que ser mantenida y mejorada con el tiempo. Esto no se parece en nada a lo que se llama, no es ciencia cohete. Es un proceso muy claro y definido. ¿Cuáles son los resultados de esto? Por supuesto, como ¿cuál es el resultado de esto? Obtendrás más confianza, más credibilidad. Porque has alcanzado este importante hito de obtener la certificación 242, el doble uno. Obtendrás una mejor gestión de riesgos porque ahora tienes un sistema de gestión adecuado, un sistema gestión en el que gestión de riesgos y todo está arraigado en él Y claro, tu proceso ha mejorado y tienes un marco adecuado, ¿verdad? Un adecuado sistema de manejo maduro en su lugar. Ahora, cuando exploran nuevas oportunidades de IA, tienen esa confianza, ¿verdad? Saben que contamos con un marco de gobierno adecuado que nos va a decir si el sistema AS es inseguro o el sistema AS no está cumpliendo con los requisitos Entonces eso fue de la ISO. Ahora vamos a saltar a un estándar más técnico, que es el framework de IA de Google Google. Y los veré en la siguiente lección, todos. Gracias. 10. 10 Google SAIF 1: Hola a todos. Bienvenida. Bienvenido a esta lección, que trata sobre el marco de Google SAA IF Ahora bien, este es un framework de Google y este es un framework muy singular en comparación con los otros que discutimos antes. ¿Por qué? Porque está muy centrado en la seguridad. No lo hacen los otros de los que hablamos, se enfocan más en el riesgo y más en gobernanza y más en los sistemas de gestión, ¿verdad? Pero este, el Google SAI Framework, está muy alineado con las dimensiones de seguridad de la IA. Cuando se habla de construir sistemas de IA, se centra más en la IA. Y eso es una gran cosa. Por eso lo he incluido en este curso. ¿Por qué? Porque siento que a veces los marcos de IA, son un poco de nivel demasiado alto y no bajan profundamente en la seguridad de la IA. Y aquí es donde puede entrar el Google SAI Framework. Y este es absolutamente un marco increíble. Deberías estudiarlo, sobre todo si quieres usarlo para complementar cosas como el Nist AI Risk Management Framework del que hablamos, o la ISO 4201, Toda la IA de Google, realmente puede complementar la manera más excelente porque es más como a nivel del suelo a la hora de asegurar la IA. Y de eso es de lo que vamos a hablar aquí. En esta lección, vamos a hablar sobre el framework, los conceptos clave, y por supuesto, siempre cómo implementarlo usando un estudio de caso sin demorarlo Hablemos primero del marco. Entonces, ¿qué es Google un marco de inteligencia artificial seguro? Eso es lo que transfiero, el marco de IA seguro. Por lo tanto, es un marco conceptual para asegurar los sistemas de IA que se basa las mejores prácticas de seguridad de Google. Está inspirado en las mejores prácticas de seguridad que han aplicado a cosas como el desarrollo de software y se centran más en la IA. ¿Por qué? Porque es bastante importante. Justo a lo largo de los años en Google, han visto los tipos de ataques que pueden ocurrir, y han diseñado este marco específicamente para mitigar los riesgos relacionados con los sistemas de IA, como robo del modelo, envenenamiento de datos, inyecciones rápidas, ya sabes, inyecciones de datos, envenenamiento de datos, todo este tipo de cosas. A medida que las capacidades de IA se están integrando cada vez más en sistemas similares en todo el mundo, se vuelve mucho más importante la seguridad de estos sistemas si me has estado siguiendo en cualquier plataforma. Sabes, hablo mucho de seguridad de IA porque siento que esta es un área que está muy subrepresentada y no mucha gente tiene esa experiencia en ella Por lo que el SIF, se basa en las mejores prácticas de seguridad de Google y aborda preocupaciones de seguridad específicas de IA centrándose en la gestión de acceso a la red y endpoints, la seguridad de las aplicaciones Entonces de esto es de lo que vamos a hablar aquí y ¿cómo se ve a un nivel alto? Entonces estos son los seis elementos centrales de Google, el marco de IA seguro. Vamos a verlo uno por uno. El primero es expandir sólidas bases de seguridad al ecosistema de IA. ¿Qué significa eso? Significa aprovechar su infraestructura y protecciones seguras por defecto para proteger los sistemas de IA Ya sabes, toda esa ciberseguridad que se ha vuelto tan madura, necesitas asegurarte de que también están cubriendo los sistemas de IA, ¿verdad Entonces tomemos un ejemplo. Sabemos de las inyecciones SQL, justo, donde hay que desinfectar la entrada Ahora necesitas aplicar esa misma sanitización de entrada para protegerte contra técnicas como las inyecciones rápidas, ¿verdad El otro es extender la detección y respuesta para llevar la IA al universo de amenazas de una organización. Ya sabes lo fundamental que es la puntualidad a la hora detectar y responder a incidentes cibernéticos relacionados con la IA Entonces quieres extender tu inteligencia de amenazas, cierto, como una empresa, esto puede incluir el monitoreo de entradas y salidas de IA generativa similar para detectar anomalías Como si fuera alguien tratando de meterse con el sistema NII. Y usar inteligencia de amenazas para anticiparse a tales ataques. Para que puedas colaborar con tu equipo Soc y todo, ¿verdad? El siguiente son las defensas automatizadas para seguir el ritmo de las amenazas existentes y nuevas Como innovaciones de IA, pueden mejorar la escala y la velocidad de su respuesta ante incidentes, ¿verdad? Y los ciberdelincuentes también lo saben, por eso van a utilizar la IA para escalar el impacto de sus ciberamenazas Por eso es tan importante usar la IA como defensa , ya que usarás IA para combatir amenazas específicas de IA. Bien, no pienses sólo IA como algo que puede ser atacado. Piense en algo que también puede proteger sus sistemas. Bien. El siguiente son los controles armonizados a nivel de plataforma para garantizar una seguridad consistente en toda la organización Por lo tanto, la consistencia en sus marcos, puede admitir la mitigación de IA. También mitigación de AIS. Entonces quieres asegurarte de que como cualquier protección que ya tengas, hayas extendido a tus plataformas subyacentes. Como por ejemplo, si tienes usando AWS Sage maker, tiene que ser endurecido acuerdo a las mejores prácticas, ¿verdad? Y asegurándose de que todas sus, endureciendo, todas sus configuraciones, sea consistente en toda la organización. Bien, el número cinco es adaptar los controles para ajustar medicamentos y crear bucles de retroalimentación más rápidos para la implementación de IA. Pruebas constantes de implementaciones a través del aprendizaje continuo. Se puede asegurar que las capacidades de detección y protección, son como abordar los nuevos tipos de Its que están saliendo. Para que puedas usar cosas como aprendizaje automático basado en incidentes y comentarios de los usuarios. Para que puedas actualizar tu entrenamiento, actualizar tu IA y afinar los modelos para responder estratégicamente a los nuevos tipos de ataques que están ocurriendo ¿Verdad? Ai puede detectar comportamientos anómalos y puede ajustar los controles en tiempo real para asegurarse Y eso es algo que es bastante nuevo. Anteriormente teníamos que cambiar manualmente los controles, subir o bajar nuestros controles de seguridad. Con la IA, puedes automatizarlo completamente. Y el número seis son los riesgos contextualizados del sistema de IA en los procesos de negocio circundantes. Realizar evaluaciones de riesgo de extremo a extremo relacionadas con la forma que las empresas van a implementar IA te ayudará a informar tus decisiones, ¿verdad? Es necesario hacer una evaluación a una evaluación de como el riesgo del negocio, como la validación de datos, ¿qué tipo de cosas están sucediendo? Y básicamente hablamos de riesgo aquí, como lo mismo de lo que hablamos dentro del marco de gestión de riesgos de IA, asegurándonos de que todo esté impulsado a través de un proceso basado en riesgos. Entonces eso es a un alto nivel, qué se trata el marco de IA segura. Como puedes ver, es más técnico y baja al nivel de plataforma. Se reduce a qué ataques hay y cómo lo haríamos implementarlo. Es bastante sencillo. Entienderías el uso, es muy similar a las cosas que ya hemos hablado antes. El primer paso uno sería entender el uso. Comprender el uso específico del negocio para el que estás usando la IA. Qué datos se están utilizando, qué protocolos se van a utilizar. El siguiente sería armar al equipo. Al igual que los sistemas de los que hablamos, son bastante complejos y tienen una gran cantidad de partes móviles, ¿verdad? Quieres asegurarte de que sea lo que tengas, sea cual sea el equipo que estés usando privacidad, TI todos ellos son conscientes de esto y formas parte de un equipo multidisciplinario que puede ayudar a mitigar estos riesgos de IA. Y luego el paso tres, según Google, es hacer un framer de IA, que es que los equipos necesitan estar como, adecuadamente capacitados y formados para estar adecuadamente capacitados y formados al tanto de los nuevos tipos de metodologías, nuevos tipos de ataques que están sucediendo a lo largo de un ciclo de vida de desarrollo de modelos Y el último es aplicar los seis elementos centrales del SCIF, del que hablamos Y recuerda los seis pasos. No se pretende que sean cronológicos, ¿de acuerdo? Puedes aplicarlos en cualquier, como cualquier pedido que quieras siempre y cuando apliques este 61 del que hablamos. Entonces no es como si tuvieras que empezar por la izquierda y bajar uno por uno. No, puedes aplicarlos todos juntos paso a paso o secuencialmente, pero lo que sea que sientas es más adecuado para tu organización en particular. Eso fue desde el Google SAI Framework, High Level Overview. Ahora podemos hablar de implementar esto como siempre lo hago con un estudio de caso y ver cómo iría una empresa sobre la implementación de este marco. Y te veré en la siguiente lección. Gracias. 11. 11 Google SAIF 2: Bien a todos. Hola, bienvenidos a esta lección. Y ahora vamos a estar implementando el Google SAI Framework dentro de una empresa como siempre lo hago. Entonces echemos un vistazo a lo que estamos hablando. Entonces aquí tenemos un policía bancario global, que es un banco líder a nivel internacional. Y van a implementar algunas ollas de chat impulsadas por IA para tu servicio personalizado al cliente. Van a utilizar el procesamiento del lenguaje natural y el aprendizaje automático, algo así como un chat tipo GPT de chat pot para manejar las diversas consultas de los clientes desde la administración de cuentas Y puedes imaginar cuánto, como peligroso podría ser si alguien lograra hackearlo o eludir los controles de seguridad. Entonces, dada la naturaleza sensible de los datos involucrados, el banco va a decidir adoptar el marco SEI de Google para salvaguardar un despliegue y vals en producción. Entonces vamos a usar los mismos pasos de los que hablamos antes. Y vamos a comenzar con el paso uno, que es entender el uso. Entonces, ¿qué va a hacer el banco? Van a definir los objetivos específicos y alcances de esta iniciativa, como el tablero de chat. Entonces, ¿cuál es el objetivo? Quieren brindar 2047 atención al cliente personalizada, pero quieren mantener el más alto nivel de seguridad y privacidad Los requisitos de datos serán interacción con el cliente, datos, detalles de cuenta, historial de transacciones, todo este tipo de datos muy sensibles, ¿verdad? Y los resultados esperados serán la reducción de los tiempos de respuesta, satisfacción del cliente y la seguridad de los datos. Usando toda esta información, el banco va a hacer una evaluación de riesgos adecuada, ¿verdad? Para identificar amenazas potenciales, como lo que va a pasar antes que pasen al siguiente paso, ¿verdad? Por lo que van a hacer una evaluación de riesgos adecuada y asegurarse de que entienden cuál es el riesgo. El segundo paso es armar el equipo del que hablaste antes, así que van a armar un equipo funcional cruzado adecuado. Podrías tener especialistas en IA y ML, expertos en seguridad informática para asegurarte de que todo sea como seguro, el bot de chat no va a quedar comprometido. Oficiales de cumplimiento de la pronta inyección. Se quiere asegurarse de que tal vez se tenga que cumplir con la normativa de la UE o del Nist. Los ISO, lo están siguiendo. Gerentes de atención al cliente porque son las personas que más van a estar interactuando con esto. Y aboga por la privacidad para asegurarse de que los datos se recopilen correctamente. Así que tenemos un equipo diverso que se asegura de que el bote de chat cuando se está desplegando. Todos estos múltiples grupos de interés, se están involucrando con ello. El tercer paso es el nivel establecido con la prima de IA de la que hablamos. Un programa adecuado de capacitación en IA. Fundamentos de la máquina de IA, lista de seguridad de técnicas de lenguaje natural específica para IA y uso ético de IA Esto asegurará que el equipo tenga una comprensión adecuada de los aspectos técnicos y éticos del proyecto. Esto es lo que recomienda el Google SAI Framework. paso cuatro es ahora que tenemos abajo a los seis elementos centrales que están ahí. El primero fue ampliar los sólidos cimientos de seguridad. Van a evaluar su infraestructura de seguridad existente en la que se alojará la plataforma de IA. Cifrado que asegura las API, autenticación adecuada está ahí donde pueden extender su detección y respuesta. Entonces van a tener que desarrollar un modelo de detección de amenazas específico de IA para asegurarse de que lo que sea, lo que sea que vaya y venga del bote de chat, si se muestra alguna actividad maliciosa, puedan inmediatamente alertar a la leche holina El número tres es automatizar las defensas. Van a aprovechar el aprendizaje automático para mejorar los mecanismos de defensa. Por lo que van a automatizar la detección y respuesta a las amenazas de seguridad dentro conversaciones del tablero de chat para asegurarse de que ocurra cualquier ataque. Tienen lista la respuesta automatizada y pueden tener supervisión humana para casos más complejos. El número cuatro estaría armonizando los controles a nivel de plataforma Van a estandarizar, hablamos de esto antes, controles de seguridad en todas las plataformas que están involucradas con ese ciclo de vida del tablero de chat, ya sea desarrollo o implementación Allí puedes tener controles. El número cinco estaría adaptando controles. A medida que el sistema de chat board se integra cada vez más, el banco utilizará el aprendizaje automático para seguir adaptando sus controles de seguridad a medida surjan más y más amenazas porque el entorno de amenazas a la seguridad es muy dinámico, especialmente en IA. Y por último, se contextualiza como riesgo del sistema de IA. Para que puedan incorporar la gestión de EI, St en su marco de riesgo más amplio. Todos los aprendizajes que se obtienen de esta parte me platican, van a ser considerados en torno otros riesgos operativos y toma de decisiones ¿Y cuáles son los beneficios de esto? Por supuesto, puedes ver que probablemente lograrán desafiar con éxito los botes de chat impulsados por IA Van a mejorar su marco de respuesta al cliente y sin comprometer la seguridad o el cumplimiento. Entonces esto es solo para mostrarte una forma práctica de cómo llevarías a cabo la implementación del Google SAI Framework. Es un marco muy excelente, sobre todo cuando se puede utilizar en complemento con otros marcos como el reglamento EAI o ISO Nist, porque es más técnico y baja al nivel profundo sobre cómo sucede ese impuesto Esto es de lo que hablamos aquí, como ¿qué es Google SF? ¿Cuáles son los componentes clave y cómo hacerlo implementarlo? Espero que tengas una buena idea de Google. Yo recomendaría es completamente gratis. Ve y compruébalo. Léelo y hazte una buena idea de cómo Google ha recomendado. que entender a Google como si hubiera una razón por la que son grandes tecnologías, una de las empresas más grandes del mundo. Por lo que tienen una gran cantidad de información que se ponen libremente en este marco. Así que no dejes que esta información vaya al poniente. No lo atraviese y entienda completamente el marco. Gracias a todos y ya lo veré en la siguiente lección. 12. 12 Cómo usar: Hola a todos. Bienvenidos, bienvenidos a esta lección, que trata sobre cómo usar este conocimiento. Y esto es casi al final del curso. Ahora bien, una cosa que he encontrado que la gente se confunde acerca de estos marcos, hay tantos de ellos, ¿verdad? Hablamos de Nest, Google, ISO, EU, todo este tipo de regulaciones. Entonces se convierte en una especie de trato, oye, cómo utilizo esta información, bien, si solo quiero mitigar los riesgos que hay. Entonces hay muchas, muchas formas de hacerlo. Y eso es como el punto de hacer bien este curso. Hay que entender como cada uno de estos marcos, encajan de una manera particular, ¿verdad? La regulación de la IA de la UE es como una ley, así que eso es obligatorio. Realmente no tienes opción. Iso 4201 se puede considerar como un complemento al marco de Nist AI De igual manera, al igual que el, Google puede considerarse más de un nivel inferior, donde se piensa en la seguridad de estos sistemas. Así que recuerda, piensa las áreas comunes que es la confiabilidad, evaluaciones de riesgos, la gobernanza que son comunes sin importar en qué marco hablaste Y ver cuáles son las fortalezas chi cada framework. Por lo tanto, puede implementar todos estos como o tomar algunos de estos que le sean aplicables, o puede crear su propio marco que cumpla con todos ellos. Entonces, incluso si implementa su propio marco, automáticamente cumplirá con todos ellos. Y si quieres mirar, así es como lo visualizaría yo. Entonces, o bien la regulación de IA de la UE estaría en la cima, porque esta es una ley, ¿verdad? Hay que hacerlo. Entonces puedes poner en un sistema de gestión de IA para tener como un paraguas adecuado bajo el cual opera todo. Y puedes hacerlo en paralelo a un sistema de gestión de seguridad de la información como el 2701 Y créeme, mucha gente ha dicho que la Ley EO, AI, van a decir que cuando se piensa en sistemas de alto riesgo, querrían tener algo como el SO 4201 mencionado ahí ¿Bien? Y luego cuando bajes por todos estos marcos para hablar de riesgo, ¿verdad? Queremos tener un marco de gestión de riesgos. No hay un marco de gestión de riesgos mejor que la niebla porque baja en un nivel de detalle tan alto sobre cómo dar la vuelta implementándolo para que puedan complementarse entre sí y se pueda implementar un marco de gestión de riesgos adecuado basado en St. Y último por supuesto es más hacia la seguridad de estas plataformas subyacentes I, donde se puede implementar el marco SIF de Google Entonces esto es sólo para darte una idea. No estoy diciendo que esto es lo que tienes que implementar, esto es lo que recomendaría si quieres tomar las mejores partes de todos estos frameworks, ¿verdad? Y no son solo estos frameworks, tienes nuevos que salen a la luz. Hay un estándar ISO en desarrollo que está orientado a la orientación de seguridad de IA, a abordar las amenazas y fallas de seguridad en los sistemas de IA. Así que eso es bastante genial. Tengo muchas ganas de que llegue este cuando salga, ¿verdad? Y yo recomendaría sin importar en qué país se encuentre, tendrá una estrategia nacional para la IA. Estoy radicado en Londres, en Reino Unido. Entonces estoy viendo la estrategia nacional de IA que tienen un plan de diez años para hacer de Gran Bretaña una superpotencia global de IA dentro de Estados Unidos, tienen una orden ejecutiva para el desarrollo y uso seguro, y confiable de la IA Yo recomendaría pasar por eso. Esto no es una ley, pero todas las leyes probablemente se derivarán de esto. Si estás en la UA, el Medio Oriente donde solía trabajar antes, tienes una estrategia nacional de IA al 2031, ¿verdad Todas estas cosas solo las leen para obtener una mejor comprensión. Y verás muchas cosas en común, como patrones comunes dentro de todos ellos solo y te dará una muy buena idea de cómo están funcionando Bien. Entonces espero que te haya sido como útil. Ahora lo que vas a hacer, vamos a concluir este curso. Espero que te haya sido muy útil y conseguiste algunos conocimientos tangibles de esto. Te veré en la próxima conclusión de este curso. 13. 13 Conclusión: Hola a todos. Bienvenidos a este curso y bienvenidos a la conclusión de este curso donde estamos concluyendo. Espero que esto te haya sido útil. Una cosa que recomendaría es continuar nuestro viaje de aprendizaje. Ai es un campo de evolución muy rápida y muchas cosas aprendes que deliberadamente mantengo este curso como de alto nivel. No quiero hablar de una tecnología específica porque sea cual sea la tecnología de la que hable va a quedar obsoleta muy, muy rápido. Pero recuerden, la IA está aquí para quedarse, y se van a crear muchos empleos nuevos. Así que mantente actualizado con las tendencias de la industria. Mantente actualizado, sigue aprendiendo. Y seguirás creciendo. Por lo que enhorabuena por tomar este curso. Trato de que no sea como un curso enorme, como 4 horas o 5 horas. No me gustan esos cursos porque la gente se aburre. Entonces espero que consigas alguna información tangible de esto. Recuerda el proyecto, es decir, quiero que tomes esta información y crees tu propio framework, tu propio framework de gobernanza de IA. O toma un estándar como Google o ISO Nest e intenta aplicarlo dentro de tu empresa y ver cómo funciona. Entonces ese sitio web sube a todos. Espero que esto haya sido útil. Si quieres contactarme, tengo un newsletter en suback y estoy ahí en vinculado en y en Youtube Voy a tratar de poner los enlaces ahí y puedes contactarme. Siempre feliz de saber de tus alumnos. Por favor, deje una reseña. Si pensabas que este curso te dio alguna buena información tangible. Si pensabas que este era el peor curso de la historia, entonces por favor dímelo. Siempre feliz de recibir algunos comentarios. Muchas gracias y le deseo todo lo mejor en su viaje de gobierno de IA y gestión de riesgos. Bien, te veré y te veré en el próximo curso. Gracias a todos.