Transcripciones
1. 1 introducción: Hola, hola a todos. Bienvenido a mi nuevo
curso que es el Curso Crash de Reglamentos y
Marcos de IA. Ahora el objetivo de este
curso es educarte sobre los diferentes tipos
de marcos
y regulaciones de IA que han salido. Y para realmente darte
una ventaja para entender todos
los diferentes tipos de regulaciones que
están saliendo, todos los marcos
están saliendo. A veces parece que sale
una nueva regulación cada literalmente cada
mes que escuchamos sobre ella. Porque la IE se está desarrollando
tan rápido, ¿verdad? Las regulaciones de la IE se están
desarrollando muy rápido. Entonces necesitamos este tipo de
control y regulaciones. Entonces este es el
objetivo de este curso. Los objetivos de este
curso son muy simples, que es hacerte entender el
panorama global de la IE, regulatorio, ¿verdad? Todos los marcos
que hay, por qué se necesitan,
¿cuál es el problema? ¿Y por qué necesitamos tantos marcos y estándares de
IA? Y entonces lo que
vamos a hacer es tomar las regulaciones
y marcos de IA
más importantes, los más críticos que están presentes. Y vamos a
profundizar en ellos y te voy a dar algunos consejos prácticos de
implementación. Así que no, no
voy a simplemente llegar, leer el estándar, ¿verdad? Porque no me
necesitas para eso. Es decir, puedes hacerlo
tú mismo, honestamente hablando. Simplemente descárgalo y léelo. No, te voy a dar pasos
prácticos de implementación. Cómo, lo que vamos a
hacer es que vamos a tomar estudios de
casos y ejemplos de estas especulaciones
y estándares Y luego ver cómo una empresa haría sobre la implementación de
estas normas. Entonces ese es el
objetivo de este curso, darle una ventaja inicial sobre las regulaciones
y gobernanza de AA, lo cual es sumamente
crítico en el mundo actual. Entonces, ¿por qué deberías
estar escuchándome? Sólo una breve introducción. Mi nombre es Tamurislahal. Soy un líder multipremiado en
ciberseguridad. He ganado algunos premios
aquí y allá. He estado en ciberseguridad
durante los últimos 21 años. Y en el último par de años, me he centrado más en crear cursos y contenidos y escribir, retribuyendo a la industria. También ayudo a la gente a
entrar en la ciberseguridad. Tengo un canal de Youtube
llamado The Cloud Security Guy. Ojalá tuviera como
millones de seguidores, pero es un canal muy pequeño. Pero básicamente
hablo de seguridad
en la nube en el ojo ahí. También he escrito un autor
superventas y creador de cursos en
múltiples plataformas Puedes comprobar que estos
son algunos de mis libros. He escrito libros sobre IE,
gobernanza y ciberseguridad. Escribe para principiantes, Cero
confianza para principiantes. No me gusta escribir libros muy
complicados, de buceo profundo. Siempre siento que dejar que las personas
comiencen a correr con una tecnología en particular y luego dejar que encuentren
su camino. ¿Correcto? También escribo en
medios y Linked, me gusta dije una Youtubechannel.
Estoy ahí en Twitter. También tengo un
boletín gratuito que
básicamente comparto cosas
sobre la carrera de ciberseguridad ¿Por qué es la IA de seguridad en la nube? Entonces estas son las cosas que
básicamente hago que solo
quería mostrar como si
supiera un poco IA cuando estoy
hablando de ello. Entonces, antes que nada, ¿por qué necesitamos regulaciones de IA? Y empresas como estas son
básicamente pautas, marcos de
estándares diseñados
para mitigar los riesgos de IA. Y al mismo tiempo impulsar la innovación y aumentar la
confianza en los sistemas de IA, como ¿cuál es el problema? Bueno, antes que nada,
consideraciones éticas . ¿
Qué significa eso? Bueno, los sistemas de IA pueden tomar
decisiones que pueden impactar la vida humana
y la sociedad, ¿verdad? Si la IA está tomando una
decisión como
darte un préstamo bancario y
toma una decisión injusta,
toma una
decisión incorrecta, ¿verdad? Eso realmente puede
impactar tu sustento, tu familia, ¿verdad? Y si la IA se está utilizando para hacer cumplir
la ley y
toma una decisión equivocada, eso puede llevar a que esa
persona sea arrestada. Así que de nuevo, estas no son
pequeñas cosas, ¿verdad? Y es por eso que se necesitan regulaciones de
IA para proporcionar
pautas
que garanticen que los sistemas de IA se diseñen y utilicen de una manera que respete los derechos
humanos y los valores. También tenemos como
seguridad y protección, Para pensar en los sistemas de IA, particularmente en áreas
como la salud, defensa del
transporte. Necesitan ser confiables
y seguros, ¿verdad? Y las regulaciones
asegurarán que los sistemas de
IA pasen por
rigurosas pruebas y validación para
asegurarse de que
no haya fallas que puedan provocar daños o incluso la
muerte de personas. ¿Correcto? Y por último, que es mi especialidad
particular, los sistemas de
IA pueden ser vulnerables a amenazas de
seguridad
como violaciones de datos, manipulación, y es por eso que también necesitas
controles de ciberseguridad Entonces todas estas cosas donde la IA se está utilizando
en áreas críticas, como hospitales, en sistemas
penales, áreas
financieras,
pueden tener un impacto enorme. Es por eso que necesita
regulaciones para establecer mejores prácticas y marcos
y estándares para la IA. De ahí viene todo el
asunto ahora. Entonces, ¿cuál es el problema,
desafortunadamente, que he visto y por qué
hice de este curso un curso
acelerado, verdad? Y deliberadamente lo he
hecho un curso acelerado. Podría haberlo hecho
como un curso de diez horas porque sé que la gente se
aburre, honestamente. El problema con el
aprendizaje de los marcos de IA es importante
reconocer este hecho, esa discusión en torno a los marcos y
regulaciones de
IA que a veces pueden parecer un poco secos y
demasiado complejos. Porque la forma en que es el
tema, correcto, tienes este lenguaje jurídico con conceptos
técnicos avanzados. Lo hace muy inaccesible
para la gente normal. El objetivo de este
curso es descomponer todas estas cosas complejas
y hacerla accesible. En cierto modo, todo el
punto que he hecho este curso lo ha hecho
accesible a todos, ¿verdad? Y el otro problema es
navegar por el paisaje como uno de los
mayores retos es que hay demasiados
marcos. Es como navegar
como una gran jungla. Tienes tantos frameworks. ¿Cómo sé cuál es el más importante, cuál me aplica? Y esto puede llevar a
confusión, dificultándolo para. Desarrolladores, gente
de ciberseguridad, gente de
gobierno, empresas para decidir qué marco
es relevante de ellos. Y lo otro es la implementación
práctica. El otro problema que he visto es la brecha entre estos marcos y prácticamente aplicarlo. Por lo que las pautas ofrecen principios de muy
alto nivel, como a veces profundizas demasiado en los detalles técnicos como cómo se
debe configurar
el algoritmo de aprendizaje automático. Entonces falta un
eslabón, ¿verdad? Por lo tanto, un
consejo práctico, procesable es lo que
quiero darle sobre cómo implementar
estas regulaciones en sus empresas regulares, en sus
operaciones diarias para
ayudarle a entender cómo
proceder, ¿verdad Y asegurándose de que eres
capaz de aplicar este conocimiento. Entonces, ¿para quién es este curso? Este es curso para cualquiera yo, profesionistas, ya sea que estés en riesgo, legal y cumplimiento, ciberseguridad,
si eres CIO,
CTO, cualquier persona interesada en No es necesario tener
un conocimiento profundo de la IA. Sólo
bastará con un entendimiento básico . ¿Y por qué
debería importarte? Creo que no necesito
dedicarme demasiado tiempo a esto. Ya sabes que la IA está impactando a todos los sectores,
cada estándar, ¿verdad Y las empresas
quieren este tipo de estándares y
puntos de referencia de la industria para que puedan
hacer el mejor sistema de IA, que sea competitivo
y confiable. Y quieren
asegurarse de que están
siguiendo las mejores
prácticas de IE, bien. Cuando obtienes un
estándar ISO para tu empresa, le estás diciendo a la gente,
mira, tengo la certificación ISO, misma manera que quieres para la IA. Y por último, por qué debería importarle. Ai está teniendo un impacto masivo
en la industria laboral también. Y de eso es de lo que
quería hablar. Existe una gran demanda de habilidades de gobernanza de escaneo de
IA. Esto es de Gartner para 2026 que los modelos de IA que pueden
operacionalizar la transparencia, la
confianza y la seguridad de la IA lograrán una mejora del 50% en adopción y
los objetivos comerciales y la aceptación La gente los aceptará, ¿verdad? Ellos querrán tener
este tipo de sistemas de IA. Quieres esa confianza pública, por lo que impulsará la innovación. Adicionalmente, tienes
estudios que muestran cómo IA
generativa está cambiando
la fuerza laboral, ¿verdad Al igual que mucha gente
se preocupa de que vayan los trabajos, no
se dan cuenta de
cuántos nuevos trabajos
van a gustar creados. Habrá pérdidas de empleos, sin duda cualquiera, porque la IA se hará cargo de
muchas actividades. Pero también se
van a crear nuevos empleos. Y para 2030, estiman
que
va a tener un impacto masivo y
masivo en la economía. Y las empresas obviamente
van a estar buscando
personas con habilidades de IA. Entonces, al tomar este curso, realidad
estás
invirtiendo en tu futuro. Te estás asegurando de que tienes
las habilidades relevantes, ¿de acuerdo? Y se puede ver que 96% de las empresas estarán
buscando trabajadores con habilidades de IA. Y la IA no es sólo técnica. Mucha gente se confunde, piensan que necesito conocer ciencias de
datos o estadísticas. No, se puede tener este
conocimiento que son los
marcos de IE, Gobernanza e IA, ¿verdad? Entonces esto es lo que quiero
que hagas en este curso. Quiero que entiendas
los estándares y los
marcos que hay, Entender los conceptos comunes, repasar los estudios de caso y luego aplicar los conocimientos
que has aprendido. Entonces, ¿cómo vas a aplicar
este conocimiento? Tendremos un proyecto. Te voy a dar una
tarea que hacer. Quiero que tomes
eso y lo apliques para
entender a fondo cómo va a funcionar este
proyecto. Entonces espero que esto
te haya motivado. Espero que entiendas ahora el nuevo mundo masivo en el
que estás viviendo. Y esta es otra área
donde la gobernanza y el riesgo de IA, donde realmente puedes brillar y puedes dejar tu propia huella. Espero que estés entusiasmado. Tanto si eres un
riesgo de IA como de ciberseguridad, esta es una excelente manera de
invertir en tu futuro Entonces sigamos adelante y nos
vemos en la
siguiente lección. Gracias.
2. 2 riesgos de IA: Hola a todos. Bienvenidos,
bienvenidos al siguiente módulo que trata sobre Y yo Riesgos. Como una breve introducción. Y como dije antes, lo que vamos a cubrir aquí es brevemente te voy a contar sobre la IA y los tipos de riesgos de
IA y la ville, ejemplos de fallas de IA sientes que
lo sabes, puedes saltarlo. Yo recomendaría no
saltarlo porque te da ese marco y contexto sobre este curso
y por qué lo necesitamos Porque realmente quiero
que entiendas
los antecedentes sobre
por qué
han surgido estos marcos . ¿Qué es la IA? Antes de profundizar en esto, quiero que entiendas algo
muy crucial, No
necesitas ser una persona
técnica para la IA. Ayuda tener
ese trasfondo. Pero no, conozco a mucha
gente que no es completamente
técnica porque IA es muy masiva para entender
las regulaciones y marcos de AA. Solo necesitas tener un
alto nivel
de comprensión de la IA y eso
funcionará, honestamente hablando. Para que no te
intimide la IA. ¿Bien? Mucha
gente se preocupa. Puedes bucear en profundidad
tanto como quieras, pero solo una
comprensión de alto nivel
también funcionará para ti.
Entonces, ¿qué es la IA? Ai es una rama de la
informática que se enfoca en crear sistemas que realizan funciones generalmente asociadas con la inteligencia
humana, como el razonamiento, el aprendizaje
y la superación personal. Esa es la aburrida definición de
libro. En pocas palabras, los sistemas de IA. Ai es una rama de la
informática que los sistemas informáticos
se comportan como humanos. ¿Cómo? Al tomar decisiones como razonamiento y la
comprensión de la información. ¿Cómo trabajamos los humanos? Tomamos mucha
información que aprendemos de ella y la usamos para
mejorarnos. Así es exactamente como funciona la
IA, ¿verdad? Programas regulares,
como tu calculadora, sigue un
conjunto fijo de instrucciones y no cambia a menos
que la actualices manualmente. Mientras que los sistemas de IA,
pueden mejorar. Por lo que en realidad pueden usar la información
existente y la anterior
y utilizarla para
hacerse más
inteligentes con el tiempo. Y la IA puede tomar decisiones
basadas en el análisis de datos. Se pueden evaluar
situaciones complejas, ¿verdad? Y puede imitar cómo los
seres humanos están tomando decisiones. Mientras que, como dije, las computadoras, solo
tienen un predefinido, sus aplicaciones regulares,
tienen un
conjunto predefinido de instrucciones. Entonces puede manejar la ambigüedad y lo más grande de
ella puede automatizar Puede hacer las cosas
por sí mismo, ¿verdad? Al igual que los autos autoconducidos. No necesitas que los
seres humanos entren y les guste conducir
el auto, ¿verdad? Operará por sí mismo. Estas capacidades humanas
son lo que es la IA. Cómo la IA está cambiando realmente
el mundo desde 2022. Yo pensaría que Chip
salió a pesar de que existía
mucho antes de eso. Antes de eso estaba hablando de
IA. Chagpt y generativo,
realmente ha hecho que AA sea accesible
para Por eso hay tanto
interés en torno al tema. Ahora bien, ¿cómo funciona la IA
sin meterse
demasiado en el
aprendizaje automático y cómo funciona el aprendizaje
automático
supervisado y no supervisado ¿Cómo funciona el aprendizaje profundo? En pocas palabras, la
IA toma muchos datos, ¿verdad? Y luego usa un algoritmo para encontrar patrones en estos datos. Y luego usa
estos patrones para tomar
decisiones sobre las
cosas futuras que sucederán. Entonces, si quieres
desglosarlo, se necesita una gran cantidad de datos de diferentes
fuentes, ¿verdad? Pueden ser números o datos
no estructurados, como imágenes y
encuentra patrones, ve correlaciones donde
los seres humanos tal vez no Entonces esto puede tomar, aquí
es donde
entra el aprendizaje automático, ¿verdad? Como lo dice el nombre.
La máquina es aprenderlo, tomar todos los datos
y aprender sobre ello. Si le das muchas
imágenes faciales, encontrará patrones
y luego
podrá reconocer a otras personas. Derecha. En base a esto y estos patrones y percepciones
que se toman para los datos. Por eso dije que toma
decisiones sobre el futuro. Por ejemplo, una IA podría
predecir el comportamiento del cliente. Puede diagnosticar afecciones
médicas. O puede optimizar como rutas
vehiculares, rutas
logísticas, ¿verdad? Cuantos más datos obtenga,
más mejora, más mejora,
mejor obtiene. Todo esto es como un ciclo
constante, ¿verdad? Así es como funciona la IA
en pocas palabras. Y claro que ya
hablamos de esto. No voy a pasar
demasiado tiempo, pero claro, la IA está teniendo un impacto masivo y
masivo
para 2030, 15 billones Dice que puede
contribuir honestamente. Y por supuesto, habrá
una interrupción masiva del trabajo, por lo que la gente se
enfoca más en la pérdida de empleos. Habrá
pérdidas de empleos absolutamente, porque trabajos que los seres
humanos pueden hacer, mucha IA podrá hacer, pero se crearán nuevos empleos. Bien. Eso es lo que la
gente olvida la cantidad de empleos que
se van a quitar. Se olvida que la cantidad de nuevos empleos que se
están creando. Nadie
hablaba de gobernanza de
IA, seguridad de IA, como
hace algunos años en 2021. Recuerdo que estaba
hablando de ello. Nadie estaba pagando intereses
porque en pocas palabras, nadie le importaba tanto. Pero ahora la IA ha cambiado
el mundo, ¿verdad? La disrupción, ha ocurrido. Entonces por eso
se están creando nuevas industrias. Así que no te preocupes
ni te asustes por la IA, abrázala y aprende de ella. Y entender el
potencial que es la industria está ahí y por
supuesto ¿cuál es el riesgo? Entonces, la IA está siendo adoptada por industrias
críticas, ¿verdad? Tienes cosas como
atención médica, aplicación de la ley. Y lo más importante
es que la IA no es perfecta. Puede tomar decisiones equivocadas o
sesgadas. Si le das información
incorrecta, puede desarrollar una pelea de sesgos. cual como dije antes, puede tener un impacto masivo en
las personas y las sociedades. Incluso puedes engañarlo. Te puede gustar manipularlo
o engañarlo. Y puede ser atacado
por ataques cibernéticos. Aquí es donde
vemos el enorme impacto que puede suceder con la IA, ¿verdad? ¿Qué pasa si la IA
detiene accidentalmente a la
persona equivocada o
la IA hace el diagnóstico médico incorrecto
o la IA no le da un préstamo a una persona
cuando
necesita desesperadamente eso o tratamiento médico ¿Correcto? Estamos hablando impacto en la vida
real
y como dije, se puede manipular.
Además, puede ser engañado Al igual que si tienes un sistema de
reconocimiento facial, en realidad
puedes
crear una imagen falsa y engañar al sistema de IA. Y claro,
tenemos nuevos tipos de ciberataques que están
surgiendo, todas estas cosas Es como un nuevo
mundo que ha
salido por la IA, ¿verdad? Y entonces estos son algunos ejemplos. Es decir, encontrarás millones
de ejemplos en Internet. Esta pobre persona, fue
identificada erróneamente por un, sistema
A y en realidad fue
detenido Entonces puedes imaginar cuánto impacto podría suceder esto, cuánto traumatizado
habría estado
esta pobre persona por
el reconocimiento facial Basado en Ai, se estaba utilizando
y llevó a su detención. Justo de nuevo, los autos de conducción autónoma estaban teniendo esta swissing
cada vez más introducción Estoy en el Reino Unido y ves como los autos de conducción autónoma
están siendo probados. Pero desafortunadamente han cometido errores y
han llevado a vidas humanas, ¿
verdad? Han ocurrido accidentes. Así que puedes imaginar a
medida que los autos autoconducidos se vuelven cada vez más populares, los tipos de ataques
que pueden ocurrir, los tipos de incidentes
que pueden ocurrir, y esto puede suceder para llevar a como un impacto
real en la vida de las personas. Entonces, es por eso
que
necesitamos asegurarnos de poder mitigar los riesgos de IA. Y aquí es donde
yo, entran
las regulaciones , bien, Y desafortunado. El triste hecho es que
muchas empresas, sobre todo las
del sector privado, se
preocupan más por las ganancias, ¿verdad? Su prioridad no es poner en regulaciones y controles
y gobernanza. Por eso necesitas
esa regulación para entrar y decir,
oye, espera, detente. No se puede seguir adelante sin poner estos
controles en su lugar. Y aún falta regulaciones sobre
AA. Siguen poniéndose al
día. La velocidad a la que se desarrolla es mucho
más rápida que cualquier regulación. E incluso las empresas
que son responsables, que son éticas, dijeron que no, necesitamos asegurarnos de mitigar el riesgo. Quieren esa orientación, ¿verdad? Entonces por eso están saliendo estas
regulaciones. Y por supuesto, la estandarización, quiere asegurarse de
tener un estándar común en todos los ámbitos sobre el cual se
pueden aplicar estos controles Entonces aquí es donde han
surgido
las regulaciones de la IE y por qué
necesitamos regulaciones de IA. Entonces espero que esta haya sido una lección rápida sobre
la visión general de
la IA, los impactos de la IA, el
impacto del riesgo de IA y por qué necesitamos todos estos marcos que están saliendo. Porque a nadie le gustan las regulaciones
y los marcos, ¿verdad? La gente piensa que esto
es solo para gustarte, ralentizar la innovación,
ralentizar el desarrollo. Pero ahora te he mostrado por qué puede ocurrir
el impacto si no metes en estas regulaciones. Entonces ahora hemos establecido el fondo. En la siguiente lección,
vamos a hablar sobre las regulaciones
y marcos de IA que hay en
el alto nivel. Y luego vamos a comenzar
a
profundizar en regulaciones específicas. Gracias y nos
vemos en la siguiente lección.
3. 3 marcos de IA: Hola, hola a todos.
Bienvenido a este módulo que trata sobre
regulaciones y marcos de IA. Una perspectiva global
o una visión global. Hemos hablado de IA, ¿verdad? Hemos hablado sobre la IA
y los daños que pueden ocurrir si la IA no se
controla y regula adecuadamente, y los controles no están ahí. En este módulo, lo que
vamos a hacer es que vamos a tener
una introducción a los marcos y regulaciones de
IA
y realmente dar un paso atrás y mirar el panorama
global que existe desde los marcos de
IA. Y lo que está sucediendo a nivel
regional y nacional. Y cuáles son los desafíos que se enfrentan al mirar esta lista masiva de marcos y regulaciones de IA
que existen, ¿verdad? Y vamos a,
antes de profundizar, necesitamos esta lección
antes de profundizar en los marcos individuales
y comenzar a mirarlo. Bien, entonces antes que nada, echemos un vistazo a
qué son los marcos,
estándares y regulaciones de IA . Se trata de un conjunto de lineamientos y requisitos legales, ¿verdad? El objetivo de esto es
gobernar cómo se diseña,
desarrolla, despliega la IA, ¿verdad? Queremos mitigar los riesgos. Quieren asegurarse de que los sistemas de
IA sean éticos, que no estén
siendo injustos, ¿verdad? Están a salvo. Están
causando daños a la vida humana. Son transparentes,
lo que significa que
se puede entender por qué están
tomando estas decisiones. Y en realidad están
causando beneficios a la sociedad. Y se quiere mitigar los
posibles riesgos de seguridad, vulnerabilidades y daños
que le pueden ocurrir a la sociedad. El objetivo de crear cualquier marco sea cual sea el
país del que estés hablando, ese es siempre el objetivo, ¿verdad Y así es como ayudan.
Como ya hablé antes, que las empresas, se
enfocan en el beneficio, ¿verdad? Quieren sacar la
mayor cantidad de dinero. Y a veces pueden
ir por la borda en esto e implementar IA sin que
los controles adecuados estén ahí en su lugar Entonces, si tienes un reglamento, un reglamento obligatorio
que está ahí, eso los encontrará
como el de la UE, ¿verdad? Por lo que se verán obligados a asegurarse de que estos
controles estén ahí. Y aunque
no sea obligatorio, tal vez sea solo un marco. Un marco opcional, ¿verdad? Lo que va a pasar es que
tendrán que seguir esto porque
los clientes se divinizarán. Los clientes no
comprarán sus sistemas. Dirán, no, queremos
la certificación ISO aquí en su sistema. ¿Su sistema está certificado
según el framework Nist
y todo eso? Estos garantizarán
que las empresas sigan buenos estándares a la hora de
desarrollar sistemas de IE. Y claro, hacen
rendición de cuentas y trazabilidad, así que se aseguran de que ¿por qué
la IA se está comportando así Que esas cosas estén presentes. Protegen el sistema de IA
contra la manipulación. Si alguien intenta atacar
el sistema de IA o
engañarlo porque sigue estos estándares, los
controles estarán ahí. Lo mismo contra
los ciberataques, ¿verdad? Tienes nuevos tipos de
ciberataques ocurriendo. ¿Cómo se asegura de que
el sistema esté protegido? Al hacer cumplir una
línea base mínima, una norma mínima. Y hacen las evaluaciones de
riesgo, hacen que las empresas adopten
un enfoque basado en el riesgo. No todos los sistemas
son iguales, ¿verdad? Algunos pueden ser muy,
muy sensibles, como los que están
trabajando en los hospitales. Y algunos podrían ser
simplemente una simple aplicación de reconocimiento
facial que
tienes en tu teléfono móvil, ¿
verdad? Todos ellos. Obligar a las empresas a
adoptar un enfoque basado en el riesgo. Y por último,
la cooperación internacional, que es muy importante. Entonces no quieres que estos diferentes silos ocurran Tienes
cooperación internacional ocurriendo a través de los países. Todo el mundo está trabajando
juntos para mitigar esto. Suena como una utopía. Sé que muchos de ustedes podrían estar pensando que esto nunca sucederá. Pero desafortunadamente,
el riesgo de IA es tan peligroso, estos
están siendo forzados. Bien, como verás
un nivel de armonía. El mejor ejemplo que te puedo
dar es el RGPD. La UE dio a conocer su reglamento general
de protección datos
para la privacidad de datos si
no estás familiarizado con él, pero debido a que era
un estándar
tan estricto y tan bien siguió literalmente a
todos los países del mundo, han implementado su
propio marco de privacidad de datos, pero han tomado elementos del RGPD porque se ha convertido en
el referente mundial. Y igual que esto, si le echas
una mirada de alto nivel a
esto, hay muchos,
muchos marcos, pero honestamente
los más importantes y que impactan en todos los demás
marcos que hay por ahí. En primer lugar, en la parte superior,
se quiere comenzar con los principios de
la OCDE sobre IA. Y vinculo estos marcos y estándares para que
puedas echarle un vistazo. Entonces básicamente, la OCDE, la Organización para la
Cooperación y el Desarrollo Económicos . Sí, es una
organización internacional que trabaja para construir mejores
políticas para una vida mejor, ¿de acuerdo? Ellos no mandan. Pero lo que han hecho
es que han dado a conocer ciertos principios sobre IA, ¿verdad? Y lo que ha pasado es en la
mayoría de los países del mundo, perdón, han tomado
estos principios
y los están utilizando para
hacer sus propios estándares. Entonces las estrategias a nivel nacional que tienes en los grandes
países como EU, Reino Unido, la
Visión de Oriente Medio, la visión de Pac, todas ellas han
asimilado, pero la mayoría de ellas, son consistentes con
los principios básicos para IA definidos por la OCDE
y avalados por ellos, ¿bien? Por lo general es
más o menos lo mismo. La sustentabilidad de los derechos humanos, la transparencia, la fuerte
gestión de riesgos. Verás estos. Verás cómo llamas los
co-inquilinos que se repiten
una y otra vez, y la mayoría de los países,
están siguiendo estos principios. Aparte de eso, ahora
tenemos la ISO 4201, si no estás familiarizado, ese es un estándar de
sistema de gestión de IA que ha salido por la ISO Y eso es como un estándar
internacional. Pronto, las empresas estarán certificando a este
estándar, ¿verdad? Al igual que tienes la
ISO 2701 para seguridad
IS 9,001 para la gestión de la calidad
. Lo mismo. Tendrás esto
y también tendrás el Nist AI Risk
Management Framework,
que es un marco de gestión
de riesgos de IA creado por Nist Es como un agnóstico tecnológico, agnóstico de
proveedores, pero es
un framework muy, muy poderoso Mucho, si estás
en ciberseguridad,
te resultará familiar
que la mayoría de las empresas, han adoptado la ISO 2701 y el marco de
seguridad Nist Saba, bien, como un marco
general por lo bien
que se hacen
estos estándares Lo mismo que puedes
esperar con la IA. Y aparte de eso,
a nivel regional, el mayor cambio
que va a ocurrir es la Ley de IA de la UE. El reglamento de IA de la UE
que está saliendo, que toma un
enfoque basado en el riesgo de estas regulaciones. Y vamos a
profundizar en todas ellas y esto
va a impactar las estrategias a
nivel nacional en
todas las regiones. Entonces estos son, esto
es como un Holístico, como una vista de muy alto nivel. Entonces la OCDE, como dije, han dicho que
hacen políticas globales
para los países. Creo que tienen
cinco de estos principios
basados en valores y
lo que ha sucedido es que se han convertido en
un referente global que ayuda a las empresas y gobiernos a adoptar ese
enfoque para crear sus
propias estrategias nacionales. Definitivamente recomendaría
echarles un vistazo. La mayoría de los países que
ves haciendo estrategias, solo
están influenciados
por estos, ¿verdad? Y estos son los
mismos locatarios, ¿verdad? Para asegurarse de que la IA está trabajando hacia el bienestar
de los seres humanos. Ellos son justos, son transparentes,
se tiene la debida
seguridad y protección, y rendición de cuentas.
Son de muy alto nivel. Pero han ayudado a
las empresas a comenzar a formar sus propias políticas
para que entiendan. ¿Correcto? Bien, aparte de eso, tienes la regulación de IA de la UE que está saliendo
dentro de la región de la UE. Esto toma como un enfoque basado en el
riesgo. Esto va a tener
un impacto masivo. Vamos a sumergirnos profundamente en esta regulación debido a casos
de gran importancia. Esta es la primera integral, como se puede decir
regulación o ley. Y esto va
a ser obligatorio para cualquier empresa que funcione. Son similares
al PIB que se convirtió en el marco global
para la privacidad de los datos. Esto va a convertirse en
el marco global para las regulaciones de IA. Incluso los países que
no siguen, que esta ley
no es aplicable,
van a tomar algunos
principios de ahí. Por lo que definitivamente se recomienda entender esto de verdad. Voy a
sumergirme profundamente en esto. El problema con las leyes de la UE es que
son muy aburridas. Es decir, te duermes
cuando las estás leyendo. Entonces te voy a llevar a
través de ello paso a paso. Y sobre todo
hay que entender cómo funciona el
enfoque basado en el riesgo. Aparte de eso, tenemos ISO
4201 que es la primera,
la norma de gestión adecuada I Al igual que tienes los sistemas de
gestión de seguridad de la información, ISMS Ahora tienes para el sistema de gestión de
IA e IA que es como el global, crea como un paraguas. Mejores prácticas, ¿verdad? Y es un estándar muy
completo. Es opcional. No tiene
mandato en este momento. Pero las empresas que
realmente quieren, ¿cómo se llama obtener
una ventaja competitiva? Ellos van a querer certificarse
contra la norma, igual que tienes
empresas hoy en día, Obtienen la certificación ISO 2701 o 9,001 Y
tienen esto como
ventaja competitiva Muestran a los clientes, miren, estamos certificados porque
estamos siguiendo buenas prácticas. Las empresas que están construyendo IA, querrán echar
un vistazo al estándar. Aparte de eso, tienes el Nist AI Risk
Management Framework Nuevamente, este es un marco
opcional, pero créeme cuando digo mayoría de las empresas que se toman en
serio la gestión de riesgos, van a estar
adoptando este marco igual que Nist lanza el marco de
ciberseguridad Y eso se ha convertido en el estándar industrial de
facto por lo bien que está. Lo que pasa con Nist
es cuando lanzan estándares como cientos
y miles de personas los
revisan y
realmente pasan bajo un
alto escrutinio para que les guste
realmente pulirlos Entonces esto se va a convertir en otro estándar importante y
vamos a
profundizar en esto también. Y también tenemos
la Orden ejecutiva por el gobierno de Biden
que salió, creo que salió 38 de
octubre del año pasado a 2023 ¿Correcto? Y esto es, nuevamente, promover FN, desarrollo confiable de
IA Se trata de una orden ejecutiva. No puede crear nuevas leyes
o reglamentos por sí mismos, pero lo que hace es que desencadena el inicio de tales procesos. Y es un gran avance
masivo en la rendición de cuentas de cómo se desarrolla e
implementa la
IA en todas las empresas. Y tiene una enorme
cantidad de regulaciones, no regulaciones, perdón,
recomendaciones, estándares. Y va a
impactar a mucha gente. Nist ha estado
muy involucrado dentro del
desarrollo de estos marcos El marco de
gestión de riesgos de IA, que hablé, es
referenciado varias veces. Y lo que pasa es que
estas órdenes ejecutivas salen y dan un mandato de alto
nivel esa mirada, así va
a ser. Las leyes salen a la luz. Y el sector público empieza a
implementarlos. Y debido a que el
sector público los está siguiendo, el sector privado sigue
y se convierte en un mandato extraoficial
en todos los ámbitos, ¿verdad? Entonces estos son solo algunos de los estándares de los que
quería hablar. Los retos son, como yo, como dije antes,
hay demasiados de ellos. Te da dolor de cabeza. Entonces por eso he elegido
lo más importante. Y créeme, si entiendes
bien estos, del que voy a
estar hablando, prácticamente
has
cubierto la mayoría de ellos. Porque todos ellos se basan en
los mismos conceptos. Bien. Y el otro
reto es la armonización. Estoy tratando de entender dónde están
los puntos en común y de los
cuales discutiremos El otro es opcional
versus obligatorio. Entonces cosas como Nist e ISO, no
son obligatorias, ¿verdad El reglamento EUA lo es, una vez que entra en
vigor, es obligatorio Entonces hay que entender
qué es obligatorio, qué es opcional, ¿verdad? Y otra opción es
específica de sector a través de sectores o
a veces alguna normativa. Son específicos un sector en particular como la industria
energética o
la industria del agua. Y algunos están en todos los ámbitos, así que queremos echarle un vistazo a
eso y entenderlos. Y por último, lo más importante, equilibrar la innovación
y la regulación. Si pones demasiadas regulaciones, el ritmo al que
se está innovando la IA, volverá atrás o la mayoría de las empresas intentarán salir
de esa región, ¿verdad Entonces quieres equilibrarlo,
quieres poner controles, pero queremos asegurarnos de que
no impida que ocurra la innovación
. Y lo último, el reto,
que siempre está ahí, que la IA es muy, muy rápida, se desarrolla extremadamente rápido. Los reglamentos siempre están tratando de ponerse al día con
este desarrollo. Entonces por eso estas regulaciones de
IA a veces a un nivel bastante
alto, ¿verdad? Quieren asegurarse de que
cubren todo, así que no quieren ser
específicos sobre ninguna tecnología
ni ninguna para ser demasiado prescriptivos De lo contrario se van a
desfasar muy, muy rápidamente. Entonces espero que esto te haya sido
útil. Echamos un vistazo de alto nivel a los marcos y regulaciones de
IA, qué se necesitan
y regulaciones clave, y cuáles son algunos desafíos que surgen
al adoptarlos. Ahora lo que vamos a hacer
es que vamos a
sumergirnos en una regulación en particular. Y empieza a bucearlo a profundidad, mirando sus componentes y cómo podemos
conseguirlos implementados. Gracias y nos
vemos la siguiente lección.
4. 4 Ley de la UE 1: Hola a todos. Bienvenidos,
bienvenidos a esta lección. Y ahora vamos a dar
inicio a una inmersión profunda. Y vamos a dar
inicio a una inmersión profunda con posiblemente la regulación más
importante que saldrá en breve, que es la Ley de Inteligencia
Artificial de la Unión Europea . Esta será probablemente
la primera ley dedicada a la
inteligencia artificial. Se le conoce como la Ley de IA. Cuando se convierte en ley, va a establecer
el punto de referencia global o el estándar
para la regulación de la IA. Y otros países, otras jurisdicciones van a construir sus propias leyes
nacionales, pero van a
tomar de la Ley de IA de la UE. Y esto es, lo hemos
visto históricamente también con cosas
como el GDPR. Y
te voy a mostrar y por qué
suele suceder eso, que los mandaron como un referente
global, ¿verdad? Y si bien la legislación a
partir de febrero de 2024, aún
necesita ser aprobada
formalmente por cada negocio de órgano legislativo si está operando en la UE. Ahora tiene una imagen mucho
más clara de lo que necesita hacer para
cumplir con la Ley EUAI Una vez que entre en vigor, ¿verdad? Por lo general, se
espera que se convierta en ley a principios de 2024. Estas cosas que
llevan mucho tiempo, pero el marco está ahí y ahora sabemos lo
que van a
hacer cumplir básicamente a la UE básicamente quiere garantizar que
la IA se use de manera ética y
segura y se toman
muy en serio la
defensa de
las leyes y derechos fundamentales ¿Correcto? Han adoptado como un enfoque proactivo
para gobernar las tecnologías de
IA basadas en el riesgo. Y eso es lo que
vamos a echar un vistazo. Esto es lo que
vamos a cubrir. Vamos a echar un
vistazo a la visión general de EAA de esto, cuál es el enfoque basado en el riesgo, específicamente cuál es
la IA de alto riesgo, porque ahí es donde
va a ir
la mayor parte del tiempo y cómo
implementar ticket Vamos a tomar
una compañía ficticia y de hecho ver paso a paso, lo que hay que hacer para
implementar la Ley EA Voy a enfocarme en las disposiciones
críticas del acto. El acto en sí,
como la mayoría de la U, es como muy aburrido de leer. Te quedarás dormido si
empiezas a leerlo, honestamente, a menos que seas un tipo legal, alguien en legal o de cumplimiento a
quien le guste leer esto. Entonces, lo que he tomado es que me he centrado
deliberadamente
en las áreas clave. Las áreas donde se necesitará mayor
esfuerzo, que es el
enfoque basado en el riesgo de los sistemas EAI, y eso es lo que va a tener un impacto masivo. Como
un breve resumen. Ahora bien, esta es la
primera ley propiamente dicha, como se puede decir, dedicada a la IA. Y tiene el potencial, y yo diría que
se va a convertir en un referente global
para la regulación de la IA. Similar a cómo la regulación general de protección de
datos se establece como un estándar global
para la privacidad de datos. Y si estás trabajando
en privacidad, ya sabes, sea cual sea el país
en el que estés de una manera u otra, tu ley se ha
visto impactada por el RGPD. De igual manera, la regulación EUA
va a establecer el punto de
referencia global para la IA ¿Por qué? Porque antes que nada, es uno de
los marcos más completos enfocados específicamente
a regular la IA. ¿Bien? Lo que hace, se enfoca en los
riesgos que existen. Y se asegura de que proporcione un enfoque
regulatorio muy detallado. Se va a convertir en un
modelo para otros países. Y lo más importante, se
necesita un enfoque basado en el riesgo. Por lo que clasifica los sistemas en
función del riesgo que tienen, así que desde el riesgo mínimo
hasta el riesgo inaceptable Y esto te da un enfoque
equilibrado, ¿verdad? Porque no dice que no. Cada sistema de IA
va a ser así. Ahora bien, un sistema de IA que es, digamos, trabajar en un hospital
o en las fuerzas del orden, no
es lo mismo que un simple chatbot en tu sitio web, ¿verdad Contestando preguntas,
claro que no. No quieres aplicar
los mismos controles ahí. Pero la UE es un mercado masivo. Es un jugador
económico global significativo, ¿verdad? Las empresas que operan o venden
en el mercado de la UE deberán
cumplir con los requisitos de
EAI Y esta presión de cumplimiento
llevará a que las empresas todo el mundo adopten estándares
similares que están influenciados por la EIA. Por eso he empezado esto. Entonces definitivamente se
va a convertir en un referente global
y va a influir en muchos
países y negocios. Y claro, al igual que el GDPR, las sanciones son bastante severas. Creo que del 2% al 7% de la facturación anual
global. Y depende, claro,
ahí hay mucho gravamen, pero las multas pueden
ser bastante severas Si alguna vez tiene alguna duda, eche un vistazo a cómo
el GDPF a veces encuentra empresas y tendrá
una mejor idea de cómo potencialmente
las empresas que no
cumplen con esto en el
futuro o
lo toman con demasiada indulgencia, cómo pueden
verse impactadas Entonces, ¿a quién se le está impactando? Básicamente, las empresas que desarrollan o crean sistemas de IA, ¿verdad? Como tecnología de software, desarrolladores de
software
o firmas de tecnología. A lo mejor los estás desplegando. Por lo tanto, está implementando y utilizando sistemas de
IA
independientemente de la industria en la que se encuentre.
Organismos públicos, ¿verdad? Por lo tanto, organismos gubernamentales y organismos que están desplegando sistemas de
IA para servicios públicos, organismos
reguladores
y de control. Las autoridades
encargadas de vigilar y asegurar el
cumplimiento de la EUA actúan
como agencias de protección de datos ¿Correcto? Y los consumidores
por supuesto, el público en general. Y como dije, va a tener un impacto global aunque seas una organización que no sea de la UE, pero estás ofreciendo
servicios a ciudadanos de la UE, entonces será aplicable. Por eso dije que va
a tener un impacto global y empresas que
incluso están fuera de la UE. Serán como forzar
el cumplimiento de esto. Por eso es tan importante
entender esto. Ahora bien, el punto clave, el punto
más importante de la Ley EAI es que clasifica los sistemas de
IE en cuatro
niveles de riesgo En base a ese nivel de riesgo, hay
que poner controles. Cuanto mayor sea el riesgo, más estrictos serán los controles
que tienes que implementar. Ahora primero que nada es
el riesgo no mínimo. Estos son la mayoría de los sistemas de IA que
no tienen riesgo y no enfrentarán ninguna regulación como un simple bot de chat que no está recopilando ningún dato
ni nada, ¿verdad? El otro son
los riesgos limitados. Los sistemas de IA
con riesgo limitado, tendrán obligaciones de
transparencia. ¿Qué significa eso? Tienen que revelar que este es contenido se genera
IA, ¿verdad? Y hay que
informar, como dije,
charlar pot o tal vez algo que esté usando IA
generativa, ya sabes Entonces hay que asegurarse de
que esas cosas estén ahí. Los riesgos altos también están
ahí alto riesgo. Los sistemas I serán
autorizados con requisitos y
obligaciones
específicas para el acceso al mercado. Aquí es donde va a entrar
la mayor parte del esfuerzo. Y por último es un
riesgo inaceptable que simplemente está prohibido. No se permitirá este tipo particular de
sistemas de IA. Y han dado una definición muy
detallada como los sistemas de
IA que
intentan manipular las emociones, o están regulando
como si realmente estuvieran monitoreando las emociones
en lugares de trabajo, instituciones
educativas O están usando el reconocimiento
facial para la
identificación biométrica remota Han dado algunas
excepciones para la biometría, pero ya sabes, la UE es muy,
muy estricta cuando se
trata de privacidad de datos Entonces creo que ninguna jurisdicción
es más estricta que la UE. Por lo que han tomado este enfoque basado en el
riesgo. Y entonces si lo miras, esto es de EU, así es como se ve,
¿verdad? Si comienzas desde
abajo, hay riesgo mínimo, sin obligación,
transparencia de riesgo limitada. Hay que echar un vistazo y conseguir, hay
que revelar que esto se basa en IA. alto riesgo es una evaluación de
conformidad que es como una auditoría. Se puede decir que hay
que hacer cumplir este nivel de controles
antes de que se le permita. El riesgo inaceptable
simplemente está prohibido, lo siento, si tu aplicación de IA es así y estas son
las cosas que estás haciendo, lo siento, estás completamente prohibida. ¿Y qué es inaceptable
o prohibido? Así que básicamente cualquier cosa, ciertas acciones que han
definido, ¿verdad? ¿Qué significa que
los sistemas de IA técnicas subliminales, qué significa eso?
Déjame traducirlo. Los sistemas de inteligencia artificial que utilizan métodos
subconscientes furtivos para cambiar
drásticamente el comportamiento de una persona están
completamente Ya sabes, están
tratando de influir en tu comportamiento, influir en
tus emociones. Biométricos que utilizan características
sensibles
como
creencias políticas, religiosas, filosóficas religiosas, filosóficas. No,
no están permitidos. biometría se permite con excepciones o son secuencias de comandos similares
no dirigidas de imágenes
faciales de Internet o imágenes CCD
para generar bases de para generar puntuación social, la mayor IA que se está utilizando para explotar las vulnerabilidades de las personas, derecho, por su
edad o discapacidad, quedarán
completamente prohibidas. No están bromeando
sobre, sobre esto, EU es muy, muy
sensible sobre la privacidad Es por eso que la identificación
biométrica remota en tiempo real en espacios públicos similares a menos que piense que han dado
ciertas excepciones o eso pero han
prohibido por completo esos sistemas de IA Alto riesgo es alto riesgo son
aquellos sistemas que están permitidos pero pueden representar riesgos
significativos para la salud o la seguridad, los derechos y libertades
fundamentales. Incluirán sistemas de IA que se utilizan en
infraestructura crítica o en su educación. El empleo esencial como los
servicios públicos y gubernamentales, ¿verdad? Y requieren un
estricto cumplimiento, estrictos
requisitos obligatorios antes de que puedas ponerlos en el mercado. ¿Cuáles son esos requisitos? Es necesario hacer una evaluación de
riesgos adecuada. Tienen que llenar una
adecuada evaluación de riesgos, documentar la evaluación de
impacto
lo que están haciendo,
unos altos estándares de calidad de datos, lo que los datos que está
siendo utilizado por la IA. Necesitan
asegurarse de que los datos, los datos no hayan sido comprometidos, ni envenenados, o
influenciados de ninguna manera. Necesitan hacer
documentación detallada y llevar
registros. Si alguna vez has estado
en una auditoría GDPR, conoces la cantidad
de documentación, tienes que ponerla a
disposición, ¿verdad? Y por supuesto, la transparencia. Por lo que hay que proporcionar información
clara sobre las capacidades de los sistemas de IA, para
qué se está utilizando. Y esto es si estás
en un sistema de alto riesgo. Esto es de la página web de la UE. Esto es como, estas son las
condiciones bajo escalones. Entonces, si desarrollaste un sistema I de
alto riesgo, tendrían que
someterse a esta evaluación. Se registra en la base de datos de la
UE y se pone en signo. Básicamente, se obtiene el CE
marcando la Unión Europea. Una vez que es vida, ha estado
en la base de datos sobre los cambios. Si hay algún cambio importante, es
necesario volver al paso dos. Hazte como la aprobación hecha. Sistemas de alto riesgo,
son muy, muy serios al respecto. No son como bromear al
respecto, ¿verdad? Por último, el riesgo limitado o mínimo como
hablamos aquí, como cosas simples como el
chat sobre una IA generativa, que no es tomar datos, Quieres asegurarte de que ahí
tienes transparencia. El
riesgo limitado o mínimo es más o menos, tienen el mismo riesgo mínimo. Al igual que no necesitas riesgos
limitados, necesitas ser divulgado. El hecho de que estés usando como la salida es AI generado. Entonces así es como se
ve el acto de EAI desde
mil pies de vista ¿Cómo te preparas para ello?
¿Correcto? Entonces como dije, no intentes memorizar el estándar a menos que
seas abogado Aunque seas abogado, no te
recomendaría memorizarlo porque ese no es el punto del acto
EUAI, Entonces, mientras el acto aún está a
punto de aprobarse, puedes empezar a ser
proactivo al respecto. Para que puedas comenzar a inventar
y clasificar tus sistemas, implementando un marco de
gobierno de IA Entonces, para asegurarse de que
esos procesos y un gráfico estén ahí. Haciendo un análisis de brechas, priorizando y averiguando los riesgos que
existen, ¿verdad Y luego haciendo entrenamiento
y comunicación. Y en lugar de que yo solo
hable de esto ciegamente, tomemos un estudio de caso, ¿verdad Tomemos una empresa que
está a punto de implementar la Ley de IA de la UE y
veamos cómo lo harían para que
te hagas una mejor idea. Eso envuelve esta lección. Hemos visto qué es la Ley EUAI,
cómo funciona, el enfoque basado en el
riesgo y cómo se tratan
los sistemas de IA de alto riesgo, y ahora los requisitos también
por el enfoque basado en riesgos Entonces tomemos un ejemplo
de una empresa y veamos cómo se
verá en acción
el acto de la EUAI Gracias y nos
vemos en la siguiente lección.
5. 5 Ley de la UE 2: Hola a todos. Bienvenidos,
bienvenidos a esta lección, que es que ahora hemos
hablado de la Ley EAI Y como mencioné,
la Ley de la UAA puede llegar a ser muy seca de leer Si solo estás
leyendo la teoría, no entenderás,
te olvidarás de ella. Quiero mostrarles cómo
teóricamente una empresa se encargaría implementar
la Ley EAI, Y hay múltiples
formas de hacerlo, pero vamos a tomar
un ejemplo simplista que entiendas
los conceptos clave Y recuerda eso es en
lo que siempre me concentro, por
eso hice este curso. Por favor, no intentes memorizar estos estándares porque te
olvidarás de ellos, ¿de acuerdo? Si haces un estudio de caso o lo
haces valer tú mismo, entonces ese conocimiento
nunca,
jamás olvidarás . Y
eso es lo más importante. Creo que también te mostré esta diapositiva en la lección anterior. Pero así es como una empresa
típica prepararía para la Ley EAI Ellos inventariarían y
clasificarían. ¿Qué significa eso? Ellos revisarían los sistemas de IA
existentes y los casos de uso y los
categorizarían que, oye, ¿tengo algún sistema de
alto riesgo que requiera el cumplimiento
de la Ley EA Puedes usar cuestionario, tal vez usar algún sistema automatizado que averigue el
propósito de esto. Si ya tienes un
inventario, puedes usarlo. Entonces irían
sobre la implementación de un marco de gobierno de IA. Debido a que la IA no
existe en el vacío, necesita un marco de
gobierno adecuado. Se necesitan comités. Necesitas un gráfico de Acto. Se
necesitan procesos implementados para implementar
realmente correctamente la Ley EUA Y luego
harás un análisis de brechas. Por lo que hacemos un análisis adecuado de brechas frente a los requisitos.
¿Qué es lo que ya tienes? Si tienes un sistema hier, ¿con cuántas partes de la
Ley EAA cumplo ¿Verdad? Entonces lo que pasa es
que obtendrás un plan de acción. Sabrías cuáles son
los riesgos,
cuáles son los problemas,
y luego
priorizarías y administrarías
esos riesgos de IA, ¿verdad Empezarías a
hacerlos cumplir, tratando de arreglarlos. A lo mejor no tienes la documentación
adecuada, mejor no tienes ahí
los
controles de seguridad de IA adecuados. Y por último,
empezarías a hacer el entrenamiento y la comunicación porque hay muchas cosas. Tal vez sus desarrolladores
necesitarían ser informados, Su alta dirección
tendría que ser consciente de ello. Entonces estos son los pasos clave. Los pasos fundamentales en los que
tendría que pensar cuando esté aplicando la ley de IA de la
UE en el futuro Entonces tomemos un estudio de caso, ¿
verdad? Un simple estudio de caso. A lo mejor tienes una firma de
tecnología global que se especializa en
analítica de datos, sistemas de IA, ¿verdad? Y ahí tienen que
alinear sus operaciones
con los EUA la gestión de actos le preocupa Km, y esto parece serio. ¿Qué pasa si
nos multan, verdad? Porque tienen una cartera
muy amplia de productos
y servicios impulsados por IA. Realmente han ganado mucho dinero con el boom
de la IA, pero ahora se dan cuenta de que
viene la
regulación y aquí son
bastante inteligentes. Han decidido de manera proactiva
ajustar sus prácticas para cumplir con el nuevo panorama
regulatorio de IA en la Unión Europea Te han contratado como si estuvieras pensando en
cómo hacerlo, ¿verdad? Entonces el primer paso,
como mencioné, inventariar y clasificar
sus sistemas de IA, bien, para entender
las implicaciones Entonces primero debes averiguar si tengo modelos de IA en
uso o en desarrollo, o a punto de adquirir Cuál podría caer dentro de la categoría
más alta, ¿verdad? Muchos servicios que utilizaban, como los modelos existentes que
compraban en algún lugar. O tal vez los han
construido en casa. Entonces necesitas tener este
tipo de inventario de modelos. A lo mejor puedas hacerlo manualmente,
difundir cuestionarios. O tal vez tenga
un sistema automatizado que pueda averiguar rápidamente
cuáles son los sistemas de IA. Supongamos que
se está ejecutando en la nube, sabría cuántos
servicios de IA está ejecutando, ¿verdad Entonces hay muchas formas
de hacerlo. No es una regla dura y rápida, pero el primer paso siempre
es inventariar y clasificar Entérate de lo que tienes y
qué hay que hacer, ¿verdad? Y así suponiendo que la esfera de
datos se encuentre como un sistema que
podría ser de alto riesgo, tomemos un ejemplo Tienen una herramienta de
diagnóstico impulsada por IA que ayuda a
los médicos a identificar enfermedades
raras en función de los datos de los pacientes. Y dado el impacto
potencial en salud
del paciente y la naturaleza
de los diagnósticos médicos, este sistema de IA caería en el alto riesgo bajo la Ley EAI ¿Qué tendrán que
hacer? Tendrán que hacer una evaluación detallada del riesgo de
la herramienta diagnóstica, ¿verdad? Evaluarían
su impacto para afectar la seguridad
del paciente y la
precisión del diagnóstico médico. Les gustaría mejorar
su cumplimiento para asegurarse de
que MI cumpla con
la Ley EOAI o no, ¿verdad? que MI cumpla con
la Ley EOAI o no, ¿verdad Ellos harían una revisión ética
y regulatoria. ¿Cuál es la implicación para la privacidad y preocupación
del paciente? ¿Tengo permiso
del paciente? Saben que esto es
un acto EUAI, ¿verdad? Eso, perdón, este
es un sistema de IA que está tomando decisiones. Mejorarían el gobierno de
los
datos, la privacidad y la seguridad de los datos
en torno a estos controles, ¿verdad? Transparencia y divulgación. Están proporcionando
información clara a médicos y pacientes sobre cómo la herramienta de IA
está haciendo sus diagnósticos, qué datos está utilizando y luego
monitoreo de implementación, ¿verdad? Entonces, ¿se está desplegando en el ambiente
clínico controlado adecuado con monitoreo implementado? Y ¿tiene
documentación e informes que informan a los
auditores de lo que se está utilizando? ¿Y estamos comprometiéndonos con los dueños de la salud como
los hospitales para obtener comentarios? Porque al dar estos pasos, no sólo
asegurarán que su herramienta de diagnóstico
cumpla con la Ley EAI, sino que también
demostrarán que
están manteniendo altos Estos son los pasos
que deberán
tomar para asegurarse de que
cumplen con la Ley EAI El siguiente paso sería mejorar el
marco de gobernanza de la IA, ¿verdad? A lo mejor no tienen un
buen gobierno en estos momentos. No tienen a nadie
dedicado a la IA. No tienen políticas, no
tienen marcos. ¿Cómo se asegurarán de que quién decida si un sistema de IA es compatible o
no y lo detiene? ¿Cuáles son los checklist? ¿
Alguien los está auditando? ¿Alguien está implementando
estos controles? Necesitan contratar
gente. Necesitan cambiar sus políticas
y procedimientos. Entonces aquí es donde su
gobierno de IA entrará en su lugar. Podría caer dentro de la gestión
general del riesgo o podría ser una nueva función. Pero estas son las decisiones que
necesitas tomar. Y luego por supuesto, análisis de
brechas, obtendrás una larga
lista de ítems, de cosas que necesitas arreglar. Entonces tendrías que hacer
un análisis de brechas adecuado, Entérate cuáles son las
áreas en las que necesitamos trabajar. Estas políticas faltan. Estas acciones faltan. Estas personas necesitan ser contratadas. Estos sistemas de riesgo de IA
necesitan ser fijos. Entonces estas son las cosas en las que
tendrías que
pensar y ponerte agrieta. Tener un seguimiento adecuado
sucediendo, ¿verdad? Y por supuesto, la evaluación del sistema, hay que asegurarse, bien, sistemas vivos, una vez que
haya obtenido la conformidad, cómo sabe asegurarse de que si ocurre algún cambio, tendría que
averiguar cuáles son los cambios. ¿Necesitamos hacer una auditoría de
reconformización? Todo ese tipo de cosas
tienen que estar ahí. Y más adelante cuando hablamos del estándar de foto uno que hace cumplir un sistema de
gestión de IA, ¿verdad? Aquí es donde actúan la UE y la ISO que está saliendo. Pueden complementarse
y ayudarse mutuamente. Y manejo de riesgos
de IA por supuesto, ¿verdad? Entonces esto se formará
bajo el gobierno. Por lo tanto, debe asegurarse de que sus procesos de gestión de riesgos han sido mejorados y ellos saben cuáles son las formas adecuadas de averiguar las tasas de
riesgo I de IA son muy, muy diferentes, bien, de los ataques
tradicionales de IA. Ai temas de seguridad.
Todos son muy diferentes. ¿Tienes una forma adecuada de
identificar estos riesgos? Y aquí es donde surgirá el
marco de gestión de
riesgos de IA Nist , que discutiremos
en las próximas lecciones Entonces todas estas cosas en las que
hay que pensar. Por último, y la parte que más odia a
todos,
que es la documentación Como dije, si alguna vez has
hecho una auditoría adecuada del RGPD, sabrás cuánta
documentación hay que hacer, y esto vuelve locos a todos. Comienza a crear ese
repositorio para asegurarte de que todos los sistemas de IA estén debidamente
documentados, lo que has hecho. Entonces, si alguien viene
a la auditoría, tienes
lista esta
documentación completa mostrándole cuáles eran
los procesos ahí. Y por supuesto, la capacitación de
los empleados sobre ética y cumplimiento de la
IA. La fuerza laboral
necesita estar informada. Tendría que gustar educar a sus desarrolladores, a sus científicos de
datos, su personal de gestión de riesgos de IA,
a
su alta dirección, para asegurarse de que entiendan qué nuevas obligaciones
están saliendo. Esto promoverá una cultura adecuada consciente del
riesgo para que las personas comprendan el nuevo entorno que
está saliendo, ¿verdad? Para que la gente simplemente
no siga adelante y compre sistemas de IA sin
informarle, sin informar a los equipos de gestión de
riesgos. Y por último, la
comunicación de las partes interesadas para que todos sepan, ¿el hospital, están
al tanto los hospitales? Tienen que informarnos
si ocurre algún problema. ¿Estamos recibiendo comentarios
de los hospitales, de los médicos, si ocurre algún
problema? ¿Sabemos si ocurre algún
incidente? ¿Cómo informar a las autoridades
legislativas de la UE que ha ocurrido algún incidente? La documentación
adecuada, la descripción adecuada del trabajo
necesita estar ahí. Los procesos necesitan estar ahí. Así es como lo harías
a un alto nivel, haciendo cumplir la ley de EA Espero que esto
te haya dado una mejor idea. Ahora bien, en lugar de que yo
lea línea por línea, estas son las cláusulas que les
mostré cómo una empresa haría
realmente hacer cumplir esto Úsalo como punto de guía. Estoy seguro que probablemente podrías
agregar más cosas aquí, pero esto es solo para darte una visión de alto nivel de cómo
hacer cumplir la Ley EUAI Cada vez más
empresas comenzarán a implementarlo y nos
enteraremos de cosas nuevas. Pero esto te da
una muy buena manera comenzar
con la Ley EUAI Espero que esto
te haya sido útil y te veré
en la siguiente lección.
6. 6 NIST 1: Hola a todos. Bienvenidos,
bienvenidos a la lección. Y en esta lección,
vamos a
profundizar en un nuevo marco de IA, que es el Nist AI Risk
Management Framework Esto no es una ley, esto no
es como una regulación, como la Ley de IA de la UE, de la
que hablamos. No, esto es un marco, pero es sumamente
importante y te
voy a mostrar por qué y por qué
va a tener un impacto tan grande como la IA de la UE actúa como
hablamos. Va a tener
un impacto global. Esto también va a tener
otro impacto global. Y como dije, esta es una, esta ha sido desarrollada
específicamente para abordar los riesgos de IA. Si recuerdas, cuando estábamos
discutiendo la Ley de IA de la UE, hablaron sobre la creación un marco de gestión de riesgos de IA. Bueno, eso suena muy bien,
pero ¿cómo lo haces? ¿Correcto? ¿Cómo se crea un
marco para evaluar ,
identificar y
gestionar los riesgos de IA? Entonces aquí es donde
Nist se ha basado este marco que es un marco absolutamente
excelente Y vamos a sumergirnos profundamente
en esto en esta lección. Entonces, antes que nada, vamos
a cubrir quién es, ¿ por qué deberíamos escucharlos? La introducción al
marco y visión general, los componentes y
los beneficios del mismo. Y como dije,
como siempre hago, vamos a hacer un estudio de caso, vamos a tomar
una empresa que está implementando este marco. Y cuáles son los
pasos de alto nivel que tendrían que hacer. Entonces ojalá puedas tomar
esas lecciones e implicarlas dentro de tu propio
entorno también. Entonces, antes que nada, ¿qué es Nist? El Instituto Nacional de
Estándares y Tecnología. Es un sustantivo, agencia reguladora Departamento
de Comercio
de Estados Unidos Su misión es
promover la innovación y la competitividad industrial y las diversas publicaciones. Bien, y si estás
en ciberseguridad T, mejor
que los conozcas para el Nist Cybersecurity
Framework, o el CSF, que básicamente
es como un conjunto de pautas
y El marco fue
creado entre expertos similares de
la industria y del gobierno. Creo que salió hace más de
diez años en 2014. E inicialmente, estaba dirigido a como la
infraestructura crítica, ¿verdad? No obstante, fue un documento tan
excelente, los lineamientos y
todo lo que su uso
se ha extendido más allá de la
infraestructura crítica. Ha sido ampliamente adoptado por empresas aparte de la infraestructura
crítica en Estados Unidos y a nivel mundial. Y prácticamente todos los
sectores están usando esto de una forma u otra si
estás en ciberseguridad Créeme,
has oído hablar de Nist. Y Nist CSF, se ve
así, ¿verdad? Y lo han
actualizado recientemente a, creo que 2.0 Así que
solían tener el tipo de co funciones de alto nivel. Inicialmente solían ser cinco, que es como identificar, proteger, detectar,
responder, recuperar, y ahora han lanzado uno
nuevo que es Govern. Y es extremadamente potente
porque es flexible y se puede adaptar a las necesidades
específicas de
cualquier empresa, ¿verdad? Para que puedas tomar las
mejores prácticas y principios y
utilizarlos para mejorar tu empresa. Podrías estar pensando, ¿por qué te
estoy hablando del
framework de Ciberseguridad Nist? Te estoy mostrando esto? Porque entonces
podrás apreciar el
marco de gestión de riesgos de IA
porque está construido de
manera similar, ¿verdad? Entonces, como mencioné, han lanzado este
framework de
manera completamente gratuita
porque también reconocen la cantidad de riesgos y amenazas que
son posibles con la IA. Por lo que esto dio origen al Nist AI Risk
Management Framework Y al igual que la Ley EUA, no sólo
están
hablando de las cosas negativas Quieren
maximizar la innovación, maximizar los
aspectos positivos de la IA. Le brinda un
enfoque estructurado para identificar, evaluar y mitigar los riesgos que existen con los sistemas de IA. Y con la IA, es tan técnico. Entonces necesitas tener algún
tipo de marco. ¿Qué
aspecto tiene el marco, verdad? Entonces, como dije, es un
conjunto de lineamientos, ¿no? No es una ley, es
completamente opcional. Si lo quieres hacer cumplir, sí. Si no lo quieres hacer cumplir, nadie te puede hacer cumplir. ¿Correcto? Pero antes que nada, más
importante es
el agnóstico tecnológico Está diseñado para ser
aplicable específico independientemente de la
tecnología que esté utilizando. Por lo tanto, se puede aplicar a la IA construida con cualquier tecnología
en la nube prem Por lo que permite que un
framework siga siendo relevante e independiente del proveedor, por lo que no están
orientados a ninguna plataforma en la nube en
particular Entonces es tanto agnóstico de proveedor como
agnóstico de tecnología. Y define lo que
es un sistema de IA confiable. Por lo que te da un criterio
muy claro. ¿Qué es una IA en la que se
puede confiar? Te voy a mostrar cuál es
el criterio. Cosas como equidad,
confiabilidad, transparencia. Y te da
unas pautas claras de que si estás desarrollando un sistema y
si cumples con este criterio, tu IA caerá en
algo llamado confiable. Y se divide en dos partes. Entonces te dan información
fundacional. Estos son los principios básicos
de la IA, la gestión de riesgos. Sabes por qué lo
necesitas, ¿cuáles son
los conceptos fundacionales Y entonces el núcleo es la parte orientada a la
acción. Y vamos a
mostrar lo que eso significa. El núcleo es donde pondrás en los procesos para mitigar, y así es como se ve,
así es como se ve el
núcleo. Como dije, esta es
la acción orientada, es como implementas la
gestión de AI dentro de tu empresa. Por lo que detalla un
funcionamiento clave como establecer una
estructura de gobierno mapeando, midiendo, manejando el riesgo A. Y se puede ver que le
resulta muy familiar al marco de ciberseguridad Entonces, si solo voy
unas diapositivas hacia atrás, este es el Nist IRMF, y este es el marco de
ciberseguridad Entonces ese fue el punto de
mostrarte esto, así es como. Se necesita un enfoque
muy amplio pero
muy detallado sobre cómo implementar como un marco de gestión de riesgos
que le ayudará a identificar y mitigar los riesgos de IA
dentro de su entorno. Entonces hablamos de que Nist te dice cómo es un sistema de IA
confiable Algo que tu
empresa pondrá en marcha, y los clientes pueden confiar en que no va
a quedar comprometida, va a tratar
sus datos de manera justa. Entonces estos son los aspectos de los que hablaron,
válidos y confiables. Entonces no baja
las salidas que se da, esas son como en ellas se
puede confiar Es seguro. No
pone en peligro a la gente. Es seguro, ¿verdad? No va a quedar
comprometida mañana. Resilientes. Es responsable
y transparente. Entonces te dice cómo está
llegando a sus decisiones. Es explicable. Entonces la
documentación está ahí. Protege la privacidad,
y es justo. Por lo que no se precia
a una raza en particular, a una empresa en particular, a un género en particular. Toma en cuenta
todas estas cosas. Y así es como Nist define
el daño que causa el EI. Ese daño puede sucederle
a
personas como personas que reciben el diagnóstico
equivocado, o son atropellados
por un auto auto que conduce. El daño a la reputación de una empresa
puede resultar perjudicado, ¿verdad? Sus operaciones comerciales
pueden verse impactadas. E incluso daño a un ecosistema. Entonces esto es algo que la
gente olvida que ya sabes, incluso el ecosistema
financiero global, tu entorno global. A medida que más y más cosas
se mueven hacia la IA, esas cosas también se
ponen en práctica. Todas estas cosas se tienen en
cuenta. Entonces, ¿cuáles son los beneficios
del marco de
gestión de riesgos de Nist Air En primer lugar, es una
excelente manera de poner en un marco efectivo de
gestión
de riesgos para identificar y
mitigar riesgos Te da confiabilidad. Hablamos de cómo te dice
lo que es un sistema de
IA confiable, ¿verdad? Y va a
hacer que sea más fácil estar en
cumplimiento de las mejores prácticas. Si has implementado NistirMF, vamos a hablar También será más fácil cumplir con la normatividad de la Ley
EUAI, ¿verdad? Y te muestra cómo crear una colaboración adecuada
dentro de tu propia empresa. Todas estas cosas,
cuando se piensa en ello, hace que lo que se
llama la reunión, el cumplimiento de los
demás reglamentos también. Entonces, si lo comparas
con la Ley EUAI, el Nist es completamente
optativo, Fomenta la adopción
voluntaria, mientras que la UE es
más obligatoria. Dice, no, hay que hacerlo. Pero el Nist AI Risk
Management Framework, puede servir de
guía práctica para las empresas sobre cómo implementar los principios y requisitos en la Ley de EUA Especialmente donde no
hay mucho detalle se proporciona, ¿verdad? Cómo implementar un marco
de gestión de riesgos, cómo hacerlo, ¿verdad? Entonces esto es como una visión general
de alto nivel del Marco
de
Gestión de Riesgos de IA Nist Entonces esto es de lo que
hablamos, qué es, cuáles son los componentes clave, fundamental y
el núcleo,
y qué son confiables es la IA Entonces, como ya he dicho antes, en lugar de que yo solo
balbucee y como tratar de
hacerte memorizarlo, echemos un
vistazo a cómo hacer cumplir el primer
marco de gestión de riesgos de IA dentro Gracias y nos
vemos en la siguiente lección.
7. 7 NIST 2: Hola a todos. Bienvenidos,
bienvenidos a esta lección, que es una continuación
de la lección anterior. En esta,
vamos a implementar el Nist AI Risk
Management Framework, y ver cómo se
tomarían los pasos Entonces esto es similar a
lo que hicimos anteriormente, pero a un alto nivel, estos son los pasos
que darías
por ahí entendiendo
el marco, evaluando tu
nivel actual de uso de IA. Y luego implementar
el núcleo
del marco de gestión de riesgos y
asegurarse de tener
una formación y un cambio cultural dentro su empresa a la
hora de aplicarlo Y si
parece un acto muy similar al EA, sí,
eso es correcto. Al igual que los pasos que
hay ahí, verás mucha consistencia
dentro de los pasos porque ahí es donde ocurre la superposición y se vuelve más fácil para
ti hacerlo, ¿verdad? Entonces estos son los
pasos que harías. Tendrías una
iniciativa educativa, ¿verdad? Se aseguraría de
que las personas estén capacitadas sobre el próximo marco de
administración de AIS, los beneficios y
cómo gobernaría, mapearía, mediría y administraría AIS. ¿Puedo
hablar de esto en detalle, pero lo harías a través de
capacitaciones y talleres para que la gente entienda
cómo está sucediendo esto? Antes de hacerlo al respecto, como harías una
valoración, ¿verdad? Oye, ¿cuántos
sistemas de IA tengo? Tendrías que ir a
circular cuestionarios, mirar tus sistemas de IA, hacer como una
consulta de stakeholders, Y tal vez
descubras algunos riesgos en esta etapa inicial. Pero aquí es donde
darías la vuelta. Por lo general, mire la documentación
existente, cree encuestas, cuestionarios, mire sus sistemas de IA solo
para obtener un inventario de posición a partir de hoy con
respecto a su uso de IA Entonces aquí es donde, una vez que tengas ese inventario, aquí es donde empezarías a implementar el núcleo del marco de gestión de riesgos de IA Nist, que es la primera
parte que es gobernar,
gobernar es tu
marco general, ¿verdad Por eso está en
medio del diagrama. Y usted iría por ahí
creando políticas, desarrollando o actualizando políticas relacionadas con la gestión de IA, uso
ético de IA,
gobierno de datos, gestión de riesgos de IA. Y tú alinearías
a tu organización. ¿Qué significa eso? La gobernanza ai no debe ser
una función aislada, ¿verdad? Ai gestión de riesgos,
debe caer dentro de la gestión de
riesgos. Deberías tener un gráfico adecuado. ¿Crearías una rendición de cuentas
adecuada quién es
responsable de tomar decisiones de ir, no ir cuando se
trata de IA? Y tendrías transparencia
en las políticas éticas. ¿Hay que algún
sistema de IA que se cree, tiene que documentar
lo que está haciendo, cómo está llegando a sus decisiones Y nuevamente, las partes interesadas, se
pondrían en contacto con lo legal, se
comunicarían con sus
clientes para
averiguar cómo se está haciendo cumplir la IA. ¿Cuáles son las cosas
que están pasando? Entonces esta sería la primera
parte que es el gobernador. La siguiente parte es el mapeo. En la
parte de mapeo, pasarías por ahí identificando los
riesgos que existen. Entonces tienes el inventario, has creado el framework. Ahora harías una identificación
integral de los riesgos y beneficios potenciales asociados a cada sistema de
IA, ¿verdad? Y esto podría ser como, mejor la IA es vulnerable
a los riesgos de seguridad, lo mejor tiene sesgo, a lo mejor los
datos no se están limpiando. Se pondría en contacto
con las partes interesadas, personal de
TI, los científicos de datos, las partes
externas, ¿verdad? Y entonces
tendrías que considerar el contexto
en el que opero, ¿verdad? Cuál es el
ambiente regulado, cuáles son las dinámicas del mercado, cuáles son los
impactos sociales como dirías. Y ustedes, por supuesto, documentan
todos estos hallazgos. Entonces esta es, dirías, la parte de identificación y ahora harías
la medición. Entonces has identificado los riesgos, ahora
cuantificarías o calificarías esto como
usar algún tipo de análisis de riesgos para averiguar
cuáles son las áreas clave, como cuáles son los
riesgos críticos, ¿cuáles son los riesgos altos Utiliza tus propios sistemas internos de
puntuación de riesgos, ¿verdad? Y también establecerías métricas de
rendimiento para tus sistemas de IA que ¿para qué sirven las
métricas de rendimiento? Exactitud, equidad, transparencia, ¿qué es
inaceptable, qué es aceptable Y pondría en consideración
la implementación continua como monitoreo de sus sistemas de IA y haría
cumplir un ciclo de retroalimentación. Así que crearías
algún tipo de mecanismo para obtener información del proceso de gestión de
riesgos. Este bucle informará, y esto te ayudará a
ajustar tus sistemas de IA. ¿Y si el sistema NAS está funcionando, repente su seguridad baja? O si la resiliencia baja, ¿cómo lo sabrías? ¿Correcto? Harías
monitoreo y estarías recibiendo
comentarios de los usuarios. Esto le permitiría tener
un bucle de retroalimentación constante. Y por último, está
manejando el riesgo de IA. Entonces ahora que has identificado, los
has medido. Aquí es donde surge la
mitigación. Desarrollarías estrategias para mitigar los riesgos identificados. Tal vez podrías volver a entrenar el modelo de
IA para reducir el sesgo, poner más controles de seguridad, poner en supervisión humana A lo mejor la IA está llegando a
una decisión equivocada. Entonces estas son todas las
cosas que harías. Usted, por supuesto, necesitaría
recursos para hacer esto y para asegurarse de que la
mitigación del riesgo está ocurriendo. Se comunicaría sobre este ARS a sus grupos de interés. Si ocurre algún problema, ¿cómo se lo dices a los
clientes, verdad? Y esto se hace a través de
políticas y procedimientos. Y claro, todo
este proceso sería cíclico, Harías
revisiones regulares para asegurarte de que todo se está
haciendo de una manera adecuada. Y claro, por último,
lo mismo con la Ley EAI. Tendrías que hacer un cambio
cultural, ¿verdad? Asegúrate de
tener capacitaciones en el nivel
ejecutivo,
el nivel de gestión medio tanto
para técnicos como para personas seguridad y,
por supuesto , tu liderazgo
necesita estar involucrado Entonces esto es como un curso acelerado hacer cumplir
el marco de gestión de
riesgos de Nist Air Tomemos un ejemplo de
una empresa en lugar de
que yo solo traquetee lo que tienes que hacer.
Tomemos una empresa. Entonces, tal vez tengas una empresa de
tamaño mediano y ellos
se especialicen en soluciones analíticas
impulsadas por IA Y quieren
hacer cumplir, ese es marco de gestión de las
IA porque ven el beneficio del mismo. Quieren asegurarse de que
los riesgos que hay, hacen cumplir, ¿verdad? Por lo que el primer paso sería, por
supuesto, desarrollar talleres y sesiones de capacitación
dirigidas por expertos. Contratarían personas
para hacerlas cumplir. Y esta capacitación repasaría los componentes centrales
que rigen el mapeo, medición, de lo que
hablamos, ¿verdad? Y entonces claro,
harían una evaluación, harían una auditoría de IA. Realizarían una auditoría
de todos los sistemas de IA y usarían cuáles son los propósitos
y los riesgos potenciales. Quizás usarían las herramientas
existentes y obtendrían aportes a través de cuestionarios sobre cómo estos sistemas impactan en
sus operaciones, cuáles son los
riesgos potenciales que existen Y entonces comenzarían a hacer cumplir el núcleo
que ahora gobierna Actualizarían
todas sus políticas. Contratarían
gente. Crearían un marco, ¿verdad? Y establecerían
roles y responsabilidades claros. Mira, la
aprobación de esta persona es necesaria antes de que cualquier nuevo sistema de
IA entre en el bucle. Y ese sistema, esa persona se
aseguraría de que cualquier sistema de IA, cuando entre en producción, esté cumpliendo con el marco de
gestión de riesgos de IA Nist Con tus
políticas internas y listas de verificación. Y el siguiente paso
sería mapear. Entonces, como ya hablamos antes, evaluarían los riesgos
y beneficios del sistema EI. Haz una evaluación de riesgos adecuada, así crearías un
documento de todos los hallazgos. Tendrías una lista
completa de los riesgos que se han
identificado en esta fase. Y luego el siguiente paso,
mediríamos por dónde empiezas a
medirlas, ¿verdad? Tú decidirías las métricas. ¿Cómo decides si un
sistema es confiable, como si fuera seguro? ¿Y cómo vigilarías
este tipo de cosas? Entonces se
establecerían todos esos criterios, el siguiente paso sería gestionar. Ahora tendrías que
mitigar, ¿verdad? ¿Cómo pondrías en los
controles si tienen un sistema de IA que no es
seguro o que no es justo, que no está documentado,
tendrías que poner esos controles
y
revisar y actualizar periódicamente sus estrategias de gestión de
riesgos para asegurarse de que
cumplen con esto Y ya hablamos de esto
antes, una capacitación, formación
continua
porque no
haces entrenamiento una vez y
luego te olvidas de ello. De lo contrario, no
habrá ningún cambio cultural. Entonces todas estas cosas
tendrás que
hacer y ¿cuáles son los beneficios? Mejorarías
tu gestión de riesgos. Aumentarías la
confiabilidad de sus sistemas, aumentarías su Como hablé
antes, Nist, RMF se alinea muy bien con la Ley de IA y tendrías
un uso estratégico adecuado de
los sistemas de IA y tu
empresa básicamente se vuelve más resistente a cualquier riesgo
que pueda estar ahí Entonces es solo beneficio
sobre beneficio, ¿verdad? Entonces de esto es de lo que
hablamos aquí. Un estudio de caso de muestra con los resultados
clave para cada paso, utilízalo como punto de partida. No estoy diciendo que esto sea,
ya
entiendes todo sobre el framework
NistirMF Tengo otros cursos que
profundizan en el marco. Recuerden lo que dije antes
que esto complementa la orientación
de más alto nivel de la EAI puede utilizar ambos No es una
Ley EA es obligatoria. Nist, IRMF es más opcional, pero es más minucioso
y más detallado Úsalo, coloca la Ley EA
en la parte superior y usa el Nist FMI para crear ese
marco que necesitas Espero que esto te haya sido
muy útil. Ahora cubrimos otro
marco y otro estándar en
la siguiente lección. Gracias, te veré ahí.
8. 8 ISO 1: Hola, hola a todos.
Bienvenido a esta nueva lección, que ahora trata sobre
un nuevo estándar, que es ISO 42 double 01, que es un sistema de
gestión de IA. A estas alturas ya hemos cubierto algunos
marcos y regulaciones. Deberías estar haciéndote una idea de cómo funcionan estos y cuáles son las cosas clave
que están cubriendo. Ahora estamos cubriendo una muy, muy importante que
ha salido recientemente, que es SO 42 doble 01. Si alguna vez has trabajado en
ciberseguridad o calidad, estarías familiarizado
con la norma ISO justo antes de ISO 27 doble 01, ISO 9,001 Vamos a cubrir
cómo usar el estándar, entendiendo qué es un sistema de gestión de
IA, y vamos a
hacer un estudio de caso para implementarlo, Entonces, antes que nada, demos un paso atrás
antes de saltar a esto, ¿Qué es un
sistema de gestión, verdad? El
sistema de gestión, por lo que estos están diseñados para ayudar a
las empresas a mejorar su desempeño especificando una serie de
procesos y prácticas estructuradas. Por lo tanto, tienen sistemas de gestión de
estructuras de alto nivel, y esta es una estructura común de
alto nivel que es como
estandarizada a través los estándares ISO.
¿Y por qué es así? Porque asegura consistencia
y compatibilidad. Entonces se vuelve más fácil
si estás certificado a 9,001 Obtener la certificación
2701 será más fácil, Debido a que
se están siguiendo las mismas cláusulas, en la misma estructura
se está siguiendo. Para que puedas crear múltiples sistemas
de gestión. Uno es un sistema de
gestión de calidad, otro es un sistema de gestión
de seguridad de la información. Y ahora tienes un sistema de
gestión de IA, ¿verdad? Y cada uno de estos sistemas de
gestión, son como dominios
específicos, como ahí se menciona. Entonces tienes 2701 por seguridad. Tienes uno de privacidad. Ahora tienes uno de IA. Tienes uno de
continuidad de negocio. Y esto permite a
las empresas abordar aspectos
específicos de
sus áreas, ¿verdad? No desea obtener un sistema de gestión que cubra todo lo que
desea enfocarse, privacidad o seguridad, o IA,
y sistemas de gestión. Tienen lo que pasa con la mejora
continua. Enfatizan un proceso
repetible de mejora
continua el cual se capta en algo
llamado el plan, do, check, act.
Vamos a cubrir eso. Y este enfoque básicamente anima a las empresas
a
evaluar y mejorar continuamente sus prácticas para lograr mejores
resultados a lo largo del tiempo. Es un enfoque basado en el riesgo. Estos estándares, adoptan un enfoque
de gestión basado en el riesgo, requiriendo que las empresas identifiquen, evalúen y administren los riesgos que son específicos
de su dominio. Es un riesgo basado, no
solo implementas todo, lo
implementas todo
basado en el riesgo. Y por último importante, la
certificación por parte de organizaciones de terceros que
una vez que han desarrollado e implementado un sistema de gestión, pueden optar por
obtener la certificación un estándar de sistema de gestión por terceros independientes. Por lo general, implica una auditoría
externa para verificar que el sistema de la compañía
en realidad está cumpliendo
con esta norma Y esto realmente ayuda a impulsar el
perfil y la credibilidad de la compañía. Si estás en seguridad
obteniendo ISO 2701, si estás en continuidad del
negocio, creo que es 2201,
podría estar equivocado ahí Pero si estás en calidad 9,001 y ahora tenemos un estándar de IA, por eso
se
ha vuelto tan importante, verdad? Y se ha
convertido en una gran noticia. Entonces estos son los beneficios
de los estándares de gestión. Como dije, son reconocidos internacionalmente y
en todo el mundo. Todo el mundo sabe lo que es
la ISO 2701, los clientes, confían en las normas
ISO para su aseguramiento
y confianza, ¿verdad Si vas a una cocina y
en la parte superior de la cocina, dice con certificación ISO 9,001 Entonces, ya sabes que la cocina está siguiendo un estándar de calidad. De igual manera con la
empresa con el 27 doble 01 certificado, y junto con todos los beneficios y los procesos madurados, las empresas también pueden utilizarlos
como ventaja competitiva ¿Verdad? Pueden
decirle con orgullo al cliente, mira, estoy certificado a ISO
dos dobles 01, ¿verdad? Que es como el estándar para 27 dobles 01 que es el
estándar de seguridad. Por lo que realmente te ayuda a
destacar dentro del mercado. Y ahora estamos llegando
al SO 42 doble 01. Esto se conoce como
un sistema de gestión de IA, algo relativamente nuevo. Es un nuevo marco que
está diseñado para abordar el rápido desarrollo
y adopción de la IA en diversas
industrias, ¿verdad? Y define un sistema de
gestión de IA. ¿Qué es eso? Es como un marco integral diseñado para
proporcionar políticas, metas y procedimientos para el
desarrollo responsable de la IA. Todo de lo que estuvimos
hablando antes con
él y con la
norma de la UE, ¿verdad? Y ayudan a poner
como un estándar ético para que puedas crear sistemas de IA confiables
y éticos. Y la mejor parte es porque proporciona como un enfoque
estructurado para las empresas pongan en estos procesos como la
ética de confianza, la gestión de riesgos. Por lo que en realidad se alinea
con la Ley EAI y las demás normas ISO también porque está siguiendo lo
mismo, Seguridad Hablamos antes de
transparencia, hablamos de sesgo, cómo asegurar estos sistemas de IA. Todas estas cosas aquí encapsuladas a un nivel
muy alto. Y en realidad es un si
estás cumpliendo
con la Ley EA, también
puedes poner en el sistema de
gestión de IA para asegurarte se están siguiendo
todos estos procesos y para la gestión de riesgos
puedes usar nist Y vamos
a hablar de cómo todos estos diferentes estándares
pueden unirse. Entonces así es como se ve.
Puedes ir al sitio web, hacer una vista previa gratuita de cómo
se ve solo para tener una mejor idea de lo que un sistema de gestión de IA es
un sistema de gestión de IA y cómo se
verá, ¿verdad? Entonces esta es la estructura de alto
nivel. Es muy similar a ISO 27 D01. Por lo que tiene
cláusulas de alto nivel y anexión, que tiene un listado
de los controles pertenecientes a las políticas de IA, ciclo de vida del sistema de
IA, análisis de
impacto, gestión de
datos Tienen múltiples cláusulas. En cláusulas de alto nivel, tienen cosas sobre el
contexto de la organización, como cómo está funcionando la
organización, planeación de
liderazgo,
apoyo, todas estas cosas, justo a un alto nivel. Y luego se baja al
antar donde entra en detalles sobre los controles
que van a estar ahí. Como liderazgo,
tendrás que decidir, bien, ¿qué tengo que
implementar, verdad? ¿Cuál es el alcance del sistema de gestión de
IA? Y si decido seguir adelante con ello,
¿cuáles son los controles? Voy a necesitar poner, es
un estándar muy maduro, tiene toda la potencia
de ISO detrás de él. Y por eso
es un gran problema porque ahora las empresas que están
desarrollando estos sistemas de IA, podrán obtener certificación con un estándar muy
maduro y de hecho
promocionarse como certificadas cuando se
trata de IA. Entonces ahora lo que vamos a hacer es que
hemos cubierto esto en
el alto nivel y hemos hablado sobre
los beneficios y qué
es el estándar SO 42 Zubondival, cuál
es Por qué no echamos un
vistazo al estudio de caso y vemos si una empresa
querría implementarlo. ¿Cuáles son los pasos
que tendrán que hacer y cómo lo harían
para implementarlo? Te veré en la siguiente
lección. Muchas gracias.
9. 9 ISO 2: Hola a todos. Bienvenida.
Bienvenido a esta lección, que es una continuación
de una lección anterior sobre la norma ISO 4201 Ahora, vamos
a tomar una compañía, una compañía ficticia, y ver
cómo se implementa Una cosa muy importante, a
partir del 2 de febrero de
2024, esta norma
acaba de salir recientemente. Las empresas aún no han sido certificadas para auditar
contra la norma. Pero eso es sólo una cosa menor porque es como
que van a obtener la certificación y debes
saber cuál es el proceso. Cualquiera que sea el estándar que elijas. Cuando se trata de ISO, sigue el plan,
hacer, verificar, actuar. Esto es lo que recomiendan. ¿Qué es? Se trata de un método de gestión de cuatro
pasos utilizado para la mejora continua de procesos y productos. Y cuando se trata de
las normas ISO, lo
llamo el Ciclo PDCS Te da un marco
sistemático para implementar y mantener estos sistemas de gestión como 90012701 y ahora
el AISMS Y es integral
asegurarse de que la compañía
siga mejorando continuamente. No solo son auditados y se olvidan de ello, ¿verdad Entonces el primer paso es el plan. Donde las empresas, empiezan a
identificar lo que
quieren hacer y los procesos
que necesito entregar. Cómo es el alcance
evaluarse a sí mismos para
averiguar dónde están las brechas. El segundo paso es donde empiezan a implementar
los procesos del plan. Ejecutas las cosas y
actúas según lo que ellos decidieran. El tercer paso es
verificar dónde empiezan a monitorear y medir
los rendimientos y las políticas y todo, derecho a asegurarse de que
las cosas funcionan
correctamente o no. El último paso es un que es
donde a partir del análisis, siguen mejorando
la mejora continua del sistema para mejorar los
procesos y todo, para asegurarse de cómo sucede esto. Entonces así es como funciona el PDC E. No es complicado, es
muy sencillo. Entonces tomemos una empresa
y veamos cómo la
implementarían , ¿de acuerdo? Entonces esto es de lo que la
compañía de la que estábamos hablando, innovaciones de
tecnología verde. Ahora Green Tech es como una empresa de tecnología de
tamaño mediano y se
están enfocando en soluciones impulsadas por
IA para el mercado de
energía sostenible. Energía verde, energía
sustentable, que es una
industria muy caliente en estos momentos. Y se han embarcado
en un viaje para implementar la norma ISO 4201 ¿Por qué? Porque realmente
quieren demostrar que se toman en serio las
obligaciones de IA IA responsable AI. Y realmente quieren estar a la vanguardia de esta industria. Y se dan cuenta de que obtener la certificación ISO con Willie les ayuda a obtener
esa ventaja competitiva Realmente demuestra a sus
clientes que
saben lo importante que es
la IA responsable tener un sistema de
gestión de IA maduro. Y cuidaban
como grados de energía inteligente, recursos
renovables, consumo de
energía, ¿verdad? Entonces, ¿cómo lo harían? Bueno, antes que nada,
cuando se trata de iniciativas de IA como ¿cuál es la necesidad de
implementar este estándar? Tenían
preocupaciones éticas, ¿verdad? ¿No sabían que están cumpliendo con todas sus
responsabilidades éticas o no? ¿Los sistemas de IA, cuando están tomando
sus decisiones, lo
están haciendo de manera adecuada? ¿Los datos se están
recopilando correctamente? Y la otra cosa es que
estoy cambiando tan rápido, quieren tener ahí algún tipo
de marco maduro,
un sistema de gestión que les diga y
quieren asegurarse que se integre con sus sistemas de
gestión
ya establecidos como 27019001 Aquí es donde empieza el
fondo. El primero arriba, ¿vamos a
planear por supuesto dónde están estableciendo
el sistema de gestión de AA? Lo más importante en
primer lugar, es un alcance. No es necesario implementar un estándar de gestión
en toda la empresa. Se puede elegir un sistema,
se puede elegir una unidad de negocio, un área en particular, un departamento
en particular amplio. Y por lo general eso es lo que
recomendó que empieces poco a poco. Y cada año lo haces crecer
cada vez más. Bien. Y así fue
lo que primero hicieron. Decidieron el alcance, luego el equipo de
liderazgo de Green Tech, desarrollaron una
adecuada política de IE que se alineó con
sus estándares. Y siguieron las cláusulas que estaban ahí en
la norma ISO. Establecieron un contexto en el que opera la IE, como,
¿qué estamos haciendo? ¿Cuáles son los
factores externos
e internos que nos están impactando Y realizaron
talleres y encuestas para entender como cuáles son
las expectativas de los empleados,
clientes, socios
con respecto a ellos, ¿verdad? Entonces crearon
todo un ecosistema para I. El siguiente paso fue hacer, donde
hicieron algo llamado una evaluación de
impacto y riesgo. Las evaluaciones de impacto son como
una gran cosa en el AIMS, que es evaluar cómo los sistemas de
IA afectan a
las personas individualmente, ya sean grupos o
la sociedad en su conjunto. Asegurarse de estar
pensando en la seguridad y la transparencia y poniendo
esos controles en su lugar. Estás haciendo esa evaluación de
impacto y la evaluación de riesgos para asegurarte de que
eres consciente de cuáles son
los riesgos dentro de
tus sistemas de IA. Entonces con base en eso,
decidirán qué controles
tomar del Anexo A, el anexo de la norma. Tendrá una lista
de controles, ¿verdad? Aquí es donde te enfocarás, como tal vez ellos no saben
sobre la administración de datos. ¿Nuestros datos están siendo recopilados manera
abierta, responsable
y transparente? ¿Los datos de entrenamiento se preparan adecuadamente? ¿Se realiza la
preparación? No lo sabemos, ¿verdad? Entonces
aquí es donde van a querer enfocarse porque ahí
es donde está el impacto. Ahí es donde está el riesgo.
Después se les acabarán los programas de capacitación porque el
sistema de gestión de IA es un sistema. No es una solución, no
es un producto. Tendrías que
crear una cultura para educar a los empleados sobre las prácticas
adecuadas de la IE
y la importancia de consideraciones éticas
similares
en los sistemas de IA, ¿verdad? El siguiente paso es la verificación, que es la evaluación del desempeño. Entonces ahora van a implementar
herramientas y procedimientos para asegurarse de que
este
sistema de gestión de IA esté siendo monitoreado. Y como cómo está impactando, ¿
está funcionando o no? Si los sistemas de IA están
siendo impactados o no. No solo monitoreando,
van a hacer auditorías. También, han establecido un cronograma para las auditorías internas. Los equipos internos
van a verificar si el sistema
de gestión de IA cumple con
el estándar o no para asegurarse de que están obteniendo
como si realmente estuvieran cumpliendo con el estándar y que estén
siguiendo sus procesos. El último es Ley, que es la mejora
continua. Crean mecanismos de retroalimentación. Van a realizar encuestas, van a extender
cuestionarios a los clientes,
a los usuarios, para averiguar si las aplicaciones funcionan como
se esperaba Si el
sistema de gestión AA es eficiente o no. Con base en esta lista de acciones
correctivas y retroalimentación correctiva, van a
seguir refinando los datos, tomando
este desempeño, y van a seguir
mejorando año tras año. Lo más importante es que si
quieren ser auditados, tendrían que elegir como un organismo de certificación adecuado Piense en cosas como número de experiencia, número de auditorías. Y esto va a ser difícil en estos
momentos con 42 dobles 01 porque está
muy recién publicado. Pero se puede mirar a un organismo de
certificación que tiene una sólida trayectoria
con 27 dobles 019001 Entonces se puede hacer algo llamado una pre evaluación,
Que hacen los auditores. Pueden usarlo para
hacer una auditoría rápida decirle
si está cumpliendo con los
requisitos o no. Puedes usar esto como
una forma de afinar tus procesos y entender lo que verá el auditor. Entonces por supuesto, haces
una preparación de auditoría, asegúrate de que todas las brechas
estén identificadas y arregladas. Usted hace su certificación
y recuerda que la certificación tiene que ser mantenida y
mejorada con el tiempo. Esto no se parece en nada a
lo que se llama, no
es ciencia cohete. Es un proceso muy claro
y definido. ¿Cuáles son los resultados de esto? Por supuesto, como ¿cuál es
el resultado de esto? Obtendrás más confianza,
más credibilidad. Porque has alcanzado
este importante hito
de obtener la certificación
242, el doble uno. Obtendrás una mejor
gestión de riesgos porque ahora
tienes un sistema de
gestión adecuado, un sistema gestión
en el que gestión de
riesgos y todo
está arraigado en él Y claro, tu proceso ha mejorado y tienes un marco
adecuado, ¿verdad? Un adecuado
sistema de manejo maduro en su lugar. Ahora, cuando exploran
nuevas oportunidades de IA, tienen esa
confianza, ¿verdad? Saben que contamos con
un marco de gobierno adecuado que nos va a decir si el sistema AS es inseguro o el sistema AS no
está cumpliendo con los requisitos Entonces eso fue de la ISO. Ahora vamos a saltar a
un estándar más técnico, que es el framework de IA de
Google Google. Y los veré en la
siguiente lección, todos. Gracias.
10. 10 Google SAIF 1: Hola a todos. Bienvenida.
Bienvenido a esta lección, que trata sobre el marco de
Google SAA IF Ahora bien, este es un
framework de Google y este es un framework muy
singular en comparación con los otros
que discutimos antes. ¿Por qué? Porque está
muy centrado en la seguridad. No lo hacen los otros de
los que hablamos, se enfocan más en el
riesgo y más en gobernanza y más en los sistemas
de gestión, ¿verdad? Pero este, el
Google SAI Framework, está muy alineado con las dimensiones de
seguridad de la IA. Cuando se habla de
construir sistemas de IA, se centra más en la IA.
Y eso es una gran cosa. Por eso lo he incluido
en este curso. ¿Por qué? Porque siento que
a veces los marcos de IA, son un poco de
nivel demasiado alto y no
bajan profundamente en la seguridad de la IA. Y aquí es donde puede entrar el Google
SAI Framework. Y este es absolutamente
un marco increíble. Deberías estudiarlo,
sobre todo si quieres
usarlo para complementar cosas como el Nist AI Risk Management
Framework del que hablamos, o la ISO 4201, Toda la IA de Google, realmente puede complementar la
manera más excelente porque es más como a nivel
del suelo a la
hora de asegurar la IA. Y de eso es de lo que
vamos a hablar aquí. En esta lección,
vamos a hablar sobre el framework, los conceptos clave, y por supuesto, siempre cómo
implementarlo usando un estudio de caso sin
demorarlo Hablemos primero del
marco. Entonces, ¿qué es Google
un marco de inteligencia artificial seguro? Eso es lo que transfiero, el marco de IA seguro. Por lo tanto, es un
marco conceptual para asegurar los sistemas de
IA que se basa las
mejores prácticas de seguridad de Google. Está inspirado en
las mejores prácticas de seguridad que han aplicado a cosas como
el desarrollo de software y se
centran más en la IA. ¿Por qué? Porque es
bastante importante. Justo a lo largo de los años en Google, han visto los tipos de
ataques que pueden ocurrir, y han diseñado este
marco específicamente para mitigar los riesgos
relacionados con los sistemas de IA, como robo del
modelo, envenenamiento de datos, inyecciones
rápidas, ya sabes, inyecciones de
datos, envenenamiento de datos, todo este tipo de cosas. A medida que las capacidades de IA se están
integrando cada vez más en
sistemas similares en todo el mundo, se vuelve mucho
más importante la seguridad de
estos sistemas si me has estado siguiendo
en cualquier plataforma. Sabes, hablo
mucho de seguridad de IA porque siento que esta
es un área que está muy subrepresentada
y no mucha gente tiene esa
experiencia en ella Por lo que el SIF, se basa en
las mejores prácticas de seguridad de
Google y aborda preocupaciones de seguridad específicas de
IA centrándose en la gestión de
acceso a la red y endpoints, la seguridad de las
aplicaciones Entonces de esto es de lo que
vamos a hablar aquí y ¿cómo se
ve a un nivel alto? Entonces estos son los seis elementos
centrales de Google, el marco de IA seguro. Vamos a verlo uno por uno. El primero es expandir sólidas bases de seguridad
al ecosistema de IA.
¿Qué significa eso? Significa aprovechar
su infraestructura
y protecciones seguras por defecto para proteger los sistemas de IA Ya sabes, toda esa ciberseguridad que se ha vuelto tan madura, necesitas asegurarte de que también
están cubriendo los
sistemas de IA, ¿verdad Entonces tomemos un ejemplo. Sabemos de las inyecciones SQL, justo, donde hay que
desinfectar la entrada Ahora necesitas aplicar esa misma sanitización de entrada para protegerte contra técnicas
como las inyecciones rápidas, ¿verdad El otro es extender la
detección y respuesta para
llevar la IA al universo de
amenazas de una organización. Ya sabes lo fundamental que
es la puntualidad a la hora detectar y responder
a incidentes cibernéticos relacionados con la IA Entonces quieres extender
tu inteligencia de amenazas,
cierto, como una empresa, esto puede incluir el
monitoreo de entradas y salidas de
IA generativa similar para detectar anomalías Como si fuera alguien tratando de
meterse con el sistema NII. Y usar inteligencia de amenazas
para anticiparse a tales ataques. Para que puedas colaborar con tu equipo
Soc y todo, ¿verdad? El siguiente son las defensas
automatizadas para
seguir el ritmo de las amenazas existentes
y nuevas Como innovaciones de IA, pueden mejorar la escala y la velocidad de su
respuesta ante incidentes, ¿verdad? Y los ciberdelincuentes
también lo saben, por
eso
van a utilizar la IA para escalar el impacto de
sus ciberamenazas Por eso es tan importante
usar la IA
como defensa , ya que usarás IA para combatir amenazas específicas de
IA. Bien, no pienses sólo IA como algo que
puede ser atacado. Piense en algo que también puede proteger
sus sistemas. Bien. El siguiente son los controles
armonizados a nivel de plataforma para garantizar una seguridad
consistente en toda la organización Por lo tanto, la consistencia en
sus marcos, puede admitir la mitigación de IA. También mitigación de AIS. Entonces quieres asegurarte de que como cualquier protección que ya
tengas, hayas extendido a tus plataformas
subyacentes. Como por ejemplo, si
tienes usando AWS Sage maker, tiene
que ser endurecido acuerdo a las mejores
prácticas, ¿verdad? Y asegurándose de que
todas sus, endureciendo, todas sus configuraciones,
sea consistente en toda
la organización. Bien, el número cinco es
adaptar los controles para ajustar medicamentos y crear bucles de retroalimentación
más rápidos
para la implementación de IA. Pruebas constantes de implementaciones a través del aprendizaje
continuo. Se puede asegurar que las capacidades de detección
y protección, son como abordar los nuevos tipos de Its
que están saliendo. Para que puedas usar cosas como aprendizaje
automático basado en
incidentes y comentarios de los usuarios. Para que puedas actualizar tu
entrenamiento, actualizar tu IA y afinar los
modelos para responder
estratégicamente a los nuevos tipos de
ataques que están ocurriendo ¿Verdad? Ai puede detectar comportamientos
anómalos y puede ajustar los controles en
tiempo real para asegurarse Y eso es algo
que es bastante nuevo. Anteriormente teníamos que cambiar
manualmente los controles, subir o bajar nuestros controles
de seguridad. Con la IA, puedes automatizarlo
completamente. Y el número seis son los riesgos
contextualizados del sistema de IA
en los procesos de
negocio circundantes. Realizar
evaluaciones de riesgo de extremo a extremo relacionadas con la forma que
las empresas van a implementar IA te ayudará a informar
tus decisiones, ¿verdad? Es necesario hacer una evaluación a
una evaluación de como
el riesgo del negocio, como la validación de datos, ¿qué
tipo de cosas están sucediendo? Y básicamente
hablamos de riesgo aquí, como lo mismo de lo que
hablamos dentro
del marco de
gestión de riesgos de IA, asegurándonos de que todo esté impulsado a través de un proceso basado en
riesgos. Entonces eso es a un alto nivel, qué se trata el
marco de IA segura. Como puedes ver, es más técnico y baja
al nivel de plataforma. Se reduce a qué ataques
hay y cómo lo haríamos
implementarlo. Es bastante sencillo. Entienderías el uso, es muy similar a las cosas que ya
hemos
hablado antes. El primer paso uno sería
entender el uso. Comprender el uso
específico del negocio para el
que estás usando la IA. Qué datos se están utilizando, qué protocolos se
van a utilizar. El siguiente sería
armar al equipo. Al igual que los sistemas
de los que hablamos, son bastante complejos
y tienen una gran cantidad de partes
móviles, ¿verdad? Quieres asegurarte de
que sea lo que tengas, sea cual sea el equipo que estés
usando privacidad, TI todos ellos son conscientes
de esto y formas parte de un equipo multidisciplinario que puede ayudar a
mitigar estos riesgos de IA. Y luego el paso tres,
según Google, es hacer un framer de IA, que es que los
equipos necesitan estar como,
adecuadamente capacitados y
formados para estar adecuadamente capacitados y
formados al tanto de los nuevos tipos de metodologías,
nuevos
tipos de ataques
que están sucediendo a lo
largo de un ciclo de vida de
desarrollo de modelos Y el último es aplicar los seis elementos centrales
del SCIF, del
que hablamos Y recuerda los seis pasos. No se pretende que
sean cronológicos, ¿de acuerdo? Puedes aplicarlos en cualquier, como cualquier pedido que quieras siempre y cuando apliques
este 61 del que hablamos. Entonces no es como si
tuvieras que empezar por la izquierda y bajar uno por uno. No, puedes aplicarlos todos juntos paso a paso
o secuencialmente, pero lo que sea que sientas es más adecuado para tu organización
en particular. Eso fue desde el Google SAI Framework, High Level Overview. Ahora podemos
hablar de implementar esto como siempre lo hago con un estudio de caso y ver cómo iría
una empresa sobre la
implementación de este marco. Y te veré en la
siguiente lección. Gracias.
11. 11 Google SAIF 2: Bien a todos. Hola,
bienvenidos a esta lección. Y ahora vamos
a estar implementando el Google SAI Framework dentro de una empresa
como siempre lo hago. Entonces echemos un vistazo a
lo que estamos hablando. Entonces aquí tenemos un policía bancario
global, que es un banco líder a
nivel internacional. Y van a implementar
algunas
ollas de chat impulsadas por IA para tu servicio personalizado
al cliente. Van a utilizar el
procesamiento del lenguaje
natural y el aprendizaje automático, algo así como un chat tipo
GPT de chat pot para manejar las diversas consultas de los
clientes desde la administración de cuentas Y puedes imaginar
cuánto, como peligroso
podría ser si alguien
lograra hackearlo o
eludir los controles de seguridad. Entonces, dada la
naturaleza sensible de los datos involucrados, el banco va
a decidir adoptar el marco SEI de Google para salvaguardar un despliegue
y vals en producción. Entonces vamos a usar los mismos pasos de los que
hablamos antes. Y vamos a
comenzar con el paso uno, que es entender el uso. Entonces, ¿qué va a hacer el banco? Van a definir
los objetivos específicos y alcances de esta iniciativa,
como el tablero de chat. Entonces, ¿cuál es el objetivo?
Quieren brindar 2047
atención al cliente personalizada, pero quieren mantener el más alto nivel de
seguridad y privacidad Los requisitos de datos
serán interacción con el cliente, datos, detalles de cuenta, historial de
transacciones,
todo este tipo de datos muy sensibles, ¿verdad? Y los resultados esperados
serán la reducción de los tiempos de respuesta, satisfacción
del cliente
y la seguridad de los datos. Usando toda esta información, el banco va a hacer una evaluación de riesgos
adecuada, ¿verdad? Para identificar amenazas potenciales, como lo que va
a pasar antes que pasen al
siguiente paso, ¿verdad? Por lo que van a hacer una evaluación de riesgos
adecuada y asegurarse de que
entienden cuál es el riesgo. El segundo paso es armar el equipo del que
hablaste antes, así que van a armar un equipo funcional cruzado adecuado. Podrías tener especialistas en IA
y ML, expertos en seguridad
informática para
asegurarte de que todo
sea como seguro, el bot de chat no va
a quedar comprometido. Oficiales de
cumplimiento de la pronta inyección. Se quiere asegurarse de que tal vez se tenga
que cumplir con la normativa
de la UE o del Nist. Los ISO, lo
están siguiendo. Gerentes de atención al cliente
porque son las personas que más van a estar interactuando con esto. Y aboga por la privacidad para
asegurarse de que los datos se recopilen
correctamente. Así que tenemos un equipo diverso que se asegura de que el bote de chat
cuando se está desplegando. Todos estos múltiples grupos de interés, se están
involucrando con ello. El tercer paso es el nivel establecido con la prima de IA de la
que hablamos. Un programa adecuado de capacitación en IA. Fundamentos de la máquina de IA, lista de
seguridad de técnicas de lenguaje
natural específica para IA y uso ético de IA Esto asegurará
que el equipo tenga una comprensión adecuada de los aspectos
técnicos y éticos del proyecto. Esto es lo que recomienda el Google
SAI Framework. paso cuatro es ahora que tenemos abajo a los seis elementos centrales
que están ahí. El primero fue ampliar
los sólidos cimientos de seguridad. Van a evaluar su
infraestructura de seguridad existente en la que se
alojará la plataforma de IA. Cifrado que asegura las API, autenticación
adecuada está ahí donde
pueden extender su
detección y respuesta. Entonces van a tener que desarrollar un modelo de
detección de amenazas específico de IA para asegurarse de que lo que
sea, lo que sea que vaya
y venga del bote de chat, si se muestra alguna
actividad maliciosa, puedan inmediatamente alertar a la leche
holina El número tres es
automatizar las defensas. Van a
aprovechar el
aprendizaje automático para mejorar los mecanismos de
defensa. Por lo que van a
automatizar la detección y respuesta a las amenazas de
seguridad dentro conversaciones del tablero de
chat para
asegurarse de que ocurra cualquier ataque. Tienen lista la
respuesta automatizada y
pueden tener supervisión humana
para casos más complejos. El número cuatro estaría armonizando los controles a nivel de plataforma Van a estandarizar, hablamos de esto antes, controles de seguridad
en todas las plataformas que están involucradas con
ese ciclo de vida del tablero de chat, ya sea desarrollo
o implementación Allí puedes tener controles. El número cinco estaría
adaptando controles. A medida que el sistema de chat board se
integra cada vez más, el banco utilizará el
aprendizaje automático para seguir adaptando
sus controles de seguridad a medida surjan
más y más amenazas porque
el entorno de amenazas a la seguridad es muy dinámico,
especialmente en IA. Y por último, se contextualiza
como riesgo del sistema de IA. Para que puedan incorporar la gestión de EI, St en su marco de riesgo
más amplio. Todos los aprendizajes que se obtienen
de esta parte me
platican, van a ser
considerados en torno otros riesgos operativos
y toma de decisiones ¿Y cuáles son los
beneficios de esto? Por supuesto, puedes ver
que probablemente lograrán desafiar con éxito los botes de chat impulsados por
IA Van a mejorar su marco de
respuesta al cliente y sin comprometer
la seguridad o el cumplimiento. Entonces esto es solo para
mostrarte una forma práctica
de cómo llevarías a cabo la implementación del
Google SAI Framework. Es un marco muy
excelente, sobre todo cuando se puede
utilizar en complemento con otros marcos como el reglamento
EAI o ISO Nist, porque es más
técnico y
baja al nivel profundo
sobre cómo sucede ese impuesto Esto es de lo que
hablamos aquí, como ¿qué es Google SF? ¿Cuáles son los componentes clave y cómo hacerlo
implementarlo? Espero que tengas una
buena idea de Google. Yo recomendaría
es completamente gratis. Ve y compruébalo. Léelo y hazte una buena idea de cómo
Google ha recomendado. que entender a Google como si hubiera una razón por la
que son grandes tecnologías, una de las
empresas más grandes del mundo. Por lo que tienen una gran cantidad
de información que se ponen libremente
en este marco. Así que no dejes que esta
información vaya al poniente. No lo atraviese y entienda completamente
el marco. Gracias a todos y ya lo
veré en la siguiente lección.
12. 12 Cómo usar: Hola a todos. Bienvenidos,
bienvenidos a esta lección, que trata sobre cómo
usar este conocimiento. Y esto es casi
al final del curso. Ahora bien, una cosa que he encontrado que la gente se confunde
acerca de estos marcos, hay tantos
de ellos, ¿verdad? Hablamos de Nest, Google, ISO, EU, todo este
tipo de regulaciones. Entonces se convierte en una especie de trato, oye, cómo utilizo esta
información, bien, si solo quiero mitigar
los riesgos que hay. Entonces hay muchas, muchas
formas de hacerlo. Y eso es como el punto de hacer bien este curso. Hay que entender como
cada uno de estos marcos, encajan de una manera
particular, ¿verdad? La regulación de la IA de la UE es como una
ley, así que eso es obligatorio. Realmente no tienes opción. Iso 4201 se puede considerar como un complemento
al marco de Nist AI De igual manera, al igual que el, Google puede considerarse más
de un nivel inferior, donde se piensa en la
seguridad de estos sistemas. Así que recuerda, piensa las áreas comunes que
es
la confiabilidad, evaluaciones de
riesgos, la
gobernanza que son comunes sin
importar en qué
marco hablaste Y ver cuáles
son las fortalezas chi cada framework. Por lo tanto, puede implementar
todos estos como o tomar algunos de estos
que le sean aplicables, o puede crear
su propio marco que cumpla
con todos ellos. Entonces, incluso si implementa
su propio marco, automáticamente
cumplirá con todos ellos. Y si quieres mirar, así es como lo visualizaría yo. Entonces, o bien la regulación de IA de la UE
estaría en la cima, porque esta es una ley, ¿verdad?
Hay que hacerlo. Entonces puedes poner en un sistema de gestión de
IA para tener como un paraguas adecuado bajo el cual opera todo. Y puedes hacerlo en paralelo a un sistema de
gestión de seguridad de la información como el 2701 Y créeme, mucha gente ha dicho
que la Ley EO, AI, van a decir que cuando se piensa en sistemas de
alto riesgo, querrían tener
algo como el SO 4201 mencionado ahí ¿Bien? Y luego
cuando bajes por todos estos marcos para
hablar
de riesgo, ¿verdad? Queremos tener un marco de
gestión de riesgos. No hay un
marco de gestión de riesgos
mejor que la niebla
porque baja en un nivel de detalle
tan alto sobre cómo dar la vuelta
implementándolo para que
puedan complementarse entre
sí y se pueda implementar un marco de
gestión de riesgos adecuado
basado en St. Y último por supuesto es más hacia la seguridad de estas plataformas subyacentes I, donde se puede implementar
el marco SIF de Google Entonces esto es sólo para
darte una idea. No estoy diciendo que esto es
lo que tienes que implementar, esto es lo que
recomendaría si quieres tomar las mejores partes de todos
estos frameworks, ¿verdad? Y no
son solo estos frameworks, tienes nuevos que salen a la luz. Hay un estándar ISO
en desarrollo que está orientado a la orientación de seguridad de
IA, a abordar las amenazas
y fallas de seguridad en los sistemas de IA. Así que eso es bastante genial.
Tengo muchas ganas de que llegue este
cuando salga, ¿verdad? Y yo recomendaría sin importar en
qué país se encuentre, tendrá una
estrategia nacional para la IA. Estoy radicado en Londres, en Reino Unido. Entonces estoy viendo la estrategia nacional de
IA que tienen un plan de diez años para
hacer de Gran Bretaña una superpotencia global de
IA dentro de Estados Unidos, tienen una
orden ejecutiva para el
desarrollo y uso
seguro, y confiable de la IA Yo recomendaría
pasar por eso. Esto no es una ley, pero todas las leyes
probablemente se derivarán de esto. Si estás en la
UA, el Medio Oriente donde solía trabajar antes, tienes una
estrategia nacional de IA al 2031, ¿verdad Todas estas cosas solo las leen para obtener
una mejor comprensión. Y verás
muchas cosas en común, como patrones comunes
dentro de todos ellos solo y te dará una muy buena idea de
cómo están funcionando Bien. Entonces espero que te haya
sido como útil. Ahora lo que vas a hacer, vamos a
concluir este curso. Espero que te haya sido muy útil
y conseguiste algunos
conocimientos tangibles de esto. Te veré en la próxima
conclusión de este curso.
13. 13 Conclusión: Hola a todos. Bienvenidos
a este curso y bienvenidos a la conclusión de este curso donde
estamos concluyendo. Espero que esto te haya sido útil. Una cosa que recomendaría es continuar nuestro viaje de
aprendizaje. Ai es un
campo de evolución muy rápida y muchas cosas aprendes que
deliberadamente mantengo este
curso como de alto nivel. No quiero hablar de una tecnología
específica porque sea cual sea la tecnología de la que
hable
va a quedar obsoleta
muy, muy rápido. Pero recuerden, la IA
está aquí para quedarse, y se
van a crear muchos empleos nuevos. Así que mantente actualizado con las tendencias
de la industria. Mantente actualizado, sigue aprendiendo. Y seguirás creciendo. Por lo que enhorabuena por
tomar este curso. Trato de que no sea
como un curso enorme, como 4 horas o 5 horas. No me gustan esos cursos
porque la gente se aburre. Entonces espero que consigas alguna
información tangible de esto. Recuerda el proyecto, es decir,
quiero que tomes
esta información
y crees tu propio framework, tu propio framework de
gobernanza de IA. O toma un estándar
como Google o ISO Nest e intenta aplicarlo dentro de tu
empresa y ver cómo funciona. Entonces ese sitio web sube a todos. Espero que esto haya sido útil. Si quieres contactarme, tengo un newsletter
en suback y estoy ahí en vinculado en
y en Youtube Voy a tratar de poner los enlaces ahí y puedes
contactarme. Siempre feliz de saber
de tus alumnos. Por favor, deje una reseña. Si pensabas que este curso te
dio alguna buena información
tangible. Si pensabas que este era
el peor curso de la historia, entonces por favor dímelo. Siempre feliz de
recibir algunos comentarios. Muchas gracias y le
deseo todo lo mejor en su viaje de gobierno de IA y gestión de
riesgos. Bien, te veré y
te veré en el próximo curso.
Gracias a todos.