Transcription
1. 1 Intro: Bonjour, bonjour à tous. Bienvenue dans mon nouveau
cours, le cours intensif
sur les réglementations et les
cadres relatifs à l'IA. Le but de ce
cours est maintenant de vous renseigner sur les différents types
de cadres
et de réglementations en matière d'IA qui ont été élaborés. Et pour vraiment vous donner
une longueur
d'avance sur
la compréhension des différents types de réglementations qui
apparaissent, tous les cadres
sont publiés. Parfois, il semble qu'
une nouvelle réglementation soit publiée littéralement
chaque
mois où nous en entendons parler. Parce que l'IE se développe
si vite, n'est-ce pas ? Les réglementations de l'IE
évoluent si rapidement. Nous avons donc besoin de ce type de
contrôle et de réglementation. C'est donc là tout l'
intérêt de ce cours. Les objectifs de ce
cours sont très simples : vous faire comprendre l'IE mondiale, le
paysage réglementaire, n'est-ce pas ? Tous
les cadres existants, pourquoi sont-ils nécessaires,
quel est le problème ? Et pourquoi avons-nous besoin de tant de cadres et de normes en matière d'
IA ? Ensuite, nous
allons prendre en compte les réglementations et les cadres d'IA
les
plus importants et les plus critiques qui existent. Nous allons les étudier en
profondeur et je vais vous donner quelques conseils pratiques de
mise en œuvre. Donc je ne le fais pas, je ne
vais pas simplement tendre la main, lire la norme, n'est-ce pas ? Parce que tu n'as pas
besoin de moi pour ça. Je veux dire, tu peux le faire
toi-même, honnêtement. Il suffit de le télécharger et de le lire. Non, je vais vous donner les étapes
pratiques de mise en œuvre. Comment, ce que nous allons
faire, c'est prendre études de
cas et
des exemples de ces spéculations
et normes Ensuite, voyez comment une entreprise s'y prendrait pour mettre en œuvre
ces normes. C'est donc le
but de ce cours, vous
donner une longueur d'avance sur les réglementations
et la gouvernance des AA, ce qui est extrêmement
critique dans le monde d'aujourd'hui. Alors pourquoi
devrais-tu m'écouter ? Juste une brève introduction. Je m'appelle Tamurislahal. Je suis un leader de la
cybersécurité plusieurs fois primé. J'ai remporté quelques prix
ici et là. Je travaille dans le domaine
de la cybersécurité depuis 21 ans. Et ces dernières années, je me suis davantage concentré sur la création cours et de contenus, ainsi que sur la rédaction, afin de
redonner à l'industrie. J'aide également les gens à se lancer
dans la cybersécurité. J'ai une chaîne Youtube
appelée The Cloud Security Guy. J'aurais aimé avoir
des millions de followers, mais c'est une très petite chaîne. Mais en gros, je
parle de sécurité du cloud
dans les yeux. J'ai également écrit un livre à
succès et un créateur de cours sur
plusieurs plateformes Vous pouvez vérifier que ce
ne sont là que quelques-uns de mes livres. J'ai écrit des livres sur l'IE,
la gouvernance et la cybersécurité. Écrivez pour les débutants, Zero
Trust pour les débutants. Je n'aime pas écrire des livres très
compliqués et approfondis. J'ai toujours l'impression qu'il faut laisser les gens
se lancer rapidement dans une technologie en particulier
, puis les laisser trouver
leur voie. Hein ? J'écris également sur
les médias et sur Linked, comme
je l'ai dit, sur une chaîne Youtube.
Je suis là sur Twitter. J'ai également une
newsletter gratuite dans laquelle je partage
essentiellement des
informations sur les carrières en cybersécurité. Pourquoi utiliser l'IA pour la sécurité dans le cloud ? Ce sont donc les
choses que je voulais simplement montrer, car je m'y
connais un peu IA quand j'en
parle. Alors, tout d'abord, pourquoi avons-nous besoin de réglementations sur l'IA ? Et les entreprises comme celles-ci sont
essentiellement des directives, des cadres de
normes conçus pour atténuer les risques liés
à l'IA. en stimulant l'
innovation et en renforçant la
confiance dans les systèmes d'
IA, quel est le problème ? Eh bien, tout d'abord, des
considérations éthiques . Qu'
est-ce que cela signifie ? Eh bien, les systèmes d'IA peuvent prendre
des décisions qui peuvent avoir un impact sur les vies humaines
et la société, n'est-ce pas ? Si l'IA prend une
décision, comme
vous accorder un prêt bancaire, et qu'elle
prend une décision injuste, elle prend une mauvaise
décision, n'est-ce pas ? Cela peut réellement
avoir un impact sur votre gagne-pain, votre famille, n'est-ce pas ? Et si l'IA est utilisée pour faire appliquer
la loi et qu'elle
prend une mauvaise décision, cela peut entraîner l'arrestation de cette
personne. Encore une fois, ce ne sont pas de
petites choses, non ? C'est pourquoi les réglementations relatives à l'
IA doivent fournir des
directives garantissant que les systèmes d'IA sont conçus et utilisés dans le respect
des droits de l'homme et des valeurs. Nous avons également comme objectif
la sûreté et la sécurité, de penser
aux systèmes d'IA, en
particulier dans des domaines
tels que les soins de santé, la défense
des transports. Ils doivent être fiables
et sûrs, non ? Et les réglementations
garantiront que systèmes d'
IA sont soumis à des tests et à une
validation
rigoureux afin de
s'assurer qu'aucune défaillance susceptible d'entraîner des
dommages ou même la
mort de personnes
ne se reproduisent. Hein ? Enfin, ce qui est ma spécialité,
les systèmes d'
IA peuvent être vulnérables aux menaces de
sécurité
telles que les violations de données, manipulations, et c'est pourquoi vous avez également besoin de
contrôles de cybersécurité. Ainsi, toutes ces choses où l' IA est utilisée
dans des domaines critiques, tels que les hôpitaux, les systèmes
criminels, les domaines
financiers,
peuvent avoir un impact énorme. C'est pourquoi vous avez besoin de
réglementations pour définir les meilleures pratiques, les cadres
et les normes en matière d'IA. C'est de là
que tout vient maintenant. Alors,
malheureusement, quel est le problème que j'ai constaté et pourquoi j'ai fait de ce cours un cours
intensif, n'est-ce pas ? Et j'en ai délibérément
fait un cours intensif. J'aurais pu faire
un cours de dix heures parce que je sais que les gens s'
ennuient, honnêtement. Le problème avec l'
apprentissage des cadres d'IA est qu'il est important de
reconnaître ce fait, à que les discussions sur les cadres et les
réglementations relatives à l'
IA peuvent parfois sembler un peu arides et
trop complexes. Parce que le
sujet est, c'est vrai, vous avez ce langage juridique avec des concepts
techniques avancés. Cela le rend très inaccessible
aux gens ordinaires. Le but de ce
cours est de décomposer tous ces éléments complexes
et de les rendre accessibles. D'une certaine manière, tout ce que j'ai dit à
propos ce cours l'a rendu
accessible à tous, n'est-ce pas ? Et l'autre problème est de s'y
retrouver dans le paysage, car l'un des
plus grands défis
est l' l'un des
plus grands défis
est l'existence d'un trop grand nombre de
cadres C'est
comme naviguer dans une grande jungle. Vous avez tellement de cadres. Comment savoir ce qui est le plus important, ce qui s'applique à moi ? Et cela peut entraîner de la
confusion, ce qui rend les choses difficiles pour. Les développeurs, les
responsables de la cybersécurité, les responsables de
la gouvernance, les entreprises doivent
décider quel cadre
est pertinent pour eux. Et l'autre point concerne la mise en œuvre
pratique. L'autre problème que j'ai constaté est l'écart entre ces cadres et leur application pratique. Les directives proposent donc des principes de très
haut niveau, comme parfois vous
entrez trop dans
les détails techniques, tels que
la manière dont l'algorithme d'apprentissage automatique
doit être configuré. Il y a donc un
chaînon manquant, non ? pratiques et exploitables Je
souhaite donc vous donner
des conseils sur la manière de mettre en œuvre
ces réglementations dans vos entreprises habituelles,
dans le cadre de vos
activités quotidiennes, afin de
vous aider à comprendre comment
procéder, n'est-ce pas ? Et en vous assurant que vous êtes
capable d'appliquer ces connaissances. Alors, à qui s'adresse ce cours ? Ce cours s'adresse à tous ceux que je suis, professionnels, que vous travailliez dans risque, du droit et de la conformité, la cybersécurité, que vous
soyez un directeur informatique, directeur technique ou toute personne intéressée par l'AIS Il n'est pas nécessaire d'avoir
une connaissance approfondie de l'IA. Une simple compréhension de base
suffira . Et pourquoi
devriez-vous vous y intéresser ? Je pense que je n'ai pas besoin de
passer trop de temps là-dessus. Vous savez déjà que l'IA a un impact sur tous les secteurs, sur
toutes les normes, n'est-ce pas ? Et les entreprises
veulent ce type de normes et de points de
référence industriels afin de
créer le meilleur système d'IA
, compétitif
et fiable. Et ils veulent s'
assurer qu'ils
suivent correctement les meilleures
pratiques de l'IE. Lorsque vous obtenez une
norme ISO pour votre entreprise, vous dites aux gens :
écoutez, je suis certifié ISO, même manière que vous le souhaitez pour l'IA. Et enfin, pourquoi vous devriez vous en soucier. L'IA a également un impact énorme
sur le secteur de l'emploi. Et c'est ce dont je
voulais parler. Il existe une énorme demande de compétences en matière de gouvernance des scans basés sur l'
IA. Selon Gartner, d'ici 2026 modèles d'IA
capables de
rendre opérationnels la transparence, la
confiance et la sécurité de l'IA permettront
une amélioration de 50 % en termes d'
adoption, une amélioration de 50 % en d'
objectifs commerciaux et d'acceptation Les gens les accepteront, non ? Ils voudront disposer de
ce type de systèmes d'IA. Vous voulez obtenir la confiance du public, afin qu'elle stimule l'innovation. De plus, vous avez des
études qui montrent comment IA
générative transforme
le monde du travail, n'est-ce pas ? Comme beaucoup de gens
s'inquiètent de la perte d'un emploi, ils ne se rendent pas compte du
nombre de nouveaux emplois qui seront créés. Il y aura des pertes d'emplois, sans aucun doute n'importe qui, car l'IA prendra en
charge de nombreuses activités. Mais de nouveaux emplois
vont également être créés. Et d'ici 2030, ils estiment que cela aura un impact
énorme sur l'économie. Et les entreprises rechercheront évidemment des
personnes possédant des compétences en IA. Donc, en suivant ce cours, vous
investissez réellement dans votre avenir. Vous vous assurez d'avoir
les compétences nécessaires, d'accord ? Et vous pouvez constater que 96 % des entreprises
rechercheront des travailleurs possédant des compétences en IA. Et l'IA n'est pas uniquement technique. Beaucoup de gens sont confus, ils pensent que j'ai besoin de connaître les sciences
des données ou les statistiques. Non, vous pouvez avoir cette
connaissance des
cadres de l'IE, de
la gouvernance et de l'IA, n'est-ce pas ? C'est donc ce que je veux que
tu fasses dans ce cours. Je veux que vous compreniez les normes et les
cadres existants, que vous
compreniez les concepts courants, que vous
passiez en revue les études de cas, puis que vous appliquiez les connaissances
que vous avez apprises. Alors, comment appliquerez-vous
ces connaissances ? Nous aurons un projet. Je vais te donner une
mission à accomplir. Je veux que vous preniez
cela et que vous l'appliquiez pour bien comprendre comment ce
projet fonctionnera. J'espère donc que cela
vous a motivé. J'espère que vous comprenez maintenant l'immense nouveau monde dans
lequel vous vivez. Il s'agit d'un autre domaine dans
lequel la gouvernance de l'IA et les risques peuvent vraiment vous permettre de briller et de laisser votre propre marque. J'espère que tu es enthousiaste. Que vous soyez exposé à un
risque lié à l'IA ou à la cybersécurité, c'est un excellent moyen d'
investir dans votre avenir. Alors allons-y et je vous verrai dans la
prochaine leçon.
2. 2 Risques de l'IA: Bonjour à tous. Bienvenue,
bienvenue dans le prochain module qui porte sur And I Risks. Comme une brève introduction. Comme je l'ai déjà dit, ce que nous allons aborder ici c'est brièvement que je vais vous
parler de l'IA et des types de risques liés à l'
IA. Voici des
exemples de défaillances de l' IA impression que vous en êtes au courant
, vous pouvez les ignorer. Je vous recommande de ne pas l'ignorer, car
il vous
donne cadre et le contexte ce cours
et explique pourquoi nous en avons besoin Parce que je veux vraiment que
vous compreniez le contexte dans lequel ces cadres ont été créés.
Qu'est-ce que l'IA ? Avant d'approfondir cette question, je veux que vous compreniez une chose
très cruciale : vous n'avez pas besoin d'être un
technicien pour l'IA. Il est utile d'avoir
ce contexte. Mais non, je connais de nombreuses personnes qui ne
sont absolument pas
techniques, car IA est un outil indispensable pour
comprendre les réglementations et les cadres des AA. Il vous suffit d'avoir
une compréhension approfondie de l'IA et cela
fonctionnera, honnêtement. Vous ne vous laissez donc pas
intimider par l'IA. OK ? Beaucoup de
gens s'inquiètent. Vous pouvez approfondir
autant que vous le souhaitez, mais une simple
compréhension de haut niveau fonctionnera également pour vous.
Alors, qu'est-ce que l'IA ? L'intelligence artificielle est une branche de l'
informatique qui se concentre sur la création systèmes qui exécutent des fonctions généralement associées à
l'intelligence humaine, telles que le raisonnement, l'apprentissage
et le développement personnel. C'est la définition d'
un livre ennuyeux. En termes simples, les systèmes d'IA. L'intelligence artificielle est une branche de l'
informatique laquelle les systèmes informatiques
se comportent comme des humains. Comment ? En prenant des décisions telles que le raisonnement et
la compréhension des informations. Comment travaillons-nous, les humains ? Nous prenons beaucoup d'
informations que nous en
tirons et nous les utilisons pour nous
améliorer. C'est exactement ainsi que fonctionne l'
IA, non ? Pour les programmes classiques,
comme votre calculatrice, il suit un
ensemble d'instructions fixes et ne change pas à moins que
vous ne le mettiez à jour manuellement. Alors que les systèmes d'IA
peuvent s'améliorer. Ils peuvent donc réellement utiliser les informations
existantes et les informations précédentes
et les utiliser pour devenir plus
intelligents au fil du temps. Et l'IA peut prendre des décisions
basées sur l'analyse des données. Il peut évaluer
des situations complexes, non ? Et il peut imiter la façon dont les
êtres humains prennent des décisions. Alors que, comme je l'ai dit, les ordinateurs ont juste un ensemble d'instructions prédéfini, vos applications habituelles, ils ont un
ensemble d'instructions prédéfini. Il peut donc gérer l'ambiguïté et son meilleur atout
est l'automatisation Il peut faire les choses tout
seul, non ? Comme les voitures autonomes. Vous n'avez pas besoin d'
êtres humains pour
entrer et conduire
une voiture, n'est-ce pas ? Il fonctionnera tout seul. Ces capacités semblables à celles de l'homme
sont à l'image de l'IA. Comment l'IA change réellement
le monde depuis 2022. J'aurais cru que Chip est sorti même si j'existais
bien avant cela. Je parlais d'
IA avant cela. Chagpt et génératif, cela a vraiment rendu les AA accessibles
aux gens ordinaires C'est pourquoi le sujet
suscite tant d'intérêt. Maintenant, comment fonctionne l'IA
sans
trop s'intéresser à l'
apprentissage automatique et comment fonctionne l'apprentissage automatique
supervisé et non supervisé ? Comment fonctionne le deep learning ? En termes simples, l'IA absorbe
une grande quantité de données, n'est-ce pas ? Ensuite, il utilise un algorithme pour trouver des modèles dans ces données. Ensuite, il utilise
ces modèles pour prendre des décisions concernant
les événements futurs qui se produiront. Donc, si vous voulez le décomposer, il faut une grande quantité de données provenant de différentes
sources, n'est-ce pas ? Il peut s'agir de chiffres ou de données
non structurées, comme des images, et il
trouve des modèles, des corrélations là où les êtres
humains ne le font peut-être
pas Cela peut donc prendre, c' est là qu'
intervient l'apprentissage automatique, n'est-ce pas ? Comme son nom l'indique.
La machine est en train de l'apprendre, prendre toutes les données
et d'en tirer des enseignements. Si vous lui donnez beaucoup
d'images faciales, il trouvera des motifs
et
pourra ensuite reconnaître d'autres personnes. C'est vrai. Sur la base de cela et ces modèles et informations
qui sont pris pour les données. C'est pourquoi j'ai dit qu'il prend
des décisions concernant l'avenir. Par exemple, une IA peut
prédire le comportement des clients. Il peut diagnostiquer des problèmes de
santé. Ou il peut être optimisé, comme les itinéraires des
véhicules, les itinéraires
logistiques, n'est-ce pas ? Plus il reçoit de données,
plus il s'améliore, plus il s'améliore,
plus il s'améliore. Tout cela ressemble à un cycle
constant, non ? Voici comment fonctionne l'IA
en quelques mots. Et bien sûr, nous
en avons déjà parlé. Je ne vais pas y perdre
trop de temps, mais bien entendu, IA aura un impact
énorme d' ici 2030, 15 billions de dollars. Il affirme qu'il peut
apporter sa contribution honnêtement. Et bien sûr, il y aura
une interruption massive de l'emploi, sorte que les gens se concentreront davantage
sur les pertes d'emplois. Il y aura certainement
des pertes d'emplois, car les emplois que les êtres
humains peuvent occuper, une grande partie de l'IA le sera, mais de nouveaux emplois seront créés. OK. C'est pour cela que
les gens oublient le nombre d'emplois qui
seront supprimés. Vous oubliez le nombre de nouveaux emplois
créés. Personne ne
parlait de gouvernance de l'
IA, de sécurité de l'IA, comme
il y a quelques années en 2021. Je me souviens que j'
en parlais. Personne ne payait d'intérêts
parce que, tout simplement, personne ne s'en souciait autant. Mais aujourd'hui, l'IA a changé
le monde, n'est-ce pas ? La perturbation, elle s'est produite. C'est pourquoi de nouvelles industries
sont créées. Ne vous inquiétez donc pas
ou ne vous effrayez pas à propos de l'IA, adoptez-la et tirez-en des leçons. Et comprenez le
potentiel de
l' industrie et, bien
sûr, quel en est le risque ? L'IA est donc adoptée par des industries
critiques, n'est-ce pas ? Vous avez des choses comme les
soins de santé, l'application de la loi. Et le plus important, c'
est que l'IA n'est pas parfaite. Il peut prendre des décisions
erronées ou biaisées. Si vous lui fournissez des informations
erronées, il peut développer une lutte contre les biais. Comme je l'ai dit plus tôt, cela peut avoir un impact énorme sur
les personnes et les sociétés. Tu peux même le tromper. Vous pouvez le manipuler
ou le tromper. Et il peut être attaqué
par des cyberattaques. C'est là que nous
constatons l'énorme impact que peut avoir l'IA, n'est-ce pas ? Que se passera-t-il si l'IA
arrête accidentellement la mauvaise
personne pose un mauvais diagnostic médical
ou si l'IA n'accorde pas prêt à
une personne
alors qu'elle en a désespérément besoin ou d'un traitement médical ? Hein ? Nous parlons impact
réel
et, comme je l'ai dit, il peut être manipulé.
En outre, cela peut être trompé. Par exemple, si vous avez un système de
reconnaissance faciale, vous pouvez
créer une fausse image et tromper le système d'IA. Et bien sûr,
nous sommes confrontés à de nouveaux types de cyberattaques qui se profilent
à l'horizon, toutes ces choses C'est comme un nouveau
monde créé grâce
à l'IA, n'est-ce pas ? Voici donc quelques exemples. Je veux dire que vous trouverez
des millions d'exemples sur Internet. Ce pauvre homme a été
mal identifié par un système
A et il a
en fait été arrêté Vous pouvez donc imaginer à quel
point cela pourrait avoir un impact, quel point
cette pauvre personne
aurait été traumatisée à cause
de la reconnaissance faciale Basé sur Ai, il était utilisé
et cela a conduit à son arrestation. Encore une fois, les voitures autonomes étaient de
plus en plus introduites dans ce domaine Je suis au Royaume-Uni et vous voyez que les voitures autonomes
sont en train d'être testées. Mais malheureusement, ils ont commis des erreurs et
ont coûté des vies humaines, est-ce pas ? Des accidents se sont produits. Vous pouvez donc imaginer à
mesure que les voitures autonomes deviennent de plus en plus populaires, les types d'attaques
qui peuvent se produire, les types d'incidents
qui peuvent se produire, et cela peut avoir un impact réel sur
la vie des gens. C'est pourquoi nous
devons nous assurer
de pouvoir atténuer les risques liés à l'IA. Et c'est là
que moi, les règlements entrent
en jeu , c'est vrai, et c'est dommage. Malheureusement, de
nombreuses entreprises,
en particulier celles du secteur privé, se soucient davantage
des profits, n'est-ce pas ? Leur priorité n'est pas de mettre en place des réglementations, des contrôles
et une gouvernance. C'est pourquoi vous avez besoin de
ce règlement pour dire «
attendez, arrêtez ». Vous ne pouvez pas aller de l'avant sans mettre ces
contrôles en place. Et les réglementations relatives aux
AA font toujours défaut. Ils sont encore en train de
rattraper leur retard. Le rythme auquel est développé est bien plus rapide
que n'importe quelle réglementation. Et même les entreprises
responsables éthiques
ont dit non, nous devons
nous assurer d'atténuer les risques. Ils veulent ces conseils, non ? C'est pourquoi ces
réglementations sont publiées. Et bien entendu, en matière de normalisation, vous devez vous assurer de
disposer d'une norme commune à tous les niveaux sur laquelle ces contrôles
peuvent être appliqués. C'est donc là qu'
intervient la
réglementation de l'assurance-emploi et c'est pourquoi nous avons
besoin de réglementations relatives à l'IA. J'espère donc que c'était une brève leçon sur
la vue d'ensemble de l'IA, les impacts de
l'IA, l'
impact des risques liés à l'IA et les raisons pour lesquelles nous avons besoin de tous ces cadres qui sont en train de sortir. Parce que personne n'aime les réglementations
et les cadres, n'est-ce pas ? Les gens pensent qu'il
s'agit simplement de vous aimer, ralentir l'innovation, de
ralentir le développement. Mais maintenant, je vous ai montré pourquoi l'impact peut se produire si vous ne mettez pas en place ces réglementations. Maintenant, nous avons défini l'arrière-plan. Dans la prochaine leçon, nous
allons parler réglementations
et des cadres
de haut niveau en matière
d'IA . Ensuite, nous allons commencer
à
approfondir les réglementations spécifiques. Merci et je
vous verrai dans la prochaine leçon.
3. 3 cadres-cadres d'IA: Bonjour, bonjour à tous.
Bienvenue dans ce module qui traite des
réglementations et des cadres de l'IA. Une perspective globale
ou une vision globale. Nous avons parlé d'IA, non ? Nous avons parlé de l'IA
et des dommages qui peuvent survenir si l'IA n'est pas correctement
contrôlée et réglementée, alors les contrôles n'existent pas. Dans ce module,
nous allons avoir
une introduction aux avoir
une introduction cadres et réglementations de l'
IA, prendre vraiment du
recul
et examiner le paysage
mondial
qui existe à partir des cadres d'
IA. Et ce qui se passe au niveau
régional et national. Et quels sont les défis
auxquels on est confronté lorsqu'on examine cette énorme liste de cadres et de réglementations en matière
d'
IA, n'est-ce pas ? Et
avant d'approfondir, nous allons avoir besoin de cette leçon
avant d'examiner en profondeur les différents cadres
et de commencer à les examiner. Bien, tout d'abord, examinons
ce que sont les cadres, les
normes et les réglementations de l'IA . Il s'agit d'un ensemble de directives et d'exigences légales, n'est-ce pas ? Le but de tout cela est de
régir la façon dont l'IA est conçue,
développée, déployée, n'est-ce pas ? Nous voulons atténuer les risques. Ils veulent s'assurer que les systèmes d'
IA sont éthiques, qu'ils ne
sont pas injustes, n'est-ce pas ? Ils sont en sécurité. Ils portent
atteinte à la vie humaine. Ils sont transparents,
ce qui signifie que vous pouvez comprendre pourquoi ils prennent ces
décisions. Et ils sont en fait
bénéfiques pour la société. Et vous souhaitez atténuer les risques de sécurité
potentiels, les vulnérabilités et les dommages
qui peuvent survenir pour la société. L'intérêt de créer un cadre
quel que soit le
pays dont vous parlez, c'est toujours l'objectif, n'est-ce pas ? Et c'est ainsi qu'ils aident.
Comme je l'ai déjà dit, les entreprises se
concentrent sur le profit, n'est-ce pas ? Ils veulent gagner le
plus d'argent possible. Et parfois, ils peuvent
aller trop loin et déployer l'IA sans que
des contrôles appropriés ne soient en place Donc, si vous avez une réglementation, une réglementation
obligatoire, ressemblera à
celle de l'UE, n'est-ce pas ? Ils seront donc obligés de s' assurer que ces
contrôles existent. Et même si ce
n'est pas obligatoire, est
peut-être qu'un cadre. Un cadre optionnel, non ? Ce qui va se passer, c'est qu'ils
devront suivre cela parce que
les clients s'en douteront. Les clients n'
achèteront pas leurs systèmes. Ils diront non, nous voulons
la certification ISO ici sur votre système. Votre système est-il certifié
selon le framework Nist
et tout ça ? Cela garantira que les entreprises respectent bonnes normes lors de l'
élaboration de systèmes d'assurance-emploi. Et bien sûr, ils favorisent
la responsabilité et la traçabilité, afin de s'assurer que
l'IA se comporte ainsi Que ces choses soient présentes. Ils protègent le système d'IA
contre toute manipulation. Si quelqu'un essaie d'attaquer
le système d'IA ou de le tromper parce qu'
il respecte ces normes, les
contrôles seront là. Même chose pour
les cyberattaques, non ? De nouveaux types de
cyberattaques se produisent. Comment vous assurez-vous que
le système est protégé ? En appliquant une base de
référence minimale, une norme minimale. Et ils évaluent les
risques,
ils obligent les entreprises à adopter
une approche basée sur les risques. Tous les systèmes ne
sont pas égaux, n'est-ce pas ? Certains peuvent être très,
très sensibles, comme ceux qui
travaillent dans les hôpitaux. Et certaines peuvent être
aussi simples qu'une application de reconnaissance
faciale que vous
avez sur votre téléphone portable, est-ce pas ? Toutes. Ils obligent les entreprises à
adopter une approche basée sur le risque. Enfin, la
coopération internationale, qui est très importante. Vous ne voulez donc pas que ces différents silos se produisent Il existe une
coopération internationale entre les pays. Tout le monde travaille
ensemble pour atténuer ce problème. Cela ressemble à une utopie. Je sais que beaucoup d'entre vous
pensent que cela n'arrivera jamais. Mais malheureusement,
les risques liés à l'IA
sont tellement dangereux que nous les imposons. OK, comme si vous pouviez voir
un certain niveau d'harmonie. Le meilleur exemple que je puisse vous
donner est le RGPD. L'UE a publié son règlement général
sur la protection des données
pour la confidentialité des données si vous
ne le connaissez pas, mais comme il s'agissait
d'une norme si stricte et si bien suivie dans
tous les pays du monde, elle a mis en place son
propre cadre de confidentialité des données, mais elle a repris des éléments du RGPD, qui est devenu
la référence mondiale. Et pareil, si vous regardez
cela de plus près, il existe de très
nombreux cadres, mais honnêtement,
le plus important et qui a un impact sur tous les autres
cadres existants. Tout d'abord,
vous devez commencer par les principes de
l' OCDE relatifs à l'IA. Et je fais le lien entre ces cadres et ces normes afin que vous
puissiez y jeter un œil. Donc, en gros, l'OCDE, l'Organisation de
coopération et de développement économiques . Oui, c'est une
organisation internationale qui travaille à l'élaboration de meilleures
politiques pour une vie meilleure, d'accord ? Ils ne mandatent pas. Mais ce qu'ils ont fait,
c'est qu'ils ont publié certains principes sur l'IA, n'est-ce pas ? la , la
plupart des pays
du monde Malheureusement, la
plupart des pays
du monde ont adopté
ces principes et les utilisent pour
établir leurs propres normes. Donc, les stratégies nationales que vous avez adoptées dans les grands
pays tels que les États-Unis, le
Royaume-Uni, Middle East
Vision, Pac Vision, ont
toutes été
intégrées, mais la plupart d'entre elles sont conformes aux principes fondamentaux de
l' IA tels que définis par l'OCDE
et approuvés par celle-ci, d'accord ? D'habitude, c'est à
peu près pareil. La durabilité des droits de l'homme, la transparence, une solide
gestion des risques. Tu vas les voir. Vous verrez ce que vous appelez «
colocataires » se répéter
encore et encore, et dans la plupart des pays, ils suivent ces principes. En dehors de cela, nous
avons maintenant la norme ISO 4201, si vous ne la connaissez pas, c'est une norme
de
système de gestion de l'IA publiée par l'ISO Et c'est comme une norme
internationale. Bientôt, les entreprises seront certifiées selon cette
norme, n'est-ce pas ? Tout comme vous avez la
norme ISO 2701 pour la sécurité, ISO 9001 pour la gestion de la qualité
. Même chose. Vous l'aurez
et vous aurez également risques liés à
l'IA du Nist,
qui est un cadre de
gestion des risques liés à l'IA créé par
le Nist C'est comme un framework indépendant de la technologie
ou du fournisseur, mais c'est un framework très, très puissant Si vous travaillez
dans le domaine de la cybersécurité, vous savez
que la plupart des entreprises ont adopté la norme ISO 2701 et le cadre de
sécurité Nist Saba,
en tant que cadre global, raison de la qualité de ces On peut
s'attendre à la même chose avec l'IA. part cela,
au niveau régional, le changement
le plus important
qui va
se produire est la loi européenne sur l'IA. Le règlement européen sur l'IA
qui va être publié, adopte une
approche basée sur les risques à l'égard de ces réglementations. Et nous allons les examiner
en profondeur et cela
aura un impact sur les stratégies
nationales dans
toutes les régions. Voilà, c'
est comme une vision holistique, comme une vision de très haut niveau. Comme je l'ai dit, l'OCDE a donc déclaré
qu'elle élaborait des politiques mondiales
pour les pays. Je pense qu'ils ont
cinq de ces principes
basés sur les valeurs et
qu'
ils sont devenus une référence mondiale qui aide les entreprises et les gouvernements à adopter cette
approche pour créer leurs
propres stratégies nationales. Je recommande vivement d'y
jeter un œil. La plupart des pays que
vous voyez élaborer des stratégies sont influencés que
par celles-ci, n'est-ce pas ? Et ce sont les
mêmes locataires, non ? Veiller à ce que l'IA contribue au bien-être
des êtres humains. Ils sont équitables,
transparents,
vous bénéficiez d'une
sécurité et d'une responsabilité appropriées .
Ils
sont de très haut niveau. Mais ils ont aidé
les entreprises à commencer
à élaborer leurs propres politiques
afin qu'elles comprennent. Hein ? D'accord, à part cela, vous avez le règlement européen sur l'IA qui sera publié
dans la région de l'UE. Cela s'apparente à une approche basée sur le
risque. Cela va avoir
un impact énorme. Nous allons approfondir
cette réglementation en raison
de cas très importants. C'est le premier règlement complet, comme on peut le dire,
règlement ou loi. Et cela sera
obligatoire pour toute entreprise qui fonctionne. Ils sont similaires
au PIB qui est devenu le cadre mondial
pour la confidentialité des données. Cela va devenir
le cadre mondial des réglementations relatives
à l'IA. Même les pays qui
ne la suivent pas, auxquels cette loi
n'est pas applicable, tireront certains
principes. Il est donc vivement recommandé de bien comprendre cela. Je vais
approfondir cette question. Le problème avec les lois de l'UE, c'est qu'elles
sont très ennuyeuses. Je veux dire, tu t'endors
quand tu les lis. Je vais donc vous l'
expliquer étape par étape. Et surtout, vous
devez comprendre le
fonctionnement de l'
approche basée sur le risque. En dehors de cela, nous avons la norme ISO
4201 qui est la première
norme appropriée de gestion de
l'information, comme vous avez systèmes de
gestion de
la sécurité de l'information, les ISMS Vous avez maintenant l'
IA et le système de gestion qui ressemble au global, il crée comme un parapluie. Les meilleures pratiques, non ? Et c'est une norme très
complète. C'est facultatif. Ce n'est pas
obligatoire pour le moment. Mais les entreprises qui veulent
vraiment, comment appelle-t-on obtenir
un avantage concurrentiel ? Ils voudront se certifier selon
la norme, tout comme vous avez
des entreprises aujourd'hui Ils obtiennent la certification ISO 2701 ou 9 001 et ils ont un
avantage concurrentiel, n'est-ce Ils montrent aux clients, regardez, nous sommes certifiés parce que nous
suivons les bonnes pratiques. Les entreprises qui
développent l'IA voudront examiner la norme. En dehors de cela, vous avez le cadre de
gestion des risques liés à l'IA du Nist Encore une fois, il s'agit d'un cadre
facultatif, mais croyez-moi lorsque je dis que la
plupart des entreprises
sérieuses en matière de gestion des risques adopteront ce cadre tout comme le Nist publiera le cadre de
cybersécurité Et c'est devenu la norme industrielle de
facto raison de sa qualité. Le truc avec le Nist,
c'est que lorsqu'ils publient des
normes, des centaines
et des milliers de personnes les
révisent et qu'ils font
vraiment l'objet un examen minutieux pour les peaufiner Cela va donc devenir une autre norme majeure et nous
allons également nous y
intéresser en profondeur. Et nous avons également
le décret
du gouvernement Biden
qui a été publié, je crois qu'il est sorti du 38
octobre de l'année dernière jusqu'en 2023. Hein ? Et cela favorise, encore une fois, le développement d'une
IA FN et fiable. Il s'agit d'un décret exécutif. Il ne peut pas créer de nouvelles lois
ou réglementations par lui-même, mais il déclenche le début de tels processus. Et il s'agit d'une avancée majeure
en matière de responsabilité
quant à la manière dont l' IA est développée et
déployée dans les entreprises. Et il contient une énorme
quantité de réglementations, pas de réglementations, désolé, de
recommandations, de normes. Et cela aura un
impact sur de nombreuses personnes. Le Nist a été
très impliqué dans le
développement de ces cadres Le cadre de
gestion des risques liés à l'IA, dont j'ai parlé, est
référencé à plusieurs reprises. Et ce qui se passe, c'est que
ces décrets sont publiés et qu'ils confèrent un mandat de haut
niveau qui ressemble à
ce que cela va être. Les lois sont promulguées. Et le secteur public commence à les
mettre en œuvre. Et parce que le
secteur public les suit, le secteur privé les suit
et cela devient comme un mandat officieux à
tous les niveaux, n'est-ce pas ? Ce ne sont donc là que quelques-unes des normes dont je
voulais parler. Comme je l'ai déjà dit, les défis sont trop nombreux. Ça te donne mal à la tête. C'est pourquoi j'ai choisi
le plus important. Et croyez-moi, si vous les comprenez
bien, celui dont je vais parler
, vous en avez à peu près
abordé la plupart. Parce qu'ils s'inspirent tous
des mêmes concepts. OK. L'autre
défi est celui de l'harmonisation. J'essaie de comprendre quels sont
les points communs et
dont nous allons discuter L'autre option est facultative
plutôt qu'obligatoire. Donc, des choses comme Nist et ISO ne
sont pas obligatoires, n'est-ce C'est le règlement EUA, une fois entré en
vigueur, il est obligatoire Vous devez donc comprendre
ce qui est obligatoire ce qui est facultatif, n'est-ce pas ? Une autre option est
spécifique au secteur , à l'ensemble des secteurs ou
parfois à certaines réglementations. Ils sont spécifiques à un secteur particulier tel que le secteur l'
énergie ou celui
de l'eau. Et certaines sont générales, nous voulons
donc y jeter un œil et
les comprendre. Enfin, le plus important est trouver un équilibre entre innovation
et réglementation. Si vous appliquez trop de réglementations, le rythme auquel l'IA
innove va revenir en arrière ou la plupart des entreprises essaieront
de quitter cette région, n'est-ce pas ? Vous voulez donc trouver un équilibre,
vous voulez mettre en place des contrôles, mais nous voulons nous assurer que cela n'empêche pas l'innovation
de se produire. Enfin, le défi,
qui est toujours là, c'est que l'IA est très, très rapide, elle se développe extrêmement rapidement. Les réglementations
tentent toujours de suivre
cette évolution. C'est pourquoi ces réglementations relatives à l'
IA sont parfois très
strictes, n'est-ce pas ? Ils veulent s'assurer qu'
ils couvrent tout, afin de ne pas être
précis sur une technologie
ou d'être trop prescriptifs Sinon, ils seront
périmés très, très rapidement. J'espère donc que cela vous a été
utile. Nous avons examiné de haut niveau cadres et réglementations en
matière d'
IA, leurs besoins
et les principales réglementations, ainsi que les défis liés leurs besoins
et les principales réglementations,
ainsi que les défis liés
à leur adoption. Maintenant, ce que nous allons faire,
c'est
approfondir une réglementation en particulier. Et commencez à l'explorer en profondeur, en
examinant ses composants et la manière dont nous pouvons
les mettre en œuvre. Merci et je
vous verrai à la prochaine leçon.
4. 4 Acte de l'UE 1: Bonjour à tous. Bienvenue,
bienvenue à cette leçon. Et maintenant, nous allons
commencer une plongée en profondeur. Et nous allons entamer un examen
approfondi réglementation
probablement la plus
importante qui sera publiée prochainement,
à savoir la loi sur l'intelligence
artificielle de l'Union européenne . Il s'agira probablement
de la toute première loi consacrée à l'
intelligence artificielle. C'est ce que l'on appelle la loi sur l'IA. Une fois promulgué, il constituera la référence mondiale
ou
la norme en matière de réglementation
de l'IA. Et d'autres pays, d'autres juridictions vont élaborer leurs propres lois
nationales, mais elles vont s'
inspirer de la loi européenne sur l'IA. Et c'est ce que nous avons
vu historiquement également avec des choses
similaires comme le RGPD. Et je vais
vous montrer pourquoi cela se produit
habituellement,
qu' ils ont envoyé comme une référence
mondiale, n'est-ce pas ? Et bien que la législation
soit en vigueur en février 2024, elle doit encore être
officiellement adoptée par chaque organe législatif si vous opérez dans l'UE. Vous avez maintenant une
idée beaucoup plus claire de ce que vous devez faire pour vous
conformer à la loi EUAI Une fois qu'il sera entré en vigueur, non ? En général,
on s'attend à ce qu'elle soit promulguée début 2024. Ces
mesures prennent beaucoup de temps, mais le cadre est là et nous savons maintenant ce
qu'ils vont faire appliquer. L'UE veut essentiellement garantir que
l'IA est utilisée de manière éthique et
sûre et
elle prend
très au sérieux le
respect des
lois fondamentales et des droits des personnes Hein ? Ils ont adopté une approche proactive
pour gouverner les technologies d' IA en fonction du risque. Et c'est ce que nous
allons examiner. C'est ce que nous
allons aborder. Nous allons examiner la vue d'ensemble de l'EAA
à ce sujet, quoi consiste l'approche basée sur les risques, en
particulier en quoi consiste l'IA à haut risque, car c'est là que
l'on
va passer la plupart du temps et comment
implémenter le ticket Nous allons prendre
une entreprise fictive et voir, étape par étape, ce que vous devez faire pour mettre
en œuvre la Loi sur les évaluations environnementales. Je vais me concentrer sur les dispositions
essentielles de la loi. Le numéro lui-même,
comme la plupart des U, est très ennuyeux à lire. Vous vous endormirez si vous
commencez à le lire, honnêtement, sauf si vous êtes un juriste, personne respectueuse de la loi ou de la conformité
qui aime lire ceci. J'en déduis donc que je me suis délibérément concentré
sur les domaines clés. Les domaines dans lesquels le plus
d'efforts seront nécessaires, savoir l'
approche basée sur les risques des systèmes EAI, et c'est ce qui aura un impact énorme. Comme
un bref aperçu. Maintenant, il s'agit de la
toute première loi appropriée, comme vous pouvez le dire, dédiée à l'IA. Et elle a le potentiel, et je dirais qu'elle
va devenir une référence mondiale en matière de réglementation
de l'IA. même manière que le règlement général sur la protection des
données est établi, il s'agit d'une norme mondiale en
matière de confidentialité des données. Et si vous travaillez
dans le domaine de la confidentialité, vous savez, quel que soit le pays
dans lequel vous vous trouvez d'une manière ou d'une autre, votre législation a été
affectée par le RGPD. De même, le règlement de l'EUA
va établir la
référence mondiale en matière d'IA Pourquoi ? Parce que tout d'abord, il s'agit de l'un des cadres
les plus complets spécifiquement
axés
sur la régulation de l'IA. OK ? Ce qu'il fait, il se concentre sur les
risques existants. Et cela garantit une approche
réglementaire très détaillée. Cela va devenir un
modèle pour d'autres pays. Et surtout, il
adopte une approche basée sur les risques. Il classe donc les systèmes
en fonction du risque qu'ils présentent, du risque minimal
au risque inacceptable Et cela vous donne une approche
équilibrée, non ? Parce que ça ne dit pas non. Chaque système d'IA
va être comme ça. Maintenant, un système d'IA qui
fonctionne, par exemple, dans un hôpital
ou dans les forces de l'ordre, n'
est pas la même chose qu'un simple chatbot sur votre site Web, n'est-ce Répondre à des questions, bien
sûr que non. Vous ne voulez pas y appliquer
les mêmes contrôles. Mais l'UE est un énorme marché. C'est un acteur
économique mondial important, n'est-ce pas ? Les entreprises
opérant ou vendant sur
le marché de l'UE devront
se conformer aux exigences de l'
EAI Et cette pression en matière de conformité
incitera les entreprises monde entier à adopter des normes
similaires influencées par l'EIE C'est pourquoi j'ai commencé cela. Il est donc certain
que cela deviendra une référence mondiale
et qu'il influencera de nombreux
pays et entreprises. Et bien entendu, à l'instar du RGPD, les sanctions sont assez sévères. Je pense à 2 % à 7 % du chiffre d'affaires annuel
mondial. Et cela dépend, bien sûr, du fait
qu'il y a beaucoup de taxes, mais les amendes peuvent
être assez sévères. En cas de doute, jetez un œil à
la façon dont le GDPF
trouve parfois des entreprises et vous
aurez une meilleure idée de façon dont
les entreprises qui ne s'y
conforment pas à l'
avenir ou qui
le prennent de
manière trop indulgente peuvent en être
affectées Qui est donc touché ? En gros, des entreprises qui développent ou créent des systèmes d'IA, n'est-ce pas ? Comme la technologie logicielle, les développeurs de
logiciels
ou les entreprises technologiques. Peut-être que vous les déployez. Vous déployez et utilisez donc des systèmes d'
IA quel que soit votre secteur d'activité.
Des organismes publics, non ? agit donc des organismes et agences gouvernementaux qui déploient des systèmes d'
IA pour les services publics, organismes
de
réglementation et de surveillance. Les autorités chargées de surveiller et de garantir le
respect de l'EUA agissent comme des agences de protection des données Hein ? Et les consommateurs,
bien sûr, le grand public. Et comme je l'ai dit, cela
aura un impact mondial, même si vous êtes une organisation non européenne, mais que vous offrez
des services aux citoyens de l'UE, alors cela deviendra applicable. C'est pourquoi j'ai dit que cela aurait un impact mondial et des entreprises situées
même en dehors de l'UE. Cela reviendrait à imposer le
respect de cette règle. C'est pourquoi il est si important
de comprendre cela. Maintenant, le point clé, le point le
plus important de la loi EAI est qu'elle classe les systèmes d'
assurance-emploi en quatre
niveaux de risque Sur la base de ce niveau de risque, vous devez mettre en place des contrôles. Plus le risque est élevé, plus les contrôles
à mettre en œuvre sont
stricts. Maintenant, tout d'abord, il y a
le risque non minimal. Ce sont la majorité des systèmes d' IA qui
ne présentent aucun risque et ne
seront soumis aucune réglementation, comme un simple chatbot qui ne collecte aucune donnée
ou quoi que ce soit d'autre, n'est-ce pas ? L'autre concerne
les risques limités. Les systèmes d'IA présentent
un risque limité, ils auront des obligations de
transparence. Qu'est-ce que cela signifie ? Ils doivent révéler que ce contenu est généré par l'
IA, n'est-ce pas ? Et vous devez
informer, comme je l'ai dit, chat ou peut-être sur quelque chose qui utilise l'IA
générative, vous savez. Vous devez donc vous assurer
que ces éléments sont là. Des risques élevés sont également
des risques élevés. Les systèmes informatiques seront
autorisés avec des exigences et des
obligations spécifiques en matière d'accès au marché. C'est là que la
majeure partie des efforts seront déployés. Enfin, il y a
un risque inacceptable qui est tout simplement interdit. Ce type particulier de
systèmes d'IA ne sera pas autorisé. Et ils ont donné une définition très
détaillée, comme systèmes d'
intelligence artificielle qui
tentent de manipuler les émotions, ou qui régulent
comme s'ils
surveillaient réellement les émotions sur les lieux de travail ou
dans les établissements
d'enseignement. Ou ils utilisent la reconnaissance
faciale pour l'
identification biométrique à distance. Ils ont prévu quelques
exceptions pour la biométrie, mais vous savez, l'UE est très, très stricte en
matière de confidentialité des données Alors je pense qu'aucune juridiction n'
est plus stricte que l'UE. Ils ont donc adopté cette approche basée sur le
risque. Donc, si vous le regardez,
cela vient des États-Unis, c'est à cela
que cela ressemble, non ? Si vous partez du
bas de l'échelle, le risque est minime, aucune obligation et
la transparence des risques est limitée. Vous devez y jeter un œil et comprendre, vous devez révéler
que c'est basé sur l'IA. risque élevé est une évaluation de
la conformité qui s'apparente à un audit. Vous pouvez dire que
vous devez appliquer ce niveau de contrôle
avant d'être autorisé. risques inacceptables sont
simplement bannis, désolé, si votre application d'IA si votre application d'IA
est comme ça et que c'est ce que vous faites, désolé, vous êtes complètement banni. Et qu'est-ce qui est inacceptable
ou interdit ? Donc, en gros, n'importe quoi, certaines actions qu'ils ont
définies, non ? Qu'est-ce que cela signifie que l'IA utilise
des techniques subliminales, qu'est-ce que cela signifie ?
Laissez-moi le traduire. Les systèmes d'intelligence artificielle qui utilisent des méthodes
subconscientes sournoises pour modifier
radicalement le comportement d'une personne sont
totalement interdits Vous savez, ils
essaient d'influencer votre comportement, d'influencer
vos émotions. données biométriques qui utilisent des caractéristiques
sensibles
telles que des
convictions politiques, religieuses ou philosophiques . Non, ils
ne sont pas autorisés. La biométrie est autorisée à
quelques exceptions près ou consiste également à créer
des scripts non ciblés d'images
faciales provenant d' Internet ou de séquences CCD pour générer des bases de données de reconnaissance scores sociaux, l'IA
la plus utilisée pour exploiter
les vulnérabilités des personnes, c'est les vulnérabilités des personnes, vrai, en raison de leur
âge ou de leur handicap, ils seront
totalement interdits. Ils ne plaisantent pas, à ce
sujet,
l'UE est très, très
sensible à la protection de la vie privée C'est pourquoi l'identification
biométrique à distance en temps réel
dans des espaces publics, sauf si je pense qu'ils ont
prévu certaines exceptions ou cela
, mais qu' ils ont complètement
interdit ces systèmes d'IA. Un risque élevé est un système autorisé
mais qui peut présenter des risques
importants pour santé ou la sécurité, droits
fondamentaux et les libertés fondamentales. Ils incluront les systèmes
d'IA utilisés dans les
infrastructures critiques ou dans votre enseignement. L'emploi est essentiel , comme les
services publics et gouvernementaux, n'est-ce pas ? Et ils nécessitent une conformité
stricte, des
exigences obligatoires strictes
avant de pouvoir les mettre sur le marché. Quelles sont ces exigences ? Vous devez effectuer une évaluation des
risques appropriée. Ils doivent remplir une évaluation des risques
appropriée, document d'évaluation d'
impact sur
ce qu'ils font, un document d'évaluation d'
impact sur
ce qu'ils font, des normes de qualité élevées, donc les données
utilisées par l'IA. Ils doivent
s'assurer que les données n'ont pas été compromises, empoisonnées
ou
influencées de quelque manière que ce soit. Ils doivent établir une
documentation détaillée et tenir des
registres. Si vous avez déjà participé
à un audit du RGPD, vous connaissez la quantité
de documentation que vous devez mettre à
disposition, n'est-ce pas ? Et bien sûr, la transparence. Vous devez donc fournir des informations
claires sur les capacités des systèmes d'IA et sur leur utilisation. Et c'est le cas si vous êtes
dans un système à haut risque. Ceci est extrait du site Web de l'UE. C'est comme si ce étaient les
conditions prévues par les étapes. Donc, si vous développez un système I à
haut risque, ils devront
se soumettre à cette évaluation. Il est enregistré dans la base de données de
l'UE et signé. En gros, vous obtenez le
marquage CE de l'Union européenne. Une fois qu'il a pris vie, il a été enregistré
dans la base de données sur les modifications. S'il y a des changements majeurs, vous devez revenir à la deuxième étape. Faites comme si l'approbation était terminée. systèmes à haut risque
sont très, très sérieux à ce sujet. Ils ne plaisantent pas
à ce sujet, non ? Enfin, le risque limité ou minimal
dont nous avons parlé ici, comme des choses simples comme
discuter d'une IA générative, qui ne prend pas de données, n'est-ce pas ? Vous voulez vous assurer qu'il
y a de la transparence à cet égard. risque limité ou minimal, c'est à peu près, ils ont le même risque minimal. Comme vous n'avez pas besoin de risques
limités, vous devez être divulgué. Le fait que vous utilisiez comme résultat est généré par l'IA. Voici donc à quoi
ressemble la loi EAI vue à
1 000 pieds d'altitude Comment vous y préparez-vous ?
Hein ? Donc, comme je l'ai dit, n'essayez pas de mémoriser la norme sauf si
vous êtes avocat. Même si vous êtes avocat,
je ne recommanderais pas mémoriser parce que ce n'est pas le but de la loi
EUAI, Alors que la loi est encore
sur le point d'être adoptée, vous pouvez commencer à être
proactif à ce sujet. Vous pouvez donc commencer à inventer
et à classer vos systèmes, mettant en œuvre un cadre de
gouvernance de l'IA Donc, pour s'assurer que
ces processus et un graphique sont là. Faire une analyse des lacunes, prioriser et déterminer les risques existants,
n'est-ce pas Et puis faire de la formation
et de la communication. Et au lieu que j'en
parle aveuglément, prenons une étude de cas, non ? Prenons l'exemple d'une entreprise qui
est sur le point de mettre en œuvre la loi européenne sur l'IA et
voyons comment elle s'
y prendrait pour que
vous vous en fassiez une meilleure idée. Cela met fin à cette leçon. Nous avons vu en quoi consiste la loi EUAI,
comment elle fonctionne, quelle est l'approche basée sur les
risques, comment les
systèmes d'IA à haut risque sont traités, et maintenant les exigences liées à l'approche basée sur les risques Prenons donc l'exemple
d'une entreprise et voyons à quoi ressemblera
la loi EUAI en action Merci et je
vous verrai dans la prochaine leçon.
5. 5 Acte de l'UE 2: Bonjour, tout le monde. Bienvenue,
bienvenue dans cette leçon, dans laquelle nous avons maintenant
parlé de la loi EAI Et comme je l'ai mentionné,
la loi sur les UAA peut devenir très difficile à lire Si vous ne faites que
lire la théorie, vous ne comprendrez pas,
vous l'oublierez. Je veux vous montrer comment une entreprise procéderait
théoriquement mise en œuvre
de
la loi EAI, Et il existe plusieurs
façons de le faire, mais nous allons prendre
un exemple simpliste afin que vous compreniez
les concepts clés Et n'oubliez pas que c'est
ce sur quoi je me concentre toujours, c'est pourquoi j'ai créé ce cours. N'essayez pas de mémoriser ces normes car vous les
oublierez, d'accord ? Si vous faites une étude de cas ou si
vous l'appliquez vous-même, vous n'oublierez jamais ces connaissances .
Et
c'est le plus important. Je pense que je vous ai également montré cette diapositive dans la leçon précédente. Mais c'est ainsi qu'une entreprise
typique se
préparerait à la loi EAI Ils inventorieraient et
classeraient. Qu'est-ce que cela signifie ? Ils passeraient en revue
les systèmes d'IA
et les cas d'utilisation existants et les
classeraient en fonction de la question suivante
: « Est-ce que j'ai des systèmes à
haut risque qui doivent être conformes
à la Loi sur les évaluations environnementales Vous pouvez utiliser un questionnaire, peut-être utiliser un système automatisé qui en découvre le
but. Si vous avez déjà un
inventaire, vous pouvez l'utiliser. Ensuite, ils mettraient en
œuvre un cadre de gouvernance de l'IA. Comme l'IA n'
existe pas en vase clos, elle a besoin d'un cadre de
gouvernance approprié. Il faut des comités. Vous avez besoin d'un tableau Act. Vous
devez mettre en place des processus pour réellement mettre en
œuvre correctement la loi EUA Ensuite, vous
ferez une analyse des lacunes. Nous effectuons donc une analyse appropriée des écarts par rapport aux exigences.
Qu'est-ce que tu as déjà ? Si vous avez un système d'embauche, combien de parties de la
loi EAA suis-je conforme ? Hein ? Ce qui se passe, c'est
que vous obtiendrez un plan d'action. Vous sauriez quels sont
les risques,
quels sont les problèmes, puis vous
hiérarchiserez et gérerez ces risques liés à l'IA, n'est-ce pas ? Vous commenceriez à
les appliquer, en essayant de les réparer. Peut-être que vous ne disposez pas de la documentation
appropriée, peut-être que vous ne disposez pas
des contrôles de sécurité appropriés en matière d'IA. Enfin, vous devriez commencer à vous la formation et de la communication car il y a beaucoup de choses. Peut-être que vos développeurs
devraient être mis au courant, votre haute direction devrait
être informée. Telles sont donc les étapes clés. Les principales étapes auxquelles vous
devrez réfléchir lorsque vous appliquerez la loi
européenne sur l'IA à l'avenir. Alors prenons une étude de cas, non ? Une étude de cas simple. Peut-être avez-vous une entreprise
technologique mondiale spécialisée dans l'
analyse de données, les systèmes d'IA, n'est-ce pas ? Et là, ils doivent
aligner leurs opérations sur
l'EUA La gestion des actes inquiète Km, et cela semble sérieux. Que se passera-t-il si
nous sommes condamnés à une amende, n'est-ce pas ? Parce qu'ils disposent d'un
très large portefeuille de produits
et services basés sur l'IA. Ils ont vraiment gagné beaucoup d'argent grâce au boom
de l'IA, mais ils se rendent compte maintenant qu'une
réglementation est imminente et ils sont
très intelligents dans ce domaine. Ils ont décidé de manière proactive
d'adapter leurs pratiques pour se conformer au nouveau paysage
réglementaire de l'IA dans l'Union européenne Ils vous ont embauché comme si
vous réfléchissiez
à la façon de vous y prendre, n'est-ce pas ? Donc,
comme je l'ai mentionné, la première étape consiste inventorier et à classer
vos systèmes d'IA, d'accord, pour en comprendre
les implications. Vous devez donc d'abord savoir si j'ai des modèles d'IA en cours d'
utilisation ou en développement,
ou si je suis sur le point de les acheter. Lequel pourrait entrer dans la catégorie la
plus élevée, n'est-ce pas ? Ils ont utilisé de nombreux services, comme les modèles existants qu'ils
ont achetés quelque part. Ou peut-être les ont-ils
construits en interne. Vous devez donc disposer de ce
type d'inventaire de modèles. Peut-être que vous pouvez le faire manuellement, en
distribuant des questionnaires. Ou peut-être avez-vous
un système
automatisé capable de découvrir rapidement
quels sont les systèmes d'IA. Supposons que vous utilisiez
le cloud, vous sauriez combien de
services d'IA vous utilisez, n'est-ce pas ? Il existe donc de nombreuses façons
de s'y prendre. Ce n'est pas une règle absolue, mais la première étape
consiste toujours à inventorier et à classer. Découvrez ce que vous avez et
ce qu'il faut faire, n'est-ce pas ? Supposons donc que
Data
Sphere soit un système présentant un risque élevé, prenons un exemple Ils disposent d'un outil de
diagnostic piloté par l'IA qui aide les médecins à identifier les maladies
rares sur la
base des données des patients. Et compte tenu de l'impact
potentiel sur santé des
patients et
de la nature des diagnostics médicaux, ce système d'IA présenterait risque élevé en vertu de la loi EAI Que devront-ils
faire ? Ils devront effectuer une évaluation détaillée des risques liés à
l'outil de diagnostic, n'est-ce pas ? Ils évalueraient
son impact sur la sécurité des
patients et l'
exactitude du diagnostic médical. Ils aimeraient améliorer
leur conformité pour s'assurer
que MI est conforme à
la loi EOAI ou non, n'est-ce pas ? que MI est conforme à
la loi EOAI ou non, n'est-ce pas Ils procéderaient à un examen éthique
et réglementaire. Quelles en sont les conséquences pour la vie privée et les préoccupations des
patients ? Ai-je l'autorisation
du patient ? Savent-ils que c'est
une loi de l'EUAI, n'est-ce pas ? Désolé, il s'
agit d'un système d'IA qui prend des décisions. Ils amélioreraient la gouvernance
des données, la confidentialité
des données et la sécurité
autour de ces contrôles, n'est-ce pas ? Transparence et divulgation. Fournissent-ils des
informations claires aux médecins et patients sur la manière dont l'outil d'IA
effectue ses diagnostics, données
qu'il utilise,
puis sur le
suivi du déploiement, n'est-ce pas ? Est-il donc déployé dans environnement
clinique contrôlé approprié avec une surveillance en place ? Et avez-vous de
la documentation et des rapports qui renseignent les
auditeurs sur ce qui est utilisé ? Et discutons-nous avec les propriétaires de soins
de santé, tels que
les hôpitaux, pour obtenir des commentaires ? Parce qu'en prenant ces mesures, ils s'assureront non seulement que leur outil de diagnostic
est conforme à la loi EAI, mais ils démontreront également
qu'ils respectent des normes élevées Voici les mesures
qu'ils devront
prendre pour s'assurer qu'ils sont
conformes à la loi EAI La prochaine étape serait d'améliorer le
cadre de gouvernance de l'IA, n'est-ce pas ? Peut-être qu'ils n'ont pas une
bonne gouvernance en ce moment. Personne ne se
consacre à l'IA. Ils n'ont aucune politique,
aucun cadre. Comment s'assureront-ils de savoir qui décide si un système d'IA est conforme ou
non et l'arrête ? Qu'est-ce que la liste de contrôle ? Est-ce que
quelqu'un les vérifie ? Est-ce que quelqu'un
implémente ces contrôles ? Ils ont besoin d'engager du
personnel. Ils doivent modifier leurs politiques
et leurs procédures. C'est donc là que votre
gouvernance de l'IA entrera en place. Cela peut relever de la gestion
globale des risques ou il peut s'agir d'une nouvelle fonction. Mais ce sont les décisions
que vous devez prendre. Et puis, bien sûr, avec l'analyse des
lacunes, vous obtiendrez une longue
liste
d'éléments, de choses à corriger. Vous devrez donc effectuer
une analyse appropriée des lacunes, découvrir les
domaines sur lesquels nous devons travailler. Ces politiques font défaut. Ces actions sont absentes. Ces personnes doivent être embauchées. Ces systèmes de gestion des risques liés à l'IA
doivent être corrigés. Ce sont donc les choses auxquelles
vous devriez
réfléchir et vous y atteler Faites en sorte qu'un suivi approprié
soit effectué, n'est-ce pas ? Et bien sûr, lors de l'évaluation des systèmes,
vous devez vous assurer que , d'
accord, les systèmes sont actifs. Une fois
que vous aurez obtenu la conformité ,
comment vous assurer que si un changement se produit, vous devrez
découvrir quels sont les changements Devons-nous effectuer un audit de
reconformité ? Toutes ces sortes de choses
doivent être là. Et plus tard, lorsque nous parlerons de la norme Photo One
qui applique un système de
gestion de l'IA, n'est-ce pas ? C'est là que l'UE agit et celle de l'ISO qui sort. Ils peuvent se
compléter et s'entraider. Et la gestion des risques liés à
l'IA, bien sûr, n'est-ce pas ? Cela se formera donc
dans le cadre de la gouvernance. Vous devez donc vous assurer que vos processus de gestion des risques ont été améliorés et qu'ils savent quels sont les bons moyens de déterminer les taux
de risque liés à l'IA. Les taux de
risque liés à l'IA sont très, très différents, n'est-ce pas, des attaques
traditionnelles basées sur l'IA. Problèmes de sécurité aérienne. Ils sont
tous très différents. Disposez-vous d'une méthode appropriée
pour identifier ces risques ? Et c'est là qu'interviendra le
cadre de gestion des
risques liés à l'IA du Nist , dont nous parlerons
dans les prochaines leçons Vous
devez donc réfléchir à toutes ces choses. Enfin, la partie que tout le monde déteste le plus,
c'est la documentation Comme je l'ai dit, si vous avez déjà
effectué un audit GDPR approprié, vous saurez quelle quantité de
documentation doit être rédigée, et cela rend tout le monde fou. Commencez à créer ce
référentiel pour vous assurer que tous les systèmes d'IA sont correctement
documentés, ce que vous avez fait. Donc, si quelqu'un vient
pour l'audit, vous avez cette
documentation complète à portée de main montrant quels étaient
les processus en place. Et bien sûr, la formation
des employés sur l' éthique et la conformité en matière d'
IA. Le personnel doit
être informé. Vous devriez former vos développeurs, vos scientifiques des
données, vos gestion des risques liés à l'IA,
vos cadres supérieurs,
afin de vous assurer qu'ils comprennent les afin de vous assurer qu'ils comprennent nouvelles obligations
qui en découleront. Cela favorisera une véritable culture consciente des
risques afin que les gens comprennent le nouvel environnement qui
se profile, n'est-ce pas ? Pour que les gens
n'
achètent pas de systèmes d' IA sans vous
en informer, sans en informer les équipes de gestion des
risques. Enfin,
la communication avec les parties prenantes afin que tout le monde sache est-ce que
l'hôpital est au courant ? Ils doivent nous informer en
cas de problème. Recevons-nous
des commentaires des hôpitaux, des médecins, en cas de
problème ? Savons-nous si un
incident se produit ? Comment informer les autorités
législatives de l'UE qu'un incident s'est produit ? Une documentation
appropriée et une description de poste appropriée
doivent être présentes. Les processus doivent être présents. C'est ainsi que vous
procéderiez à un haut niveau, appliquant la loi sur les évaluations environnementales J'espère que cela
vous a donné une meilleure idée. Maintenant, au lieu que je les
lise ligne par ligne,
voici les clauses
que je vous ai montrées comment une entreprise s'y prendrait pour
les faire appliquer Utilisez-le comme point de repère. Je suis sûr que vous pourriez probablement
ajouter d'autres éléments ici, mais c'est juste pour vous donner
une idée de haut niveau de la manière de
faire appliquer la loi EUAI De plus en plus d'
entreprises vont commencer à le mettre
en œuvre et nous
découvrirons de nouvelles choses. Mais cela vous donne
un très bon moyen de démarrer
avec la loi EUAI J'espère que cela
vous a été utile et je vous verrai
dans la prochaine leçon.
6. 6 NIST 1: Bonjour tout le monde Bienvenue,
bienvenue à la leçon. Dans cette leçon,
nous allons
approfondir un nouveau cadre d'IA, à savoir le cadre gestion
des risques liés à l'IA du Nist ne s'agit pas d'une loi, ni d'un règlement, comme la loi européenne sur l'IA,
dont nous avons parlé. Non, il s'agit d'un cadre, mais il est extrêmement
important et je vais vous montrer pourquoi et pourquoi il aura un impact
aussi important que la loi européenne sur l'IA telle que nous l'
avons évoquée. Cela aura
un impact mondial. Cela aura également
un autre impact mondial. Et comme je l'ai dit, il s'agit d'un, cela a été développé
spécifiquement pour faire face aux risques liés à l'IA. Si vous vous souvenez, lorsque nous avons
discuté de la loi européenne sur l'IA, ils ont parlé de la création d'un cadre de gestion des risques liés à l'IA. Eh bien, ça a l'air très bien,
mais comment s'y prenez-vous ? Hein ? Comment créer un
cadre pour évaluer, identifier et
gérer les risques liés à l'IA ? C'est donc là que
Nist s'est appuyé sur ce cadre qui est absolument
excellent Et nous allons approfondir cette
question dans cette leçon. Donc, tout d'abord, nous allons
expliquer qui est-ce, pourquoi devrions-nous les écouter ? Présentation du
cadre et aperçu, de ses composants et
de ses avantages. Et comme je l'ai dit,
comme je le fais toujours, nous allons faire une étude de cas, nous allons prendre
une entreprise qui met en œuvre ce cadre. Et quelles sont les
mesures de haut niveau qu'ils devraient prendre ? J'espère donc
que vous pourrez tirer ces leçons et les appliquer également
dans votre propre
environnement. Tout d'abord, qu'est-ce que le Nist ? L'Institut national des
normes et de la technologie. C'est un nom, une agence
de réglementation du département américain
du Commerce Leur mission est de
promouvoir l'innovation et la compétitivité industrielle ainsi que les différentes publications. D'accord, et si vous êtes
dans le domaine de la cybersécurité T, vous feriez mieux de les connaître pour le Nist Cybersecurity
Framework, ou CSF, qui
est essentiellement
un ensemble de directives
et de meilleures pratiques Le cadre a été
créé entre experts de
l'industrie et du gouvernement. Je pense qu'il est sorti il y a plus de
dix ans, en 2014. Et au départ, il était destiné à l'
infrastructure critique, n'est-ce pas ? Cependant, il s'agissait
d'un excellent document, les directives et
tout ce qu'il a utilisé se sont étendus au-delà des
infrastructures essentielles. Il a été largement adopté par les entreprises, à l'exception des infrastructures
critiques aux États-Unis et
dans le monde entier. Et presque tous les
secteurs l'utilisent d' une
manière ou d'une autre dans le domaine de la cybersécurité. Croyez-moi, vous
avez entendu parler de Nist. Et Nist CSF, ça
ressemble à ça, non ? Et ils l'ont récemment
mis à jour vers, je crois, 2.0. Ils avaient donc
autrefois le genre de co-fonctions de haut niveau. Au départ, il y en avait cinq,
ce qui revient à identifier, protéger, détecter,
répondre, récupérer, et maintenant ils en ont publié un
nouveau, Govern. Et il est extrêmement puissant
parce qu'il est flexible et qu'il peut être adapté aux besoins
spécifiques de n'importe quelle entreprise, n'est-ce pas ? Vous pouvez donc adopter les
meilleures pratiques et les meilleurs principes et les
utiliser pour améliorer votre entreprise. Vous vous demandez peut-être pourquoi
je vous parle
du framework de cybersécurité Nist que je vous montre ici Parce qu'alors vous
serez en mesure d'apprécier le
cadre de gestion des risques liés à l'IA parce qu' il est construit de
la même manière, n'est-ce pas ? Comme je l'ai mentionné, ils ont publié ce
framework entièrement gratuitement,
car ils
reconnaissent également le nombre de risques et de menaces
possibles avec l'IA. Cela a donc donné naissance au cadre de
gestion des risques liés à l'IA du
Nist Et à l'instar de la loi EUA, ils ne
parlent pas uniquement de points négatifs Ils veulent
maximiser l'innovation, maximiser les
aspects positifs de l'IA. Il vous propose une
approche structurée pour identifier, évaluer et atténuer
les risques liés aux systèmes d'IA. Et avec l'IA, c'est tellement technique. Vous devez donc avoir une
sorte de cadre. À quoi
ressemble le cadre, n'est-ce pas ? Donc, comme je l'ai dit, c'est un
ensemble de directives, non ? Ce n'est pas une loi, c'est
totalement facultatif. Si vous voulez le faire appliquer, oui. Si vous ne voulez pas l'appliquer,
personne ne peut vous y obliger. Hein ? Mais avant tout, le plus
important est d'être indépendant de la technologie. Il est conçu pour être
applicable de manière spécifique ,
quelle que soit
la technologie que vous utilisez. Il peut donc être appliqué à l'IA construite avec n'importe quelle technologie
sur le cloud sur site Cela permet à un
framework de rester pertinent et indépendant du fournisseur, de sorte qu'il n'est pas
adapté à une plate-forme cloud
en particulier Il est donc à la fois
indépendant du fournisseur et indépendant de la technologie. Et il définit ce qu'est un système d'IA
fiable. Cela vous donne donc des critères
très clairs. Qu'est-ce qu'
une IA digne de confiance ? Je vais vous montrer quels sont
les critères. Des choses comme l'équité,
la fiabilité, la transparence. Et cela vous donne des
directives claires selon lesquelles si vous développez un système et si
vous répondez à ces critères, votre IA sera
qualifiée de fiable. Et il est divisé en deux parties. Ils vous fournissent donc des
informations de base. Ce sont les principes de base
de l'IA, de la gestion des risques. Vous savez pourquoi vous en
avez besoin, quels sont
les concepts de base Et puis le cœur est la partie orientée vers l'
action. Et nous allons
montrer ce que cela signifie. Le cœur est l'endroit où vous
allez intégrer les processus d'atténuation, et voici à quoi
cela ressemble, voici à quoi ressemble le
cœur. Comme je l'ai dit, c'est une approche orientée vers
l'action, c'est ainsi que vous implémentez
la gestion des IA au sein de votre entreprise. Il détaille donc un
fonctionnement clé, comme établissement d'une
structure de gouvernance, la cartographie , la
mesure et la gestion du risque A. Et vous pouvez constater que le cadre
de cybersécurité
semble très familier . Donc, si je me contente de revenir
quelques diapositives en arrière, voici le Nist IRMF, et voici le cadre de
cybersécurité C'était donc le but de vous
montrer ceci, voici comment. Il faut adopter une approche très large mais
très détaillée mettre
en œuvre comme un cadre de gestion des risques
qui vous aidera à
identifier et à atténuer les risques liés à l'IA
dans votre environnement. Nous avons donc expliqué que Nist vous explique à quoi ressemble un système d'IA
fiable Quelque chose que votre
entreprise publiera, et les clients peuvent être sûrs qu'il ne sera
pas compromis, qu'il traitera
leurs données de manière équitable. Ce sont donc les aspects dont ils ont parlé,
valables et fiables. Cela ne réduit donc pas
les résultats qu'il reçoit, ils sont comme si
on pouvait compter sur
eux. C'est sûr. Cela ne
met pas les gens en danger. C'est sécurisé, non ? Cela ne sera pas
compromis demain. Résilient. C'est responsable
et transparent. Il vous indique donc comment il
prend ses décisions. C'est explicable. La
documentation est donc là. Cela protège la vie privée
et c'est juste. Il n'est donc pas biaisé en faveur
d'une race en particulier, d'une entreprise en particulier, d'un sexe en particulier. Il tient compte de
tous ces éléments. C'est ainsi que le Nist définit
le mal causé par l'IE. Ce préjudice peut arriver
à des personnes, comme celles qui reçoivent le
mauvais diagnostic ou qui se font percuter
par une voiture autonome. L'atteinte à la réputation d'une entreprise
peut être entachée, n'est-ce pas ? Leurs activités commerciales
peuvent être affectées. Et même des dommages à un écosystème. C'est donc quelque chose que
les gens oublient que vous connaissez, même l'écosystème
financier mondial, votre environnement mondial. À mesure que de plus en plus de choses
évoluent vers l'IA, ces choses
se mettent également en pratique. Il
prend en compte toutes ces choses. Quels sont donc les avantages du cadre
de gestion des risques de Nist Air Tout d'abord, c'est un
excellent moyen de mettre en place un cadre
de
gestion des risques efficace identifier et
atténuer les risques Cela vous donne de la fiabilité. Nous avons parlé de la façon dont il vous indique ce qu'est un système d'
IA fiable, n'est-ce pas ? Et cela
permettra de se conformer plus facilement
aux meilleures pratiques. Si vous avez implémenté NistirMF, nous allons en parler Il sera également plus facile de respecter les réglementations de la loi
EUAI, non ? Et il vous montre comment créer une véritable collaboration
au sein de votre propre entreprise. Tous ces éléments,
quand on y pense, déterminent ce
que l'on
appelle la réunion, ainsi que le respect des
autres réglementations. Donc, si vous le comparez
à la loi EUAI, le Nist est totalement
facultatif, Elle encourage l'adoption
volontaire, alors que l'UE est
plus contraignante. Il dit que non, tu dois le faire. Mais le cadre de
gestion des risques liés à l'IA du Nist peut servir de
guide pratique aux entreprises sur la manière mettre en œuvre les principes
et les exigences de la loi EUA Surtout lorsqu'
il n'y a pas beaucoup détails fournis, n'est-ce pas ? Comment mettre en œuvre un cadre
de gestion des risques, comment s'y prendre, n'est-ce pas ? Cela ressemble donc à un aperçu de
haut niveau cadre
de
gestion des risques liés à l'IA du Nist Voici donc ce dont nous avons
parlé, de quoi il s'agit, quels sont
les éléments clés, les fondamentaux
et ce qu'est une IA fiable Donc, comme je l'ai déjà dit, au lieu de me contenter de
bavarder et d'essayer de vous le
faire mémoriser, voyons comment appliquer le
cadre de gestion des risques liés à l'IA du NIST au sein de l'entreprise Merci et je
vous verrai dans la prochaine leçon.
7. 7 NIST 2: Bonjour à tous. Bienvenue,
bienvenue dans cette leçon, qui est la suite
de la leçon précédente. Dans celui-ci, nous
allons mettre en œuvre le cadre de
gestion des risques liés à l'IA du Nist et voir comment les mesures
seraient prises C'est donc similaire à
ce que nous avons fait précédemment, mais à un niveau élevé, sont les étapes
que vous devez suivre comprendre
le cadre évaluer votre
niveau actuel d'utilisation de l'IA. Ensuite, mettre en œuvre
l'essentiel
du cadre de gestion des risques et
veiller à ce que vous disposiez
d'une formation et d'un changement de culture au sein votre entreprise lorsqu'il
s'agit de le faire appliquer Et si cela semble très
similaire à la loi sur les évaluations environnementales, oui,
c'est exact. À l'instar des étapes qui s'y
trouvent, vous constaterez une grande cohérence entre car c'est
là que le chevauchement se produit et que cela devient plus facile pour
vous, n'est-ce pas ? Voici donc les
étapes que vous devez suivre. Vous auriez une
initiative éducative, non ? Vous devez vous assurer
que le personnel est formé au prochain cadre de
gestion des espèces aquatiques envahissantes, avantages et à
la manière dont
vous allez gouverner, cartographier, mesurer et gérer les espèces aquatiques envahissantes. Puis-je en
parler en détail, mais vous le feriez par le biais de
formations et d'ateliers pour assurer que les gens comprennent
comment cela se passe. Avant de le faire, comme si
vous faisiez une
évaluation, n'est-ce pas ? Hé, combien de
systèmes d'IA ai-je ? Il faudrait faire
circuler des questionnaires, examiner vos systèmes d'IA, consulter les parties prenantes,
n'est-ce pas ? Et peut-être
découvrirez-vous certains risques
au cours de cette première étape. Mais c'est ici
que tu ferais le tour. En général, examinez la documentation
existante, créez des enquêtes, des questionnaires, examinez vos systèmes d'IA juste
pour obtenir un inventaire de votre situation actuelle en
ce qui concerne votre utilisation de l'IA. C'est donc là que, une fois que vous avez
cet inventaire, vous pouvez commencer mettre en œuvre le cœur du cadre de gestion des risques de Nist AI, la première
partie
qui est « gouverner,
gouverner » est votre
cadre global, n'est-ce pas ? C'est pourquoi il se trouve au
milieu du schéma. Et vous
créeriez des politiques,
développiez ou mettriez à jour des politiques relatives à la gestion de l'IA, à utilisation
éthique de l'IA, à
la gouvernance des données, à la gestion des risques liés à l'IA. Et vous
aligneriez votre organisation. Qu'est-ce que cela signifie ? La gouvernance de l'IA ne doit pas être
une fonction isolée, n'est-ce pas ? La gestion des risques liés à l'air devrait relever de la gestion des
risques. Vous devriez avoir un tableau approprié. Vous créeriez une
véritable responsabilisation qui est
chargée de décisions de « go » ou «
non »
en matière d'IA ? Et vous bénéficieriez de la transparence
dans les politiques d'éthique. Y a-t-il un
système d'IA créé Il doit documenter
ce qu'il fait, comment il prend ses décisions. Et encore une fois, les parties prenantes, vous
devriez
contacter le service juridique, contacter vos
clients pour
savoir comment l'IA est appliquée. Quelles sont les choses
qui se passent ? Ce serait donc la première
partie qui concerne le gouverneur. La partie suivante concerne le mappage. Dans la
partie cartographique,
vous devez identifier les
risques existants. Vous avez donc l'inventaire, vous avez créé le cadre. Vous devez maintenant procéder à une identification
complète
des risques et avantages potentiels associés à chaque système d'
IA, n'est-ce pas ? Et cela peut être comme si l'IA est vulnérable
aux risques de sécurité, qu'
elle est biaisée, que les
données ne sont pas nettoyées. Vous contacteriez les
parties prenantes, le personnel
informatique, les data scientists, les parties
externes, n'est-ce pas ? Ensuite, il
faudrait tenir compte du contexte
dans lequel je travaille, n'est-ce pas ? Quel est l'
environnement réglementé, quelle est la dynamique du marché, quels sont les
impacts sociaux, comme vous pourriez le dire. Et vous, bien sûr, documentez
toutes ces découvertes. Il s'agit donc, selon vous, de la partie identification et vous devez
maintenant effectuer
la mesure. Vous avez donc identifié les risques, vous devez maintenant les quantifier ou les qualifier
en utilisant
une sorte d' analyse des risques pour déterminer
quels sont les domaines clés, tels que les
risques critiques, quels sont les risques élevés ? Utilisez vos propres systèmes internes de
notation des risques, n'est-ce pas ? Et vous établiriez également des indicateurs de
performance pour vos systèmes d'IA quoi servent les
indicateurs de performance ? Exactitude, équité, transparence, qu'est-ce qui est
inacceptable, qu'est-ce qui est acceptable ? Et vous envisageriez de mettre en
œuvre surveillance
continue de
vos systèmes d'IA, par exemple , et de mettre en
place une boucle de rétroaction. Vous créeriez donc une
sorte de mécanisme pour obtenir des informations sur le processus de gestion des
risques. Cette boucle informera et vous aidera à
ajuster vos systèmes d'IA. Et si le système NAS fonctionne, sa sécurité tombe
soudainement en panne ? Ou si la résilience diminue, comment le découvririez-vous ? Hein ? Vous feriez
de la surveillance et vous recevriez les
commentaires des utilisateurs. Cela vous permettrait d'avoir
une boucle de rétroaction constante. Enfin, il s'agit de
gérer le risque lié à l'IA. Maintenant que vous les avez identifiés,
vous les avez mesurés. C'est là qu'intervient l'
atténuation. Vous élaboreriez des stratégies pour atténuer les risques identifiés. Vous pourriez peut-être réentraîner le modèle d'
IA pour réduire les biais, mettre en place davantage de contrôles de sécurité, mettre en place une surveillance humaine Peut-être que l'IA prend
une mauvaise décision. Voici donc toutes les
choses que vous feriez. Bien entendu, vous aurez besoin de
ressources pour ce faire et pour vous assurer que les risques sont bien
atténués. Vous communiqueriez à propos cet ARS à vos parties prenantes. S'il y a un problème, comment en informer les
clients, n'est-ce pas ? Et cela se fait par le biais
de politiques et de procédures. Et bien sûr, tout
ce processus serait cyclique, non ? Vous feriez
des examens réguliers pour vous assurer que tout est
fait correctement. Et bien sûr, enfin, il en
va de même pour la loi EAI. Il faudrait faire un changement de
culture, non ? Assurez-vous que des formations
sont dispensées au
niveau de la
direction, au niveau intermédiaire, à
la fois
pour le personnel technique et le personnel de
sécurité.
Bien entendu, votre direction
doit être impliquée Cela ressemble donc à un cours
intensif application du cadre de gestion des
risques de Nist Air Prenons l'exemple d'
une entreprise au lieu de me
contenter de vous expliquer ce que vous devez faire.
Prenons une entreprise. Vous avez peut-être une entreprise de
taille moyenne qui se spécialise
dans les solutions analytiques
basées sur l'IA Et ils veulent
appliquer cadre de gestion de l'
IA parce qu'ils en voient les avantages. Ils veulent s'assurer que
tous les risques sont appliqués,
n' est-ce pas ? La première étape serait donc, bien entendu, de développer des ateliers
et des sessions de formation
animés par des experts. Ils embaucheraient des personnes
pour les faire appliquer. Et cette formation passerait en revue les principaux éléments
régissant la cartographie, mesure, ce
dont nous avons parlé, n'est-ce pas ? Et puis, bien sûr, ils
procéderaient à une évaluation, un audit de l'IA. Ils procéderaient à un audit
de tous les systèmes d'IA et détermineraient quels en sont les objectifs
et les risques potentiels. Ils utiliseraient peut-être les outils
existants et obtiendraient des informations par le biais de questionnaires sur l'impact de ces systèmes sur
leurs opérations les risques potentiels. Ensuite, ils commenceraient à appliquer le noyau
qui gouverne actuellement Ils mettraient à jour
toutes leurs politiques. Ils embaucheraient
des gens. Ils créeraient un cadre, non ? Et ils définiraient des
rôles et des responsabilités clairs. Écoutez, l'
approbation de cette personne est nécessaire avant qu'un nouveau système d'IA
ne soit mis en place. Et ce système, cette personne,
s'assurerait que tout système d'IA, lorsqu'il sera mis en production, est conforme au cadre de gestion des risques liés à
l'IA du Nist Avec vos
politiques internes et vos listes de contrôle. Et la prochaine étape
serait la cartographie. Ainsi, comme nous en avons parlé plus tôt, ils évalueraient les risques
et les avantages du système d'assurance-emploi. Faites une évaluation des risques appropriée afin de créer un
document contenant tous les résultats. Vous disposerez d'une liste
complète
des risques identifiés au cours de cette phase. Ensuite, à l'étape suivante, nous mesurerons où vous commencez à les
mesurer, n'est-ce pas ? C'est vous qui décideriez des indicateurs. Comment déterminez-vous si un
système est fiable, exemple s'il est sécurisé ? Et comment surveilleriez-vous ce
genre de choses ? Tous ces critères
seraient donc définis, la prochaine étape serait la gestion. Maintenant, il faudrait
atténuer, non ? Comment mettriez-vous en place les
contrôles s'ils disposent d'un système d'IA qui n'est pas
sécurisé, qui n'est pas équitable, qui n'est pas documenté ?
Vous devriez mettre
en place ces contrôles
et
revoir et mettre à jour périodiquement leurs stratégies de gestion des
risques pour vous assurer qu'ils s'
y conforment. Et nous en avons parlé tout à l'
heure, d'une formation, d'une formation
continue, car on
ne fait pas de formation une seule fois pour
ensuite l'oublier. Sinon, il n'y
aura aucun changement culturel. Vous devrez donc
faire toutes ces choses et quels en sont les avantages ? Vous
amélioreriez votre gestion des risques. Vous augmenteriez la
fiabilité de leurs systèmes, vous augmenteriez leur Comme je l'ai dit tout à l'
heure, Nist,
RMF s'aligne parfaitement sur RMF s'aligne parfaitement la loi sur l'IA. Vous pourriez utiliser
les systèmes d'IA de manière stratégique appropriée et votre
entreprise deviendrait les systèmes d'IA de manière stratégique appropriée et votre
entreprise deviendrait ainsi
plus résiliente aux risques
éventuels Donc, c'est juste avantage
après avantage, non ? C'est donc ce
dont nous avons parlé ici. Un exemple d'étude de cas avec les
principaux résultats de chaque étape, utilisez-le comme point de départ. Je ne dis pas que c'est le cas,
vous comprenez
maintenant tout sur le framework
NistirMF J'ai d'autres cours qui
approfondissent le cadre. Rappelez-vous ce que j'ai dit plus tôt, à savoir
que cela complète les directives
de haut niveau de l'EAI qui peuvent utiliser les deux Ce n'est pas une
loi sur les évaluations environnementales qui est obligatoire. , l'IRMF est plus facultatif, mais il est plus complet
et plus Utilisez-le, placez la loi EA
en haut et utilisez le Nist IMF pour créer le
cadre dont vous avez besoin J'espère que cela vous a été
très utile. Nous aborderons maintenant un autre
cadre et une autre norme dans
la leçon suivante. Merci, je te verrai là-bas.
8. 8 ISO 1: Bonjour, bonjour à tous.
Bienvenue dans cette nouvelle leçon, qui porte maintenant sur
une nouvelle norme, ISO 42 double 01, qui est un système de
gestion de l'IA. À ce jour, nous avons abordé quelques
cadres et réglementations. Vous devriez avoir une idée de leur
fonctionnement et des principaux éléments
qu'ils couvrent. Nous abordons maintenant un sujet très, très important
qui
est sorti récemment, à savoir SO 42 double 01. Si vous avez déjà travaillé dans le domaine de la
cybersécurité ou de la qualité, vous connaissez
probablement la norme ISO juste avant ISO 27 double 01, ISO 9001. Nous allons expliquer
comment utiliser la norme, comprendre ce qu'est un système de gestion de l'
IA, et nous allons réaliser une étude de cas
pour sa mise en œuvre,
n' est-ce Donc, tout d'abord, prenons un peu de recul
avant d'entrer dans le vif du qu'est-ce qu'un
système de gestion, n'est-ce pas ? Le
système de gestion est donc
conçu pour aider les entreprises à améliorer leurs performances en spécifiant une série de
processus et de pratiques structurés. Ils ont donc des systèmes de gestion de
structure de haut niveau, et il s'agit d'une structure commune de
haut niveau qui est
normalisée dans toutes les normes ISO.
Et pourquoi c'est comme ça ? Parce qu'il garantit la cohérence
et la compatibilité. Cela devient donc plus facile
si vous êtes certifié 9 001. Obtenir la certification
2701 sera plus facile, Parce que les mêmes clauses
sont suivies, la même structure qui
est suivie. Vous pouvez donc créer plusieurs systèmes
de gestion. L'un est un système de
gestion de la qualité, l'autre un système de gestion
de la sécurité de l'information. Et maintenant, vous avez un système de
gestion de l'IA, n'est-ce pas ? Et chacun de ces systèmes de
gestion est
spécifique à un domaine, comme indiqué ici. Vous avez donc 2701 pour la sécurité. Vous en avez une pour votre vie privée. Vous en avez maintenant une IA. Vous en avez un pour
la continuité des activités. Et cela permet aux
entreprises d'aborder des aspects spécifiques de
leurs domaines, n'est-ce pas ? Vous ne voulez pas avoir un seul système de gestion qui couvre tout ce sur quoi vous
voulez vous concentrer, à confidentialité ou la sécurité, ou l'IA,
et les systèmes de gestion. Ils aiment l'amélioration
continue. Ils mettent l'accent sur un processus
reproductible d' amélioration
continue qui est
reflété dans ce que l'
on appelle le plan, le
faire, le vérifier, l'agir. Nous
allons aborder cette question. Et cette approche
encourage essentiellement les entreprises
à
évaluer et à améliorer continuellement leurs pratiques d'obtenir de meilleurs
résultats au fil du temps. Il s'agit d'une approche basée sur le risque. Ces normes adoptent une approche de gestion basée sur
les risques, obligeant les entreprises à identifier, évaluer et gérer
les risques spécifiques
à leur domaine. C'est basé sur le risque, vous ne vous contentez pas
de tout mettre en œuvre, vous implémentez tout en
fonction du risque. Enfin et surtout, la
certification par des organisations
tierces qui,
une fois qu' elles ont développé et mis en œuvre un système de gestion, peuvent choisir de
se faire certifier selon une norme de système de gestion par des tiers indépendants. Cela implique généralement un audit
externe pour vérifier que le système de l'entreprise est réellement
conforme à cette norme. Et cela contribue vraiment à renforcer le
profil et la crédibilité de l'entreprise. Si vous êtes dans le domaine de la sécurité et que vous
obtenez la norme ISO 2701, si vous êtes dans le domaine de la
continuité des activités, je pense que c'est la norme 2201, je me trompe
peut-être Mais si vous êtes dans une qualité de 9 001 et que nous avons maintenant une norme d'IA, c'est
pourquoi elle est
devenue si importante, est-ce pas ? Et c'est
devenu une grande nouvelle. Tels sont donc les avantages
des normes de gestion. Comme je l'ai dit, ils sont reconnus à l'échelle internationale et
dans le monde entier. Tout le monde sait ce qu'est
la norme ISO 2701, les clients comptent sur les normes
ISO pour leur assurance
et leur confiance, n'est-ce pas ? Si vous vous rendez dans une cuisine et que vous vous
trouvez au sommet de la cuisine, cela indique que vous êtes certifié ISO 9001 Donc, vous savez que la cuisine
suit une norme de qualité. De même, pour l'
entreprise certifiée
27 double 01, et en plus de tous les avantages et de la maturité des processus, entreprises peuvent également les utiliser
comme un avantage concurrentiel Hein ? Ils peuvent fièrement
dire au client : regardez, je suis certifié ISO
2 double 01, n'est-ce pas ? Ce qui est comme la norme pour 27 double 01, qui est la
norme en matière de sécurité. Cela vous aide donc vraiment à vous
démarquer sur le marché. Et maintenant, nous atteignons
le SO 42 double 01. C'est ce que l'on appelle
un système de gestion de l'IA, une chose relativement nouvelle. Il s'agit d'un nouveau cadre conçu pour répondre au développement
et à
l'adoption rapides
de l' IA dans divers
secteurs, n'est-ce pas ? Et il définit un système de
gestion de l'IA. Qu'est-ce que c'est ? C'est comme un cadre complet conçu pour
fournir des politiques, objectifs et des procédures pour le
développement responsable de l'IA. Tout ce dont nous
parlions tout à l'heure avec cela et avec la
norme de l'UE, n'est-ce pas ? Et ils contribuent à mettre en
place une norme éthique afin que vous puissiez créer des systèmes d'IA fiables
et éthiques. Et le meilleur, c'est qu'il fournit aux
entreprises une approche
structurée pour intégrer entreprises ces processus tels que l'
éthique de la confiance et la gestion des risques. Il est donc conforme
à la loi EAI et autres normes ISO également parce qu'il suit
la même chose, à savoir la Nous avons parlé de
transparence tout à l'heure, de biais, manière de sécuriser ces systèmes d'IA. Toutes ces choses sont
résumées ici à un
très haut niveau Et en fait, si vous vous
conformez à la loi EA,
vous pouvez également mettre en place un conformez à la loi EA, système de
gestion de l'IA pour vous assurer que tous ces processus
sont suivis et pour la gestion des risques,
vous pouvez utiliser le nist Et nous allons
parler de la manière dont toutes ces différentes normes
peuvent être réunies. Voilà donc à quoi ça ressemble.
Vous pouvez vous rendre sur le site Web, faire un aperçu gratuit de son apparence
, juste pour avoir une meilleure idée de ce qu'
est un système de gestion de l'IA et de ce à quoi il
ressemblera, n'est-ce pas ? Il s'agit donc de la structure
de haut niveau. C'est très similaire à la norme ISO 27 D01. Il contient donc des
clauses de haut niveau et une annexe,
qui contient une liste
des contrôles
relatifs aux politiques relatives à l' IA, au cycle de vie du système d'
IA, cycle de vie du système d'
IA l'analyse d'impact et à la gestion des
données Ils comportent plusieurs clauses. Les clauses de haut niveau portent sur le
contexte de l'organisation,
comme la façon dont l'
organisation fonctionne, planification du
leadership, le
soutien, toutes ces
choses, à un niveau élevé. Ensuite, vous descendez jusqu'à l'
antar où l'on explique en détail les commandes
qui s'y trouveront En tant que direction, vous
devrez décider, accord, que dois-je
mettre en œuvre, n'est-ce pas ? Quelle est la portée du système de gestion de l'
IA ? Et si je décide d' aller jusqu'au bout,
quelles sont les commandes ? Je dois dire qu'il s'agit
d'une norme très mature, qui repose sur toute la puissance
de l'ISO. C'est pourquoi c'est
si important,
car les entreprises qui
développent ces systèmes d'IA seront
désormais en mesure d'obtenir une
certification selon des normes très
matures et de
se présenter comme certifiées
en matière d'IA. Maintenant, ce que nous allons faire, c'est aborder cette question
de haut niveau et nous avons parlé des
avantages la norme
SO 42 Zubondival, de sa structure Pourquoi ne pas jeter un
œil à l'étude de cas et voir si une entreprise
souhaiterait la mettre en œuvre Quelles seront les étapes
à suivre
et comment s'y prendraient-ils pour la mettre en œuvre ? Je te verrai dans la prochaine
leçon. Merci beaucoup
9. 9 ISO 2: Bonjour à tous. Bienvenue.
Bienvenue dans cette leçon, qui fait suite à
une leçon précédente sur la norme ISO 4201 Maintenant, nous allons
prendre une entreprise,
une entreprise fictive, et voir
comment elle est mise en œuvre. Une chose très importante, c'est
qu'en date du 2 février
2024, cette norme
vient de sortir. Les entreprises n'ont pas encore été certifiées pour effectuer des
audits selon cette norme. Mais ce n'est qu'une petite chose car c'est comme s'
ils allaient
obtenir une certification et vous devez
connaître le processus. Quelle que soit la norme que vous choisissez. En ce qui concerne l'ISO, elle suit le plan, le
faire, le vérifier, l'agir. C'est ce qu'ils recommandent. Qu'est-ce que c'est ? Il s'agit d'une méthode de gestion en quatre
étapes utilisée pour l'amélioration continue des processus et des produits. Et en ce qui concerne
les normes ISO, je les appelle le cycle PDCS Cela vous donne un cadre
systématique pour la mise en œuvre et la maintenance ces systèmes de gestion tels que 90012701 et maintenant
l'AISMS Et il est essentiel de
s'assurer que l'entreprise
continue de s'améliorer. Ils ne se contentent pas d'être audités et ils l'oublient, n'est-ce pas ? La première étape est donc de planifier. est là que les entreprises commencent à
identifier ce qu'elles veulent faire et les processus
que je dois mettre en œuvre. Quelle est la marge de manœuvre pour s'
auto-évaluer pour
découvrir où se situent les lacunes ? La deuxième étape est celle où ils commencent à mettre en œuvre
les processus du plan. Vous exécutez les choses et
agissez selon ce qu'ils ont décidé. La troisième étape consiste à
vérifier par où ils commencent à surveiller et à mesurer
les performances , les politiques et tout le reste, afin de s'assurer que tout fonctionne
correctement ou non. La dernière étape est celle
où, sur la base de l'analyse, ils continuent d'améliorer
l'amélioration continue du système pour améliorer les
processus et tout le reste, afin de s'assurer que cela se produit. C'est ainsi que fonctionne le PDC E. Ce n'est pas compliqué, c'est
très simple. Prenons donc une entreprise
et voyons comment elle s'
y prendrait pour la mettre en œuvre, d'accord ? Voici donc ce dont nous
parlions : les innovations en matière de
technologies vertes. Aujourd'hui, Green Tech ressemble à une entreprise technologique de
taille moyenne se concentre sur des solutions basées sur l'
IA pour le marché de
l'énergie durable. L'énergie verte, l'énergie
durable, qui est un
secteur très en vogue en ce moment. Et ils ont entrepris
de mettre
en œuvre la norme ISO 4201 Pourquoi ? Parce qu'ils
veulent vraiment montrer qu' ils prennent au sérieux les
obligations de l'IA responsable. Et ils veulent vraiment être à l'avant-garde de cette industrie. Et ils se rendent compte que
l'obtention de la certification ISO avec Willie les aide à obtenir
cet avantage concurrentiel Cela montre vraiment à leurs
clients qu'ils savent quel point l'IA responsable est importante disposer
d'un système de
gestion de l'IA mature. Et ils se sont occupés des
catégories énergétiques intelligentes, des ressources
renouvelables, de la consommation
d'énergie, n'est-ce pas ? Alors, comment s'y prendraient-ils ? Eh bien, tout d'abord, ce qui concerne les initiatives d'IA , quelle est la nécessité de
mettre en œuvre cette norme ? Ils avaient des
préoccupations éthiques, non ? Ils ne savaient pas s'ils s' acquittaient de toutes leurs
responsabilités éthiques ou non ? Les systèmes d'IA, lorsqu'ils prennent
leurs décisions, le
font-ils correctement ? Les données sont-elles
collectées correctement ? Et l'autre point, c'est que
j'évolue si vite qu'ils veulent disposer d'un cadre mature,
d'un système de gestion qui les
informera et ils
veulent s'assurer
qu'il s'intègre à leurs systèmes de
gestion
déjà établis tels que 27019001 C'est ici que l'
arrière-plan commence. Tout d'abord, allons-nous bien sûr planifier où ils établiront
le système de gestion des AA ? Le plus important, tout d'
abord, c'est une lunette. Il n'est pas nécessaire de mettre en œuvre une norme de gestion pour
l'ensemble de l'entreprise. Vous pouvez choisir un système, vous
pouvez choisir une unité commerciale, un domaine particulier, un département particulier à l'échelle d'un
département. Et c'est généralement ce qui vous
recommande de commencer modestement. Et chaque année, vous le cultivez
de plus en plus. OK. C'est donc
ce qu'ils ont fait pour la première fois. Ils ont défini le champ d'application, puis l'équipe de
direction de Green Tech a élaboré une politique
d'IE
appropriée conforme à
leurs normes. Et ils ont suivi
les clauses de
la norme ISO. Ils ont établi un contexte dans lequel l'IE opère, par exemple,
que faisons-nous ? Quels sont les
facteurs externes
et internes qui ont un impact sur nous ? Et ils ont organisé
des ateliers et des enquêtes pour comprendre quelles sont les
attentes des employés, des clients et des partenaires à leur
égard, n'est-ce pas ? Ils ont donc créé un écosystème
complet pour moi. L'étape suivante a été de le faire, où ils ont fait ce que l'on appelle une évaluation de
l'impact et des risques. Les évaluations d'impact occupent
une place importante dans l'AIMS, qui consiste à évaluer la manière dont systèmes d'
IA affectent
les individus individuellement, qu'il s'agisse de groupes ou de
la société dans son ensemble. Assurez-vous de
penser à la sécurité et transparence et de mettre en place
ces contrôles. Vous effectuez cette évaluation d'
impact et cette évaluation des risques pour assurer que
vous êtes conscient
des risques liés à
vos systèmes d'IA. Sur cette base, ils
décideront des contrôles
à retenir de l'annexe A, l'annexe de la norme. Il y aura une liste
de commandes, non ? C'est sur cela que vous allez vous concentrer, comme s'ils ne connaissaient peut-être pas la gestion des données. Nos données sont-elles collectées de manière ouverte, responsable
et transparente ? Les données d'entraînement sont-elles
correctement préparées ? La
préparation est-elle terminée ? Nous ne savons pas, n'est-ce pas ?
C'est donc sur cela qu'ils voudront se concentrer, car
c'est là que se situe l'impact. C'est là que réside le risque.
Ensuite, ils exécuteront les programmes de formation, car le
système de gestion de l'IA est un système. Ce n'est pas une solution,
ce n'est pas un produit. Il faudrait
créer une culture pour sensibiliser les employés
aux bonnes pratiques en matière d'assurance-emploi
et à l'importance de considérations éthiques
similaires
dans les systèmes d'IA, n'est-ce pas ? L'étape suivante est le contrôle, qui est l'évaluation des performances. Ils vont donc maintenant mettre en œuvre
des outils et des procédures pour s'
assurer que
ce
système de gestion de l'IA est surveillé. Et comme son impact,
fonctionne-t-il ou non ? Que les systèmes d'IA
soient affectés ou non. Ils ne se contenteront pas de surveiller,
ils effectueront des audits. Ils ont également établi un calendrier pour les audits internes. Les équipes internes
vont vérifier si le système de gestion de
l'IA est conforme
à la norme ou non pour s'assurer
qu'elles
respectent réellement la norme et qu'elles
suivent ses processus. Le dernier est Act, qui est une amélioration
continue. Ils créent des mécanismes de feedback. Ils vont répondre à des enquêtes, ils vont distribuer des questionnaires aux clients, aux utilisateurs, pour savoir si les applications
fonctionnent comme prévu. Que le
système de gestion AA soit efficace ou non. Sur la base de cette liste d' actions
correctives et de commentaires correctifs, ils vont
continuer à affiner les données, à améliorer
ces performances, et ils vont continuer à
s'améliorer année après année. Plus important encore, s'ils
souhaitent être audités, ils devront choisir un organisme de certification approprié. Pensez à des éléments tels que le nombre d'expériences, le nombre d'audits. Et ce sera difficile en ce
moment avec 42 double 01 car il
vient d'être publié. Mais vous pouvez vous tourner vers un organisme de
certification qui
a de solides antécédents
avec 27 fois le double 019001 Ensuite, vous pouvez faire ce que l'on appelle une pré-évaluation,
ce que font les auditeurs. Ils peuvent l'utiliser pour
effectuer un audit rapide afin de vous indiquer si vous répondez aux
exigences ou non. Vous pouvez vous en
servir pour affiner vos processus et comprendre ce que l'auditeur examinera. Ensuite, bien sûr, vous préparez
un audit, assurez que toutes les lacunes
sont identifiées et corrigées. Vous effectuez votre certification
et vous vous
souvenez qu' elle doit être maintenue et
améliorée au fil du temps. Cela n'a rien à voir avec
ce que vous appelez, n'
est pas de la science des fusées. Il s'agit d'un processus très clair
et bien défini. Quels en sont les résultats ? Bien sûr, quel en est
le résultat ? Vous aurez plus de confiance,
plus de crédibilité. Parce que vous avez atteint
cette étape importante en
obtenant la certification
242, soit le double d'un. Vous obtiendrez une meilleure
gestion des risques parce que vous disposez désormais d'un système de
gestion approprié, système de
gestion
dans lequel gestion des
risques et tout le reste
y sont ancrés Et bien sûr, votre processus
s'est amélioré et vous disposez d'un cadre
approprié, n'est-ce pas ? Un
système de gestion approprié et mature est en place. Aujourd'hui, lorsqu'ils explorent de
nouvelles opportunités liées à l'IA, ils ont cette
confiance, n'est-ce pas ? Ils savent que nous avons mis
en place
un cadre de gouvernance approprié qui nous
indiquera si le système AS n'est sécurisé ou il ne répond pas aux exigences C'était donc tout à partir de l'ISO. Nous allons maintenant passer à
une norme plus technique, le framework d'intelligence artificielle de
Google. Et je vous verrai à la
prochaine leçon, tout le monde. Merci.
10. 10 Google SAIF 1: Bonjour tout le monde. Bienvenue.
Bienvenue dans cette leçon, qui porte sur le framework
Google SAA IF Il s'agit maintenant d'un
framework de Google et c'est un framework tout à fait
unique par rapport aux autres dont
nous avons parlé précédemment. Pourquoi ? Parce qu'il est très
axé sur la sécurité. Pas
les autres dont nous avons parlé, ils se concentrent davantage sur le
risque et davantage sur
la gouvernance et davantage sur les systèmes de
gestion, n'est-ce pas ? Mais celui-ci, le
Google SAI Framework, est parfaitement aligné sur les dimensions de
sécurité de l'IA. Lorsque vous parlez de
créer des systèmes d'IA, concentrez davantage sur l'IA.
Et c'est une bonne chose. C'est pourquoi je l'
ai inclus dans ce cours. Pourquoi ? Parce que j'ai l'impression que les frameworks d'IA sont
parfois un peu trop élevés et
qu'ils n'abordent pas en
profondeur la sécurisation de l'IA. Et c'est là que le Google
SAI Framework peut entrer en jeu. Et c'est
un cadre absolument incroyable. Vous devriez l'étudier,
surtout si vous souhaitez l'
utiliser pour compléter des éléments tels que le
cadre de gestion des risques liés à l'IA du Nist dont nous avons parlé ou la norme ISO 4201, ensemble de l'IA de Google peut vraiment être un excellent complément
, peut vraiment être un excellent complément car
il s'agit plutôt d'une
solution il s'agit plutôt d' de base lorsqu'il
s'agit de sécuriser l'IA. Et c'est ce dont nous
allons parler ici. Dans cette leçon, nous
allons parler du cadre, des concepts clés
et, bien sûr, de la manière de toujours le mettre en œuvre
à l'aide d'une étude de cas sans
tarder Parlons d'abord du
cadre. Alors, qu'est-ce que le framework
d'intelligence artificielle sécurisé de Google ? C'est ce que je transfère, le framework d'IA sécurisé. Il s'agit donc d'un
cadre conceptuel pour sécuriser les systèmes d'
IA qui s'
inspire des
meilleures pratiques de sécurité de Google. Il s'inspire des meilleures
pratiques de sécurité qu'ils ont appliquées à des domaines tels que
le développement de logiciels et se concentrent davantage sur l'IA. Pourquoi ? Parce que c'est
très important. Au fil des années,
Google constaté les types d'
attaques qui peuvent se produire et a conçu ce
cadre spécifiquement atténuer les risques liés
aux systèmes d'IA,
tels que le vol du
modèle, l'empoisonnement des données, les injections
rapides, vous savez, les injections de
données, l'empoisonnement des données, toutes ces sortes de choses. Les capacités de l'IA étant de
plus en plus intégrées dans
des systèmes similaires à travers le monde, la sécurité de
ces systèmes deviendra
d'autant plus importante si vous me suivez
sur n'importe quelle plateforme. Vous savez, je parle
beaucoup de la sécurité de l'IA parce que j'ai l'impression que c'
est un domaine très sous-représenté
et que peu de personnes ont cette
expertise dans ce Le SIF s'inspire donc des meilleures
pratiques de sécurité de Google et répond aux
problèmes de sécurité spécifiques à l'
IA en se concentrant sur la gestion des
accès, la sécurité des réseaux et des
terminaux, ainsi que la sécurité des
applications. C'est donc de cela que nous
allons parler ici et à quoi cela
ressemble-t-il à un haut niveau ? Voici donc les six éléments
fondamentaux de Google, le framework d'intelligence artificielle sécurisé. Regardons-le un par un. La première consiste à étendre bases de sécurité
solides à l'écosystème de l'IA.
Qu'est-ce que cela signifie ? Cela signifie tirer parti de
votre infrastructure
et de vos protections sécurisées par défaut pour protéger les systèmes d'IA. Vous savez, toute cette cybersécurité qui est devenue si mature, vous devez vous assurer
qu' elle couvre également les
systèmes d'IA, n'est-ce pas ? Prenons donc un exemple. Nous connaissons les injections SQL, vrai, où vous
devez assainir les entrées Vous devez maintenant appliquer la même désinfection des entrées pour vous
protéger contre des techniques
telles
que les injections rapides, n'est-ce pas ? L'autre consiste à étendre la
détection et la réponse pour intégrer l'IA dans l'univers des
menaces d'une organisation. Vous savez à quel point la rapidité
est essentielle
pour détecter et répondre aux cyberincidents liés
à l'IA Vous souhaitez donc étendre
vos informations sur les menaces, n'est-ce pas, comme une entreprise, cela peut inclure la
surveillance des entrées et des
sorties d'
IA générative pour détecter les anomalies. Comme si c'était quelqu'un qui
essayait de perturber le système NII. Et en utilisant les renseignements
sur les menaces pour anticiper de telles attaques. Vous pouvez donc collaborer avec votre équipe
Soc et tout le reste, n'est-ce pas ? Ensuite, les défenses
automatisées
permettent de suivre le rythme des menaces existantes
et nouvelles. En tant qu'innovations en matière d'IA, elles peuvent améliorer l'échelle et la rapidité de votre
réponse aux incidents, n'est-ce pas ? Les cybercriminels le savent
également C'est pourquoi ils
vont utiliser l'IA pour amplifier l'impact de
leurs cybermenaces C'est pourquoi il est si important d'
utiliser l'IA comme moyen de défense car vous utiliserez l'IA pour combattre des menaces spécifiques à l'
IA. D'accord, ne considérez pas simplement IA comme quelque chose qui
peut être attaqué. Pensez-y comme quelque chose qui peut également protéger
vos systèmes. OK. La prochaine étape consiste à
harmoniser les contrôles au niveau de la plateforme afin de garantir
une sécurité uniforme dans l'ensemble de l'organisation. La cohérence entre
vos frameworks peut
donc contribuer à atténuer les effets de l'IA. Également atténuation de l'AIS. Vous devez donc vous assurer que comme toutes les protections dont
vous disposez déjà, vous les avez étendues à vos plateformes
sous-jacentes. Par exemple, si
vous utilisez AWS Sage Maker, il doit être renforcé conformément aux meilleures
pratiques, n'est-ce pas ? Et en veillant à ce que
toutes vos configurations, qu'elles soient renforcées ou configurées, soient cohérentes au sein de
l'entreprise OK, le cinquième est d'
adapter les contrôles pour ajuster les médicaments et créer boucles de rétroaction
plus rapides
pour le déploiement de l'IA. Tests constants des mises en œuvre grâce à l'apprentissage
continu Il peut garantir que les capacités de détection
et de protection sont similaires
aux nouveaux types d'ordinateurs
qui apparaissent. Vous pouvez donc utiliser des outils tels que l'apprentissage
automatique basé sur les
incidents et les commentaires des utilisateurs. Vous pouvez donc mettre à jour votre
entraînement, mettre à jour votre IA et affiner les
modèles pour répondre de
manière stratégique aux nouveaux types d'
attaques qui se produisent. Hein ? L'IA peut détecter les comportements
anormaux et
ajuster les commandes en
temps réel pour s'en assurer Et c'est quelque chose
de tout à fait nouveau. Auparavant, nous devions modifier
manuellement les contrôles, augmenter ou diminuer nos contrôles
de sécurité. Avec l'IA, vous pouvez
complètement automatiser. Et le numéro six est la
contextualisation des risques liés aux systèmes d'IA
dans les processus
métier environnants Réaliser des
évaluations de bout en bout des risques liés à la manière dont les
entreprises vont déployer l'
IA vous aidera à prendre des décisions éclairées, n'est-ce pas ? Vous devez procéder à une évaluation portant exemple, sur
le risque commercial, comme la validation des données, sur le
genre de choses qui se passent ? Et en gros,
parlez du risque ici, comme nous en avons
parlé dans le cadre de
gestion des risques liés à
l'IA, en veillant à ce que tout soit piloté par un processus basé sur les
risques. C'est donc à un niveau élevé que sert le
cadre d'IA sécurisé. Comme vous pouvez le constater, c'est plus technique et cela se limite
au niveau de la plateforme. Cela dépend des attaques existantes et de la manière dont nous procéderions pour
les mettre en œuvre. C'est assez simple. Vous comprendrez l'utilisation, elle est très similaire à ce nous avons déjà
parlé auparavant. La première étape serait de
comprendre l'utilisation. Comprendre l'utilisation professionnelle
spécifique pour
laquelle vous utilisez l'IA. Quelles données sont utilisées, quels
protocoles seront utilisés. La prochaine étape serait de
constituer l'équipe. Tout
comme les systèmes dont nous avons parlé, ils sont assez complexes
et comportent un grand nombre de pièces
mobiles, n'est-ce pas ? Vous devez vous assurer
que toutes les équipes informatiques consacrez à la protection de la vie privée en sont conscientes et que vous faites
partie
d'une équipe multidisciplinaire qui peut contribuer à
atténuer ces risques liés à
l'IA,
quelle
que soit l'équipe à laquelle vous vous partie
d'une équipe multidisciplinaire qui peut contribuer à
atténuer ces risques liés à
l'IA,
quelle
que soit l'équipe . Ensuite, selon Google,
la troisième étape consiste un framework d'IA, c' est-à-dire que les
équipes doivent être similaires, correctement formées et créer un framework d'IA, c'
est-à-dire que les
équipes doivent être similaires,
correctement formées et informées des nouveaux types de méthodologies,
des nouveaux
types d' attaques
qui se produisent
tout au long du cycle de
développement d'un modèle Et le dernier consiste à appliquer les six éléments fondamentaux
du SCIF, celui dont
nous avons parlé Et souvenez-vous des six étapes. Ils ne sont pas censés
être chronologiques, d'accord ? Vous pouvez les appliquer dans n'
importe quel ordre, importe quel ordre à condition d'appliquer
ce 61 dont nous avons parlé. Ce n'est donc pas comme si vous
deviez partir de la gauche et redescendre un par un. Non, vous pouvez les appliquer tous ensemble, étape par étape
ou de manière séquentielle, mais selon vous, ce qui convient le mieux à votre
organisation C'est ce qui ressort du Google SAI Framework, High Level Overview. Nous pouvons maintenant
parler de la mise en œuvre ce cadre, comme je le fais toujours avec une étude de cas, et voir comment une entreprise s'y prendrait pour
mettre en œuvre ce cadre. Et je te verrai dans la
prochaine leçon.
11. 11 Google SAIF 2: OK, tout le monde. Bonjour,
bienvenue à cette leçon. Et maintenant, nous allons
implémenter le framework Google SAI au sein d'une entreprise,
comme je le fais toujours. Jetons donc un coup d'œil à
ce dont nous parlons. Nous avons donc ici un flic bancaire
mondial, qui est une banque
internationale de premier plan. Et ils vont déployer
des forums de discussion alimentés par l'IA pour vous offrir un service
client personnalisé. Ils vont utiliser le
traitement du langage
naturel et l'apprentissage automatique, un peu
comme un chat de type chat
GPT pour
traiter les différentes demandes des
clients
issues de la gestion des comptes Et vous pouvez imaginer à
quel point cela
pourrait
être dangereux si quelqu'un parvenait à le pirater ou à
contourner les contrôles de sécurité. Compte tenu de la
nature sensible des données concernées,
la banque va donc décider d'adopter le framework SEI de Google pour garantir un déploiement
et une mise en production. Nous allons donc utiliser
les mêmes étapes
dont nous avons parlé plus tôt. Et nous allons
commencer par la première étape, qui consiste à comprendre l'utilisation. Alors, que va faire la banque ? Ils vont définir les objectifs spécifiques
et
la portée de cette initiative,
comme le forum de discussion. Quel est donc l'objectif ?
Ils veulent fournir un service
client personnalisé
2047, mais ils veulent maintenir le plus haut niveau de
sécurité et de confidentialité Les exigences en matière de données
concerneront l'interaction avec le client , les
données, les détails du compte , l'historique des
transactions,
toutes ces sortes de données très sensibles, n'est-ce pas ? Et les résultats escomptés
seront la réduction des temps de réponse, satisfaction des
clients
et la sécurité des données. En utilisant toutes ces informations, la banque va procéder à une évaluation des risques
appropriée, n'est-ce pas ? Pour identifier les menaces potentielles, par exemple ce qui va se
passer
avant de passer à l'étape
suivante, n'est-ce pas ? Ils vont donc procéder à une évaluation des risques
appropriée et s'assurer qu'ils
comprennent quel est le risque. La deuxième étape consiste à constituer l'équipe dont vous avez
parlé plus tôt, afin qu'elle puisse constituer une véritable équipe interfonctionnelle. Vous pourriez avoir des spécialistes de l'IA
et du ML, des experts en sécurité
informatique pour
vous assurer que tout
est sécurisé le chatbot ne sera
pas compromis. Responsables de la
conformité en matière d'injection rapide. Vous voulez vous assurer que les réglementations
de l'UE ou du Nist
doivent peut-être être respectées Les ISO,
ils le suivent. Les responsables du service client,
car sont eux qui
interagiront le plus avec cela. Et les défenseurs de la vie privée
veillent à ce que les données
soient correctement collectées. Nous avons donc une équipe diversifiée qui
veille à ce que le chat pot soit utilisé
lors de son déploiement. Toutes ces multiples parties prenantes s'y
impliquent. La troisième étape consiste à
définir le niveau avec l'IA premium
dont nous avons parlé. Un programme de formation à l'IA approprié. Principes fondamentaux des machines à intelligence artificielle, liste
de sécurité des techniques de langage
naturel spécifiques à l'IA et utilisation éthique de l'IA. Cela permettra de s'assurer
que l'équipe aura une bonne compréhension des aspects
techniques et éthiques du projet. C'est ce que recommande le Google
SAI Framework. La quatrième étape est maintenant que nous en aux six éléments de base
qui s'y trouvent. Le premier était d'étendre
les bases solides en matière de sécurité. Ils vont évaluer leur
infrastructure de sécurité existante sur laquelle la plateforme d'IA
sera hébergée. Le chiffrement sécurise les API, l'authentification
appropriée sont là ils peuvent étendre leur
détection et leur réponse. Ils vont donc devoir développer un modèle de
détection des menaces spécifique
à l'IA pour s'assurer que, peu importe ce qui se passe
dans le chat,
si une activité malveillante est détectée,
ils puissent immédiatement être alertés sur le
lait Le troisième est l'
automatisation des défenses. Ils vont
tirer parti de
l'apprentissage automatique pour améliorer les mécanismes
de défense. Ils vont donc
automatiser la détection
et la réponse aux menaces de
sécurité dans les conversations sur les
forums de discussion afin de
s'assurer que toute attaque se produise. Ils ont la capacité de
répondre automatiquement et
peuvent bénéficier d'une supervision humaine
pour les cas plus complexes. Le quatrième serait d'harmoniser les contrôles
au niveau de la plate-forme Ils vont standardiser, nous en avons parlé plus tôt, contrôles de sécurité sur toutes les
plateformes impliquées dans
le cycle de vie de
ce forum de discussion,
qu' il
s'agisse du développement
ou du déploiement Vous pouvez y avoir des commandes. Le numéro cinq serait d'
adapter les contrôles. mesure que le système de chat sera de
plus en plus intégré, la banque utilisera l'
apprentissage automatique pour continuer à adapter
ses contrôles de sécurité à mesure que de
plus en plus de menaces
apparaissent, car l'environnement des menaces de sécurité est très dynamique, en
particulier dans le domaine de l'IA. Enfin, il est contextualisé en
tant que risque lié au système d'IA. Ils peuvent ainsi intégrer la gestion de l'IE et de la sécurité dans leur cadre de gestion des risques
plus large. Tous les enseignements qui en
découleront seront
pris en compte dans le cadre des autres risques opérationnels
et de la prise de décision Et quels en sont les
avantages ? Bien sûr, vous pouvez voir
qu'ils
réussiront probablement à défier les chats alimentés par l'
IA. Ils vont améliorer leur cadre
de
réponse aux clients sans compromettre
la sécurité ou la conformité. s'agit donc simplement de
vous montrer un moyen pratique
de mettre en œuvre le cadre
Google SAI. C'est un
excellent cadre, surtout lorsque vous pouvez
l'utiliser en complément d' autres cadres tels que le règlement
EAI ou ISO Nist, car il est plus
technique et explique en profondeur
comment cette taxe C'est ce
dont nous avons parlé ici, par
exemple, qu'est-ce que Google SF ? Quels sont les éléments clés et comment les mettre
en œuvre ? J'espère que vous avez une
bonne idée de Google. Je recommande que
ce soit totalement gratuit. Allez-y et jetez-y un coup d'œil. Lisez-le et faites-vous une bonne idée de ce que
Google recommande. Vous devez comprendre Google comme s'il y avait une raison pour laquelle il
s'agit d'
une grande entreprise technologique, l'une
des plus grandes entreprises du monde. Ils disposent donc d'une mine
d'informations qu' ils sont librement
insérées dans ce cadre. Ne laissez donc pas cette
information aller vers l'ouest. Parcourez-le et comprenez parfaitement
le cadre. Merci à tous, je
verrai dans la prochaine leçon.
12. 12 Comment utiliser: Bonjour tout le monde. Bienvenue,
bienvenue dans cette leçon, qui explique comment
utiliser ces connaissances. Et c'est presque
la fin du cours. Maintenant, j'ai découvert
que les gens sont confus à
propos de ces cadres, c' que les gens sont confus à
propos de ces cadres, qu'ils sont tellement nombreux
, n'est-ce pas ? Nous avons parlé de Nest, de Google, ISO, de l'UE,
de toutes ces réglementations. Cela devient donc une sorte d'affaire, comment puis-je utiliser ces
informations, n'est-ce pas, si je veux juste atténuer
les risques existants. Il existe donc de très nombreuses
façons de s'y prendre. Et c'est là tout l'intérêt de bien suivre ce cours. Vous devez comprendre que
chacun de ces cadres s'adapte d'une manière
particulière, n'est-ce pas ? La réglementation européenne sur l'IA est comme une
loi, elle est donc obligatoire. Tu n'as pas vraiment le choix. L'ISO 4201 peut être considéré comme un complément
au framework Nist AI De même, comme le, Google peut être considéré
comme un niveau inférieur, ce qui concerne
la sécurité de ces systèmes. N'oubliez donc pas de penser aux domaines communs que
sont la fiabilité, les évaluations des
risques, la
gouvernance, qui sont communs que soit le
cadre dont vous avez Et voyez quels
sont les points forts de chaque framework. Vous pouvez donc implémenter
tous
ces éléments ou en prendre certains
qui vous sont applicables, ou vous pouvez créer
votre propre cadre conforme à chacun d'entre eux. Ainsi, même si vous implémentez
votre propre framework, vous serez automatiquement
conforme à chacun d'entre eux. Et si vous voulez regarder,
voici comment je le visualiserais. Donc, l'une ou l'autre réglementation de l'UE en matière d'IA
figurerait en tête, parce que c'est une loi, n'est-ce pas ?
Tu dois le faire. Ensuite, vous pouvez mettre en place un système de gestion de l'
IA pour avoir un véritable parapluie sous lequel tout fonctionne. Et vous pouvez le faire en parallèle avec
un système de
gestion de la sécurité de l'information tel que le 2701 Et croyez-moi, de nombreuses personnes ont dit
que l'EO, la loi sur l'IA, indiqueront que lorsque
vous pensez aux systèmes à
haut risque, elles voudraient que
quelque chose comme le SO 4201 y soit mentionné OK ? Et puis, lorsque
vous examinez tous ces cadres pour
parler de risque, n'est-ce pas ? Nous voulons disposer d'un cadre de
gestion des risques. n'y a pas de meilleur
cadre de gestion des risques que Mist, car
il explique en détail comment le mettre en
œuvre afin qu'ils
puissent
se compléter et que vous puissiez
mettre en œuvre un cadre de
gestion des risques approprié basé
sur St. Et enfin, bien sûr, il se compléter et que vous puissiez mettre en œuvre un cadre de
gestion des risques approprié basé s'agit
davantage de la sécurité de ces plateformes sous-jacentes, où vous pouvez implémenter
le framework SIF de Google. Donc c'est juste pour vous
donner une idée. Je ne dis pas que c'est
ce que vous devez mettre en œuvre, c'est
ce que je vous
recommande si vous voulez tirer le meilleur parti de tous
ces frameworks, n'est-ce pas ? Et il n'y a pas que
ces frameworks, vous en avez de nouveaux qui sortent. Une norme ISO
en cours d'élaboration est axée sur
les directives de sécurité de l'
IA, afin de faire face aux menaces de sécurité et aux défaillances des systèmes d'IA. Donc c'est plutôt cool.
J'ai vraiment hâte de voir celui-ci quand
il sortira, non ? Et je recommande que, quel que soit le pays dans
lequel vous
vous trouvez, vous aurez une
stratégie nationale pour l'IA. Je suis basé à Londres, au Royaume-Uni. J'examine donc la stratégie nationale en matière d'
IA, dont plan décennal vise à
faire de la Grande-Bretagne une superpuissance mondiale de l'
IA aux États-Unis Ils ont un
décret pour le
développement et l'utilisation sûrs, sécurisés et fiables de l'IA Je recommanderais de
passer par là. Ce n'est pas une loi, mais toutes les lois en découleront
probablement. Si vous vivez aux
États-Unis, au Moyen-Orient, où je travaillais auparavant, vous avez une
stratégie nationale en matière d'IA à 2031, n'est-ce pas ? Il suffit de
lire toutes ces choses pour mieux
les comprendre. Et vous verrez
beaucoup de points communs, comme des modèles communs
à chacun d' entre eux, et cela vous donnera une très bonne idée de leur
fonctionnement OK. J'espère donc que cela vous
a été utile. Maintenant, ce que vous allez faire, nous allons
terminer ce cours. J'espère que cela vous a été très utile
et que vous en avez tiré des
connaissances tangibles. Je vous verrai à la toute prochaine
fin de ce cours.
13. 13 Résultat: Bonjour à tous.
Bienvenue dans ce cours et bienvenue à la fin de ce cours où
nous concluons. J'espère que cela vous a été utile. Une chose que je recommanderais est de poursuivre notre parcours
d'apprentissage. L'IA est un
domaine qui évolue très rapidement et beaucoup de choses que vous apprenez font que je garde
délibérément ce
cours à un niveau élevé. Je ne veux pas parler d'une technologie en
particulier, car quelle que soit la technologie dont
je parle deviendra obsolète
très, très rapidement. Mais n'oubliez pas que l'IA
est là pour durer et que de nombreux nouveaux emplois seront créés. Restez donc au courant des tendances
du secteur. Restez à jour, continuez à apprendre. Et tu vas continuer à grandir. Je vous félicite donc d'
avoir suivi ce cours. J'essaie de faire en sorte
que ce ne soit pas un long cours, 4 heures ou 5 heures. Je n'aime pas ces cours
parce que les gens s'ennuient. J'espère donc que vous en avez tiré
des informations tangibles. Souvenez-vous du projet, c'est-à-dire que
je veux que vous preniez
ces informations et que vous créiez votre propre cadre, votre propre cadre de
gouvernance de l'IA. Ou prenez une norme
comme Google ou ISO Nest et essayez de l' appliquer au sein de votre
entreprise pour voir comment elle fonctionne. Donc, ce site Web a attiré tout le monde. J'espère que cela vous a été utile. Si vous souhaitez me contacter, j'ai une newsletter
sur Substack et je suis là sur Linked in
et sur Youtube Je vais essayer d'
y mettre les liens et vous pourrez me
contacter. C'est toujours un plaisir d'avoir
des nouvelles de vos étudiants. Merci de laisser un commentaire. Si vous pensiez que ce cours vous
a donné de bonnes informations
tangibles. Si vous pensiez que c'était
le pire cours de tous les temps, dites-le-moi s'il vous plaît. C'est toujours un plaisir de
recevoir des commentaires. Merci beaucoup et je vous
souhaite bonne chance dans
votre parcours en matière de gouvernance de l'IA et de gestion des
risques. OK, je te verrai et je
te verrai au prochain cours.
Merci à tous.