Cours accéléré sur les réglementations et les cadres en IA - 2024 | Taimur Ijlal | Skillshare
Menu
Recherche

Vitesse de lecture


  • 0.5x
  • 1 x (normale)
  • 1.25x
  • 1.5x
  • 2x

Cours accéléré sur les réglementations et les cadres en IA - 2024

teacher avatar Taimur Ijlal, Cloud Security expert, teacher, blogger

Regardez ce cours et des milliers d'autres

Bénéficiez d'un accès illimité à tous les cours
Suivez des cours enseignés par des leaders de l'industrie et des professionnels
Explorez divers sujets comme l'illustration, le graphisme, la photographie et bien d'autres

Regardez ce cours et des milliers d'autres

Bénéficiez d'un accès illimité à tous les cours
Suivez des cours enseignés par des leaders de l'industrie et des professionnels
Explorez divers sujets comme l'illustration, le graphisme, la photographie et bien d'autres

Leçons de ce cours

    • 1.

      1 Intro

      8:56

    • 2.

      2 Risques de l'IA

      8:06

    • 3.

      3 cadres-cadres d'IA

      12:07

    • 4.

      4 Acte de l'UE 1

      11:42

    • 5.

      5 Acte de l'UE 2

      9:04

    • 6.

      6 NIST 1

      8:17

    • 7.

      7 NIST 2

      8:40

    • 8.

      8 ISO 1

      6:49

    • 9.

      9 ISO 2

      8:04

    • 10.

      10 Google SAIF 1

      8:06

    • 11.

      11 Google SAIF 2

      5:15

    • 12.

      12 Comment utiliser

      3:39

    • 13.

      13 Résultat

      1:33

  • --
  • Niveau débutant
  • Niveau intermédiaire
  • Niveau avancé
  • Tous niveaux

Généré par la communauté

Le niveau est déterminé par l'opinion majoritaire des apprenants qui ont évalué ce cours. La recommandation de l'enseignant est affichée jusqu'à ce qu'au moins 5 réponses d'apprenants soient collectées.

6

apprenants

--

À propos de ce cours

Dans le domaine qui évolue rapidement de l'intelligence artificielle, naviguer dans le réseau complexe de frameworks et de règlements est crucial pour garantir un déploiement et une gouvernance éthiques. Ce cours complet vous propose une exploration en profondeur des cadres et réglementations clés en matière d'IA, notamment la loi sur l'UE en matière d'IA, le NIST AI RMF, le SAIF de Google et ISO 42001, et vous permet de naviguer dans le paysage juridique et éthique du développement et du déploiement de l'IA.

Ce que vous apprendrez

  • Le rôle et les implications critiques des réglementations et des cadres en IA dans le paysage technologique moderne.

  • Des aperçus détaillés des principaux règlements et cadres en matière d'IA : la loi sur l'UE en matière d'IA, le NIST AI RMF, le SAIF de Google et la norme ISO 42001.

  • Le processus d'alignement des projets d'IA sur les normes internationales et les exigences juridiques.

  • Études de cas démontrant l'application et l'impact de ces cadres et règlements.

Aperçu du cours

Introduction aux règlements et aux cadres d'IA

  • Aperçu de l'IA et de son potentiel de transformation.

  • L'importance des cadres éthiques et réglementaires dans l'IA.

Plonger en profondeur dans les cadres et les règlements d'IA

  • Comprendre la loi sur l'IA de l'UE : portée, exigences et implications

  • Explorer le RMF AI NIST : principes, pratiques et application

  • Le SAIF de Google : un modèle pour le développement de l'IA

  • ISO 42001 : créer un système de gestion de l'IA

Études de cas

  • Analyse des mises en œuvre réussies et stimulantes des règlements de l'IA.

  • Leçons tirées d'applications réelles.

Qui devrait suivre ce cours

Ce cours est adapté aux personnes désireuses de maîtriser les dimensions juridiques et éthiques de l'IA, notamment :

  • Ingénieurs en IA et en apprentissage automatique

  • Scientifiques des données

  • Professionnels du droit en technologie

  • Décideurs et régulateurs

  • Défenseurs de l'IA éthique

Prérequis

Il est recommandé de comprendre de base les notions et les technologies de l'IA, mais il n'est pas nécessaire de maîtriser au préalable des réglementations ou des cadres juridiques.

Rejoignez-nous dans ce voyage pour démystifier le paysage complexe des réglementations et des cadres en IA, en veillant à ce que vos initiatives en IA soient non seulement innovantes, mais également responsables et compatibles.

Rencontrez votre enseignant·e

Teacher Profile Image

Taimur Ijlal

Cloud Security expert, teacher, blogger

Enseignant·e

Compétences associées

IA et innovation Bases de l'IA
Level: Beginner

Notes attribuées au cours

Les attentes sont-elles satisfaites ?
    Dépassées !
  • 0%
  • Oui
  • 0%
  • En partie
  • 0%
  • Pas vraiment
  • 0%

Pourquoi s'inscrire à Skillshare ?

Suivez des cours Skillshare Original primés

Chaque cours comprend de courtes leçons et des travaux pratiques

Votre abonnement soutient les enseignants Skillshare

Apprenez, où que vous soyez

Suivez des cours où que vous soyez avec l'application Skillshare. Suivez-les en streaming ou téléchargez-les pour les regarder dans l'avion, dans le métro ou tout autre endroit où vous aimez apprendre.

Transcription

1. 1 Intro: Bonjour, bonjour à tous. Bienvenue dans mon nouveau cours, le cours intensif sur les réglementations et les cadres relatifs à l'IA. Le but de ce cours est maintenant de vous renseigner sur les différents types de cadres et de réglementations en matière d'IA qui ont été élaborés. Et pour vraiment vous donner une longueur d'avance sur la compréhension des différents types de réglementations qui apparaissent, tous les cadres sont publiés. Parfois, il semble qu' une nouvelle réglementation soit publiée littéralement chaque mois où nous en entendons parler. Parce que l'IE se développe si vite, n'est-ce pas ? Les réglementations de l'IE évoluent si rapidement. Nous avons donc besoin de ce type de contrôle et de réglementation. C'est donc là tout l' intérêt de ce cours. Les objectifs de ce cours sont très simples : vous faire comprendre l'IE mondiale, le paysage réglementaire, n'est-ce pas ? Tous les cadres existants, pourquoi sont-ils nécessaires, quel est le problème ? Et pourquoi avons-nous besoin de tant de cadres et de normes en matière d' IA ? Ensuite, nous allons prendre en compte les réglementations et les cadres d'IA les plus importants et les plus critiques qui existent. Nous allons les étudier en profondeur et je vais vous donner quelques conseils pratiques de mise en œuvre. Donc je ne le fais pas, je ne vais pas simplement tendre la main, lire la norme, n'est-ce pas ? Parce que tu n'as pas besoin de moi pour ça. Je veux dire, tu peux le faire toi-même, honnêtement. Il suffit de le télécharger et de le lire. Non, je vais vous donner les étapes pratiques de mise en œuvre. Comment, ce que nous allons faire, c'est prendre études de cas et des exemples de ces spéculations et normes Ensuite, voyez comment une entreprise s'y prendrait pour mettre en œuvre ces normes. C'est donc le but de ce cours, vous donner une longueur d'avance sur les réglementations et la gouvernance des AA, ce qui est extrêmement critique dans le monde d'aujourd'hui. Alors pourquoi devrais-tu m'écouter ? Juste une brève introduction. Je m'appelle Tamurislahal. Je suis un leader de la cybersécurité plusieurs fois primé. J'ai remporté quelques prix ici et là. Je travaille dans le domaine de la cybersécurité depuis 21 ans. Et ces dernières années, je me suis davantage concentré sur la création cours et de contenus, ainsi que sur la rédaction, afin de redonner à l'industrie. J'aide également les gens à se lancer dans la cybersécurité. J'ai une chaîne Youtube appelée The Cloud Security Guy. J'aurais aimé avoir des millions de followers, mais c'est une très petite chaîne. Mais en gros, je parle de sécurité du cloud dans les yeux. J'ai également écrit un livre à succès et un créateur de cours sur plusieurs plateformes Vous pouvez vérifier que ce ne sont là que quelques-uns de mes livres. J'ai écrit des livres sur l'IE, la gouvernance et la cybersécurité. Écrivez pour les débutants, Zero Trust pour les débutants. Je n'aime pas écrire des livres très compliqués et approfondis. J'ai toujours l'impression qu'il faut laisser les gens se lancer rapidement dans une technologie en particulier , puis les laisser trouver leur voie. Hein ? J'écris également sur les médias et sur Linked, comme je l'ai dit, sur une chaîne Youtube. Je suis là sur Twitter. J'ai également une newsletter gratuite dans laquelle je partage essentiellement des informations sur les carrières en cybersécurité. Pourquoi utiliser l'IA pour la sécurité dans le cloud ? Ce sont donc les choses que je voulais simplement montrer, car je m'y connais un peu IA quand j'en parle. Alors, tout d'abord, pourquoi avons-nous besoin de réglementations sur l'IA ? Et les entreprises comme celles-ci sont essentiellement des directives, des cadres de normes conçus pour atténuer les risques liés à l'IA. en stimulant l' innovation et en renforçant la confiance dans les systèmes d' IA, quel est le problème ? Eh bien, tout d'abord, des considérations éthiques . Qu' est-ce que cela signifie ? Eh bien, les systèmes d'IA peuvent prendre des décisions qui peuvent avoir un impact sur les vies humaines et la société, n'est-ce pas ? Si l'IA prend une décision, comme vous accorder un prêt bancaire, et qu'elle prend une décision injuste, elle prend une mauvaise décision, n'est-ce pas ? Cela peut réellement avoir un impact sur votre gagne-pain, votre famille, n'est-ce pas ? Et si l'IA est utilisée pour faire appliquer la loi et qu'elle prend une mauvaise décision, cela peut entraîner l'arrestation de cette personne. Encore une fois, ce ne sont pas de petites choses, non ? C'est pourquoi les réglementations relatives à l' IA doivent fournir des directives garantissant que les systèmes d'IA sont conçus et utilisés dans le respect des droits de l'homme et des valeurs. Nous avons également comme objectif la sûreté et la sécurité, de penser aux systèmes d'IA, en particulier dans des domaines tels que les soins de santé, la défense des transports. Ils doivent être fiables et sûrs, non ? Et les réglementations garantiront que systèmes d' IA sont soumis à des tests et à une validation rigoureux afin de s'assurer qu'aucune défaillance susceptible d'entraîner des dommages ou même la mort de personnes ne se reproduisent. Hein ? Enfin, ce qui est ma spécialité, les systèmes d' IA peuvent être vulnérables aux menaces de sécurité telles que les violations de données, manipulations, et c'est pourquoi vous avez également besoin de contrôles de cybersécurité. Ainsi, toutes ces choses où l' IA est utilisée dans des domaines critiques, tels que les hôpitaux, les systèmes criminels, les domaines financiers, peuvent avoir un impact énorme. C'est pourquoi vous avez besoin de réglementations pour définir les meilleures pratiques, les cadres et les normes en matière d'IA. C'est de là que tout vient maintenant. Alors, malheureusement, quel est le problème que j'ai constaté et pourquoi j'ai fait de ce cours un cours intensif, n'est-ce pas ? Et j'en ai délibérément fait un cours intensif. J'aurais pu faire un cours de dix heures parce que je sais que les gens s' ennuient, honnêtement. Le problème avec l' apprentissage des cadres d'IA est qu'il est important de reconnaître ce fait, à que les discussions sur les cadres et les réglementations relatives à l' IA peuvent parfois sembler un peu arides et trop complexes. Parce que le sujet est, c'est vrai, vous avez ce langage juridique avec des concepts techniques avancés. Cela le rend très inaccessible aux gens ordinaires. Le but de ce cours est de décomposer tous ces éléments complexes et de les rendre accessibles. D'une certaine manière, tout ce que j'ai dit à propos ce cours l'a rendu accessible à tous, n'est-ce pas ? Et l'autre problème est de s'y retrouver dans le paysage, car l'un des plus grands défis est l' l'un des plus grands défis est l'existence d'un trop grand nombre de cadres C'est comme naviguer dans une grande jungle. Vous avez tellement de cadres. Comment savoir ce qui est le plus important, ce qui s'applique à moi ? Et cela peut entraîner de la confusion, ce qui rend les choses difficiles pour. Les développeurs, les responsables de la cybersécurité, les responsables de la gouvernance, les entreprises doivent décider quel cadre est pertinent pour eux. Et l'autre point concerne la mise en œuvre pratique. L'autre problème que j'ai constaté est l'écart entre ces cadres et leur application pratique. Les directives proposent donc des principes de très haut niveau, comme parfois vous entrez trop dans les détails techniques, tels que la manière dont l'algorithme d'apprentissage automatique doit être configuré. Il y a donc un chaînon manquant, non ? pratiques et exploitables Je souhaite donc vous donner des conseils sur la manière de mettre en œuvre ces réglementations dans vos entreprises habituelles, dans le cadre de vos activités quotidiennes, afin de vous aider à comprendre comment procéder, n'est-ce pas ? Et en vous assurant que vous êtes capable d'appliquer ces connaissances. Alors, à qui s'adresse ce cours ? Ce cours s'adresse à tous ceux que je suis, professionnels, que vous travailliez dans risque, du droit et de la conformité, la cybersécurité, que vous soyez un directeur informatique, directeur technique ou toute personne intéressée par l'AIS Il n'est pas nécessaire d'avoir une connaissance approfondie de l'IA. Une simple compréhension de base suffira . Et pourquoi devriez-vous vous y intéresser ? Je pense que je n'ai pas besoin de passer trop de temps là-dessus. Vous savez déjà que l'IA a un impact sur tous les secteurs, sur toutes les normes, n'est-ce pas ? Et les entreprises veulent ce type de normes et de points de référence industriels afin de créer le meilleur système d'IA , compétitif et fiable. Et ils veulent s' assurer qu'ils suivent correctement les meilleures pratiques de l'IE. Lorsque vous obtenez une norme ISO pour votre entreprise, vous dites aux gens : écoutez, je suis certifié ISO, même manière que vous le souhaitez pour l'IA. Et enfin, pourquoi vous devriez vous en soucier. L'IA a également un impact énorme sur le secteur de l'emploi. Et c'est ce dont je voulais parler. Il existe une énorme demande de compétences en matière de gouvernance des scans basés sur l' IA. Selon Gartner, d'ici 2026 modèles d'IA capables de rendre opérationnels la transparence, la confiance et la sécurité de l'IA permettront une amélioration de 50 % en termes d' adoption, une amélioration de 50 % en d' objectifs commerciaux et d'acceptation Les gens les accepteront, non ? Ils voudront disposer de ce type de systèmes d'IA. Vous voulez obtenir la confiance du public, afin qu'elle stimule l'innovation. De plus, vous avez des études qui montrent comment IA générative transforme le monde du travail, n'est-ce pas ? Comme beaucoup de gens s'inquiètent de la perte d'un emploi, ils ne se rendent pas compte du nombre de nouveaux emplois qui seront créés. Il y aura des pertes d'emplois, sans aucun doute n'importe qui, car l'IA prendra en charge de nombreuses activités. Mais de nouveaux emplois vont également être créés. Et d'ici 2030, ils estiment que cela aura un impact énorme sur l'économie. Et les entreprises rechercheront évidemment des personnes possédant des compétences en IA. Donc, en suivant ce cours, vous investissez réellement dans votre avenir. Vous vous assurez d'avoir les compétences nécessaires, d'accord ? Et vous pouvez constater que 96 % des entreprises rechercheront des travailleurs possédant des compétences en IA. Et l'IA n'est pas uniquement technique. Beaucoup de gens sont confus, ils pensent que j'ai besoin de connaître les sciences des données ou les statistiques. Non, vous pouvez avoir cette connaissance des cadres de l'IE, de la gouvernance et de l'IA, n'est-ce pas ? C'est donc ce que je veux que tu fasses dans ce cours. Je veux que vous compreniez les normes et les cadres existants, que vous compreniez les concepts courants, que vous passiez en revue les études de cas, puis que vous appliquiez les connaissances que vous avez apprises. Alors, comment appliquerez-vous ces connaissances ? Nous aurons un projet. Je vais te donner une mission à accomplir. Je veux que vous preniez cela et que vous l'appliquiez pour bien comprendre comment ce projet fonctionnera. J'espère donc que cela vous a motivé. J'espère que vous comprenez maintenant l'immense nouveau monde dans lequel vous vivez. Il s'agit d'un autre domaine dans lequel la gouvernance de l'IA et les risques peuvent vraiment vous permettre de briller et de laisser votre propre marque. J'espère que tu es enthousiaste. Que vous soyez exposé à un risque lié à l'IA ou à la cybersécurité, c'est un excellent moyen d' investir dans votre avenir. Alors allons-y et je vous verrai dans la prochaine leçon. 2. 2 Risques de l'IA: Bonjour à tous. Bienvenue, bienvenue dans le prochain module qui porte sur And I Risks. Comme une brève introduction. Comme je l'ai déjà dit, ce que nous allons aborder ici c'est brièvement que je vais vous parler de l'IA et des types de risques liés à l' IA. Voici des exemples de défaillances de l' IA impression que vous en êtes au courant , vous pouvez les ignorer. Je vous recommande de ne pas l'ignorer, car il vous donne cadre et le contexte ce cours et explique pourquoi nous en avons besoin Parce que je veux vraiment que vous compreniez le contexte dans lequel ces cadres ont été créés. Qu'est-ce que l'IA ? Avant d'approfondir cette question, je veux que vous compreniez une chose très cruciale : vous n'avez pas besoin d'être un technicien pour l'IA. Il est utile d'avoir ce contexte. Mais non, je connais de nombreuses personnes qui ne sont absolument pas techniques, car IA est un outil indispensable pour comprendre les réglementations et les cadres des AA. Il vous suffit d'avoir une compréhension approfondie de l'IA et cela fonctionnera, honnêtement. Vous ne vous laissez donc pas intimider par l'IA. OK ? Beaucoup de gens s'inquiètent. Vous pouvez approfondir autant que vous le souhaitez, mais une simple compréhension de haut niveau fonctionnera également pour vous. Alors, qu'est-ce que l'IA ? L'intelligence artificielle est une branche de l' informatique qui se concentre sur la création systèmes qui exécutent des fonctions généralement associées à l'intelligence humaine, telles que le raisonnement, l'apprentissage et le développement personnel. C'est la définition d' un livre ennuyeux. En termes simples, les systèmes d'IA. L'intelligence artificielle est une branche de l' informatique laquelle les systèmes informatiques se comportent comme des humains. Comment ? En prenant des décisions telles que le raisonnement et la compréhension des informations. Comment travaillons-nous, les humains ? Nous prenons beaucoup d' informations que nous en tirons et nous les utilisons pour nous améliorer. C'est exactement ainsi que fonctionne l' IA, non ? Pour les programmes classiques, comme votre calculatrice, il suit un ensemble d'instructions fixes et ne change pas à moins que vous ne le mettiez à jour manuellement. Alors que les systèmes d'IA peuvent s'améliorer. Ils peuvent donc réellement utiliser les informations existantes et les informations précédentes et les utiliser pour devenir plus intelligents au fil du temps. Et l'IA peut prendre des décisions basées sur l'analyse des données. Il peut évaluer des situations complexes, non ? Et il peut imiter la façon dont les êtres humains prennent des décisions. Alors que, comme je l'ai dit, les ordinateurs ont juste un ensemble d'instructions prédéfini, vos applications habituelles, ils ont un ensemble d'instructions prédéfini. Il peut donc gérer l'ambiguïté et son meilleur atout est l'automatisation Il peut faire les choses tout seul, non ? Comme les voitures autonomes. Vous n'avez pas besoin d' êtres humains pour entrer et conduire une voiture, n'est-ce pas ? Il fonctionnera tout seul. Ces capacités semblables à celles de l'homme sont à l'image de l'IA. Comment l'IA change réellement le monde depuis 2022. J'aurais cru que Chip est sorti même si j'existais bien avant cela. Je parlais d' IA avant cela. Chagpt et génératif, cela a vraiment rendu les AA accessibles aux gens ordinaires C'est pourquoi le sujet suscite tant d'intérêt. Maintenant, comment fonctionne l'IA sans trop s'intéresser à l' apprentissage automatique et comment fonctionne l'apprentissage automatique supervisé et non supervisé ? Comment fonctionne le deep learning ? En termes simples, l'IA absorbe une grande quantité de données, n'est-ce pas ? Ensuite, il utilise un algorithme pour trouver des modèles dans ces données. Ensuite, il utilise ces modèles pour prendre des décisions concernant les événements futurs qui se produiront. Donc, si vous voulez le décomposer, il faut une grande quantité de données provenant de différentes sources, n'est-ce pas ? Il peut s'agir de chiffres ou de données non structurées, comme des images, et il trouve des modèles, des corrélations là où les êtres humains ne le font peut-être pas Cela peut donc prendre, c' est là qu' intervient l'apprentissage automatique, n'est-ce pas ? Comme son nom l'indique. La machine est en train de l'apprendre, prendre toutes les données et d'en tirer des enseignements. Si vous lui donnez beaucoup d'images faciales, il trouvera des motifs et pourra ensuite reconnaître d'autres personnes. C'est vrai. Sur la base de cela et ces modèles et informations qui sont pris pour les données. C'est pourquoi j'ai dit qu'il prend des décisions concernant l'avenir. Par exemple, une IA peut prédire le comportement des clients. Il peut diagnostiquer des problèmes de santé. Ou il peut être optimisé, comme les itinéraires des véhicules, les itinéraires logistiques, n'est-ce pas ? Plus il reçoit de données, plus il s'améliore, plus il s'améliore, plus il s'améliore. Tout cela ressemble à un cycle constant, non ? Voici comment fonctionne l'IA en quelques mots. Et bien sûr, nous en avons déjà parlé. Je ne vais pas y perdre trop de temps, mais bien entendu, IA aura un impact énorme d' ici 2030, 15 billions de dollars. Il affirme qu'il peut apporter sa contribution honnêtement. Et bien sûr, il y aura une interruption massive de l'emploi, sorte que les gens se concentreront davantage sur les pertes d'emplois. Il y aura certainement des pertes d'emplois, car les emplois que les êtres humains peuvent occuper, une grande partie de l'IA le sera, mais de nouveaux emplois seront créés. OK. C'est pour cela que les gens oublient le nombre d'emplois qui seront supprimés. Vous oubliez le nombre de nouveaux emplois créés. Personne ne parlait de gouvernance de l' IA, de sécurité de l'IA, comme il y a quelques années en 2021. Je me souviens que j' en parlais. Personne ne payait d'intérêts parce que, tout simplement, personne ne s'en souciait autant. Mais aujourd'hui, l'IA a changé le monde, n'est-ce pas ? La perturbation, elle s'est produite. C'est pourquoi de nouvelles industries sont créées. Ne vous inquiétez donc pas ou ne vous effrayez pas à propos de l'IA, adoptez-la et tirez-en des leçons. Et comprenez le potentiel de l' industrie et, bien sûr, quel en est le risque ? L'IA est donc adoptée par des industries critiques, n'est-ce pas ? Vous avez des choses comme les soins de santé, l'application de la loi. Et le plus important, c' est que l'IA n'est pas parfaite. Il peut prendre des décisions erronées ou biaisées. Si vous lui fournissez des informations erronées, il peut développer une lutte contre les biais. Comme je l'ai dit plus tôt, cela peut avoir un impact énorme sur les personnes et les sociétés. Tu peux même le tromper. Vous pouvez le manipuler ou le tromper. Et il peut être attaqué par des cyberattaques. C'est là que nous constatons l'énorme impact que peut avoir l'IA, n'est-ce pas ? Que se passera-t-il si l'IA arrête accidentellement la mauvaise personne pose un mauvais diagnostic médical ou si l'IA n'accorde pas prêt à une personne alors qu'elle en a désespérément besoin ou d'un traitement médical ? Hein ? Nous parlons impact réel et, comme je l'ai dit, il peut être manipulé. En outre, cela peut être trompé. Par exemple, si vous avez un système de reconnaissance faciale, vous pouvez créer une fausse image et tromper le système d'IA. Et bien sûr, nous sommes confrontés à de nouveaux types de cyberattaques qui se profilent à l'horizon, toutes ces choses C'est comme un nouveau monde créé grâce à l'IA, n'est-ce pas ? Voici donc quelques exemples. Je veux dire que vous trouverez des millions d'exemples sur Internet. Ce pauvre homme a été mal identifié par un système A et il a en fait été arrêté Vous pouvez donc imaginer à quel point cela pourrait avoir un impact, quel point cette pauvre personne aurait été traumatisée à cause de la reconnaissance faciale Basé sur Ai, il était utilisé et cela a conduit à son arrestation. Encore une fois, les voitures autonomes étaient de plus en plus introduites dans ce domaine Je suis au Royaume-Uni et vous voyez que les voitures autonomes sont en train d'être testées. Mais malheureusement, ils ont commis des erreurs et ont coûté des vies humaines, est-ce pas ? Des accidents se sont produits. Vous pouvez donc imaginer à mesure que les voitures autonomes deviennent de plus en plus populaires, les types d'attaques qui peuvent se produire, les types d'incidents qui peuvent se produire, et cela peut avoir un impact réel sur la vie des gens. C'est pourquoi nous devons nous assurer de pouvoir atténuer les risques liés à l'IA. Et c'est là que moi, les règlements entrent en jeu , c'est vrai, et c'est dommage. Malheureusement, de nombreuses entreprises, en particulier celles du secteur privé, se soucient davantage des profits, n'est-ce pas ? Leur priorité n'est pas de mettre en place des réglementations, des contrôles et une gouvernance. C'est pourquoi vous avez besoin de ce règlement pour dire «   attendez, arrêtez ». Vous ne pouvez pas aller de l'avant sans mettre ces contrôles en place. Et les réglementations relatives aux AA font toujours défaut. Ils sont encore en train de rattraper leur retard. Le rythme auquel est développé est bien plus rapide que n'importe quelle réglementation. Et même les entreprises responsables éthiques ont dit non, nous devons nous assurer d'atténuer les risques. Ils veulent ces conseils, non ? C'est pourquoi ces réglementations sont publiées. Et bien entendu, en matière de normalisation, vous devez vous assurer de disposer d'une norme commune à tous les niveaux sur laquelle ces contrôles peuvent être appliqués. C'est donc là qu' intervient la réglementation de l'assurance-emploi et c'est pourquoi nous avons besoin de réglementations relatives à l'IA. J'espère donc que c'était une brève leçon sur la vue d'ensemble de l'IA, les impacts de l'IA, l' impact des risques liés à l'IA et les raisons pour lesquelles nous avons besoin de tous ces cadres qui sont en train de sortir. Parce que personne n'aime les réglementations et les cadres, n'est-ce pas ? Les gens pensent qu'il s'agit simplement de vous aimer, ralentir l'innovation, de ralentir le développement. Mais maintenant, je vous ai montré pourquoi l'impact peut se produire si vous ne mettez pas en place ces réglementations. Maintenant, nous avons défini l'arrière-plan. Dans la prochaine leçon, nous allons parler réglementations et des cadres de haut niveau en matière d'IA . Ensuite, nous allons commencer à approfondir les réglementations spécifiques. Merci et je vous verrai dans la prochaine leçon. 3. 3 cadres-cadres d'IA: Bonjour, bonjour à tous. Bienvenue dans ce module qui traite des réglementations et des cadres de l'IA. Une perspective globale ou une vision globale. Nous avons parlé d'IA, non ? Nous avons parlé de l'IA et des dommages qui peuvent survenir si l'IA n'est pas correctement contrôlée et réglementée, alors les contrôles n'existent pas. Dans ce module, nous allons avoir une introduction aux avoir une introduction cadres et réglementations de l' IA, prendre vraiment du recul et examiner le paysage mondial qui existe à partir des cadres d' IA. Et ce qui se passe au niveau régional et national. Et quels sont les défis auxquels on est confronté lorsqu'on examine cette énorme liste de cadres et de réglementations en matière d' IA, n'est-ce pas ? Et avant d'approfondir, nous allons avoir besoin de cette leçon avant d'examiner en profondeur les différents cadres et de commencer à les examiner. Bien, tout d'abord, examinons ce que sont les cadres, les normes et les réglementations de l'IA . Il s'agit d'un ensemble de directives et d'exigences légales, n'est-ce pas ? Le but de tout cela est de régir la façon dont l'IA est conçue, développée, déployée, n'est-ce pas ? Nous voulons atténuer les risques. Ils veulent s'assurer que les systèmes d' IA sont éthiques, qu'ils ne sont pas injustes, n'est-ce pas ? Ils sont en sécurité. Ils portent atteinte à la vie humaine. Ils sont transparents, ce qui signifie que vous pouvez comprendre pourquoi ils prennent ces décisions. Et ils sont en fait bénéfiques pour la société. Et vous souhaitez atténuer les risques de sécurité potentiels, les vulnérabilités et les dommages qui peuvent survenir pour la société. L'intérêt de créer un cadre quel que soit le pays dont vous parlez, c'est toujours l'objectif, n'est-ce pas ? Et c'est ainsi qu'ils aident. Comme je l'ai déjà dit, les entreprises se concentrent sur le profit, n'est-ce pas ? Ils veulent gagner le plus d'argent possible. Et parfois, ils peuvent aller trop loin et déployer l'IA sans que des contrôles appropriés ne soient en place Donc, si vous avez une réglementation, une réglementation obligatoire, ressemblera à celle de l'UE, n'est-ce pas ? Ils seront donc obligés de s' assurer que ces contrôles existent. Et même si ce n'est pas obligatoire, est peut-être qu'un cadre. Un cadre optionnel, non ? Ce qui va se passer, c'est qu'ils devront suivre cela parce que les clients s'en douteront. Les clients n' achèteront pas leurs systèmes. Ils diront non, nous voulons la certification ISO ici sur votre système. Votre système est-il certifié selon le framework Nist et tout ça ? Cela garantira que les entreprises respectent bonnes normes lors de l' élaboration de systèmes d'assurance-emploi. Et bien sûr, ils favorisent la responsabilité et la traçabilité, afin de s'assurer que l'IA se comporte ainsi Que ces choses soient présentes. Ils protègent le système d'IA contre toute manipulation. Si quelqu'un essaie d'attaquer le système d'IA ou de le tromper parce qu' il respecte ces normes, les contrôles seront là. Même chose pour les cyberattaques, non ? De nouveaux types de cyberattaques se produisent. Comment vous assurez-vous que le système est protégé ? En appliquant une base de référence minimale, une norme minimale. Et ils évaluent les risques, ils obligent les entreprises à adopter une approche basée sur les risques. Tous les systèmes ne sont pas égaux, n'est-ce pas ? Certains peuvent être très, très sensibles, comme ceux qui travaillent dans les hôpitaux. Et certaines peuvent être aussi simples qu'une application de reconnaissance faciale que vous avez sur votre téléphone portable, est-ce pas ? Toutes. Ils obligent les entreprises à adopter une approche basée sur le risque. Enfin, la coopération internationale, qui est très importante. Vous ne voulez donc pas que ces différents silos se produisent Il existe une coopération internationale entre les pays. Tout le monde travaille ensemble pour atténuer ce problème. Cela ressemble à une utopie. Je sais que beaucoup d'entre vous pensent que cela n'arrivera jamais. Mais malheureusement, les risques liés à l'IA sont tellement dangereux que nous les imposons. OK, comme si vous pouviez voir un certain niveau d'harmonie. Le meilleur exemple que je puisse vous donner est le RGPD. L'UE a publié son règlement général sur la protection des données pour la confidentialité des données si vous ne le connaissez pas, mais comme il s'agissait d'une norme si stricte et si bien suivie dans tous les pays du monde, elle a mis en place son propre cadre de confidentialité des données, mais elle a repris des éléments du RGPD, qui est devenu la référence mondiale. Et pareil, si vous regardez cela de plus près, il existe de très nombreux cadres, mais honnêtement, le plus important et qui a un impact sur tous les autres cadres existants. Tout d'abord, vous devez commencer par les principes de l' OCDE relatifs à l'IA. Et je fais le lien entre ces cadres et ces normes afin que vous puissiez y jeter un œil. Donc, en gros, l'OCDE, l'Organisation de coopération et de développement économiques . Oui, c'est une organisation internationale qui travaille à l'élaboration de meilleures politiques pour une vie meilleure, d'accord ? Ils ne mandatent pas. Mais ce qu'ils ont fait, c'est qu'ils ont publié certains principes sur l'IA, n'est-ce pas ? la , la plupart des pays du monde Malheureusement, la plupart des pays du monde ont adopté ces principes et les utilisent pour établir leurs propres normes. Donc, les stratégies nationales que vous avez adoptées dans les grands pays tels que les États-Unis, le Royaume-Uni, Middle East Vision, Pac Vision, ont toutes été intégrées, mais la plupart d'entre elles sont conformes aux principes fondamentaux de l' IA tels que définis par l'OCDE et approuvés par celle-ci, d'accord ? D'habitude, c'est à peu près pareil. La durabilité des droits de l'homme, la transparence, une solide gestion des risques. Tu vas les voir. Vous verrez ce que vous appelez «   colocataires » se répéter encore et encore, et dans la plupart des pays, ils suivent ces principes. En dehors de cela, nous avons maintenant la norme ISO 4201, si vous ne la connaissez pas, c'est une norme de système de gestion de l'IA publiée par l'ISO Et c'est comme une norme internationale. Bientôt, les entreprises seront certifiées selon cette norme, n'est-ce pas ? Tout comme vous avez la norme ISO 2701 pour la sécurité, ISO 9001 pour la gestion de la qualité . Même chose. Vous l'aurez et vous aurez également risques liés à l'IA du Nist, qui est un cadre de gestion des risques liés à l'IA créé par le Nist C'est comme un framework indépendant de la technologie ou du fournisseur, mais c'est un framework très, très puissant Si vous travaillez dans le domaine de la cybersécurité, vous savez que la plupart des entreprises ont adopté la norme ISO 2701 et le cadre de sécurité Nist Saba, en tant que cadre global, raison de la qualité de ces On peut s'attendre à la même chose avec l'IA. part cela, au niveau régional, le changement le plus important qui va se produire est la loi européenne sur l'IA. Le règlement européen sur l'IA qui va être publié, adopte une approche basée sur les risques à l'égard de ces réglementations. Et nous allons les examiner en profondeur et cela aura un impact sur les stratégies nationales dans toutes les régions. Voilà, c' est comme une vision holistique, comme une vision de très haut niveau. Comme je l'ai dit, l'OCDE a donc déclaré qu'elle élaborait des politiques mondiales pour les pays. Je pense qu'ils ont cinq de ces principes basés sur les valeurs et qu' ils sont devenus une référence mondiale qui aide les entreprises et les gouvernements à adopter cette approche pour créer leurs propres stratégies nationales. Je recommande vivement d'y jeter un œil. La plupart des pays que vous voyez élaborer des stratégies sont influencés que par celles-ci, n'est-ce pas ? Et ce sont les mêmes locataires, non ? Veiller à ce que l'IA contribue au bien-être des êtres humains. Ils sont équitables, transparents, vous bénéficiez d'une sécurité et d'une responsabilité appropriées . Ils sont de très haut niveau. Mais ils ont aidé les entreprises à commencer à élaborer leurs propres politiques afin qu'elles comprennent. Hein ? D'accord, à part cela, vous avez le règlement européen sur l'IA qui sera publié dans la région de l'UE. Cela s'apparente à une approche basée sur le risque. Cela va avoir un impact énorme. Nous allons approfondir cette réglementation en raison de cas très importants. C'est le premier règlement complet, comme on peut le dire, règlement ou loi. Et cela sera obligatoire pour toute entreprise qui fonctionne. Ils sont similaires au PIB qui est devenu le cadre mondial pour la confidentialité des données. Cela va devenir le cadre mondial des réglementations relatives à l'IA. Même les pays qui ne la suivent pas, auxquels cette loi n'est pas applicable, tireront certains principes. Il est donc vivement recommandé de bien comprendre cela. Je vais approfondir cette question. Le problème avec les lois de l'UE, c'est qu'elles sont très ennuyeuses. Je veux dire, tu t'endors quand tu les lis. Je vais donc vous l' expliquer étape par étape. Et surtout, vous devez comprendre le fonctionnement de l' approche basée sur le risque. En dehors de cela, nous avons la norme ISO 4201 qui est la première norme appropriée de gestion de l'information, comme vous avez systèmes de gestion de la sécurité de l'information, les ISMS Vous avez maintenant l' IA et le système de gestion qui ressemble au global, il crée comme un parapluie. Les meilleures pratiques, non ? Et c'est une norme très complète. C'est facultatif. Ce n'est pas obligatoire pour le moment. Mais les entreprises qui veulent vraiment, comment appelle-t-on obtenir un avantage concurrentiel ? Ils voudront se certifier selon la norme, tout comme vous avez des entreprises aujourd'hui Ils obtiennent la certification ISO 2701 ou 9 001 et ils ont un avantage concurrentiel, n'est-ce Ils montrent aux clients, regardez, nous sommes certifiés parce que nous suivons les bonnes pratiques. Les entreprises qui développent l'IA voudront examiner la norme. En dehors de cela, vous avez le cadre de gestion des risques liés à l'IA du Nist Encore une fois, il s'agit d'un cadre facultatif, mais croyez-moi lorsque je dis que la plupart des entreprises sérieuses en matière de gestion des risques adopteront ce cadre tout comme le Nist publiera le cadre de cybersécurité Et c'est devenu la norme industrielle de facto raison de sa qualité. Le truc avec le Nist, c'est que lorsqu'ils publient des normes, des centaines et des milliers de personnes les révisent et qu'ils font vraiment l'objet un examen minutieux pour les peaufiner Cela va donc devenir une autre norme majeure et nous allons également nous y intéresser en profondeur. Et nous avons également le décret du gouvernement Biden qui a été publié, je crois qu'il est sorti du 38 octobre de l'année dernière jusqu'en 2023. Hein ? Et cela favorise, encore une fois, le développement d'une IA FN et fiable. Il s'agit d'un décret exécutif. Il ne peut pas créer de nouvelles lois ou réglementations par lui-même, mais il déclenche le début de tels processus. Et il s'agit d'une avancée majeure en matière de responsabilité quant à la manière dont l' IA est développée et déployée dans les entreprises. Et il contient une énorme quantité de réglementations, pas de réglementations, désolé, de recommandations, de normes. Et cela aura un impact sur de nombreuses personnes. Le Nist a été très impliqué dans le développement de ces cadres Le cadre de gestion des risques liés à l'IA, dont j'ai parlé, est référencé à plusieurs reprises. Et ce qui se passe, c'est que ces décrets sont publiés et qu'ils confèrent un mandat de haut niveau qui ressemble à ce que cela va être. Les lois sont promulguées. Et le secteur public commence à les mettre en œuvre. Et parce que le secteur public les suit, le secteur privé les suit et cela devient comme un mandat officieux à tous les niveaux, n'est-ce pas ? Ce ne sont donc là que quelques-unes des normes dont je voulais parler. Comme je l'ai déjà dit, les défis sont trop nombreux. Ça te donne mal à la tête. C'est pourquoi j'ai choisi le plus important. Et croyez-moi, si vous les comprenez bien, celui dont je vais parler , vous en avez à peu près abordé la plupart. Parce qu'ils s'inspirent tous des mêmes concepts. OK. L'autre défi est celui de l'harmonisation. J'essaie de comprendre quels sont les points communs et dont nous allons discuter L'autre option est facultative plutôt qu'obligatoire. Donc, des choses comme Nist et ISO ne sont pas obligatoires, n'est-ce C'est le règlement EUA, une fois entré en vigueur, il est obligatoire Vous devez donc comprendre ce qui est obligatoire ce qui est facultatif, n'est-ce pas ? Une autre option est spécifique au secteur , à l'ensemble des secteurs ou parfois à certaines réglementations. Ils sont spécifiques à un secteur particulier tel que le secteur l' énergie ou celui de l'eau. Et certaines sont générales, nous voulons donc y jeter un œil et les comprendre. Enfin, le plus important est trouver un équilibre entre innovation et réglementation. Si vous appliquez trop de réglementations, le rythme auquel l'IA innove va revenir en arrière ou la plupart des entreprises essaieront de quitter cette région, n'est-ce pas ? Vous voulez donc trouver un équilibre, vous voulez mettre en place des contrôles, mais nous voulons nous assurer que cela n'empêche pas l'innovation de se produire. Enfin, le défi, qui est toujours là, c'est que l'IA est très, très rapide, elle se développe extrêmement rapidement. Les réglementations tentent toujours de suivre cette évolution. C'est pourquoi ces réglementations relatives à l' IA sont parfois très strictes, n'est-ce pas ? Ils veulent s'assurer qu' ils couvrent tout, afin de ne pas être précis sur une technologie ou d'être trop prescriptifs Sinon, ils seront périmés très, très rapidement. J'espère donc que cela vous a été utile. Nous avons examiné de haut niveau cadres et réglementations en matière d' IA, leurs besoins et les principales réglementations, ainsi que les défis liés leurs besoins et les principales réglementations, ainsi que les défis liés à leur adoption. Maintenant, ce que nous allons faire, c'est approfondir une réglementation en particulier. Et commencez à l'explorer en profondeur, en examinant ses composants et la manière dont nous pouvons les mettre en œuvre. Merci et je vous verrai à la prochaine leçon. 4. 4 Acte de l'UE 1: Bonjour à tous. Bienvenue, bienvenue à cette leçon. Et maintenant, nous allons commencer une plongée en profondeur. Et nous allons entamer un examen approfondi réglementation probablement la plus importante qui sera publiée prochainement, à savoir la loi sur l'intelligence artificielle de l'Union européenne . Il s'agira probablement de la toute première loi consacrée à l' intelligence artificielle. C'est ce que l'on appelle la loi sur l'IA. Une fois promulgué, il constituera la référence mondiale ou la norme en matière de réglementation de l'IA. Et d'autres pays, d'autres juridictions vont élaborer leurs propres lois nationales, mais elles vont s' inspirer de la loi européenne sur l'IA. Et c'est ce que nous avons vu historiquement également avec des choses similaires comme le RGPD. Et je vais vous montrer pourquoi cela se produit habituellement, qu' ils ont envoyé comme une référence mondiale, n'est-ce pas ? Et bien que la législation soit en vigueur en février 2024, elle doit encore être officiellement adoptée par chaque organe législatif si vous opérez dans l'UE. Vous avez maintenant une idée beaucoup plus claire de ce que vous devez faire pour vous conformer à la loi EUAI Une fois qu'il sera entré en vigueur, non ? En général, on s'attend à ce qu'elle soit promulguée début 2024. Ces mesures prennent beaucoup de temps, mais le cadre est là et nous savons maintenant ce qu'ils vont faire appliquer. L'UE veut essentiellement garantir que l'IA est utilisée de manière éthique et sûre et elle prend très au sérieux le respect des lois fondamentales et des droits des personnes Hein ? Ils ont adopté une approche proactive pour gouverner les technologies d' IA en fonction du risque. Et c'est ce que nous allons examiner. C'est ce que nous allons aborder. Nous allons examiner la vue d'ensemble de l'EAA à ce sujet, quoi consiste l'approche basée sur les risques, en particulier en quoi consiste l'IA à haut risque, car c'est là que l'on va passer la plupart du temps et comment implémenter le ticket Nous allons prendre une entreprise fictive et voir, étape par étape, ce que vous devez faire pour mettre en œuvre la Loi sur les évaluations environnementales. Je vais me concentrer sur les dispositions essentielles de la loi. Le numéro lui-même, comme la plupart des U, est très ennuyeux à lire. Vous vous endormirez si vous commencez à le lire, honnêtement, sauf si vous êtes un juriste, personne respectueuse de la loi ou de la conformité qui aime lire ceci. J'en déduis donc que je me suis délibérément concentré sur les domaines clés. Les domaines dans lesquels le plus d'efforts seront nécessaires, savoir l' approche basée sur les risques des systèmes EAI, et c'est ce qui aura un impact énorme. Comme un bref aperçu. Maintenant, il s'agit de la toute première loi appropriée, comme vous pouvez le dire, dédiée à l'IA. Et elle a le potentiel, et je dirais qu'elle va devenir une référence mondiale en matière de réglementation de l'IA. même manière que le règlement général sur la protection des données est établi, il s'agit d'une norme mondiale en matière de confidentialité des données. Et si vous travaillez dans le domaine de la confidentialité, vous savez, quel que soit le pays dans lequel vous vous trouvez d'une manière ou d'une autre, votre législation a été affectée par le RGPD. De même, le règlement de l'EUA va établir la référence mondiale en matière d'IA Pourquoi ? Parce que tout d'abord, il s'agit de l'un des cadres les plus complets spécifiquement axés sur la régulation de l'IA. OK ? Ce qu'il fait, il se concentre sur les risques existants. Et cela garantit une approche réglementaire très détaillée. Cela va devenir un modèle pour d'autres pays. Et surtout, il adopte une approche basée sur les risques. Il classe donc les systèmes en fonction du risque qu'ils présentent, du risque minimal au risque inacceptable Et cela vous donne une approche équilibrée, non ? Parce que ça ne dit pas non. Chaque système d'IA va être comme ça. Maintenant, un système d'IA qui fonctionne, par exemple, dans un hôpital ou dans les forces de l'ordre, n' est pas la même chose qu'un simple chatbot sur votre site Web, n'est-ce Répondre à des questions, bien sûr que non. Vous ne voulez pas y appliquer les mêmes contrôles. Mais l'UE est un énorme marché. C'est un acteur économique mondial important, n'est-ce pas ? Les entreprises opérant ou vendant sur le marché de l'UE devront se conformer aux exigences de l' EAI Et cette pression en matière de conformité incitera les entreprises monde entier à adopter des normes similaires influencées par l'EIE C'est pourquoi j'ai commencé cela. Il est donc certain que cela deviendra une référence mondiale et qu'il influencera de nombreux pays et entreprises. Et bien entendu, à l'instar du RGPD, les sanctions sont assez sévères. Je pense à 2 % à 7 % du chiffre d'affaires annuel mondial. Et cela dépend, bien sûr, du fait qu'il y a beaucoup de taxes, mais les amendes peuvent être assez sévères. En cas de doute, jetez un œil à la façon dont le GDPF trouve parfois des entreprises et vous aurez une meilleure idée de façon dont les entreprises qui ne s'y conforment pas à l' avenir ou qui le prennent de manière trop indulgente peuvent en être affectées Qui est donc touché ? En gros, des entreprises qui développent ou créent des systèmes d'IA, n'est-ce pas ? Comme la technologie logicielle, les développeurs de logiciels ou les entreprises technologiques. Peut-être que vous les déployez. Vous déployez et utilisez donc des systèmes d' IA quel que soit votre secteur d'activité. Des organismes publics, non ? agit donc des organismes et agences gouvernementaux qui déploient des systèmes d' IA pour les services publics, organismes de réglementation et de surveillance. Les autorités chargées de surveiller et de garantir le respect de l'EUA agissent comme des agences de protection des données Hein ? Et les consommateurs, bien sûr, le grand public. Et comme je l'ai dit, cela aura un impact mondial, même si vous êtes une organisation non européenne, mais que vous offrez des services aux citoyens de l'UE, alors cela deviendra applicable. C'est pourquoi j'ai dit que cela aurait un impact mondial et des entreprises situées même en dehors de l'UE. Cela reviendrait à imposer le respect de cette règle. C'est pourquoi il est si important de comprendre cela. Maintenant, le point clé, le point le plus important de la loi EAI est qu'elle classe les systèmes d' assurance-emploi en quatre niveaux de risque Sur la base de ce niveau de risque, vous devez mettre en place des contrôles. Plus le risque est élevé, plus les contrôles à mettre en œuvre sont stricts. Maintenant, tout d'abord, il y a le risque non minimal. Ce sont la majorité des systèmes d' IA qui ne présentent aucun risque et ne seront soumis aucune réglementation, comme un simple chatbot qui ne collecte aucune donnée ou quoi que ce soit d'autre, n'est-ce pas ? L'autre concerne les risques limités. Les systèmes d'IA présentent un risque limité, ils auront des obligations de transparence. Qu'est-ce que cela signifie ? Ils doivent révéler que ce contenu est généré par l' IA, n'est-ce pas ? Et vous devez informer, comme je l'ai dit, chat ou peut-être sur quelque chose qui utilise l'IA générative, vous savez. Vous devez donc vous assurer que ces éléments sont là. Des risques élevés sont également des risques élevés. Les systèmes informatiques seront autorisés avec des exigences et des obligations spécifiques en matière d'accès au marché. C'est là que la majeure partie des efforts seront déployés. Enfin, il y a un risque inacceptable qui est tout simplement interdit. Ce type particulier de systèmes d'IA ne sera pas autorisé. Et ils ont donné une définition très détaillée, comme systèmes d' intelligence artificielle qui tentent de manipuler les émotions, ou qui régulent comme s'ils surveillaient réellement les émotions sur les lieux de travail ou dans les établissements d'enseignement. Ou ils utilisent la reconnaissance faciale pour l' identification biométrique à distance. Ils ont prévu quelques exceptions pour la biométrie, mais vous savez, l'UE est très, très stricte en matière de confidentialité des données Alors je pense qu'aucune juridiction n' est plus stricte que l'UE. Ils ont donc adopté cette approche basée sur le risque. Donc, si vous le regardez, cela vient des États-Unis, c'est à cela que cela ressemble, non ? Si vous partez du bas de l'échelle, le risque est minime, aucune obligation et la transparence des risques est limitée. Vous devez y jeter un œil et comprendre, vous devez révéler que c'est basé sur l'IA. risque élevé est une évaluation de la conformité qui s'apparente à un audit. Vous pouvez dire que vous devez appliquer ce niveau de contrôle avant d'être autorisé. risques inacceptables sont simplement bannis, désolé, si votre application d'IA si votre application d'IA est comme ça et que c'est ce que vous faites, désolé, vous êtes complètement banni. Et qu'est-ce qui est inacceptable ou interdit ? Donc, en gros, n'importe quoi, certaines actions qu'ils ont définies, non ? Qu'est-ce que cela signifie que l'IA utilise des techniques subliminales, qu'est-ce que cela signifie ? Laissez-moi le traduire. Les systèmes d'intelligence artificielle qui utilisent des méthodes subconscientes sournoises pour modifier radicalement le comportement d'une personne sont totalement interdits Vous savez, ils essaient d'influencer votre comportement, d'influencer vos émotions. données biométriques qui utilisent des caractéristiques sensibles telles que des convictions politiques, religieuses ou philosophiques . Non, ils ne sont pas autorisés. La biométrie est autorisée à quelques exceptions près ou consiste également à créer des scripts non ciblés d'images faciales provenant d' Internet ou de séquences CCD pour générer des bases de données de reconnaissance scores sociaux, l'IA la plus utilisée pour exploiter les vulnérabilités des personnes, c'est les vulnérabilités des personnes, vrai, en raison de leur âge ou de leur handicap, ils seront totalement interdits. Ils ne plaisantent pas, à ce sujet, l'UE est très, très sensible à la protection de la vie privée C'est pourquoi l'identification biométrique à distance en temps réel dans des espaces publics, sauf si je pense qu'ils ont prévu certaines exceptions ou cela , mais qu' ils ont complètement interdit ces systèmes d'IA. Un risque élevé est un système autorisé mais qui peut présenter des risques importants pour santé ou la sécurité, droits fondamentaux et les libertés fondamentales. Ils incluront les systèmes d'IA utilisés dans les infrastructures critiques ou dans votre enseignement. L'emploi est essentiel , comme les services publics et gouvernementaux, n'est-ce pas ? Et ils nécessitent une conformité stricte, des exigences obligatoires strictes avant de pouvoir les mettre sur le marché. Quelles sont ces exigences ? Vous devez effectuer une évaluation des risques appropriée. Ils doivent remplir une évaluation des risques appropriée, document d'évaluation d' impact sur ce qu'ils font, un document d'évaluation d' impact sur ce qu'ils font, des normes de qualité élevées, donc les données utilisées par l'IA. Ils doivent s'assurer que les données n'ont pas été compromises, empoisonnées ou influencées de quelque manière que ce soit. Ils doivent établir une documentation détaillée et tenir des registres. Si vous avez déjà participé à un audit du RGPD, vous connaissez la quantité de documentation que vous devez mettre à disposition, n'est-ce pas ? Et bien sûr, la transparence. Vous devez donc fournir des informations claires sur les capacités des systèmes d'IA et sur leur utilisation. Et c'est le cas si vous êtes dans un système à haut risque. Ceci est extrait du site Web de l'UE. C'est comme si ce étaient les conditions prévues par les étapes. Donc, si vous développez un système I à haut risque, ils devront se soumettre à cette évaluation. Il est enregistré dans la base de données de l'UE et signé. En gros, vous obtenez le marquage CE de l'Union européenne. Une fois qu'il a pris vie, il a été enregistré dans la base de données sur les modifications. S'il y a des changements majeurs, vous devez revenir à la deuxième étape. Faites comme si l'approbation était terminée. systèmes à haut risque sont très, très sérieux à ce sujet. Ils ne plaisantent pas à ce sujet, non ? Enfin, le risque limité ou minimal dont nous avons parlé ici, comme des choses simples comme discuter d'une IA générative, qui ne prend pas de données, n'est-ce pas ? Vous voulez vous assurer qu'il y a de la transparence à cet égard. risque limité ou minimal, c'est à peu près, ils ont le même risque minimal. Comme vous n'avez pas besoin de risques limités, vous devez être divulgué. Le fait que vous utilisiez comme résultat est généré par l'IA. Voici donc à quoi ressemble la loi EAI vue à 1 000 pieds d'altitude Comment vous y préparez-vous ? Hein ? Donc, comme je l'ai dit, n'essayez pas de mémoriser la norme sauf si vous êtes avocat. Même si vous êtes avocat, je ne recommanderais pas mémoriser parce que ce n'est pas le but de la loi EUAI, Alors que la loi est encore sur le point d'être adoptée, vous pouvez commencer à être proactif à ce sujet. Vous pouvez donc commencer à inventer et à classer vos systèmes, mettant en œuvre un cadre de gouvernance de l'IA Donc, pour s'assurer que ces processus et un graphique sont là. Faire une analyse des lacunes, prioriser et déterminer les risques existants, n'est-ce pas Et puis faire de la formation et de la communication. Et au lieu que j'en parle aveuglément, prenons une étude de cas, non ? Prenons l'exemple d'une entreprise qui est sur le point de mettre en œuvre la loi européenne sur l'IA et voyons comment elle s' y prendrait pour que vous vous en fassiez une meilleure idée. Cela met fin à cette leçon. Nous avons vu en quoi consiste la loi EUAI, comment elle fonctionne, quelle est l'approche basée sur les risques, comment les systèmes d'IA à haut risque sont traités, et maintenant les exigences liées à l'approche basée sur les risques Prenons donc l'exemple d'une entreprise et voyons à quoi ressemblera la loi EUAI en action Merci et je vous verrai dans la prochaine leçon. 5. 5 Acte de l'UE 2: Bonjour, tout le monde. Bienvenue, bienvenue dans cette leçon, dans laquelle nous avons maintenant parlé de la loi EAI Et comme je l'ai mentionné, la loi sur les UAA peut devenir très difficile à lire Si vous ne faites que lire la théorie, vous ne comprendrez pas, vous l'oublierez. Je veux vous montrer comment une entreprise procéderait théoriquement mise en œuvre de la loi EAI, Et il existe plusieurs façons de le faire, mais nous allons prendre un exemple simpliste afin que vous compreniez les concepts clés Et n'oubliez pas que c'est ce sur quoi je me concentre toujours, c'est pourquoi j'ai créé ce cours. N'essayez pas de mémoriser ces normes car vous les oublierez, d'accord ? Si vous faites une étude de cas ou si vous l'appliquez vous-même, vous n'oublierez jamais ces connaissances . Et c'est le plus important. Je pense que je vous ai également montré cette diapositive dans la leçon précédente. Mais c'est ainsi qu'une entreprise typique se préparerait à la loi EAI Ils inventorieraient et classeraient. Qu'est-ce que cela signifie ? Ils passeraient en revue les systèmes d'IA et les cas d'utilisation existants et les classeraient en fonction de la question suivante  : « Est-ce que j'ai des systèmes à haut risque qui doivent être conformes à la Loi sur les évaluations environnementales Vous pouvez utiliser un questionnaire, peut-être utiliser un système automatisé qui en découvre le but. Si vous avez déjà un inventaire, vous pouvez l'utiliser. Ensuite, ils mettraient en œuvre un cadre de gouvernance de l'IA. Comme l'IA n' existe pas en vase clos, elle a besoin d'un cadre de gouvernance approprié. Il faut des comités. Vous avez besoin d'un tableau Act. Vous devez mettre en place des processus pour réellement mettre en œuvre correctement la loi EUA Ensuite, vous ferez une analyse des lacunes. Nous effectuons donc une analyse appropriée des écarts par rapport aux exigences. Qu'est-ce que tu as déjà ? Si vous avez un système d'embauche, combien de parties de la loi EAA suis-je conforme ? Hein ? Ce qui se passe, c'est que vous obtiendrez un plan d'action. Vous sauriez quels sont les risques, quels sont les problèmes, puis vous hiérarchiserez et gérerez ces risques liés à l'IA, n'est-ce pas ? Vous commenceriez à les appliquer, en essayant de les réparer. Peut-être que vous ne disposez pas de la documentation appropriée, peut-être que vous ne disposez pas des contrôles de sécurité appropriés en matière d'IA. Enfin, vous devriez commencer à vous la formation et de la communication car il y a beaucoup de choses. Peut-être que vos développeurs devraient être mis au courant, votre haute direction devrait être informée. Telles sont donc les étapes clés. Les principales étapes auxquelles vous devrez réfléchir lorsque vous appliquerez la loi européenne sur l'IA à l'avenir. Alors prenons une étude de cas, non ? Une étude de cas simple. Peut-être avez-vous une entreprise technologique mondiale spécialisée dans l' analyse de données, les systèmes d'IA, n'est-ce pas ? Et là, ils doivent aligner leurs opérations sur l'EUA La gestion des actes inquiète Km, et cela semble sérieux. Que se passera-t-il si nous sommes condamnés à une amende, n'est-ce pas ? Parce qu'ils disposent d'un très large portefeuille de produits et services basés sur l'IA. Ils ont vraiment gagné beaucoup d'argent grâce au boom de l'IA, mais ils se rendent compte maintenant qu'une réglementation est imminente et ils sont très intelligents dans ce domaine. Ils ont décidé de manière proactive d'adapter leurs pratiques pour se conformer au nouveau paysage réglementaire de l'IA dans l'Union européenne Ils vous ont embauché comme si vous réfléchissiez à la façon de vous y prendre, n'est-ce pas ? Donc, comme je l'ai mentionné, la première étape consiste inventorier et à classer vos systèmes d'IA, d'accord, pour en comprendre les implications. Vous devez donc d'abord savoir si j'ai des modèles d'IA en cours d' utilisation ou en développement, ou si je suis sur le point de les acheter. Lequel pourrait entrer dans la catégorie la plus élevée, n'est-ce pas ? Ils ont utilisé de nombreux services, comme les modèles existants qu'ils ont achetés quelque part. Ou peut-être les ont-ils construits en interne. Vous devez donc disposer de ce type d'inventaire de modèles. Peut-être que vous pouvez le faire manuellement, en distribuant des questionnaires. Ou peut-être avez-vous un système automatisé capable de découvrir rapidement quels sont les systèmes d'IA. Supposons que vous utilisiez le cloud, vous sauriez combien de services d'IA vous utilisez, n'est-ce pas ? Il existe donc de nombreuses façons de s'y prendre. Ce n'est pas une règle absolue, mais la première étape consiste toujours à inventorier et à classer. Découvrez ce que vous avez et ce qu'il faut faire, n'est-ce pas ? Supposons donc que Data Sphere soit un système présentant un risque élevé, prenons un exemple Ils disposent d'un outil de diagnostic piloté par l'IA qui aide les médecins à identifier les maladies rares sur la base des données des patients. Et compte tenu de l'impact potentiel sur santé des patients et de la nature des diagnostics médicaux, ce système d'IA présenterait risque élevé en vertu de la loi EAI Que devront-ils faire ? Ils devront effectuer une évaluation détaillée des risques liés à l'outil de diagnostic, n'est-ce pas ? Ils évalueraient son impact sur la sécurité des patients et l' exactitude du diagnostic médical. Ils aimeraient améliorer leur conformité pour s'assurer que MI est conforme à la loi EOAI ou non, n'est-ce pas ? que MI est conforme à la loi EOAI ou non, n'est-ce pas Ils procéderaient à un examen éthique et réglementaire. Quelles en sont les conséquences pour la vie privée et les préoccupations des patients ? Ai-je l'autorisation du patient ? Savent-ils que c'est une loi de l'EUAI, n'est-ce pas ? Désolé, il s' agit d'un système d'IA qui prend des décisions. Ils amélioreraient la gouvernance des données, la confidentialité des données et la sécurité autour de ces contrôles, n'est-ce pas ? Transparence et divulgation. Fournissent-ils des informations claires aux médecins et patients sur la manière dont l'outil d'IA effectue ses diagnostics, données qu'il utilise, puis sur le suivi du déploiement, n'est-ce pas ? Est-il donc déployé dans environnement clinique contrôlé approprié avec une surveillance en place ? Et avez-vous de la documentation et des rapports qui renseignent les auditeurs sur ce qui est utilisé ? Et discutons-nous avec les propriétaires de soins de santé, tels que les hôpitaux, pour obtenir des commentaires ? Parce qu'en prenant ces mesures, ils s'assureront non seulement que leur outil de diagnostic est conforme à la loi EAI, mais ils démontreront également qu'ils respectent des normes élevées Voici les mesures qu'ils devront prendre pour s'assurer qu'ils sont conformes à la loi EAI La prochaine étape serait d'améliorer le cadre de gouvernance de l'IA, n'est-ce pas ? Peut-être qu'ils n'ont pas une bonne gouvernance en ce moment. Personne ne se consacre à l'IA. Ils n'ont aucune politique, aucun cadre. Comment s'assureront-ils de savoir qui décide si un système d'IA est conforme ou non et l'arrête ? Qu'est-ce que la liste de contrôle ? Est-ce que quelqu'un les vérifie ? Est-ce que quelqu'un implémente ces contrôles ? Ils ont besoin d'engager du personnel. Ils doivent modifier leurs politiques et leurs procédures. C'est donc là que votre gouvernance de l'IA entrera en place. Cela peut relever de la gestion globale des risques ou il peut s'agir d'une nouvelle fonction. Mais ce sont les décisions que vous devez prendre. Et puis, bien sûr, avec l'analyse des lacunes, vous obtiendrez une longue liste d'éléments, de choses à corriger. Vous devrez donc effectuer une analyse appropriée des lacunes, découvrir les domaines sur lesquels nous devons travailler. Ces politiques font défaut. Ces actions sont absentes. Ces personnes doivent être embauchées. Ces systèmes de gestion des risques liés à l'IA doivent être corrigés. Ce sont donc les choses auxquelles vous devriez réfléchir et vous y atteler Faites en sorte qu'un suivi approprié soit effectué, n'est-ce pas ? Et bien sûr, lors de l'évaluation des systèmes, vous devez vous assurer que , d' accord, les systèmes sont actifs. Une fois que vous aurez obtenu la conformité , comment vous assurer que si un changement se produit, vous devrez découvrir quels sont les changements Devons-nous effectuer un audit de reconformité ? Toutes ces sortes de choses doivent être là. Et plus tard, lorsque nous parlerons de la norme Photo One qui applique un système de gestion de l'IA, n'est-ce pas ? C'est là que l'UE agit et celle de l'ISO qui sort. Ils peuvent se compléter et s'entraider. Et la gestion des risques liés à l'IA, bien sûr, n'est-ce pas ? Cela se formera donc dans le cadre de la gouvernance. Vous devez donc vous assurer que vos processus de gestion des risques ont été améliorés et qu'ils savent quels sont les bons moyens de déterminer les taux de risque liés à l'IA. Les taux de risque liés à l'IA sont très, très différents, n'est-ce pas, des attaques traditionnelles basées sur l'IA. Problèmes de sécurité aérienne. Ils sont tous très différents. Disposez-vous d'une méthode appropriée pour identifier ces risques ? Et c'est là qu'interviendra le cadre de gestion des risques liés à l'IA du Nist , dont nous parlerons dans les prochaines leçons Vous devez donc réfléchir à toutes ces choses. Enfin, la partie que tout le monde déteste le plus, c'est la documentation Comme je l'ai dit, si vous avez déjà effectué un audit GDPR approprié, vous saurez quelle quantité de documentation doit être rédigée, et cela rend tout le monde fou. Commencez à créer ce référentiel pour vous assurer que tous les systèmes d'IA sont correctement documentés, ce que vous avez fait. Donc, si quelqu'un vient pour l'audit, vous avez cette documentation complète à portée de main montrant quels étaient les processus en place. Et bien sûr, la formation des employés sur l' éthique et la conformité en matière d' IA. Le personnel doit être informé. Vous devriez former vos développeurs, vos scientifiques des données, vos gestion des risques liés à l'IA, vos cadres supérieurs, afin de vous assurer qu'ils comprennent les afin de vous assurer qu'ils comprennent nouvelles obligations qui en découleront. Cela favorisera une véritable culture consciente des risques afin que les gens comprennent le nouvel environnement qui se profile, n'est-ce pas ? Pour que les gens n' achètent pas de systèmes d' IA sans vous en informer, sans en informer les équipes de gestion des risques. Enfin, la communication avec les parties prenantes afin que tout le monde sache est-ce que l'hôpital est au courant ? Ils doivent nous informer en cas de problème. Recevons-nous des commentaires des hôpitaux, des médecins, en cas de problème ? Savons-nous si un incident se produit ? Comment informer les autorités législatives de l'UE qu'un incident s'est produit ? Une documentation appropriée et une description de poste appropriée doivent être présentes. Les processus doivent être présents. C'est ainsi que vous procéderiez à un haut niveau, appliquant la loi sur les évaluations environnementales J'espère que cela vous a donné une meilleure idée. Maintenant, au lieu que je les lise ligne par ligne, voici les clauses que je vous ai montrées comment une entreprise s'y prendrait pour les faire appliquer Utilisez-le comme point de repère. Je suis sûr que vous pourriez probablement ajouter d'autres éléments ici, mais c'est juste pour vous donner une idée de haut niveau de la manière de faire appliquer la loi EUAI De plus en plus d' entreprises vont commencer à le mettre en œuvre et nous découvrirons de nouvelles choses. Mais cela vous donne un très bon moyen de démarrer avec la loi EUAI J'espère que cela vous a été utile et je vous verrai dans la prochaine leçon. 6. 6 NIST 1: Bonjour tout le monde Bienvenue, bienvenue à la leçon. Dans cette leçon, nous allons approfondir un nouveau cadre d'IA, à savoir le cadre gestion des risques liés à l'IA du Nist ne s'agit pas d'une loi, ni d'un règlement, comme la loi européenne sur l'IA, dont nous avons parlé. Non, il s'agit d'un cadre, mais il est extrêmement important et je vais vous montrer pourquoi et pourquoi il aura un impact aussi important que la loi européenne sur l'IA telle que nous l' avons évoquée. Cela aura un impact mondial. Cela aura également un autre impact mondial. Et comme je l'ai dit, il s'agit d'un, cela a été développé spécifiquement pour faire face aux risques liés à l'IA. Si vous vous souvenez, lorsque nous avons discuté de la loi européenne sur l'IA, ils ont parlé de la création d'un cadre de gestion des risques liés à l'IA. Eh bien, ça a l'air très bien, mais comment s'y prenez-vous ? Hein ? Comment créer un cadre pour évaluer, identifier et gérer les risques liés à l'IA ? C'est donc là que Nist s'est appuyé sur ce cadre qui est absolument excellent Et nous allons approfondir cette question dans cette leçon. Donc, tout d'abord, nous allons expliquer qui est-ce, pourquoi devrions-nous les écouter ? Présentation du cadre et aperçu, de ses composants et de ses avantages. Et comme je l'ai dit, comme je le fais toujours, nous allons faire une étude de cas, nous allons prendre une entreprise qui met en œuvre ce cadre. Et quelles sont les mesures de haut niveau qu'ils devraient prendre ? J'espère donc que vous pourrez tirer ces leçons et les appliquer également dans votre propre environnement. Tout d'abord, qu'est-ce que le Nist ? L'Institut national des normes et de la technologie. C'est un nom, une agence de réglementation du département américain du Commerce Leur mission est de promouvoir l'innovation et la compétitivité industrielle ainsi que les différentes publications. D'accord, et si vous êtes dans le domaine de la cybersécurité T, vous feriez mieux de les connaître pour le Nist Cybersecurity Framework, ou CSF, qui est essentiellement un ensemble de directives et de meilleures pratiques Le cadre a été créé entre experts de l'industrie et du gouvernement. Je pense qu'il est sorti il y a plus de dix ans, en 2014. Et au départ, il était destiné à l' infrastructure critique, n'est-ce pas ? Cependant, il s'agissait d'un excellent document, les directives et tout ce qu'il a utilisé se sont étendus au-delà des infrastructures essentielles. Il a été largement adopté par les entreprises, à l'exception des infrastructures critiques aux États-Unis et dans le monde entier. Et presque tous les secteurs l'utilisent d' une manière ou d'une autre dans le domaine de la cybersécurité. Croyez-moi, vous avez entendu parler de Nist. Et Nist CSF, ça ressemble à ça, non ? Et ils l'ont récemment mis à jour vers, je crois, 2.0. Ils avaient donc autrefois le genre de co-fonctions de haut niveau. Au départ, il y en avait cinq, ce qui revient à identifier, protéger, détecter, répondre, récupérer, et maintenant ils en ont publié un nouveau, Govern. Et il est extrêmement puissant parce qu'il est flexible et qu'il peut être adapté aux besoins spécifiques de n'importe quelle entreprise, n'est-ce pas ? Vous pouvez donc adopter les meilleures pratiques et les meilleurs principes et les utiliser pour améliorer votre entreprise. Vous vous demandez peut-être pourquoi je vous parle du framework de cybersécurité Nist que je vous montre ici Parce qu'alors vous serez en mesure d'apprécier le cadre de gestion des risques liés à l'IA parce qu' il est construit de la même manière, n'est-ce pas ? Comme je l'ai mentionné, ils ont publié ce framework entièrement gratuitement, car ils reconnaissent également le nombre de risques et de menaces possibles avec l'IA. Cela a donc donné naissance au cadre de gestion des risques liés à l'IA du Nist Et à l'instar de la loi EUA, ils ne parlent pas uniquement de points négatifs Ils veulent maximiser l'innovation, maximiser les aspects positifs de l'IA. Il vous propose une approche structurée pour identifier, évaluer et atténuer les risques liés aux systèmes d'IA. Et avec l'IA, c'est tellement technique. Vous devez donc avoir une sorte de cadre. À quoi ressemble le cadre, n'est-ce pas ? Donc, comme je l'ai dit, c'est un ensemble de directives, non ? Ce n'est pas une loi, c'est totalement facultatif. Si vous voulez le faire appliquer, oui. Si vous ne voulez pas l'appliquer, personne ne peut vous y obliger. Hein ? Mais avant tout, le plus important est d'être indépendant de la technologie. Il est conçu pour être applicable de manière spécifique , quelle que soit la technologie que vous utilisez. Il peut donc être appliqué à l'IA construite avec n'importe quelle technologie sur le cloud sur site Cela permet à un framework de rester pertinent et indépendant du fournisseur, de sorte qu'il n'est pas adapté à une plate-forme cloud en particulier Il est donc à la fois indépendant du fournisseur et indépendant de la technologie. Et il définit ce qu'est un système d'IA fiable. Cela vous donne donc des critères très clairs. Qu'est-ce qu' une IA digne de confiance ? Je vais vous montrer quels sont les critères. Des choses comme l'équité, la fiabilité, la transparence. Et cela vous donne des directives claires selon lesquelles si vous développez un système et si vous répondez à ces critères, votre IA sera qualifiée de fiable. Et il est divisé en deux parties. Ils vous fournissent donc des informations de base. Ce sont les principes de base de l'IA, de la gestion des risques. Vous savez pourquoi vous en avez besoin, quels sont les concepts de base Et puis le cœur est la partie orientée vers l' action. Et nous allons montrer ce que cela signifie. Le cœur est l'endroit où vous allez intégrer les processus d'atténuation, et voici à quoi cela ressemble, voici à quoi ressemble le cœur. Comme je l'ai dit, c'est une approche orientée vers l'action, c'est ainsi que vous implémentez la gestion des IA au sein de votre entreprise. Il détaille donc un fonctionnement clé, comme établissement d'une structure de gouvernance, la cartographie , la mesure et la gestion du risque A. Et vous pouvez constater que le cadre de cybersécurité semble très familier . Donc, si je me contente de revenir quelques diapositives en arrière, voici le Nist IRMF, et voici le cadre de cybersécurité C'était donc le but de vous montrer ceci, voici comment. Il faut adopter une approche très large mais très détaillée mettre en œuvre comme un cadre de gestion des risques qui vous aidera à identifier et à atténuer les risques liés à l'IA dans votre environnement. Nous avons donc expliqué que Nist vous explique à quoi ressemble un système d'IA fiable Quelque chose que votre entreprise publiera, et les clients peuvent être sûrs qu'il ne sera pas compromis, qu'il traitera leurs données de manière équitable. Ce sont donc les aspects dont ils ont parlé, valables et fiables. Cela ne réduit donc pas les résultats qu'il reçoit, ils sont comme si on pouvait compter sur eux. C'est sûr. Cela ne met pas les gens en danger. C'est sécurisé, non ? Cela ne sera pas compromis demain. Résilient. C'est responsable et transparent. Il vous indique donc comment il prend ses décisions. C'est explicable. La documentation est donc là. Cela protège la vie privée et c'est juste. Il n'est donc pas biaisé en faveur d'une race en particulier, d'une entreprise en particulier, d'un sexe en particulier. Il tient compte de tous ces éléments. C'est ainsi que le Nist définit le mal causé par l'IE. Ce préjudice peut arriver à des personnes, comme celles qui reçoivent le mauvais diagnostic ou qui se font percuter par une voiture autonome. L'atteinte à la réputation d'une entreprise peut être entachée, n'est-ce pas ? Leurs activités commerciales peuvent être affectées. Et même des dommages à un écosystème. C'est donc quelque chose que les gens oublient que vous connaissez, même l'écosystème financier mondial, votre environnement mondial. À mesure que de plus en plus de choses évoluent vers l'IA, ces choses se mettent également en pratique. Il prend en compte toutes ces choses. Quels sont donc les avantages du cadre de gestion des risques de Nist Air Tout d'abord, c'est un excellent moyen de mettre en place un cadre de gestion des risques efficace identifier et atténuer les risques Cela vous donne de la fiabilité. Nous avons parlé de la façon dont il vous indique ce qu'est un système d' IA fiable, n'est-ce pas ? Et cela permettra de se conformer plus facilement aux meilleures pratiques. Si vous avez implémenté NistirMF, nous allons en parler Il sera également plus facile de respecter les réglementations de la loi EUAI, non ? Et il vous montre comment créer une véritable collaboration au sein de votre propre entreprise. Tous ces éléments, quand on y pense, déterminent ce que l'on appelle la réunion, ainsi que le respect des autres réglementations. Donc, si vous le comparez à la loi EUAI, le Nist est totalement facultatif, Elle encourage l'adoption volontaire, alors que l'UE est plus contraignante. Il dit que non, tu dois le faire. Mais le cadre de gestion des risques liés à l'IA du Nist peut servir de guide pratique aux entreprises sur la manière mettre en œuvre les principes et les exigences de la loi EUA Surtout lorsqu' il n'y a pas beaucoup détails fournis, n'est-ce pas ? Comment mettre en œuvre un cadre de gestion des risques, comment s'y prendre, n'est-ce pas ? Cela ressemble donc à un aperçu de haut niveau cadre de gestion des risques liés à l'IA du Nist Voici donc ce dont nous avons parlé, de quoi il s'agit, quels sont les éléments clés, les fondamentaux et ce qu'est une IA fiable Donc, comme je l'ai déjà dit, au lieu de me contenter de bavarder et d'essayer de vous le faire mémoriser, voyons comment appliquer le cadre de gestion des risques liés à l'IA du NIST au sein de l'entreprise Merci et je vous verrai dans la prochaine leçon. 7. 7 NIST 2: Bonjour à tous. Bienvenue, bienvenue dans cette leçon, qui est la suite de la leçon précédente. Dans celui-ci, nous allons mettre en œuvre le cadre de gestion des risques liés à l'IA du Nist et voir comment les mesures seraient prises C'est donc similaire à ce que nous avons fait précédemment, mais à un niveau élevé, sont les étapes que vous devez suivre comprendre le cadre évaluer votre niveau actuel d'utilisation de l'IA. Ensuite, mettre en œuvre l'essentiel du cadre de gestion des risques et veiller à ce que vous disposiez d'une formation et d'un changement de culture au sein votre entreprise lorsqu'il s'agit de le faire appliquer Et si cela semble très similaire à la loi sur les évaluations environnementales, oui, c'est exact. À l'instar des étapes qui s'y trouvent, vous constaterez une grande cohérence entre car c'est là que le chevauchement se produit et que cela devient plus facile pour vous, n'est-ce pas ? Voici donc les étapes que vous devez suivre. Vous auriez une initiative éducative, non ? Vous devez vous assurer que le personnel est formé au prochain cadre de gestion des espèces aquatiques envahissantes, avantages et à la manière dont vous allez gouverner, cartographier, mesurer et gérer les espèces aquatiques envahissantes. Puis-je en parler en détail, mais vous le feriez par le biais de formations et d'ateliers pour assurer que les gens comprennent comment cela se passe. Avant de le faire, comme si vous faisiez une évaluation, n'est-ce pas ? Hé, combien de systèmes d'IA ai-je ? Il faudrait faire circuler des questionnaires, examiner vos systèmes d'IA, consulter les parties prenantes, n'est-ce pas ? Et peut-être découvrirez-vous certains risques au cours de cette première étape. Mais c'est ici que tu ferais le tour. En général, examinez la documentation existante, créez des enquêtes, des questionnaires, examinez vos systèmes d'IA juste pour obtenir un inventaire de votre situation actuelle en ce qui concerne votre utilisation de l'IA. C'est donc là que, une fois que vous avez cet inventaire, vous pouvez commencer mettre en œuvre le cœur du cadre de gestion des risques de Nist AI, la première partie qui est « gouverner, gouverner » est votre cadre global, n'est-ce pas ? C'est pourquoi il se trouve au milieu du schéma. Et vous créeriez des politiques, développiez ou mettriez à jour des politiques relatives à la gestion de l'IA, à utilisation éthique de l'IA, à la gouvernance des données, à la gestion des risques liés à l'IA. Et vous aligneriez votre organisation. Qu'est-ce que cela signifie ? La gouvernance de l'IA ne doit pas être une fonction isolée, n'est-ce pas ? La gestion des risques liés à l'air devrait relever de la gestion des risques. Vous devriez avoir un tableau approprié. Vous créeriez une véritable responsabilisation qui est chargée de décisions de « go » ou «   non » en matière d'IA ? Et vous bénéficieriez de la transparence dans les politiques d'éthique. Y a-t-il un système d'IA créé Il doit documenter ce qu'il fait, comment il prend ses décisions. Et encore une fois, les parties prenantes, vous devriez contacter le service juridique, contacter vos clients pour savoir comment l'IA est appliquée. Quelles sont les choses qui se passent ? Ce serait donc la première partie qui concerne le gouverneur. La partie suivante concerne le mappage. Dans la partie cartographique, vous devez identifier les risques existants. Vous avez donc l'inventaire, vous avez créé le cadre. Vous devez maintenant procéder à une identification complète des risques et avantages potentiels associés à chaque système d' IA, n'est-ce pas ? Et cela peut être comme si l'IA est vulnérable aux risques de sécurité, qu' elle est biaisée, que les données ne sont pas nettoyées. Vous contacteriez les parties prenantes, le personnel informatique, les data scientists, les parties externes, n'est-ce pas ? Ensuite, il faudrait tenir compte du contexte dans lequel je travaille, n'est-ce pas ? Quel est l' environnement réglementé, quelle est la dynamique du marché, quels sont les impacts sociaux, comme vous pourriez le dire. Et vous, bien sûr, documentez toutes ces découvertes. Il s'agit donc, selon vous, de la partie identification et vous devez maintenant effectuer la mesure. Vous avez donc identifié les risques, vous devez maintenant les quantifier ou les qualifier en utilisant une sorte d' analyse des risques pour déterminer quels sont les domaines clés, tels que les risques critiques, quels sont les risques élevés ? Utilisez vos propres systèmes internes de notation des risques, n'est-ce pas ? Et vous établiriez également des indicateurs de performance pour vos systèmes d'IA quoi servent les indicateurs de performance ? Exactitude, équité, transparence, qu'est-ce qui est inacceptable, qu'est-ce qui est acceptable ? Et vous envisageriez de mettre en œuvre surveillance continue de vos systèmes d'IA, par exemple , et de mettre en place une boucle de rétroaction. Vous créeriez donc une sorte de mécanisme pour obtenir des informations sur le processus de gestion des risques. Cette boucle informera et vous aidera à ajuster vos systèmes d'IA. Et si le système NAS fonctionne, sa sécurité tombe soudainement en panne ? Ou si la résilience diminue, comment le découvririez-vous ? Hein ? Vous feriez de la surveillance et vous recevriez les commentaires des utilisateurs. Cela vous permettrait d'avoir une boucle de rétroaction constante. Enfin, il s'agit de gérer le risque lié à l'IA. Maintenant que vous les avez identifiés, vous les avez mesurés. C'est là qu'intervient l' atténuation. Vous élaboreriez des stratégies pour atténuer les risques identifiés. Vous pourriez peut-être réentraîner le modèle d' IA pour réduire les biais, mettre en place davantage de contrôles de sécurité, mettre en place une surveillance humaine Peut-être que l'IA prend une mauvaise décision. Voici donc toutes les choses que vous feriez. Bien entendu, vous aurez besoin de ressources pour ce faire et pour vous assurer que les risques sont bien atténués. Vous communiqueriez à propos cet ARS à vos parties prenantes. S'il y a un problème, comment en informer les clients, n'est-ce pas ? Et cela se fait par le biais de politiques et de procédures. Et bien sûr, tout ce processus serait cyclique, non ? Vous feriez des examens réguliers pour vous assurer que tout est fait correctement. Et bien sûr, enfin, il en va de même pour la loi EAI. Il faudrait faire un changement de culture, non ? Assurez-vous que des formations sont dispensées au niveau de la direction, au niveau intermédiaire, à la fois pour le personnel technique et le personnel de sécurité. Bien entendu, votre direction doit être impliquée Cela ressemble donc à un cours intensif application du cadre de gestion des risques de Nist Air Prenons l'exemple d' une entreprise au lieu de me contenter de vous expliquer ce que vous devez faire. Prenons une entreprise. Vous avez peut-être une entreprise de taille moyenne qui se spécialise dans les solutions analytiques basées sur l'IA Et ils veulent appliquer cadre de gestion de l' IA parce qu'ils en voient les avantages. Ils veulent s'assurer que tous les risques sont appliqués, n' est-ce pas ? La première étape serait donc, bien entendu, de développer des ateliers et des sessions de formation animés par des experts. Ils embaucheraient des personnes pour les faire appliquer. Et cette formation passerait en revue les principaux éléments régissant la cartographie, mesure, ce dont nous avons parlé, n'est-ce pas ? Et puis, bien sûr, ils procéderaient à une évaluation, un audit de l'IA. Ils procéderaient à un audit de tous les systèmes d'IA et détermineraient quels en sont les objectifs et les risques potentiels. Ils utiliseraient peut-être les outils existants et obtiendraient des informations par le biais de questionnaires sur l'impact de ces systèmes sur leurs opérations les risques potentiels. Ensuite, ils commenceraient à appliquer le noyau qui gouverne actuellement Ils mettraient à jour toutes leurs politiques. Ils embaucheraient des gens. Ils créeraient un cadre, non ? Et ils définiraient des rôles et des responsabilités clairs. Écoutez, l' approbation de cette personne est nécessaire avant qu'un nouveau système d'IA ne soit mis en place. Et ce système, cette personne, s'assurerait que tout système d'IA, lorsqu'il sera mis en production, est conforme au cadre de gestion des risques liés à l'IA du Nist Avec vos politiques internes et vos listes de contrôle. Et la prochaine étape serait la cartographie. Ainsi, comme nous en avons parlé plus tôt, ils évalueraient les risques et les avantages du système d'assurance-emploi. Faites une évaluation des risques appropriée afin de créer un document contenant tous les résultats. Vous disposerez d'une liste complète des risques identifiés au cours de cette phase. Ensuite, à l'étape suivante, nous mesurerons où vous commencez à les mesurer, n'est-ce pas ? C'est vous qui décideriez des indicateurs. Comment déterminez-vous si un système est fiable, exemple s'il est sécurisé ? Et comment surveilleriez-vous ce genre de choses ? Tous ces critères seraient donc définis, la prochaine étape serait la gestion. Maintenant, il faudrait atténuer, non ? Comment mettriez-vous en place les contrôles s'ils disposent d'un système d'IA qui n'est pas sécurisé, qui n'est pas équitable, qui n'est pas documenté ? Vous devriez mettre en place ces contrôles et revoir et mettre à jour périodiquement leurs stratégies de gestion des risques pour vous assurer qu'ils s' y conforment. Et nous en avons parlé tout à l' heure, d'une formation, d'une formation continue, car on ne fait pas de formation une seule fois pour ensuite l'oublier. Sinon, il n'y aura aucun changement culturel. Vous devrez donc faire toutes ces choses et quels en sont les avantages ? Vous amélioreriez votre gestion des risques. Vous augmenteriez la fiabilité de leurs systèmes, vous augmenteriez leur Comme je l'ai dit tout à l' heure, Nist, RMF s'aligne parfaitement sur RMF s'aligne parfaitement la loi sur l'IA. Vous pourriez utiliser les systèmes d'IA de manière stratégique appropriée et votre entreprise deviendrait les systèmes d'IA de manière stratégique appropriée et votre entreprise deviendrait ainsi plus résiliente aux risques éventuels Donc, c'est juste avantage après avantage, non ? C'est donc ce dont nous avons parlé ici. Un exemple d'étude de cas avec les principaux résultats de chaque étape, utilisez-le comme point de départ. Je ne dis pas que c'est le cas, vous comprenez maintenant tout sur le framework NistirMF J'ai d'autres cours qui approfondissent le cadre. Rappelez-vous ce que j'ai dit plus tôt, à savoir que cela complète les directives de haut niveau de l'EAI qui peuvent utiliser les deux Ce n'est pas une loi sur les évaluations environnementales qui est obligatoire. , l'IRMF est plus facultatif, mais il est plus complet et plus Utilisez-le, placez la loi EA en haut et utilisez le Nist IMF pour créer le cadre dont vous avez besoin J'espère que cela vous a été très utile. Nous aborderons maintenant un autre cadre et une autre norme dans la leçon suivante. Merci, je te verrai là-bas. 8. 8 ISO 1: Bonjour, bonjour à tous. Bienvenue dans cette nouvelle leçon, qui porte maintenant sur une nouvelle norme, ISO 42 double 01, qui est un système de gestion de l'IA. À ce jour, nous avons abordé quelques cadres et réglementations. Vous devriez avoir une idée de leur fonctionnement et des principaux éléments qu'ils couvrent. Nous abordons maintenant un sujet très, très important qui est sorti récemment, à savoir SO 42 double 01. Si vous avez déjà travaillé dans le domaine de la cybersécurité ou de la qualité, vous connaissez probablement la norme ISO juste avant ISO 27 double 01, ISO 9001. Nous allons expliquer comment utiliser la norme, comprendre ce qu'est un système de gestion de l' IA, et nous allons réaliser une étude de cas pour sa mise en œuvre, n' est-ce Donc, tout d'abord, prenons un peu de recul avant d'entrer dans le vif du qu'est-ce qu'un système de gestion, n'est-ce pas ? Le système de gestion est donc conçu pour aider les entreprises à améliorer leurs performances en spécifiant une série de processus et de pratiques structurés. Ils ont donc des systèmes de gestion de structure de haut niveau, et il s'agit d'une structure commune de haut niveau qui est normalisée dans toutes les normes ISO. Et pourquoi c'est comme ça ? Parce qu'il garantit la cohérence et la compatibilité. Cela devient donc plus facile si vous êtes certifié 9 001. Obtenir la certification 2701 sera plus facile, Parce que les mêmes clauses sont suivies, la même structure qui est suivie. Vous pouvez donc créer plusieurs systèmes de gestion. L'un est un système de gestion de la qualité, l'autre un système de gestion de la sécurité de l'information. Et maintenant, vous avez un système de gestion de l'IA, n'est-ce pas ? Et chacun de ces systèmes de gestion est spécifique à un domaine, comme indiqué ici. Vous avez donc 2701 pour la sécurité. Vous en avez une pour votre vie privée. Vous en avez maintenant une IA. Vous en avez un pour la continuité des activités. Et cela permet aux entreprises d'aborder des aspects spécifiques de leurs domaines, n'est-ce pas ? Vous ne voulez pas avoir un seul système de gestion qui couvre tout ce sur quoi vous voulez vous concentrer, à confidentialité ou la sécurité, ou l'IA, et les systèmes de gestion. Ils aiment l'amélioration continue. Ils mettent l'accent sur un processus reproductible d' amélioration continue qui est reflété dans ce que l' on appelle le plan, le faire, le vérifier, l'agir. Nous allons aborder cette question. Et cette approche encourage essentiellement les entreprises à évaluer et à améliorer continuellement leurs pratiques d'obtenir de meilleurs résultats au fil du temps. Il s'agit d'une approche basée sur le risque. Ces normes adoptent une approche de gestion basée sur les risques, obligeant les entreprises à identifier, évaluer et gérer les risques spécifiques à leur domaine. C'est basé sur le risque, vous ne vous contentez pas de tout mettre en œuvre, vous implémentez tout en fonction du risque. Enfin et surtout, la certification par des organisations tierces qui, une fois qu' elles ont développé et mis en œuvre un système de gestion, peuvent choisir de se faire certifier selon une norme de système de gestion par des tiers indépendants. Cela implique généralement un audit externe pour vérifier que le système de l'entreprise est réellement conforme à cette norme. Et cela contribue vraiment à renforcer le profil et la crédibilité de l'entreprise. Si vous êtes dans le domaine de la sécurité et que vous obtenez la norme ISO 2701, si vous êtes dans le domaine de la continuité des activités, je pense que c'est la norme 2201, je me trompe peut-être Mais si vous êtes dans une qualité de 9 001 et que nous avons maintenant une norme d'IA, c'est pourquoi elle est devenue si importante, est-ce pas ? Et c'est devenu une grande nouvelle. Tels sont donc les avantages des normes de gestion. Comme je l'ai dit, ils sont reconnus à l'échelle internationale et dans le monde entier. Tout le monde sait ce qu'est la norme ISO 2701, les clients comptent sur les normes ISO pour leur assurance et leur confiance, n'est-ce pas ? Si vous vous rendez dans une cuisine et que vous vous trouvez au sommet de la cuisine, cela indique que vous êtes certifié ISO 9001 Donc, vous savez que la cuisine suit une norme de qualité. De même, pour l' entreprise certifiée 27 double 01, et en plus de tous les avantages et de la maturité des processus, entreprises peuvent également les utiliser comme un avantage concurrentiel Hein ? Ils peuvent fièrement dire au client : regardez, je suis certifié ISO 2 double 01, n'est-ce pas ? Ce qui est comme la norme pour 27 double 01, qui est la norme en matière de sécurité. Cela vous aide donc vraiment à vous démarquer sur le marché. Et maintenant, nous atteignons le SO 42 double 01. C'est ce que l'on appelle un système de gestion de l'IA, une chose relativement nouvelle. Il s'agit d'un nouveau cadre conçu pour répondre au développement et à l'adoption rapides de l' IA dans divers secteurs, n'est-ce pas ? Et il définit un système de gestion de l'IA. Qu'est-ce que c'est ? C'est comme un cadre complet conçu pour fournir des politiques, objectifs et des procédures pour le développement responsable de l'IA. Tout ce dont nous parlions tout à l'heure avec cela et avec la norme de l'UE, n'est-ce pas ? Et ils contribuent à mettre en place une norme éthique afin que vous puissiez créer des systèmes d'IA fiables et éthiques. Et le meilleur, c'est qu'il fournit aux entreprises une approche structurée pour intégrer entreprises ces processus tels que l' éthique de la confiance et la gestion des risques. Il est donc conforme à la loi EAI et autres normes ISO également parce qu'il suit la même chose, à savoir la Nous avons parlé de transparence tout à l'heure, de biais, manière de sécuriser ces systèmes d'IA. Toutes ces choses sont résumées ici à un très haut niveau Et en fait, si vous vous conformez à la loi EA, vous pouvez également mettre en place un conformez à la loi EA, système de gestion de l'IA pour vous assurer que tous ces processus sont suivis et pour la gestion des risques, vous pouvez utiliser le nist Et nous allons parler de la manière dont toutes ces différentes normes peuvent être réunies. Voilà donc à quoi ça ressemble. Vous pouvez vous rendre sur le site Web, faire un aperçu gratuit de son apparence , juste pour avoir une meilleure idée de ce qu' est un système de gestion de l'IA et de ce à quoi il ressemblera, n'est-ce pas ? Il s'agit donc de la structure de haut niveau. C'est très similaire à la norme ISO 27 D01. Il contient donc des clauses de haut niveau et une annexe, qui contient une liste des contrôles relatifs aux politiques relatives à l' IA, au cycle de vie du système d' IA, cycle de vie du système d' IA l'analyse d'impact et à la gestion des données Ils comportent plusieurs clauses. Les clauses de haut niveau portent sur le contexte de l'organisation, comme la façon dont l' organisation fonctionne, planification du leadership, le soutien, toutes ces choses, à un niveau élevé. Ensuite, vous descendez jusqu'à l' antar où l'on explique en détail les commandes qui s'y trouveront En tant que direction, vous devrez décider, accord, que dois-je mettre en œuvre, n'est-ce pas ? Quelle est la portée du système de gestion de l' IA ? Et si je décide d' aller jusqu'au bout, quelles sont les commandes ? Je dois dire qu'il s'agit d'une norme très mature, qui repose sur toute la puissance de l'ISO. C'est pourquoi c'est si important, car les entreprises qui développent ces systèmes d'IA seront désormais en mesure d'obtenir une certification selon des normes très matures et de se présenter comme certifiées en matière d'IA. Maintenant, ce que nous allons faire, c'est aborder cette question de haut niveau et nous avons parlé des avantages la norme SO 42 Zubondival, de sa structure Pourquoi ne pas jeter un œil à l'étude de cas et voir si une entreprise souhaiterait la mettre en œuvre Quelles seront les étapes à suivre et comment s'y prendraient-ils pour la mettre en œuvre ? Je te verrai dans la prochaine leçon. Merci beaucoup 9. 9 ISO 2: Bonjour à tous. Bienvenue. Bienvenue dans cette leçon, qui fait suite à une leçon précédente sur la norme ISO 4201 Maintenant, nous allons prendre une entreprise, une entreprise fictive, et voir comment elle est mise en œuvre. Une chose très importante, c'est qu'en date du 2 février 2024, cette norme vient de sortir. Les entreprises n'ont pas encore été certifiées pour effectuer des audits selon cette norme. Mais ce n'est qu'une petite chose car c'est comme s' ils allaient obtenir une certification et vous devez connaître le processus. Quelle que soit la norme que vous choisissez. En ce qui concerne l'ISO, elle suit le plan, le faire, le vérifier, l'agir. C'est ce qu'ils recommandent. Qu'est-ce que c'est ? Il s'agit d'une méthode de gestion en quatre étapes utilisée pour l'amélioration continue des processus et des produits. Et en ce qui concerne les normes ISO, je les appelle le cycle PDCS Cela vous donne un cadre systématique pour la mise en œuvre et la maintenance ces systèmes de gestion tels que 90012701 et maintenant l'AISMS Et il est essentiel de s'assurer que l'entreprise continue de s'améliorer. Ils ne se contentent pas d'être audités et ils l'oublient, n'est-ce pas ? La première étape est donc de planifier. est là que les entreprises commencent à identifier ce qu'elles veulent faire et les processus que je dois mettre en œuvre. Quelle est la marge de manœuvre pour s' auto-évaluer pour découvrir où se situent les lacunes ? La deuxième étape est celle où ils commencent à mettre en œuvre les processus du plan. Vous exécutez les choses et agissez selon ce qu'ils ont décidé. La troisième étape consiste à vérifier par où ils commencent à surveiller et à mesurer les performances , les politiques et tout le reste, afin de s'assurer que tout fonctionne correctement ou non. La dernière étape est celle où, sur la base de l'analyse, ils continuent d'améliorer l'amélioration continue du système pour améliorer les processus et tout le reste, afin de s'assurer que cela se produit. C'est ainsi que fonctionne le PDC E. Ce n'est pas compliqué, c'est très simple. Prenons donc une entreprise et voyons comment elle s' y prendrait pour la mettre en œuvre, d'accord ? Voici donc ce dont nous parlions : les innovations en matière de technologies vertes. Aujourd'hui, Green Tech ressemble à une entreprise technologique de taille moyenne se concentre sur des solutions basées sur l' IA pour le marché de l'énergie durable. L'énergie verte, l'énergie durable, qui est un secteur très en vogue en ce moment. Et ils ont entrepris de mettre en œuvre la norme ISO 4201 Pourquoi ? Parce qu'ils veulent vraiment montrer qu' ils prennent au sérieux les obligations de l'IA responsable. Et ils veulent vraiment être à l'avant-garde de cette industrie. Et ils se rendent compte que l'obtention de la certification ISO avec Willie les aide à obtenir cet avantage concurrentiel Cela montre vraiment à leurs clients qu'ils savent quel point l'IA responsable est importante disposer d'un système de gestion de l'IA mature. Et ils se sont occupés des catégories énergétiques intelligentes, des ressources renouvelables, de la consommation d'énergie, n'est-ce pas ? Alors, comment s'y prendraient-ils ? Eh bien, tout d'abord, ce qui concerne les initiatives d'IA , quelle est la nécessité de mettre en œuvre cette norme ? Ils avaient des préoccupations éthiques, non ? Ils ne savaient pas s'ils s' acquittaient de toutes leurs responsabilités éthiques ou non ? Les systèmes d'IA, lorsqu'ils prennent leurs décisions, le font-ils correctement ? Les données sont-elles collectées correctement ? Et l'autre point, c'est que j'évolue si vite qu'ils veulent disposer d'un cadre mature, d'un système de gestion qui les informera et ils veulent s'assurer qu'il s'intègre à leurs systèmes de gestion déjà établis tels que 27019001 C'est ici que l' arrière-plan commence. Tout d'abord, allons-nous bien sûr planifier où ils établiront le système de gestion des AA ? Le plus important, tout d' abord, c'est une lunette. Il n'est pas nécessaire de mettre en œuvre une norme de gestion pour l'ensemble de l'entreprise. Vous pouvez choisir un système, vous pouvez choisir une unité commerciale, un domaine particulier, un département particulier à l'échelle d'un département. Et c'est généralement ce qui vous recommande de commencer modestement. Et chaque année, vous le cultivez de plus en plus. OK. C'est donc ce qu'ils ont fait pour la première fois. Ils ont défini le champ d'application, puis l'équipe de direction de Green Tech a élaboré une politique d'IE appropriée conforme à leurs normes. Et ils ont suivi les clauses de la norme ISO. Ils ont établi un contexte dans lequel l'IE opère, par exemple, que faisons-nous ? Quels sont les facteurs externes et internes qui ont un impact sur nous ? Et ils ont organisé des ateliers et des enquêtes pour comprendre quelles sont les attentes des employés, des clients et des partenaires à leur égard, n'est-ce pas ? Ils ont donc créé un écosystème complet pour moi. L'étape suivante a été de le faire, où ils ont fait ce que l'on appelle une évaluation de l'impact et des risques. Les évaluations d'impact occupent une place importante dans l'AIMS, qui consiste à évaluer la manière dont systèmes d' IA affectent les individus individuellement, qu'il s'agisse de groupes ou de la société dans son ensemble. Assurez-vous de penser à la sécurité et transparence et de mettre en place ces contrôles. Vous effectuez cette évaluation d' impact et cette évaluation des risques pour assurer que vous êtes conscient des risques liés à vos systèmes d'IA. Sur cette base, ils décideront des contrôles à retenir de l'annexe A, l'annexe de la norme. Il y aura une liste de commandes, non ? C'est sur cela que vous allez vous concentrer, comme s'ils ne connaissaient peut-être pas la gestion des données. Nos données sont-elles collectées de manière ouverte, responsable et transparente ? Les données d'entraînement sont-elles correctement préparées ? La préparation est-elle terminée ? Nous ne savons pas, n'est-ce pas ? C'est donc sur cela qu'ils voudront se concentrer, car c'est là que se situe l'impact. C'est là que réside le risque. Ensuite, ils exécuteront les programmes de formation, car le système de gestion de l'IA est un système. Ce n'est pas une solution, ce n'est pas un produit. Il faudrait créer une culture pour sensibiliser les employés aux bonnes pratiques en matière d'assurance-emploi et à l'importance de considérations éthiques similaires dans les systèmes d'IA, n'est-ce pas ? L'étape suivante est le contrôle, qui est l'évaluation des performances. Ils vont donc maintenant mettre en œuvre des outils et des procédures pour s' assurer que ce système de gestion de l'IA est surveillé. Et comme son impact, fonctionne-t-il ou non ? Que les systèmes d'IA soient affectés ou non. Ils ne se contenteront pas de surveiller, ils effectueront des audits. Ils ont également établi un calendrier pour les audits internes. Les équipes internes vont vérifier si le système de gestion de l'IA est conforme à la norme ou non pour s'assurer qu'elles respectent réellement la norme et qu'elles suivent ses processus. Le dernier est Act, qui est une amélioration continue. Ils créent des mécanismes de feedback. Ils vont répondre à des enquêtes, ils vont distribuer des questionnaires aux clients, aux utilisateurs, pour savoir si les applications fonctionnent comme prévu. Que le système de gestion AA soit efficace ou non. Sur la base de cette liste d' actions correctives et de commentaires correctifs, ils vont continuer à affiner les données, à améliorer ces performances, et ils vont continuer à s'améliorer année après année. Plus important encore, s'ils souhaitent être audités, ils devront choisir un organisme de certification approprié. Pensez à des éléments tels que le nombre d'expériences, le nombre d'audits. Et ce sera difficile en ce moment avec 42 double 01 car il vient d'être publié. Mais vous pouvez vous tourner vers un organisme de certification qui a de solides antécédents avec 27 fois le double 019001 Ensuite, vous pouvez faire ce que l'on appelle une pré-évaluation, ce que font les auditeurs. Ils peuvent l'utiliser pour effectuer un audit rapide afin de vous indiquer si vous répondez aux exigences ou non. Vous pouvez vous en servir pour affiner vos processus et comprendre ce que l'auditeur examinera. Ensuite, bien sûr, vous préparez un audit, assurez que toutes les lacunes sont identifiées et corrigées. Vous effectuez votre certification et vous vous souvenez qu' elle doit être maintenue et améliorée au fil du temps. Cela n'a rien à voir avec ce que vous appelez, n' est pas de la science des fusées. Il s'agit d'un processus très clair et bien défini. Quels en sont les résultats ? Bien sûr, quel en est le résultat ? Vous aurez plus de confiance, plus de crédibilité. Parce que vous avez atteint cette étape importante en obtenant la certification 242, soit le double d'un. Vous obtiendrez une meilleure gestion des risques parce que vous disposez désormais d'un système de gestion approprié, système de gestion dans lequel gestion des risques et tout le reste y sont ancrés Et bien sûr, votre processus s'est amélioré et vous disposez d'un cadre approprié, n'est-ce pas ? Un système de gestion approprié et mature est en place. Aujourd'hui, lorsqu'ils explorent de nouvelles opportunités liées à l'IA, ils ont cette confiance, n'est-ce pas ? Ils savent que nous avons mis en place un cadre de gouvernance approprié qui nous indiquera si le système AS n'est sécurisé ou il ne répond pas aux exigences C'était donc tout à partir de l'ISO. Nous allons maintenant passer à une norme plus technique, le framework d'intelligence artificielle de Google. Et je vous verrai à la prochaine leçon, tout le monde. Merci. 10. 10 Google SAIF 1: Bonjour tout le monde. Bienvenue. Bienvenue dans cette leçon, qui porte sur le framework Google SAA IF Il s'agit maintenant d'un framework de Google et c'est un framework tout à fait unique par rapport aux autres dont nous avons parlé précédemment. Pourquoi ? Parce qu'il est très axé sur la sécurité. Pas les autres dont nous avons parlé, ils se concentrent davantage sur le risque et davantage sur la gouvernance et davantage sur les systèmes de gestion, n'est-ce pas ? Mais celui-ci, le Google SAI Framework, est parfaitement aligné sur les dimensions de sécurité de l'IA. Lorsque vous parlez de créer des systèmes d'IA, concentrez davantage sur l'IA. Et c'est une bonne chose. C'est pourquoi je l' ai inclus dans ce cours. Pourquoi ? Parce que j'ai l'impression que les frameworks d'IA sont parfois un peu trop élevés et qu'ils n'abordent pas en profondeur la sécurisation de l'IA. Et c'est là que le Google SAI Framework peut entrer en jeu. Et c'est un cadre absolument incroyable. Vous devriez l'étudier, surtout si vous souhaitez l' utiliser pour compléter des éléments tels que le cadre de gestion des risques liés à l'IA du Nist dont nous avons parlé ou la norme ISO 4201, ensemble de l'IA de Google peut vraiment être un excellent complément , peut vraiment être un excellent complément car il s'agit plutôt d'une solution il s'agit plutôt d' de base lorsqu'il s'agit de sécuriser l'IA. Et c'est ce dont nous allons parler ici. Dans cette leçon, nous allons parler du cadre, des concepts clés et, bien sûr, de la manière de toujours le mettre en œuvre à l'aide d'une étude de cas sans tarder Parlons d'abord du cadre. Alors, qu'est-ce que le framework d'intelligence artificielle sécurisé de Google ? C'est ce que je transfère, le framework d'IA sécurisé. Il s'agit donc d'un cadre conceptuel pour sécuriser les systèmes d' IA qui s' inspire des meilleures pratiques de sécurité de Google. Il s'inspire des meilleures pratiques de sécurité qu'ils ont appliquées à des domaines tels que le développement de logiciels et se concentrent davantage sur l'IA. Pourquoi ? Parce que c'est très important. Au fil des années, Google constaté les types d' attaques qui peuvent se produire et a conçu ce cadre spécifiquement atténuer les risques liés aux systèmes d'IA, tels que le vol du modèle, l'empoisonnement des données, les injections rapides, vous savez, les injections de données, l'empoisonnement des données, toutes ces sortes de choses. Les capacités de l'IA étant de plus en plus intégrées dans des systèmes similaires à travers le monde, la sécurité de ces systèmes deviendra d'autant plus importante si vous me suivez sur n'importe quelle plateforme. Vous savez, je parle beaucoup de la sécurité de l'IA parce que j'ai l'impression que c' est un domaine très sous-représenté et que peu de personnes ont cette expertise dans ce Le SIF s'inspire donc des meilleures pratiques de sécurité de Google et répond aux problèmes de sécurité spécifiques à l' IA en se concentrant sur la gestion des accès, la sécurité des réseaux et des terminaux, ainsi que la sécurité des applications. C'est donc de cela que nous allons parler ici et à quoi cela ressemble-t-il à un haut niveau ? Voici donc les six éléments fondamentaux de Google, le framework d'intelligence artificielle sécurisé. Regardons-le un par un. La première consiste à étendre bases de sécurité solides à l'écosystème de l'IA. Qu'est-ce que cela signifie ? Cela signifie tirer parti de votre infrastructure et de vos protections sécurisées par défaut pour protéger les systèmes d'IA. Vous savez, toute cette cybersécurité qui est devenue si mature, vous devez vous assurer qu' elle couvre également les systèmes d'IA, n'est-ce pas ? Prenons donc un exemple. Nous connaissons les injections SQL, vrai, où vous devez assainir les entrées Vous devez maintenant appliquer la même désinfection des entrées pour vous protéger contre des techniques telles que les injections rapides, n'est-ce pas ? L'autre consiste à étendre la détection et la réponse pour intégrer l'IA dans l'univers des menaces d'une organisation. Vous savez à quel point la rapidité est essentielle pour détecter et répondre aux cyberincidents liés à l'IA Vous souhaitez donc étendre vos informations sur les menaces, n'est-ce pas, comme une entreprise, cela peut inclure la surveillance des entrées et des sorties d' IA générative pour détecter les anomalies. Comme si c'était quelqu'un qui essayait de perturber le système NII. Et en utilisant les renseignements sur les menaces pour anticiper de telles attaques. Vous pouvez donc collaborer avec votre équipe Soc et tout le reste, n'est-ce pas ? Ensuite, les défenses automatisées permettent de suivre le rythme des menaces existantes et nouvelles. En tant qu'innovations en matière d'IA, elles peuvent améliorer l'échelle et la rapidité de votre réponse aux incidents, n'est-ce pas ? Les cybercriminels le savent également C'est pourquoi ils vont utiliser l'IA pour amplifier l'impact de leurs cybermenaces C'est pourquoi il est si important d' utiliser l'IA comme moyen de défense car vous utiliserez l'IA pour combattre des menaces spécifiques à l' IA. D'accord, ne considérez pas simplement IA comme quelque chose qui peut être attaqué. Pensez-y comme quelque chose qui peut également protéger vos systèmes. OK. La prochaine étape consiste à harmoniser les contrôles au niveau de la plateforme afin de garantir une sécurité uniforme dans l'ensemble de l'organisation. La cohérence entre vos frameworks peut donc contribuer à atténuer les effets de l'IA. Également atténuation de l'AIS. Vous devez donc vous assurer que comme toutes les protections dont vous disposez déjà, vous les avez étendues à vos plateformes sous-jacentes. Par exemple, si vous utilisez AWS Sage Maker, il doit être renforcé conformément aux meilleures pratiques, n'est-ce pas ? Et en veillant à ce que toutes vos configurations, qu'elles soient renforcées ou configurées, soient cohérentes au sein de l'entreprise OK, le cinquième est d' adapter les contrôles pour ajuster les médicaments et créer boucles de rétroaction plus rapides pour le déploiement de l'IA. Tests constants des mises en œuvre grâce à l'apprentissage continu Il peut garantir que les capacités de détection et de protection sont similaires aux nouveaux types d'ordinateurs qui apparaissent. Vous pouvez donc utiliser des outils tels que l'apprentissage automatique basé sur les incidents et les commentaires des utilisateurs. Vous pouvez donc mettre à jour votre entraînement, mettre à jour votre IA et affiner les modèles pour répondre de manière stratégique aux nouveaux types d' attaques qui se produisent. Hein ? L'IA peut détecter les comportements anormaux et ajuster les commandes en temps réel pour s'en assurer Et c'est quelque chose de tout à fait nouveau. Auparavant, nous devions modifier manuellement les contrôles, augmenter ou diminuer nos contrôles de sécurité. Avec l'IA, vous pouvez complètement automatiser. Et le numéro six est la contextualisation des risques liés aux systèmes d'IA dans les processus métier environnants Réaliser des évaluations de bout en bout des risques liés à la manière dont les entreprises vont déployer l' IA vous aidera à prendre des décisions éclairées, n'est-ce pas ? Vous devez procéder à une évaluation portant exemple, sur le risque commercial, comme la validation des données, sur le genre de choses qui se passent ? Et en gros, parlez du risque ici, comme nous en avons parlé dans le cadre de gestion des risques liés à l'IA, en veillant à ce que tout soit piloté par un processus basé sur les risques. C'est donc à un niveau élevé que sert le cadre d'IA sécurisé. Comme vous pouvez le constater, c'est plus technique et cela se limite au niveau de la plateforme. Cela dépend des attaques existantes et de la manière dont nous procéderions pour les mettre en œuvre. C'est assez simple. Vous comprendrez l'utilisation, elle est très similaire à ce nous avons déjà parlé auparavant. La première étape serait de comprendre l'utilisation. Comprendre l'utilisation professionnelle spécifique pour laquelle vous utilisez l'IA. Quelles données sont utilisées, quels protocoles seront utilisés. La prochaine étape serait de constituer l'équipe. Tout comme les systèmes dont nous avons parlé, ils sont assez complexes et comportent un grand nombre de pièces mobiles, n'est-ce pas ? Vous devez vous assurer que toutes les équipes informatiques consacrez à la protection de la vie privée en sont conscientes et que vous faites partie d'une équipe multidisciplinaire qui peut contribuer à atténuer ces risques liés à l'IA, quelle que soit l'équipe à laquelle vous vous partie d'une équipe multidisciplinaire qui peut contribuer à atténuer ces risques liés à l'IA, quelle que soit l'équipe . Ensuite, selon Google, la troisième étape consiste un framework d'IA, c' est-à-dire que les équipes doivent être similaires, correctement formées et créer un framework d'IA, c' est-à-dire que les équipes doivent être similaires, correctement formées et informées des nouveaux types de méthodologies, des nouveaux types d' attaques qui se produisent tout au long du cycle de développement d'un modèle Et le dernier consiste à appliquer les six éléments fondamentaux du SCIF, celui dont nous avons parlé Et souvenez-vous des six étapes. Ils ne sont pas censés être chronologiques, d'accord ? Vous pouvez les appliquer dans n' importe quel ordre, importe quel ordre à condition d'appliquer ce 61 dont nous avons parlé. Ce n'est donc pas comme si vous deviez partir de la gauche et redescendre un par un. Non, vous pouvez les appliquer tous ensemble, étape par étape ou de manière séquentielle, mais selon vous, ce qui convient le mieux à votre organisation C'est ce qui ressort du Google SAI Framework, High Level Overview. Nous pouvons maintenant parler de la mise en œuvre ce cadre, comme je le fais toujours avec une étude de cas, et voir comment une entreprise s'y prendrait pour mettre en œuvre ce cadre. Et je te verrai dans la prochaine leçon. 11. 11 Google SAIF 2: OK, tout le monde. Bonjour, bienvenue à cette leçon. Et maintenant, nous allons implémenter le framework Google SAI au sein d'une entreprise, comme je le fais toujours. Jetons donc un coup d'œil à ce dont nous parlons. Nous avons donc ici un flic bancaire mondial, qui est une banque internationale de premier plan. Et ils vont déployer des forums de discussion alimentés par l'IA pour vous offrir un service client personnalisé. Ils vont utiliser le traitement du langage naturel et l'apprentissage automatique, un peu comme un chat de type chat GPT pour traiter les différentes demandes des clients issues de la gestion des comptes Et vous pouvez imaginer à quel point cela pourrait être dangereux si quelqu'un parvenait à le pirater ou à contourner les contrôles de sécurité. Compte tenu de la nature sensible des données concernées, la banque va donc décider d'adopter le framework SEI de Google pour garantir un déploiement et une mise en production. Nous allons donc utiliser les mêmes étapes dont nous avons parlé plus tôt. Et nous allons commencer par la première étape, qui consiste à comprendre l'utilisation. Alors, que va faire la banque ? Ils vont définir les objectifs spécifiques et la portée de cette initiative, comme le forum de discussion. Quel est donc l'objectif ? Ils veulent fournir un service client personnalisé 2047, mais ils veulent maintenir le plus haut niveau de sécurité et de confidentialité Les exigences en matière de données concerneront l'interaction avec le client , les données, les détails du compte , l'historique des transactions, toutes ces sortes de données très sensibles, n'est-ce pas ? Et les résultats escomptés seront la réduction des temps de réponse, satisfaction des clients et la sécurité des données. En utilisant toutes ces informations, la banque va procéder à une évaluation des risques appropriée, n'est-ce pas ? Pour identifier les menaces potentielles, par exemple ce qui va se passer avant de passer à l'étape suivante, n'est-ce pas ? Ils vont donc procéder à une évaluation des risques appropriée et s'assurer qu'ils comprennent quel est le risque. La deuxième étape consiste à constituer l'équipe dont vous avez parlé plus tôt, afin qu'elle puisse constituer une véritable équipe interfonctionnelle. Vous pourriez avoir des spécialistes de l'IA et du ML, des experts en sécurité informatique pour vous assurer que tout est sécurisé le chatbot ne sera pas compromis. Responsables de la conformité en matière d'injection rapide. Vous voulez vous assurer que les réglementations de l'UE ou du Nist doivent peut-être être respectées Les ISO, ils le suivent. Les responsables du service client, car sont eux qui interagiront le plus avec cela. Et les défenseurs de la vie privée veillent à ce que les données soient correctement collectées. Nous avons donc une équipe diversifiée qui veille à ce que le chat pot soit utilisé lors de son déploiement. Toutes ces multiples parties prenantes s'y impliquent. La troisième étape consiste à définir le niveau avec l'IA premium dont nous avons parlé. Un programme de formation à l'IA approprié. Principes fondamentaux des machines à intelligence artificielle, liste de sécurité des techniques de langage naturel spécifiques à l'IA et utilisation éthique de l'IA. Cela permettra de s'assurer que l'équipe aura une bonne compréhension des aspects techniques et éthiques du projet. C'est ce que recommande le Google SAI Framework. La quatrième étape est maintenant que nous en aux six éléments de base qui s'y trouvent. Le premier était d'étendre les bases solides en matière de sécurité. Ils vont évaluer leur infrastructure de sécurité existante sur laquelle la plateforme d'IA sera hébergée. Le chiffrement sécurise les API, l'authentification appropriée sont là ils peuvent étendre leur détection et leur réponse. Ils vont donc devoir développer un modèle de détection des menaces spécifique à l'IA pour s'assurer que, peu importe ce qui se passe dans le chat, si une activité malveillante est détectée, ils puissent immédiatement être alertés sur le lait Le troisième est l' automatisation des défenses. Ils vont tirer parti de l'apprentissage automatique pour améliorer les mécanismes de défense. Ils vont donc automatiser la détection et la réponse aux menaces de sécurité dans les conversations sur les forums de discussion afin de s'assurer que toute attaque se produise. Ils ont la capacité de répondre automatiquement et peuvent bénéficier d'une supervision humaine pour les cas plus complexes. Le quatrième serait d'harmoniser les contrôles au niveau de la plate-forme Ils vont standardiser, nous en avons parlé plus tôt, contrôles de sécurité sur toutes les plateformes impliquées dans le cycle de vie de ce forum de discussion, qu' il s'agisse du développement ou du déploiement Vous pouvez y avoir des commandes. Le numéro cinq serait d' adapter les contrôles. mesure que le système de chat sera de plus en plus intégré, la banque utilisera l' apprentissage automatique pour continuer à adapter ses contrôles de sécurité à mesure que de plus en plus de menaces apparaissent, car l'environnement des menaces de sécurité est très dynamique, en particulier dans le domaine de l'IA. Enfin, il est contextualisé en tant que risque lié au système d'IA. Ils peuvent ainsi intégrer la gestion de l'IE et de la sécurité dans leur cadre de gestion des risques plus large. Tous les enseignements qui en découleront seront pris en compte dans le cadre des autres risques opérationnels et de la prise de décision Et quels en sont les avantages ? Bien sûr, vous pouvez voir qu'ils réussiront probablement à défier les chats alimentés par l' IA. Ils vont améliorer leur cadre de réponse aux clients sans compromettre la sécurité ou la conformité. s'agit donc simplement de vous montrer un moyen pratique de mettre en œuvre le cadre Google SAI. C'est un excellent cadre, surtout lorsque vous pouvez l'utiliser en complément d' autres cadres tels que le règlement EAI ou ISO Nist, car il est plus technique et explique en profondeur comment cette taxe C'est ce dont nous avons parlé ici, par exemple, qu'est-ce que Google SF ? Quels sont les éléments clés et comment les mettre en œuvre ? J'espère que vous avez une bonne idée de Google. Je recommande que ce soit totalement gratuit. Allez-y et jetez-y un coup d'œil. Lisez-le et faites-vous une bonne idée de ce que Google recommande. Vous devez comprendre Google comme s'il y avait une raison pour laquelle il s'agit d' une grande entreprise technologique, l'une des plus grandes entreprises du monde. Ils disposent donc d'une mine d'informations qu' ils sont librement insérées dans ce cadre. Ne laissez donc pas cette information aller vers l'ouest. Parcourez-le et comprenez parfaitement le cadre. Merci à tous, je verrai dans la prochaine leçon. 12. 12 Comment utiliser: Bonjour tout le monde. Bienvenue, bienvenue dans cette leçon, qui explique comment utiliser ces connaissances. Et c'est presque la fin du cours. Maintenant, j'ai découvert que les gens sont confus à propos de ces cadres, c' que les gens sont confus à propos de ces cadres, qu'ils sont tellement nombreux , n'est-ce pas ? Nous avons parlé de Nest, de Google, ISO, de l'UE, de toutes ces réglementations. Cela devient donc une sorte d'affaire, comment puis-je utiliser ces informations, n'est-ce pas, si je veux juste atténuer les risques existants. Il existe donc de très nombreuses façons de s'y prendre. Et c'est là tout l'intérêt de bien suivre ce cours. Vous devez comprendre que chacun de ces cadres s'adapte d'une manière particulière, n'est-ce pas ? La réglementation européenne sur l'IA est comme une loi, elle est donc obligatoire. Tu n'as pas vraiment le choix. L'ISO 4201 peut être considéré comme un complément au framework Nist AI De même, comme le, Google peut être considéré comme un niveau inférieur, ce qui concerne la sécurité de ces systèmes. N'oubliez donc pas de penser aux domaines communs que sont la fiabilité, les évaluations des risques, la gouvernance, qui sont communs que soit le cadre dont vous avez Et voyez quels sont les points forts de chaque framework. Vous pouvez donc implémenter tous ces éléments ou en prendre certains qui vous sont applicables, ou vous pouvez créer votre propre cadre conforme à chacun d'entre eux. Ainsi, même si vous implémentez votre propre framework, vous serez automatiquement conforme à chacun d'entre eux. Et si vous voulez regarder, voici comment je le visualiserais. Donc, l'une ou l'autre réglementation de l'UE en matière d'IA figurerait en tête, parce que c'est une loi, n'est-ce pas ? Tu dois le faire. Ensuite, vous pouvez mettre en place un système de gestion de l' IA pour avoir un véritable parapluie sous lequel tout fonctionne. Et vous pouvez le faire en parallèle avec un système de gestion de la sécurité de l'information tel que le 2701 Et croyez-moi, de nombreuses personnes ont dit que l'EO, la loi sur l'IA, indiqueront que lorsque vous pensez aux systèmes à haut risque, elles voudraient que quelque chose comme le SO 4201 y soit mentionné OK ? Et puis, lorsque vous examinez tous ces cadres pour parler de risque, n'est-ce pas ? Nous voulons disposer d'un cadre de gestion des risques. n'y a pas de meilleur cadre de gestion des risques que Mist, car il explique en détail comment le mettre en œuvre afin qu'ils puissent se compléter et que vous puissiez mettre en œuvre un cadre de gestion des risques approprié basé sur St. Et enfin, bien sûr, il se compléter et que vous puissiez mettre en œuvre un cadre de gestion des risques approprié basé s'agit davantage de la sécurité de ces plateformes sous-jacentes, où vous pouvez implémenter le framework SIF de Google. Donc c'est juste pour vous donner une idée. Je ne dis pas que c'est ce que vous devez mettre en œuvre, c'est ce que je vous recommande si vous voulez tirer le meilleur parti de tous ces frameworks, n'est-ce pas ? Et il n'y a pas que ces frameworks, vous en avez de nouveaux qui sortent. Une norme ISO en cours d'élaboration est axée sur les directives de sécurité de l' IA, afin de faire face aux menaces de sécurité et aux défaillances des systèmes d'IA. Donc c'est plutôt cool. J'ai vraiment hâte de voir celui-ci quand il sortira, non ? Et je recommande que, quel que soit le pays dans lequel vous vous trouvez, vous aurez une stratégie nationale pour l'IA. Je suis basé à Londres, au Royaume-Uni. J'examine donc la stratégie nationale en matière d' IA, dont plan décennal vise à faire de la Grande-Bretagne une superpuissance mondiale de l' IA aux États-Unis Ils ont un décret pour le développement et l'utilisation sûrs, sécurisés et fiables de l'IA Je recommanderais de passer par là. Ce n'est pas une loi, mais toutes les lois en découleront probablement. Si vous vivez aux États-Unis, au Moyen-Orient, où je travaillais auparavant, vous avez une stratégie nationale en matière d'IA à 2031, n'est-ce pas ? Il suffit de lire toutes ces choses pour mieux les comprendre. Et vous verrez beaucoup de points communs, comme des modèles communs à chacun d' entre eux, et cela vous donnera une très bonne idée de leur fonctionnement OK. J'espère donc que cela vous a été utile. Maintenant, ce que vous allez faire, nous allons terminer ce cours. J'espère que cela vous a été très utile et que vous en avez tiré des connaissances tangibles. Je vous verrai à la toute prochaine fin de ce cours. 13. 13 Résultat: Bonjour à tous. Bienvenue dans ce cours et bienvenue à la fin de ce cours où nous concluons. J'espère que cela vous a été utile. Une chose que je recommanderais est de poursuivre notre parcours d'apprentissage. L'IA est un domaine qui évolue très rapidement et beaucoup de choses que vous apprenez font que je garde délibérément ce cours à un niveau élevé. Je ne veux pas parler d'une technologie en particulier, car quelle que soit la technologie dont je parle deviendra obsolète très, très rapidement. Mais n'oubliez pas que l'IA est là pour durer et que de nombreux nouveaux emplois seront créés. Restez donc au courant des tendances du secteur. Restez à jour, continuez à apprendre. Et tu vas continuer à grandir. Je vous félicite donc d' avoir suivi ce cours. J'essaie de faire en sorte que ce ne soit pas un long cours, 4 heures ou 5 heures. Je n'aime pas ces cours parce que les gens s'ennuient. J'espère donc que vous en avez tiré des informations tangibles. Souvenez-vous du projet, c'est-à-dire que je veux que vous preniez ces informations et que vous créiez votre propre cadre, votre propre cadre de gouvernance de l'IA. Ou prenez une norme comme Google ou ISO Nest et essayez de l' appliquer au sein de votre entreprise pour voir comment elle fonctionne. Donc, ce site Web a attiré tout le monde. J'espère que cela vous a été utile. Si vous souhaitez me contacter, j'ai une newsletter sur Substack et je suis là sur Linked in et sur Youtube Je vais essayer d' y mettre les liens et vous pourrez me contacter. C'est toujours un plaisir d'avoir des nouvelles de vos étudiants. Merci de laisser un commentaire. Si vous pensiez que ce cours vous a donné de bonnes informations tangibles. Si vous pensiez que c'était le pire cours de tous les temps, dites-le-moi s'il vous plaît. C'est toujours un plaisir de recevoir des commentaires. Merci beaucoup et je vous souhaite bonne chance dans votre parcours en matière de gouvernance de l'IA et de gestion des risques. OK, je te verrai et je te verrai au prochain cours. Merci à tous.