Transcription
1. Introduction du cours: Bonjour à tous. Bienvenue dans ce cours. Je suis votre instructeur
thymidylate. Merci également d'avoir pris la
décision apprendre et de comprendre intelligence artificielle gouvernance de l'intelligence artificielle et la cybersécurité. Aujourd'hui, l'IA est l'un des domaines les
plus
passionnants du marché, regorge
d'opportunités et d'emplois. Vous en entendez parler aux nouvelles,
partout, à
peu près sur les réseaux sociaux. De plus en plus de
gens veulent en savoir plus sur cette nouvelle technologie. Et la demande de professionnels de l'
IA est en plein essor partout. Maintenant, l'IA est comme un domaine
énorme et je peux passer des lustres à
parler. Mais l'objectif de ce cours
particulier est moi, la gouvernance et la cybersécurité, un sujet
qui intéresse beaucoup de
gens. Il réunit deux des
plus en vogue aujourd'hui, l'
intelligence artificielle et la cybersécurité. Et je
crois sincèrement qu'il n'y a pas assez de matériel présent à ce
sujet,
mais il est dispersé
partout. Vous trouverez peut-être des cours sur l'IA. Vous trouverez des questions
sur la cybersécurité, mais il n'y a pas assez de
cours qui
vous apprennent à sécuriser les systèmes d'IA. Et j'espère que cela
comblera cette lacune. Si vous n'avez aucune idée de ce qu'est AIA et comment elle fonctionne quand personne ne l'est, je vous expliquerai également
les bases avant de nous
pencher sur la gouvernance de la
cybersécurité. Si vous voulez vraiment en apprendre davantage
sur les éléments de base III et ne pas vraiment vous intéresser à la saga
disparaître et à la cybersécurité. J'ai ici un autre cours les tissus à
la base de l'IA et
qui vous enseigne
pratiquement sur IA et sur la théorie
et la pratique. Si vous vouliez simplement
examiner ce sujet. Qui est ce cours
pour les gars, comme, je dirais à peu près tout le monde parce que je pense que tout le monde
devrait connaître l'IE compte tenu de l'impact qu'elle a sur le
monde et la société qui
nous entoure a un
impact massif. sur nous, n'est-ce pas ? Donc, dans un emploi en tant que société et vous devriez
absolument tout savoir à ce sujet, vous
apprécieriez certainement cela. Mais si vous voulez
vous laisser regarder cela, je veux dire, si vous êtes un spécialiste de la gestion des risques
ou de la gouvernance, vous apprécieriez certainement ce cours parce
que
vous êtes déjà dans ce domaine en vous écrivant
en évaluant les risques et comprenant si vous êtes
dans la cybersécurité, vous voudriez connaître les
visites d'IA et comment les atténuer. Si vous êtes dans le domaine de l'
IA lui-même, comme si vous étiez un scientifique des données ou votre ingénieur
d'apprentissage automatique. Et vous voulez en savoir plus sur
les risques potentiels et vous voulez comprendre ce qu'ils sont alors définitivement ce
cours est fait pour vous. Parfois, vous obtenez une vision du tunnel et vous n'avez pas une idée
d'ensemble de la technologie sur laquelle
nous travaillons. Enfin, j'ai dit que
quiconque s'intéresse à l'IA, il n'y a pas de conditions préalables
à ce cours. Je veux dire, vous n'avez pas besoin d'
avoir un doctorat en mathématiques, comme une programmation Python
ou quelque chose du genre. Non. Le livre est à
peu près destiné à tous ceux qui veulent connaître l'IA et
quels sont les risques qui l'entourent ? Quels sont les sujets que
nous aborderons, les gars ? Ce sont les sujets que je vais
aborder brièvement au sujet de l'IA et de l'impact qu'elle a sur les êtres
humains et
la société et pourquoi. Nous allons faire un bref aperçu
de l'apprentissage automatique. Il est installé.
Il est important de savoir car c'est
là que le sauvetage arrive
le plus et c'est sous-domaine le
plus populaire l'intelligence artificielle. Ensuite, nous allons dans
la viande du cours. Nous verrons pourquoi la gouvernance
et la gestion des risques l'élèvent si important et comment procéder à création d'un cadre de gouvernance particulièrement
. Ensuite, nous obtiendrons un peu plus d'instructeurs
techniques comprendront les cyberrisques qui
comprendront les cyberrisques propres aux systèmes DSE et comment créer un cadre de
cybersécurité personnalisé pour l'intelligence
artificielle. Maintenant que vous savez, j'espère un
peu plus sur le cours, pour que vous
sachiez qui est votre professeur,
qui vous enseigne. Je m'appelle fémoris long. Je suis dans le
domaine InfoSec depuis environ deux décennies. Je suis actuellement basé
au Royaume-Uni où je déménage soudainement après avoir
passé une décennie aux Émirats arabes unis. Je suis un écrivain publié
parce que j'ai toujours adoré enseigner et
créer une veine. Il s'agit de nouvelles technologies
passionnantes. J'ai une chaîne YouTube appelée Cloud Security Guide,
qui se concentre spécifiquement
sur
la sécurité du cloud et les risques liés à l'IA, et
messieurs, les conseils professionnels. Alors, Blues, s'il vous plaît visitez et abonnez-vous là
si vous y êtes intéressé. Donc oui, c'est à
peu près à propos de moi les gars. Une chose pour ce
cours est le projet. Maintenant, je voudrais que vous appliquiez les connaissances que
vous avez acquises dans ce cours. Et je veux que vous créiez un modèle de menace pour les applications
basées sur l'IA. Et je crois fermement que les connaissances non appliquées
sont oubliées. Vous apprendrez comment
créer un
modèle de menace dans les prochaines sections. Et je veux que vous
utilisiez la connaissance du réseau et le modèle
de tête de cétones d'un système d'IA. Il peut être activé
comme couramment utilisé, je recommande comme des véhicules
autonomes. Nous en avons beaucoup entendu parler. Prenez les principes
que vous avez appris dans ce cours et appliquez-le et créez une évaluation
des risques de menace pour les véhicules autonomes. Faites-le moi savoir pour que je puisse obtenir mes
commentaires, tout cela aussi. C'est à peu près tout ça,
les gars, j'espère que je vous ai donné une bonne introduction à propos de ce cours. Commençons par découvrir l' IA et comment la gouverner
et la sécuriser. Et je vous verrai
dans la section suivante.
2. Aperçu de l'AI: Bonjour les gars,
Bienvenue dans cette section. Avant de nous lancer dans la
gouvernance et la gestion des risques, je voulais être
plus rapide, mais il est utile de savoir
ce que vous sécurisez, ce que
vous gouvernez avant de commencer. Si vous êtes déjà comme un expert en IA et que vous avez déjà de l'importance de l'IA
et de l'apprentissage automatique. Vous n'avez pas besoin d'un rafraîchissement. Ensuite,
sautez cette section par tous les moyens. Mais on m'a toujours
recommandé de
faire des concepts de base rafraîchissants. Et parfois, vous
pouvez être un peu
ligoté dans les détails et
oublier le tableau d'ensemble. Qu'est-ce que l'expert en
intelligence artificielle en intelligence artificielle, la personne que l'on appelle le
père de John McCarthy ? En 195060, il a organisé une conférence
très célèbre intitulée « dark mode conference ». Dans son discours, il a inventé le terme intelligence
artificielle
et il l'a défini comme la science et l'
ingénierie de la fabrication de machines
intelligentes.
En gros, qu'est-ce que cela signifie ? Les signes de problèmes,
comme je l'ai dit, les signes de la capacité des systèmes informatiques à effectuer des
tâches avec des humains
sont comme la reconnaissance vocale, la reconnaissance vision, décisions
intelligentes, le traitement du
langage. Pourquoi avons-nous besoin de le faire ?
Vous pourriez demander, d'accord, eh bien, pourquoi les
êtres humains sont là ? Pourquoi est-ce que je voudrais qu'une machine commence
à faire ça ? Cela semble un peu effrayant. Mais honnêtement les gars,
la quantité de données, données générées aujourd'hui par
les humains et les machines, elle dépasse de loin la capacité des humains, la capacité des êtres humains à absorber et à prendre des
décisions en fonction de cela, l'intelligence artificielle est à peu près comme constituer la base de tout apprentissage informatique futur est l'avenir de toutes les décisions
complexes. Et nous verrons
pourquoi, pourquoi il est vraiment impossible que les
êtres humains continuent de faire cela. Si vous avez déjà
interagi avec une EA. Si vous avez aimé
un site Web et que vous avez vu un chatbot apparaître et
commencer à vous parler. C'est une forme très basique d'IA. Votre ordinateur exécute une forme
spécialisée d'IA. Qu'il n'est pas en mesure de
répondre à votre question. Vous voyez que c'est le cas, puis vous obtenez un être humain auditif qui
communique
sa stratégie avec une personne juste pour vous donner une personne juste pour vous donner
une idée de l'utilisation de Netflix. Vous aimez vraiment comment matrice personnalise les films
qui vous recommandent alors c'est l'apprentissage automatique
et physique
réel comme si
des milliards d'utilisateurs l'utilisent
à tout moment. Et comme je l'ai dit, comment il n'est pas possible pour les êtres humains
de commencer à faire cela. Comment pensez-vous que cela
réglemente les discours haineux sur la plateforme ou les documents
inappropriés ? Pouvez-vous imaginer le
coût de la
protection de tous
ces êtres humains ? C'est pourquoi ils
n'ont même pas d'EIA pour détecter et supprimer la
portée des hanches de leur plateforme. Chaque fois que vous le savez, vous
sembliez que chaque fois que vous utilisez une ville Excel et que vous appelez et que vous utilisez
cette assistance
vocale assistée par les Blancs chaque
fois que vous commettez une erreur. Comment appelez-vous
Alex ? Notre ville n'est pas en mesure de comprendre
ce que vous dites. Ensuite, il utilise
ces données et commence à apprendre en fonction de cela,
et il en tire des leçons. C'est donc l'IA en action. Fondamentalement, l'apprentissage automatique IA
est à peu près
responsable de la croissance explicite de l'
aide aux espaces blancs, vous savez, l'assistance vocale
numérique
parce qu'ils apprennent à continuer à apprendre en fonction de ce
qu'ils
sont compréhensifs et sur cette base, cela améliore de plus en plus l'impact de la raison pour laquelle soudainement devient
si grave. Tu sais, tu frappes n'importe qui, hé, toutes les fois que RDA
arrive, ça change tout. Tout ça. Pourquoi, pourquoi
devient-il vraiment une si grosse affaire ? Eh bien, pour mettre en contexte, on appelle la Quatrième révolution
industrielle. Qu'est-ce que cela signifie ? Eh bien, nous avions auparavant une évolution de
l'industrie, façon dont les êtres humains vivaient, et cela a eu un impact énorme. Nous disposons de la science vapeur et des technologies
numériques. Les trois premières révolutions
industrielles, qui viennent de
cette société moderne. Comme si vous voulez vraiment
revenir en arrière, les gens ont trouvé ça, que vous chauffez des choses, puis vous avez de l'énergie
et elles sont diffusées en continu. À l'avènement
des machines à vapeur. La vapeur alimentait tout. De la protection agricole à la
surveillance de la fabrication. Les gens vivaient
en pharmacie et
les pliaient la
fabrication basée sur des schémas. Les gens commencent à passer des fermes aux villes et plus
particulièrement à l'usine. Mais la vie en usine était
très difficile, n'est-ce pas ? Les ouvriers d'usine étaient bon marché
et abondants, et ce sont des gens qui portaient de
longues et longues heures et des conditions très dangereuses. Que s'est-il passé alors ? L'automatisation est venue
la production de masse musulmane, notamment la chaîne de
montage, le langage de montage
va, les gens sont assis là à
y mettre des choses, vous verriez, n'est-ce pas ? Cela s'est produit, la production de masse a commencé, l'automatisation. Et c'était la deuxième révolution
industrielle. Après cela, le fait que vous soyez assis ici et que vous me parlez sur un ordinateur sur Internet. C'est le taux de
révolution numérique. Vous appréciez le
cloud, Internet et résumez un
appareil portable avec un appareil numérique. Il s'agit essentiellement de la troisième révolution industrielle parce que nous passons
de l'analogique au numérique. Cela vous permet maintenant de
comprendre à quel point a est énorme, pourquoi elle a été appelée la
Quatrième révolution industrielle. Parce qu'
en se basant sur de plus en plus de choses sont déchargées sur des
ordinateurs, et le royaume
et les décisions et ils donnent ont été donnés de plus en plus, comment appelez-vous cela des choses
importantes pour
faire ? Toutes ces divisions
industrielles, nous avons représenté de
très grands changements. Comme au niveau de
la société vraiment honnête. La vie est passée de la
ferme à l'usine. Et les gens aiment les gens qui ont commencé à automatiser de
plus en plus de choses. C'est pourquoi il s'agit de choses
si importantes comme
l'électricité et la production de masse. C'est donc à quel point il est grand. Joli. Et pourquoi est-ce vraiment arrivé
maintenant, vous pourriez dire : pourquoi êtes-vous au
cours des deux dernières années ? Mais deux raisons très simples, augmentation de la puissance de calcul
et l'augmentation de la capacité de données. Aujourd'hui, l'IA a besoin de
beaucoup de puissance de calcul. Ce n'était pas réalisable honnêtement. Je veux dire, vous pouvez
voir, comme je l'ai dit, John McCarthy l'a
mentionné en 1956,
mais récemment, il n'avait pas
cette puissance de calcul. Maintenant, avec des éléments comme
le Cloud Computing, les ordinateurs sont devenus si
puissants qu'ils sont capables traiter ces données. La
deuxième chose, c'est les données. Nous n'avions tout simplement
pas beaucoup de données, car l'apprentissage
automatique nécessite
une énorme quantité de données. Et c'est pourquoi vous aviez besoin de ces deux éléments
maintenant que nous avons zettaoctets de données disponibles le coût du
stockage a baissé. Ce sont les deux
choses qui ont vraiment la pauvreté et la pauvreté, et qui mènent à la quatrième révolution
industrielle. J'espère que vous avez compris que
ce type a un
impact si important sur ce qu'est l'IA. Passons maintenant à l' essentiel qui est l'apprentissage
automatique, dont je parlerai
dans la section suivante.
3. Aperçu de l'apprentissage automatique: Bonjour à tous. Bienvenue dans cette section qui
concerne les gars de l'apprentissage automatique. Ce n'est pas l'apprentissage automatique. C'est un peu comme le
moteur qui anime l'œil. Et c'est
la capacité des machines
à tirer des leçons des données. Et vous
apprenez essentiellement à un ordinateur à faire quelque chose sans
programmer en dsolve. Et c'est actuellement le sous-domaine de l'
IA le plus développé et le plus
prometteur pour des secteurs tels que
les gouvernements et les infrastructures. Et c'est le sous-domaine de l'
IA le plus couramment utilisé dans notre vie quotidienne. Qu'est-ce que les gars de l'apprentissage automatique ? Comme je l'ai dit, il suffit de
mettre des programmes informatiques. Vous savez, ils ne sont pas intelligents
au sens réel du terme. Ils disposent d'un ensemble d'instructions
codées en dur telles qu'elles prennent des données
et produisent des sorties, et ils ne peuvent pas aller
en dehors de cela. Prenons une calculatrice, par exemple, quand le schéma de culpabilité ou qu'ils ont semblé
magiques, non ? Vous mettez des chiffres
dans l'intérêt de vous le dire. Mais à la fin du
David, il ne fait que prendre des
entrées et les traiter et ne vous donner
rien de plus. Dans l'apprentissage automatique,
ce
qui se passe c'
est qu'il prend des données , c'
est qu'il prend des données que vous apprenez
et qu'elles en tirent profit. Il est alimenté dans un algorithme
pour créer un programme. Et il apprend essentiellement sur
la base de ces données. Prenons donc, juste pour vous
donner un exemple, c'est ainsi que fonctionne
l'apprentissage automatique. Fondamentalement, vous donnez
beaucoup de données à un ordinateur. C'est ce qu'on appelle les données de formation. Ensuite, vous lui donnez un algorithme
pour comprendre ces données. Que fait la machine ? Il prend les données,
prend un algorithme, puis crée
un modèle que nous
utiliserons pour prédire
quelque chose qui n'
est pas encore arrivé.
Que faites-vous maintenant ? Ensuite, vous lui donnez des données
réelles et vous
verrez ce que cela fait ? Est-ce qu'il fait une
prédiction, une
prédiction correcte ou une
mauvaise production ? Maintenant, sur la base de cela,
si c'est correct, merveilleux, vous lui donnez plus de données pour montrer que la précision augmente. Si c'est mal, alors vous
retournez pour le divertir, plus d'entraînement, plus d'
entraînement pour. Vous. Conservez essentiellement
l'algorithme plusieurs fois jusqu'à ce que la sortie souhaitée
soit correcte. Que se passe-t-il ? La machine
apprend essentiellement sur une pierre et les résultats deviendront de plus en plus
précis au fil du temps. C'est ainsi que l'apprentissage
automatique
est différent d'un système informatique normal. Donc, juste pour vous donner
un meilleur exemple, c'est notre traditionnel qui peut prédire les programmes utilisés
pour fonctionner correctement ? Vous avez une entrée,
vous la mettrez dans un algorithme, puis une
sortie sortira. C'est ainsi que l'on peut prédire
les résultats. L'apprentissage automatique
est donc comme ça. Vous avez
déjà des entrées et des sorties et vous
leur donnez l'apprentissage automatique. Vous disposez d'un algorithme
basé sur cela. Il prend l'entrée et
regarde la sortie. Et sur la base de cela, il
crée un modèle numérique utilisé pour prendre des décisions futures concernant l'apport
qui arrive, c'est apprendre par lui-même. C'est à quel point il est différent de la programmation normale
qui se produisait auparavant. Bon, les gars, maintenant, nous avons
abordé ce sujet. J'espère que c'était un bon
rafraîchissement pour vous. Nous avions un ancien avec l'IA et pourquoi elle est devenue si
importante de nos jours. Nous avons également eu une vue d'ensemble de l'apprentissage
automatique. Nous avons appris comment fonctionne
l'apprentissage automatique et comment il prend ses décisions. Croyez-le ou non. Vous disposez maintenant des
connaissances fondamentales dont vous avez besoin pour comprendre la
gouvernance et la gestion de l'IA. J'espère que c'était utile. Et je vous verrai
dans la section suivante.
4. Besoin de gouvernance à l'intelligence AI: Bonjour les gars,
Bienvenue dans cette section. Et ici, nous commençons à
entrer dans la vraie viande
du cours, savoir les aspects de gouvernance et de gestion des
risques de l'IA. La première question est : pourquoi les gars ? Pourquoi pensez-vous que l'IA doit être la gouvernance et le taux d'évaluation des risques ? Si vous travaillez dans une
entreprise comme moi, vous sauriez que
la plupart des entreprises
ont déjà ces services de gestion et ces
cadres de gouvernance en place. Pourquoi avons-nous besoin de quelque chose de
différent pour l'IA ? Eh bien, la réponse simple
est que l'IE introduit certains nouveaux types qui n'
étaient pas présents auparavant. Je suppose que comme un perturbateur comme c'est cette technologie perturbatrice, contrairement à la plupart des perturbateurs,
Il faut l'approcher et l'atténuer explicitement
d'une manière légèrement différente. Nous devrions jeter un
coup d'œil lorsque vous demandez aux gens quels sont les
principaux risques dans les systèmes. Beaucoup de gens
parlent d'IA, comme Elon Musk, Bill Gates et tout ça et comment elles peuvent
nous affecter négativement, n'est-ce pas ? Je veux dire, si vous
parlez du reste, j'en ai parlé
quelques-uns. Nous avons des préjugés, des modèles d'intelligence
artificielle et des compromis de sécurité. Je vais parler
du top 2D dans une section complète. Je ne vais pas passer
trop de temps là-dessus. Mais si vous
parlez de confidentialité, vous disposez de ces technologies de
reconnaissance faciale. Je pense que de nombreux pays
mettent en œuvre la reconnaissance
faciale
basée sur l'œil. Et ils peuvent stocker des données
présentant un grand nombre de
risques liés à la vie privée. Vous avez des choses comme le
taux fixe que vous auriez vu, allez sur YouTube et mettez D Fig. Vous verrez des vidéos
absolument précises de personnes comme Tom
Cruise, Morgan Freeman. Vous ne croirez pas à
quel point c'
est exact qui effraie vraiment les gens. Comment saurons-nous ce qui est
réel et ce qui n'est pas juste ? Et si vous voulez revenir à machines
autonomes, j'en
parlerai davantage. Fondamentalement, des choses
qui
fonctionnent complètement sans
aucune intervention
humaine et les gens ont peur qu'une
de ces machines commencé à prendre le contrôle du monde
ou quelque chose comme ça. Et une perturbation du
travail beaucoup plus pratique. Comme je l'ai dit,
comme je va prendre en charge beaucoup de choses que
les humains faisaient auparavant. Beaucoup de choses qui
vont obtenir un truc
banal automatisé humain verbalement n'en ont
pas vraiment besoin. évident que le fait anti-électron est évident que le fait anti-électron va être externalisé à l'IA, va prendre le relais et
beaucoup d'emplois disparaîtront. 100 %, je veux dire, sans aucun doute. Mais beaucoup d'entre eux seront
créés de toutes sortes. C'est pourquoi il est si
important d'investir dans votre avenir et d'
investir dans l'IA. La semaine dernière est
peut-être un peu bizarre, mais oui,
la fin du monde,
comme les gens qui voient des
films comme déterminateur, matrice ou
quelque chose comme ça. Ils pensent que les machines
vont prendre le contrôle du monde entier. Mais heureusement, nous n'avons pas encore
atteint ce point. Mais c'est quand même quelque chose
comme beaucoup de gens
disent que les machines
que nous allons devenir sentience, n'est-ce pas ? Vous allez commencer à prendre
le contrôle du monde et de tout. Mais honnêtement, le bassin avec des contextes
beaucoup plus pratiques. Prenons également quelques exemples. Lorsque nous parlons des risques et quelque chose qui s'est produit il y a
quelques années comme 2016. Toolbox, que Microsoft
décrit dans Microsoft a commencé comme une expérience de compréhension
conversationnelle. Plus vous discutez
avec ce tableau, on l'appelait intelligent
et nous commençons à dialoguer avec des gens trop occasionnels et des
conversations Clifford. Il a été conçu pour tirer les leçons des introductions et des
personnes hybrides sur Twitter. Malheureusement, ce qui s'est passé sur certaines personnes a décidé nourrir comme ce système d'information
offensante. Et Microsoft a dû s'en
excuser parce que ce tableau était destiné aux 18
à 24 ans
sur les réseaux sociaux. Il a été ciblé par une
attaque coordonnée d'un sous-ensemble de personnes et ils ont commencé à
le nourrir comme des informations vraiment
offensantes. Nous n'avons donc pas fait 24 heures, il
a fallu le désactiver. Microsoft a dû excuses pour
cette contrariété blessante. Cela vous a donné un exemple. Disons que nous réalisons vraiment
que l'IA pourrait complètement
hors de contrôle. Ces personnes ont exploité
la luminosité qui existait. Ils ont dit que nous ne nous
préparons pas simplement à ce type
de chose qui pourrait arriver et que vous pourriez le nourrir comme des choses inappropriées et
qu'il commencera à le nourrir. Ils ont donc dit qu'ils
continueront à le définir. Mais c'est comme un
simple exemple de ce qui s'est passé lorsque vous n'avez pas pris en compte ce qui
pourrait arriver. C'était un exemple légèrement
sans-abri. Examinons quelque chose
qui est VMO effrayant les gars,
qui sont des armes autonomes, quelles
que soient les armes autonomes, essentiellement les épingles
qui ont sélectionné ET porte des cibles sans intervention
humaine. Comme, vous savez,
des hélicoptères armés, ils peuvent le chercher. Et comme un
dividende illimité, répondant certains critères et à tout
ce que les gens regardent. Malheureusement, un EIS,
comme le dit simplement électro, a atteint un point où le déploiement du succès est pratiquement
pratique en
quelques années, et non pas des décennies. Ces choses ont
été décrites comme la prochaine révolution de la guerre, chose
très effrayante et de nombreux
arguments ont été avancés. Les gens ont vu, les gens
ont dit que, d'accord, se
passe-t-il, ces
choses ne se sont pas
éteints et aucune victime humaine ne se
produira, n'est-ce pas ? Mais que se passe-t-il si quelqu'un est
capable de manipuler cela, vous savez, comme les
perturbations, le prendre charge et commencer à
fredonner les gens. C'est pourquoi c'est si
dangereux. C'est donc plus de 30 000. J'ai un sommet
des chercheurs et d'autres personnes ont décidé une
lettre ouverte sur le sujet. Et 2015, ils ont dit que nous
ne voulions pas que cela se produise. S'il vous plaît, n'investissez pas
dans cette recherche vous montre certains des aspects
les plus effrayants qui
peuvent se produire et afficher. Cela deviendra presque toujours comme
une IA. C'est pourquoi il est si important
d'avoir des règlements. Il est tellement important d'avoir une
gouvernance de l'IA en place. Je voulais juste
vous montrer que c'était comme, je vous ai montré un exemple légèrement humoristique
et c'était comme
un exemple plus effrayant que
vous pouvez jeter un coup d'œil. Le dispersant, faire des extrêmes
opposés, non, jetons un
coup d'œil à un réel, comment l'IA peut réellement avoir un impact
négatif sur
les gens sont des cas de biais
et de préjugés IA, que j'aborderai
dans le prochain section.
5. Bias dans les modèles AI: Bonjour les gars. Dans cette section, nous allons
parler des préjugés et des préjugés de l'IA. Dans la
section précédente, nous avons vu une mère, un exemple drôle et le
pire des scénarios, le drôle passe sur Microsoft Word et autonome parce que c' était comme le
pire des scénarios. Jetons maintenant un coup d'
œil à un exemple réel en tant que SI de
préjugés et de préjugés IA. Donc, croyez-le ou non, les modules peuvent être biaisés par rapport à
un sexe particulier, à un âge particulier. Si ces données ne sont pas correctement
placées dans le module, parce que les humains sont
particuliers, frappez
inconsciemment ou consciemment les humains. Nous devrons peut-être
être biaisés à l'égard d'une race ou d'une couleur particulière
ou quelque chose du genre. Il peut également alimenter les données utilisées pour former des modèles d'apprentissage
automatique. En fait, cela peut conduire à de
mauvaises décisions que nous avons prises et qui peuvent avoir un impact sur votre santé. Nous avons tout fait. Ainsi, comme les organisations remplacent de
plus en plus algorithme décisionnel
humain par des algorithmes, elles peuvent supposer que ces algorithmes ne sont pas biaisés. Mais comme je l'ai dit, ces algorithmes reflètent
le monde réel, n'est-ce pas ? Ce qui signifie qu'ils peuvent
involontairement transmettre ces virus, car des résultats
incorrects peuvent en fait ruiner la vie de
quelqu'un. Jetons donc un coup d'
œil à cet article, qui est l'étude
électro publiée pour la première fois
dans Science Magazine, il a révélé que l'algorithme de
santé, comme il était utilisé sur 200
millions de personnes dans aux États-Unis. Il était biaisé contre
une race particulière parce qu'il déterminait qui besoin de plus de soins médicaux. Malheureusement, c'
était comme un polaroïd, je pense que les Blancs
au-dessus des autres. Et parce que je me suis montré du doigt, c'était en fait refuser
aux personnes qui auraient besoin de soins médicaux parce que les données n'ont pas été
transmises à des millions et des milliards de Noirs ont été
touchés par un numéro Bye dans cet algorithme
de soins de santé particulier. C'est pourquoi il est si important de s'assurer
que cela ne se produise pas parce que cela peut réellement avoir un effet
réel sur les gens. Regardons donc le réel,
maintenant, regardons ça. Examinons un
exemple en détail. boussole. Je veux dire, je ne sais pas si
vous êtes familier avec ça parce que c'était dans
les nouvelles depuis un certain temps. C'est ce qu'on appelle le Profilage de la gestion des
délinquants correctionnels Profilage de la gestion des
délinquants pour d'autres sanctions, je crois que la compétence augmente. Il s'agissait d'un
système d'apprentissage automatique qui était utilisé aux
États-Unis devant les tribunaux. Ce que cela ferait,
il prédirait qu'il y a quelqu'un qui
recommanderait un crime ou non. Vous savez, lorsque des personnes qui ont
été condamnées à des peines de prison, cela leur donnerait
une note basée sur la
façon dont, combien de chances que cette personne recommande un crime. Encore une fois, le juge
utilisait cette lecture pour attribuer une peine de prison
, constate, vous savez, tout ce qui se passe
est comme des gens, j'espère qu'une race particulière était
presque deux fois plus
probable que les Blancs
être étiqueté à haut risque. Et malgré le fait qu'ils
n'ont pas livré l'informatique très petite traduits des crimes
complètement inoffensifs. Et le résultat inverse a été
motivé par des Blancs. Ils ont donc reçu une sécurité de
faible niveau malgré
le fait qu'ils avaient des antécédents
criminels et ils sont très probables
d'être vos amis. C'est pourquoi c'était si
dangereux et ça marche. Il a été pris en compte en tenant compte de nombreux
éléments tels que les données qui vont à l'âge et à
l'emploi et tout. Et sur la base de cela, il s'agissait d'
attribuer cette chose physique. C'est pourquoi, malheureusement,
les gens ont un particulier est
incorrectement étiqueté comme étant à risque élevé de venir dans le futur crime deux fois plus
que les Blancs. Même l'entreprise l'a nié. Mais malheureusement les
résultats, en particulier, si vous pouvez voir cela épais, jetons un coup d'œil, je veux dire, tous parce
qu'ils peuvent accrocher. Mais l'exemple du milieu
est assez drôle. Visual Bowden, elle avait
commis comme un petit vol, mien un discriminateur, et
quand elle était mineure. Et l'autre gars
plus loin, c'était un criminel beaucoup plus aguerri. Il avait une peine de prison pour
vol à main armée et autres accusations. Mais selon le campus les scores étaient à faible risque et la frontière
visuelle était à haut risque. Et deux ans plus tard, la capitale va
répondre a fait une prédiction erronée parce que les deux évêques d'embarquement ordonnés n'ont commis aucun nouveau genre. Et Theta d'autre part, il purgeait dans
la peine de l'ETS pour race générale. J'espère maintenant que vous
comprenez que vous pouvez également jeter un coup
d'œil à d'autres exemples. Mais maintenant, j'espère que vous
comprenez comment IA peut réellement perpétuer iniquité
existante
et que les antennes biaisent involontairement les
données qui y sont alimentées. Ensuite, dans la section suivante, nous allons
examiner quels principes nous
pouvons mettre en place pour empêcher que cela
ne se produise. Cela nous amène à la fin de toute
la section gouvernance,
la, ce qu'il a appelé
la section des risques. Nous avons examiné les risques qui
sont présents dans l'œil de ce que vous appelez quelques
exemples d'IA qui tournent mal. Les dangers d'aller dans
le pire des scénarios et de
l'étude de cas de partialité. Vous pouvez donc voir qu'il y a tous les types de cosinus i et le chèque complètement
différent de l'Occident, auquel nous sommes
habitués ici. Voyons maintenant quelles autres mesures et
contrôles nous pouvons mettre en place
pour nous assurer que ces systèmes d'
IA ne présentent pas ces risques et comment
les atténuer dans la section suivante. Merci.
6. Réglementation AI: Bonjour les gars. Bienvenue dans cette section,
que nous avons maintenant une bonne
compréhension fondamentale de IA et quels sont les risques et les
problèmes qui peuvent causer. Examinons maintenant de
haut niveau comment créer un cadre de
gouvernance pour I. Donc, fondamentalement, nous avons
un cadre de contrôle. Je souhaite que le cadre
de gestion de l'IA soit mis en place. Comment allons-nous y arriver ? Cette section va maintenant
se concentrer là-dessus. La première étape consiste donc à prendre des formes, des
règlements et des normes. Maintenant, la première étape est que
personne n'aime les règlements. Parce que les règlements
ressemblent à des formalités administratives. Les gens doivent remplir des
formulaires et vous ne
respectez pas des centaines d'entre eux,
c'était personne comme ça. Heureusement, en fait, pas. Malheureusement, je dois
être réglementé pour me
protéger et utiliser la technologie sans
manipulation ni biais. Nous avons parlé du fait que l'IA était
biaisée dans leur dernière section. Maintenant, le meilleur moyen de
s'assurer qu'il n'est pas biaisé et que les règles
sont les estimations sont
sûres que la réglementation existe. Le triste fait est que les entreprises se concentrent
généralement davantage sur les
profits et que ces
choses ne lui accorderont pas une priorité
appropriée. Nous voulions d'abord jeter un coup d'œil aux collisions
yada, car B est central pour se
détendre pour tout. Et nous allons jeter un coup d'œil
au paysage réglementaire de l'IA, qui est la réglementation la plus
importante, la réglementation
EIE
actuellement en cours. Comme je l'ai dit, la
nécessité d'une réglementation. Il a besoin
de réglementations pour se protéger et ses utilisateurs contre les abus internes
et externes. Et les gouvernements utilisent l'IA pour prendre des décisions rapides
qui peuvent avoir un énorme impact sur votre
santé, votre vie. Comme un grand nombre de
différences pouvons-nous faire ? Et vous voyez comment des décisions
erronées, des décisions injustes peuvent se produire, ce qui peut, comme nous l'avons vu, que gens ont été privés
de soins médicaux, gens ont été
emprisonnés. Tous ces éléments. Donc, si vous avez des règlements, nous avons la responsabilité et les
droits de l'homme. Il envoie, établit des normes
minimales de traitement
que tout le monde peut accepter. Il est dit que tout le monde
a le droit de
remédier si ces
normes ne sont pas respectées, alors vous pouvez en fait des
documents censés s'
assurer que les normes sont présentes et toute personne aussi grande, si normalisé
est tenu responsable. C'est pourquoi c'est si important. Le pays. Ce qui est drôle, est
qu'aucune législation spécifique spécifiquement
conçue pour réglementer IA est réglementée par les réglementations existantes telles que la protection
des données, la protection
des consommateurs. Et ceux-ci ont été
adoptés pour réguler. Et les gouvernements y travaillent
fort et rapidement. Mais aucune législation n'a
été adoptée correctement en Chine n'a mis en place des stratégies
similaires, le port USS de
la Maison-Blanche comme un tournage puis précipitant
pour la réglementation de l'IA. Et c'est comme si la plupart des pays se
concentrent là-dessus. Je voulais me concentrer
sur la réglementation qui devrait avoir le plus d'impact mondial sur cette technologie
particulière. Le monde, comme je l'ai dit, beaucoup de
travail est en cours. Le plus ambitieux propose
certains jusqu'à présent, c'est
du père de l'Union européenne pour les voyages et vous agissez
l'an dernier en avril 2021. Il s'agit de la première proposition de
calcul au monde pour réguler l'IA. Et cela va avoir un impact
énorme, croyez-moi, sur la limite de l'IA
et sur la façon dont
les entreprises, petites et start-up, grands géants de la technologie,
savent comment utiliser l'IA. C'est très intéressant. Il reprend l'approche spatiale. Il n'interdit pas, il
ne dit pas que tout est bon. Il prend donc l'approche
spatiale et il est illégal d'utiliser A4, le violoncelle,
à des fins
inacceptables
comme la reconnaissance faciale et son utilisation pour ce qu'il a
appelé l'échelle sociale. Vous pouvez classer les personnes en fonction d'un système immunitaire fiable
capable d'exploiter les gens. C'est pourquoi la réglementation américaine
est toujours importante. Mais pourquoi pensez-vous que je me
concentre davantage sur cette question que tous les autres règlements
qui existent et qu'est-ce qui rend celui-ci spécial ? Eh bien, il suffit de dire les gars, généralement
les réglementations européennes , pour finir par établir la norme pour le
reste du monde. Ce n'est rien de concret. Mais c'est généralement
ce qui s'est passé. Quiconque a travaillé dans le RGPR, données privées signalent que vous avez
publié un règlement sur le RGPR et presque toutes les autres réglementations
dans le monde, tous les autres gouvernements,
ils n'ont qu'à peu près adapté le RGPR à leur environnement
particulier. C'est pourquoi c'est si important parce que
le règlement EIE va donner le ton au reste des entreprises. Dans toutes les entreprises qui
travaillent à l'ONU, même en dehors des
chiffres, nous verrons. C'est pourquoi il est si important
de vraiment connaître cette
partie intéressante, la portée de celle-ci. Il a donc une portée
territoriale supplémentaire. C'est comme le RGPR. C'est comme si elle s'étendait en dehors
des organes de l'UE. N'importe quel fournisseur mettra le
système d'IA sur le marché. Bien sûr, vous allez
certainement à l'école. Mais si vous êtes comme
votre fournisseur ou votre utilisateur, ils sont situés à l'extérieur, mais votre système
de sortie est utilisé dans l'UE. Encore une fois, il aura une
portée très large. Et cela, oui, vos systèmes peuvent potentiellement
y être intégrés. C'est donc en cours et la gravité que nous appelons la chose la
plus importante que
nous voulons examiner est celle-ci. Comme je l'ai dit, comment
classer les risques ? Au lieu d'opter pour une couverture, une interdiction complète ou une autorisation
complète. Il a utilisé une approche spatiale
basée sur quelques niveaux, comme une approche acceptable
par rapport à faible risque de Kiva. Comme ça. Plus le
risque est grand et plus ce que nous
appelons va imposer davantage de restrictions et de
contrôles en plus de cela, les obligations automobiles de
l'entreprise. Assurez-vous que l'algorithme
est
transparent et que les difficultés signalées
ne sont pas utilisées. Système d'hydrosphère inacceptable, ils se lient simplement pour que nous n'
ayons même pas à y penser,
je suppose que vous êtes la lune ? Ce règlement
se concentre principalement sur les systèmes d'IA hyperéchelle. Ils seront également soumis à d' importantes obligations de
conformité en matière de surveillance technique. Si vous êtes à faible risque
et que vous devez simplement faire preuve de transparence à ce sujet. Il suffit de les informer. Quels sont les systèmes de hauteurs dont
nous parlons ? Je veux dire, cela peut ressembler systèmes de
transport qui peuvent
faire en
sorte que la santé et la vie des gens s'adressent à d'excellents systèmes
éducatifs s'adressent à d'excellents systèmes
éducatifs susceptibles de déterminer qui
a accès à l'éducation. Comme examiner la notation de l'examen. Comme la chirurgie robotique. Les employés apprécient la mise à l'échelle des
employeurs pour votre travail tardif, ce qui peut avoir un impact
sur les personnes embauchées ou non. Comme la notation de crédit, l'application de
la loi, la migration, toutes ces choses. C'est là que votre SKA tombe en
hauteur et l'évaluation de la conformité
vidéo
se fait en bits. Je parle de quelle est l'évaluation de la
conformité ? Juste pour comprendre cela. Mais confirmés par
ces SNP fondamentalement, c'est comme si vous pouvez
dire deuxième audit, systèmes à
haut risque,
ils devront subir une
évaluation de la conformité. Fondamentalement, ce qui se passe,
c'est qu'il passe par
des évaluations significatives, comme les évaluations tardives,
si la précision dans laquelle la qualité de votre
documentation technique, tout le système est évalué, c'
est-à-dire se conformer
à la réglementation. Cela arrive s'il y a lieu, alors vous obtenez une
certification de l'UE. Il est similaire à l'enregistrement des
dispositifs médicaux, qui
existe déjà dans l'UE. Cela peut se faire soi-même, il peut s'agir d'une auto-évaluation. Mais si c'est comme certains systèmes
les plus sensibles, il faut qu'un
tiers expert arrive comme un besoin complètement indifférent dans la
régulation des besoins. Prenons un exemple
de biométrique. Vous disposez donc d'un
système AAC utilisé pour l'identification
biométrique par un tiers. La collision va plus
en détail ici. Mais juste pour vous faire
comprendre maintenant et après,
même après avoir réussi l'évaluation de la
conformité
et que certains changements se sont produits, il faudra que cela se reproduise. C'est très puissant,
c'est comme vous pouvez le constater, c'est comme un audit de
l'ensemble de l'écosystème, de son fonctionnement,
des règles et de
tout ce que vous n'
auriez pas à mettre en jeu. J'espère donc que cela vous permettra comprendre quel type de cadre
réglementaire est en place qui est
prévu pour les systèmes d'IA. Maintenant, vous avez compris
les règlements qui sont en place
et qui entrent en vigueur. Voyons maintenant le mode de gouvernance de
l'IA en Irlande. Je vous vois dans la section
suivante, les gars.
7. Cadre de gouvernance de l'AI: Bonjour les gars. Dans ce cours, je vais jeter un coup d'œil au cadre de
gouvernance de l'IA. Maintenant, nous avons parlé des lois, des règlements et de tout. Maintenant, alors qu'une réglementation complète
et exécutoire va être mise en place, mais
cela va prendre un certain temps. En attendant, les
entreprises ne peuvent pas se contenter
d'attendre que ces
choses arrivent. Un nouvel endroit où vous devez
avoir une sorte de bonjour. Dans ce cours, je vais me
concentrer sur le cadre de gouvernance. Nous avons maintenant parlé des révolutions
EA dans
la classe précédente. Nous avons parlé de l'avenir de
ces lois, du
type de
contrôle de mandat pour être l'IA portable. Et le truc, c'est que Visa
va prendre du temps. On ne peut pas s'attendre à ce
que les entreprises s'assoient et attendent
que quelque chose se produise. Les entreprises doivent
donc mettre
en place des cadres de
gouvernance similaires pour s'assurer que vous faites appel et
beaucoup d'entreprises
y travaillent
déjà pour mettre en place des cadres de
gouvernance. Surtout dans
les pays où il y a beaucoup de travail
sur l'IA. entreprise doit être proactive. Et ils doivent avoir une
célèbre en place pour atténuer les risques uniques que
l' intelligence
artificielle est mise en place avant de commencer
le voyage de l'IA, assurez-vous d'avoir
ces choses en place. De quoi parle-t-on ? Donc, si vous le regardez
à un niveau très élevé, la gouvernance électronique de La
Mecque, quel que soit
le secteur dans lequel vous vous trouvez, quelle que soit la
technologie que vous utilisez ? Comme quoi que ce soit. C'est agnostique de la technologie, agnostique de l'
algorithme et
tout ce dont ils
parlent pour les
parties générales d'un tissu. Quand est la politique ? Asseyez-vous simplement pour savoir comment vous n'avez pas contrôlé l'organisation des
organes. Quels sont les
principes généraux que vous avez et comment ils
seront contrôlés ? Quelles sont les choses en place ? Ensuite, vous devez en
informer le comité. Il s'agira
de personnes issues des équipes
de données, des équipes technologiques, de vos équipes de sécurité, de vos équipes de gestion des risques. Pour que le framework soit mis en place pour une IA
correctement contrôlée. Et c'est évidemment une solution qu'ils savaient qu'ils prenaient des décisions. Il y a donc décisions de
non-go prises
sur les initiatives initiales, qui bougent un peu. Mais en dessous de cela, vous disposez d'
un cadre de gestion des risques. Cela permettra d'identifier quelles sont les visites critiques,
qui sont l'Arrhénius. En quoi consiste, comment considérer tous ces espaces comme
une cybersécurité, que ce
soit comme un biais d'intégrité. Toutes ces choses
conduiront à
se convertir en IA, ce cadre
de gestion. Enfin, les principes, ils
seront à l'échelle de l'entreprise. Donc l'IA essentiellement pour s'assurer
qu'il fonctionne correctement. Par conséquent,
les principes de confiance, l'intégrité, l'explicabilité, l'équité
et la résilience. Et nous en parlerons davantage. Ceux-ci vous
aident essentiellement à vous
assurer que vous
gouvernez
correctement l'organisation. Et je vais plus en
détail là-dessus. Mais il s'agit essentiellement d'une référence de
haut niveau, haut niveau comme un cadre
squelettique pour la mise en œuvre de la gouvernance. Si vous sentez ce
niveau trop élevé et que vous vous sentez bien, j'ai besoin de plus de détails à ce sujet. Comment puis-je vraiment mettre ma
gouvernance dans mon organisation ? Voter, c'est que vous n'avez pas besoin de
construire des choses à partir de zéro. En 2019, Singapour, diablement, une première édition du cadre de dominance de
modélisation. Donc, essentiellement pour la journée, immobilier pour les commentaires
d'adoption. Et il vous fournit
facilement des conseils pratiques
sur la façon de mettre en œuvre la gouvernance de l'
IA au sein de
ce modèle. Si vous voulez l'utiliser. Et cela va
très bien dans les détails, vous pouvez littéralement prendre les principes
qui existent et mettre en organisation pour
créer un cadre de
gouvernance aérienne. C'est un très bon modèle. Il se concentre sur deux principes
directeurs qui devraient être explicables, en transférant les mêmes principes que ceux
dont nous avons parlé précédemment.
Centré sur l'humain. Je veux dire, cela devrait mettre notre
régime alimentaire avant l'intérêt humain, au lieu du profit et
tout le reste du genre. C'est sur ce point
que nous devrions nous concentrer. Je
vous recommande vivement de le mettre sur Google. Vous le trouverez si
vous souhaitez sérieusement
mettre en œuvre la gouvernance de l' IA
au sein de votre organisation. J'ai parlé des principes des autres principes pour
créer la confiance dans les systèmes d'IA. Lorsque vous parlez de confiance, confiance est impérative, n'est-ce pas ? Je veux dire, si vos clients
ne pensent pas que votre système les juge correctement
ou ces biais, cela peut avoir un énorme problème pour réplication de
vos clients si j' accompagne la répétition
et le taux du marché, les entreprises sont simplement, elles
pourraient faire l'objet de conclusions majeures. Vous pourriez être sujet
à l'endommagement de votre application et à l'industrie. Toutes ces choses
vont se mettre en place. La confiance est donc impérative
pour
créer des principes croisés riches
. Mettre les experts,
l'intégrité, l'explicabilité, équité, la résilience,
qu'est-ce que l'intégrité ? Nous parlons d'intégrité des
algorithmes. S'assurer que personne
ne modifie l'algorithme
ou les données. Comment cela peut-il arriver ?
Nous allons regarder dans l'avenir. Nous regardons
la classe future. Explicabilité. Savez-vous comment l'IA
prend sa décision ? Est-ce comme une boîte noire ? Personne ne sait comment fonctionne
l'oreille, comment, quelle est la
logique utilisée ? Il n'est pas nécessaire de le
transférer complètement ici. Équité. Nous avons
déjà parlé d'équité, non ? Comme s'ils ne devraient pas être biaisés. Si vous prenez des décisions
concernant une société particulière, elle doit refléter toutes les races. Les indices ethniques indiquent que données de
formation ne devraient pas
avoir autant de 90 % lorsque groupe
ethnique et tous
les autres groupes sont exclus parce que cela ne
serait absolument pas acceptable. Et le dernier est l'
attribut de résilience techniquement robuste. Vous devez avoir
des commandes en place. L'oreille doit être
capable de dévier les attaques, elle devrait pouvoir se rétablir. Et nous examinerons plus en
détail ces choses. Ce sont donc les quatre principes de
base que vous devez avoir en place. Cela couvre le cadre
de gouvernance. J'espère que cela a été utile. J'espère que vous avez maintenant une
bonne idée de
la façon de créer un cadre de
gouvernance de l'IA, comment le faire pratiquement ? Eh bien, qu'avons-nous appris ici ? Nous avions appris les
réglementations et les normes de l'AIG, ainsi façon dont les gouvernements se comportent. Je pense au défi, aux principes de
confiance, à la façon d'intégrer l'application AA
client. Une chose à garder à l'esprit, et comment créer un cadre de
gouvernance global pour s'assurer que vos
applications présentes
sont sûres et dignes de confiance. Cela conclut à peu près la partie gouvernance
de notre cours. J'espère que vous avez compris ce que autres, ils sont à un niveau élevé. Comment créer un framework Ws quel que soit le
secteur dans lequel vous vous trouvez. Maintenant, nous allons
passer à la section suivante. Ils abordent plus en détail
la sécurité technique. Nous avons parlé de connaissances
de
haut niveau sur les types de disques de sécurité présents
dans les applications d'IA. Et je vous verrai dans
le prochain cours, les gars. Merci.
8. Les risques de Cyber dans AI: Bonjour les gars et bienvenue. Il s'agit probablement de la section la
plus importante du cours qui
concerne les
risques liés à la cybersécurité dans les systèmes d'assurance-emploi. Nous avons maintenant les bases de la gouvernance et
de la gestion
et de ce que nous devons faire. Jetons maintenant un coup d'œil à la cybersécurité et aux systèmes
vasculaires. Et si vous
vouliez vraiment y jeter un coup d'œil, je pense généralement qu'il
y a trois types de moyens en
matière de sécurité. IA peut provoquer le
disque involontairement ou il peut être
utilisé de manière malveillante comme quelqu'un. Il peut agir comme un facilitateur pour les cybercriminels. Vous savez, ce qui se passait
dans les cellules est compromis. C'est un monde dans lequel
il s'agit d'un domaine très, très nouveau. Et peu de gens
travaillent là-dessus,
malheureusement, malheureusement, du point de vue des
professionnels de la cybersécurité. Si vous demandez un guide normal
de cybersécurité et que je vais maintenant en 2022, comment sécurisez-vous dans
un système
l'approchez-vous de la
manière traditionnelle de
sécuriser n'importe quel système, sécurité, logiciel ou
système matériel qui est là comme vous n'aviez pas à le
configurer et dur dans le système font des
tests de pénétration et tout ça. Mais ce qu'ils ne réalisent pas, c'est comment le système est
configuré, qui a accès. Mais ce qu'ils ne
réalisent pas, ce sont certains disques qui sont
très uniques aux systèmes AIS. Et c'est tout l'objectif
de cette section particulière, est de sensibiliser la population à la sécurité unique des
commutateurs dans l'apprentissage automatique. Ainsi, par leur nature même, composants
IA n'
obéissent pas aux mêmes règles que les logiciels
statistiques, systèmes d'
IA et les algorithmes
d'apprentissage automatique. Ils s'appuient sur des règles
qui reposent sur l'analyse de données ou de grandes
collections de données. Et vous gâchez avec ces données, cela peut réellement changer le
comportement du système. Ce qui se passe, c'est que, à mesure que
vous ajoutez de plus en plus, IA est utilisée pour automatiser décisions dans tous les secteurs. La fin de l'exposition de ces
systèmes aux cyberattaques, qui peuvent tirer parti
des failles et des
vulnérabilités de l'IA. Et si vous avez vraiment besoin de savoir cela pour
atténuer correctement ces attaques. Avez-vous parlé des risques pour
la sécurité, du
café, de la façon dont cela peut
se produire et quoi que ce soit ? C'est un très bon papier. Je recommande à
quiconque d'aller lire ceci comme malveillant
CIA report.com. Qu'ont-ils dit ? En fait, ce rapport
a été rédigé par 26 auteurs de 14 institutions,
universitaires, de
la société civile et de l'industrie. Ils ont
organisé un atelier de deux jours en Australie. Je pense que c'était en février 2017. Et vous pouvez passer en revue ce rapport. C'est un rapport d'accident,
mais qu'est-ce qui a fait de même ? Vous pouvez le regarder
à votre époque, mais ils ont dit certaines choses j'ai trouvées très intéressantes. Les capacités d'IA descendantes deviennent de
plus en plus puissantes
que par propagation, n'est-ce pas ? Ce qui va se passer, c'est que le paysage
des menaces va changer. Les voyages existants
vont s'étendre. Le coût des attaques baissera en raison
de l'utilisation de l'IA. Normalement, vous paieriez
des gens pour le doctorat. Ces choses que vous pouvez décharger font. Je sais que des nutriments vont apparaître, ce que nous n'avions aucune idée. Sinon,
comme dans la pratique, vous ne vous attendrez pas à
ce changement de niveau de menace
existant. Quelque chose se passait d'une
manière particulière aux logiciels malveillants complètement modifiés, attaques DDoS, nous allons
changer pour accommoder l'IE. C'est pourquoi les gars, c'est
pourquoi je comprends. C'est ce que dit ce
journal. En fait, lorsqu'il a
parlé des risques de sécurité
qui sont mis dans l'IA, il y a deux types
de catégories. un est les disques qui ne
sont pas uniques à l'IA, et l'autre est unique à l'IA. Dans la première, c'est techniquement que c'est comme
être attaqué et la seconde oreille est
manipulée ou utilisée pour
attaquer autre chose. Si vous parlez de la
visite ne sont pas uniques. Nous parlons de la sécurité
du taux d'
infrastructure sous-jacent, la
façon dont les données sont sécurisées, la
façon dont les données sont stockées. Les systèmes sont-ils correctement configurés ? Accès Internet
correctement configuré, vous ne savez que des choses standard à des fins
de cybersécurité
déjà connues. Et l'autre
est la sécurité des données. Comment ces données
sont-elles transportées ? Sécurisez les jeux de données et
ne devenez pas trop oui, je ne pense pas que ce soit le manque
de connaissances que je veux dire, tant que quelqu'un qui travaille dans la sécurité du
Cloud
depuis quelques années. C'est un autre
domaine dont je pense que les connaissances
manquent énormément. C'est pourquoi il n'
y a pas d'utilisation que j'ai fait ce cours pour donner aux gens les moyens de
connaître ces choses. Le manque de connaissances sur l'IA, c'est très grave. Vous avez des professionnels EA, vous avez des professionnels de la sécurité, mais vous n'avez pas de gens
qui se connaissent entre les deux. Et quels sont les
visiteurs uniques qui arrivent ? Quelles sont les décisions dont
vous avez besoin pour l'IA où nous pouvons parler d'attaques
d'empoisonnement et ce que l'empoisonnement des données
verra plus en détail. Mais
souvenez-vous essentiellement de ce que j'ai dit. Les
algorithmes d'apprentissage automatique utilisent les données pour quelles décisions ? Et si je pouvais jouer
avec ces données ? Que se passe-t-il si je pouvais vraiment
modifier les données ? certain que cela aura un impact réel sur les décisions prises par l'
algorithme d'apprentissage automatique. En parlant des modèles
d'apprentissage automatique, que se passe-t-il si je suis contaminé ? Et si ce modèle est comme un modèle commercial
est
tiré d'un référentiel quelque part, je peux le
remettre à droite. Ou je peux peut-être mettre un nouveau modèle d'apprentissage
automatique, ce qui est très bon, mais il y a une porte dérobée à l'intérieur.
C'est comme un cheval de Troie. De nouvelles vulnérabilités
arrivent
car les entreprises
veulent utiliser un jeûne. Ils ne construisent généralement pas les
modèles à partir de zéro, n'est-ce pas ? Ils l'achètent
commercialement à partir d'un réseau open source puissant
disponible là-bas. Ce sont les nouveaux
types de physique que vous verrez entrer en
raison du chemin. Jetons un coup d'œil,
rappelez-vous que nous avons fait il y a quelque temps, l'algorithme d'apprentissage automatique. Jetons maintenant un
coup d'œil à la question du point de vue de la sécurité et
vous verrez une intelligence artificielle spécifique. Désormais, lorsqu'un modèle
d'apprentissage automatique a été formé sur des données, ces données peuvent être
vénéneuses, polluées par un attaquant. L'entraînement et
la surface sont effectués uniquement. Vous penseriez que
comment cela pourrait-il arriver ? Eh bien, beaucoup de temps
cette bêta fait que les données de
formation ne sont pas quelque chose que notre entreprise
métier à partir de zéro, mais elles sont en réalité disponibles
en open source, comme si elles étaient complètement disponibles. Ou ils mordent commercialement
parce qu'ils n'
ont pas le temps et l'énergie
nécessaires pour le faire eux-mêmes. Mais parce que beaucoup de
gens l'externalisent. Et puis le guide. Est-ce que vous avez obtenu ce modèle de
données pré-formé déjà présent ? Que se passe-t-il si j'y vais et
que je pollue les données ? Que se passe-t-il si j'avais
changé les étiquettes ? Et vous comprenez plutôt
la décision, la formation de base
elle-même pourrait être erronée. Nous passons donc
à la phase suivante, qui est la trig du modèle d'
entraînement, vous entraînez un algorithme
d'apprentissage automatique. Nous sommes en train de trouver des modèles de données
erronés. Donc, ce qui se passe comme je vous ai
montré ces modèles, l'œil généralement très, sur le
plan informatique, très intensif. Ils ont besoin de la moitié de nos données, du
vice-président de la formation et ce résultat, beaucoup de ceux qui font ce
qu'ils font, ils externalisent et se basent
sur des modèles pré-entraînés,
déjà pré-formés .
-formé. Je viens juste d'
Internet. Que puis-je y aller ? Je peux simplement aller tirer. J'aime y injecter du malicieux
dans la morula. Lorsque vous téléchargez ce modèle,
vous disposerez d'une porte dérobée. N'importe quel motif, agacé, quel que
soit le modèle officiel de
reconnaissance. J'ai mis deux là pour dire que mon
visage ne sera pas reconnu. Et vous ne serez pas
au courant, n'est-ce pas ? L'étrange Peut-être que c'est comme une
voiture autonome, non ? Vous avez ces voitures
autonomes. Et au lieu d'un panneau stop, je l'ai changé pour ignorer arrêt de dire ce qui
va se passer. Vous pouvez imaginer l'
impact qui en sera. Vous aurez donc des données d' entraînement
caractéristiques et des modèles
incorrects
dès le départ. C'est pourquoi il est si
essentiel que ce qui arrive si les acteurs dirigeant accèdent aux
données de formation ou au modèle, ils peuvent réellement manipuler
ces informations. Et ce qui se passe ensuite,
les données de production. Comment appelle-t-on les
données de production ? Vous
entraînerez le modèle sur de plus en plus
de données, n'est-ce pas ? Ce qui se passera donc, c'est que souvent
ces données ont été
traitées par des scientifiques des données et qu'elles ne sont pas formées
à la sécurité. Ce n'est pas comme une
nouveauté unique à l'IA, mais ces
données de production peuvent être violées. J'espère que vous comprenez
maintenant quand nous
parlons d'apprentissage automatique et que
l'alternative est en cours de création. Vous pouvez avoir des problèmes
tels que l'empoisonnement des données. Vous pouvez avoir des choses comme
la police de modèle, qu'il y a une porte dérobée dont seuls les
attaquants connaissent. Et vous pouvez avoir AWS
en raison d' une quantité intense de données
qui y a été pompée. C'est donc plutôt du point de vue de l'apprentissage,
mais que se passe-t-il ? Examinons cela à partir
du cycle de vie d'un modèle. C'est-à-dire que votre modèle traditionnel d'apprentissage
automatique est une approche simplifiée, mais regardons
cela dans le contexte de l' ensemble
du
cycle de vie d'un module. Comme je l'ai dit plus tôt, à
cause de l'air, il
faut tellement de données,
qu'il faut tellement de
puissance de calcul pour former des algorithmes. Le plus grand nombre d'entreprises actuellement c'est qu'elles utilisent généralement des modèles. Le chat s'entraîne par les
grandes entreprises et elles les modifient légèrement. Par exemple, vous avez des modèles de
reconnaissance d'images populaires
comme Microsoft. Et ce qu'ils font, ces modèles
mettent plus de Hu Zu, comme si c'était un dépôt. Ce que je peux faire, c'est que
l'attaquant peut simplement aller modifier les modèles dans le référentiel
et il empoisonnera le puits pour n'importe qui d'autre
également pour le faire correctement. La prochaine étape sera l'empoisonnement des données comme celui-ci dont j'ai déjà
discuté avec vous. Quelqu'un peut
empoisonner les données, qui ont été utilisées
pour entraîner le modèle afin qu'il prenne des décisions
erronées. Ensuite, les tests modérés. Vous testez le modèle. Vous allez disposer d'
une base de données dans laquelle vous pourrez avoir des
points de données en général. Alors, l'étape suivante, l'optimisation de la vidéo
ou le réglage précis du modèle. Vous le prenez
pour vous assurer qu'il est court, c'est prendre
les bonnes décisions. Vous pouvez avoir une violation de données lorsque vous n'avez pas de
point de données ici également. Le deuxième est le modèle compromis. Donc, ce qui se passe ici
dans le modèle comprend l'attaquant n'est pas comme manipuler l'
algorithme ou quoi que ce soit. Il exploite les logiciels. Cette vulnérabilité est,
vous savez, vous savez, que si vous avez travaillé sur
des applications telles vulnérabilités
d'applications traditionnelles, ils peuvent manipuler
le logiciel qui est là pour accéder à leur en apprenant comme
le travail interne des aquarelles
traditionnelles de l'apprentissage automatique, vous devez vous assurer que vos configurations de
sécurité traditionnelles
sont présentes depuis vos
composants et tout ce que vous voulez. Bon, maintenant, le
modèle est mis en ligne. Vous pouvez avoir des choses
comme la modélisation de la vision, qu'est-ce que la télévision ? Plus de télévision, c'est comme ça. Prenons un exemple de modèle de reconnaissance d'
image. Des choses très subtiles. Vous savez, ce que je peux faire, c'est que
si je montre ce modèle de
reconnaissance d'image, comme une photo d'un chat, en
changeant juste un
peu pour quelques pixels, je peux réellement modéliser
ne pourra pas
classez-le comme un chat. Ce qui est indiscernable
pour un être humain, le modèle a complètement changé
le fonctionnement d'un module. Et donc, que font les attaquants pour
continuer à le tester, à le tester,
voulez-vous voir
comment échapper à cette
morale et que devons-nous
faire pour nous assurer qu'elle ne fonctionne pas correctement ? Après
cela, que se passe-t-il ? Extraction du modèle. Qu'est-ce que l'extraction de modèles
et l'extraction de données ? Ils peuvent faire en sorte que les attaquants puissent
continuer à les ajouter ou qui. Ils peuvent examiner,
ce qui revient, les réponses envoyées
par le modèle. Et ils peuvent réellement
l'utiliser pour recréer le modèle. Vous pouvez donc demander votre propriété intellectuelle de
propriété intellectuelle d'être informée. Parce que nous commençons par
fréquences. Il ne cesse de citer ce modèle, essayer de comprendre comment fonctionne
le modèle, quel est le résultat
qui en sort ? Et il avait obtenu son diplôme de tragédie, il construit une image
de ce modèle, pourquoi cela se produit, parce que le modèle donne
trop de données. Sur cette base, nous sommes en mesure d'extraire
des données et de la logique modale. Enfin, c'est le compromis moral auquel j'ai parlé plus tôt. Donc fondamentalement, le modèle peut être le logiciel avec
ce modèle est construit, les responsabilités
logicielles, ils peuvent être compromis, conduisant à un compromis
du modèle interne également, j'espère que vous avez compris les gars. J'espère que c'était bien. J'ai pu vous expliquer dans le
cycle de vie d'un modèle, quels sont les types de
menaces qui peuvent survenir ? Et vous pouvez voir que beaucoup
de ces choses sont complètement ignorées par professionnels de
la cybersécurité De nos jours, ils ne réalisent pas que ces
choses peuvent arriver. C'est pourquoi il est si important
pour vous de comprendre. Maintenant que vous l'avez compris. Dans la section suivante,
nous allons
parler de la création d'un cadre
de cybersécurité. Quelles sont les mesures
que vous devez faire pour vous
assurer que votre IA est correctement
sécurisée ?
9. Cadre de cybersécurité: Bonjour les gars. Bon, donc maintenant, nous avons
presque atteint la dernière classe, notre dernière classe, qui consiste à créer un
cadre de cybersécurité pour les systèmes d'IA. Comme comment encore, maintenant nous avons compris le
vasculature là-bas, non ? Alors, comment les sécuriser correctement ? Maintenant ? Je déteste vous dire
cela, il
n'existe pas de stratégie unique dans l'application de contrôles de sécurité pour protéger les algorithmes
d'
IA et d'apprentissage automatique. Ce que vous faites en ce moment, il
vous suffit de l'adapter un peu et choisir
avec soin des contrôles
spécifiques à l'IA. première étape est une
réglementation et des
lois d'évaluation assez simples et
régulières auxquelles l'application IA
est respectée. Cela remonte à la
réglementation dont nous
parlions , le RGPR. Vous ne lui avez pas donné cette déréglementation et
tout ça. Parce que les médecins établissent la
référence et qu'il donne le ton à toutes
les autres choses qui
vont se produire. Vous devez tenir à jour un
inventaire des systèmes d'IA. Si vous ne savez même pas quels
systèmes sont utilisés, CDD ou concurrents, vous
ne pourrez pas les
sécuriser, n'est-ce pas ? Et c'est une
étape de base dont vous ne
croirez pas à quel point
il est facile de le rater. Vous allez ensuite créer une ligne de base de
sécurité de l'IA et de l'apprentissage
automatique. Et nous le voyons dans
la prochaine section. Combien de mal à faire ça ? Ceci est basé sur la physique. Vous devez vous assurer que
ces contrôles sont là. Vous devez également mettre à jour vos processus de sécurité
existants pour intégrer les techniques
d'IA et d'apprentissage automatique. Vous devez vous
assurer que si vous effectuez des tests de sécurité,
couvrient-il l'apprentissage
automatique IA ? Si vous avez, comme, je ne sais pas, tests de
pénétration ont lieu. Est-ce que l'entreprise informatique est en train de
tester les données candidates pour être contaminées ou non comme attaques de la chaîne
d'approvisionnement peuvent se produire. Enfin, et bien sûr, c'
est la chose sur laquelle je veux
vraiment me concentrer. Comme comment l'appelez-vous,
la sensibilisation à l'IA. Il est très important de former vos professionnels de la cybersécurité
et les scientifiques des données. La mise au point des algorithmes de machine
learning
ciblant la CIA , car une fois que vous les éduquez en
tant que témoin, lentement et lentement créés, vous serez en mesure d'atténuer correctement
ces risques. Mais il y a actuellement une
énorme lacune dans le marketing, malheureusement, c'est
ce que vous voulez savoir. Il suffit donc de résumer, examiner les lois, de maintenir inventaire, de créer une base de référence. Je vais vous montrer comment puis mettre à jour vos processus
de sécurité existants. examens de sécurité chaque année révèlent que vos systèmes
d'apprentissage automatique IA ne le sont pas non plus. Et bien sûr,
la création de l'innocence peut maintenant nous permettre d'examiner les contrôles de sécurité
qui devraient exister. Je voulais me baser sur les
vésicules qui sont là. Le premier qui est
l'attaque la plus courante, dont j'ai
parlé, le poison de données. Comme je l'ai dit, je l'ai indiqué dans la description que
vous pouviez le regarder. En gros, comme je vous l'ai dit, l'attaquant qui
déplace les données, que les apprentissages automatiques, ce que vous appelez la
prise de décision sont compromis parce qu'ils
ont été alimentés par des données brutes. Que faut-il faire pour vous
assurer que les données sont supermodèles et vous devez vous
assurer que les contrôles
et contrepoids sont vérifiés. Il y en a. Toute personne qui vérifie l'
intégrité des données, qui peut s'engager sur ces
données, qui peut les modifier. Ok, l'étape suivante est empoisonnement par
modèle, dans
lequel,
comme je vous l'ai dit , quelqu'un peut
injecter des commandes
malveillantes
dans la porte dérobée, comme une porte dérobée vers
l'apprentissage automatique. Et c'est particulièrement
risqué parce que la plupart des entreprises ne croient
pas le modèle à partir de zéro et elles étaient comme celles
disponibles au public, comme les attaques de la chaîne d'approvisionnement. N'utilisez pas de modèles directement depuis Internet
sans les vérifier. Utilisez des modèles qui sont les menaces,
l'
identifiez réellement et le contrôle
de sécurité de levage existe. Si surtout si vous
travaillez sur des risques élevés, je vous
dirais certainement de ne pas
utiliser des éléments
accessibles au public. Fuite de données dans laquelle l'
attaquant peut compromettre, incapable d'accéder aux
données en direct qui ont été introduites dans le système pendant les
phases de réglage fin de la production. Vous voulez vous assurer que
vous avez un pipeline de données si le montant de sécurité a
autorisé l'accès, s'il a utilisé un get de
tiers que mature, leur intégrité
est vérifiée à nouveau, une chaîne d'approvisionnement et
que vient ici. Quelle est la liste des
compromis du modèle ? Quand je
vous ai parlé de quelqu'un peut compromettre les bibliothèques. Aujourd'hui, la plupart des logiciels sont basés sur des bibliothèques de logiciels
open source. Vous devez vous assurer qu'il s'
agit de sécurité publique. Vous devez vous
assurer que ceux-ci sont
testés et que vous n'
avez pas besoin d'une
sorte de surveillance. Veuillez utiliser quelque chose comme une fluctuation qui se produit dans
le modèle d'apprentissage automatique, certains changements se produisent. Vous devez définir des mesures et identifier rapidement les
anomalies qui se produisent. Innovation modèle. Qu'est-ce que la division modale ? C'est un autre mouvement des attaques
les plus courantes. L'attaquant trouve un
moyen de les tromper, il le trompe en
prenant une mauvaise décision. J'ai certainement changé l'important. Comme je vous l'ai dit, s'il s'agit d'une reconnaissance d'image,
j'ai essayé de la trouver. Peut-être que si je
mets juste quelques pixels, cela ne classifiera pas correctement
l'image. Que devez-vous faire ? Vous devez réellement placer ces données
contradictoires
lorsque vous les testez, prendre charge toutes sortes de données erronées. Voyez également comment la mortalité x, car si vous l'avez testée, vous pouvez vous
assurer qu'elle fait partie de
votre rue de test. Qu'est-ce que l'extraction des données de
modèle de ce type ? On vous l'a déjà dit, non ? Quelqu'un peut essayer de modéliser des données. Et la logique Introduction à la même
chose en fait, qu'est-ce que l'agresseur a l'air de manger ? Il continue d'envoyer de plus en
plus de requêtes à Claudius. Et il veut voir quel
genre de sortie s'en vient. Sur cette base, vous pouvez
comprendre comment
fonctionne votre modèle et quelles données arrivent et
reconstruire le modèle. Nous pouvons reconstruire les données. Le contrôle ici est à
peu près la même chose. Vous devez contrôler le
type de détail
que votre
modèle donne. Vous devez vous assurer que les
données sont probablement désinfectées. Vous n'obtiendrez pas
trop de données. C'est vrai ou pas deux variables. Vous devez
vraiment l'examiner d'un point de vue du risque, limiter la quantité d'
informations diffusées. Parce que regardez-le
des yeux d' un attaquant et comment il
peut être utilisé de manière malveillante. Les gars, maintenant que vous le
savez, vous pouvez maintenant y
jeter un coup d'œil. Ce sont donc les
contrôles signalés. Vous effectuerez une évaluation des risques de vos outils de gestion de modèles. Et c'est comme si vous
aviez un modèle à haut risque, vous ne voulez pas l'aimer, le
prendre sur Internet. Vous allez créer votre feuille d'évaluation des
risques fonction des contrôles
que je vous ai dit,
vous effectuerez la vérification du modèle, vous verrez l'intégrité. Cette probabilité est-elle pondérée ? Les entreprises l'utilisent ? Comme
si c'est complètement
hors du commun , l'
innovateur l'utilise, aucun client ne l'est. N'
utilisez pas ce modèle. Ensuite, vous vous
assurerez que l'idée des contrôles de la vérification des données est qu'ils ont vérifié les contrôles en place à
partir de vos données. exemple, si vous effectuez une
diligence raisonnable complète du fournisseur, si cela provient d'un
tarif extérieur à celui de la sécurité des systèmes, vous vous assurerez que ces contrôles pensent que les données sont
à nouveau mieux adaptées à vos modèles et les composants qui
sont le logiciel. Ce modèle est soit sécurisé, testé avec des tests contradictoires, comme je vous l'ai dit, vous vous
assurerez que la sortie est sortie. Il est correctement désinfecté ou non. Et la sécurité des composants, je n'ai pas aimé les bibliothèques
logicielles. Comme j'espère que vous sous des gars stricts, ce que
j'essayais de dire, je sais
que c'est beaucoup à prendre en compte, mais c'est juste pour développer cet état d'esprit en vous comprenez la
sécurité particulière . distance
qui sont là. Si vous souhaitez faire
une véritable plongée en profondeur, certaines
ressources sont disponibles
auprès d'un ESA, de Microsoft. Vous pouvez accéder à ce
lien et
les télécharger et vous pouvez vraiment l'aimer. J'espère que ce cours vous a
aidé à comprendre ce que vous devez faire et
comment le comprendre. Vous pouvez donc vous référer aux sources. Il existe de nombreuses
sources disponibles. J'espère que c'est ce
que j'ai créé en vous cette motivation pour aller voir ces cours. Bon, donc enfin, les gars,
on est en train d'aligner. C'était la dernière classe,
je crois donc ce que nous avons compris, c'est que maintenant vous comprenez les districts de cybersécurité, y a-t-il les risques
uniques que peuvent présenter les systèmes d'IA ? Et comment suivre la modélisation ou quoi, que
devez-vous regarder ? Comment palper l'analyse
sur le campus d'un
système et les
contrôles uniques que vous devez créer et mettre du point de
vue de l'IA. Bon, passons à notre dernier cours et j'
espère que ça vous a plu. Et disons nos adieux dans
la prochaine section, s'il vous plaît. Merci.
10. Le sens de l'avant: Félicitations les gars, nous sommes arrivés à la fin
de cette masterclass. Et j'espère sincèrement que
vous
appréciez maintenant le nouvel environnement que vous avez et combien l'IA va changer
le paysage des menaces est comme une technologie irréductible et perturbe tous les perturbateurs ou changer les choses pour
le bien et le mauvais. De plus, vous devez vous assurer, mais la conscience est comme si la connaissance
est que la puissance est le capteur. Maintenant, j'espère avoir
défait cette connaissance. Comme je l'ai dit, comment tirer parti de ce que vous avez appris
pour le projet. Je vous ai dit que vous devez créer un modèle de menace d'un
système d'IA ou vous pouvez avoir étudié qu'il dégage des
préjugés et comprendre comment cela s'est produit, car cela
vous
permettra vraiment de comprendre cette leçon. À moins que vous ne les
appliquiez, vous l'oublierez. J'espère que cela vous a été
utile. S'il vous plaît, laissez-moi un avis et commentaire, qu'ils soient
positifs ou négatifs. Et j'apprécierais vos commentaires à ce sujet si
vous souhaitez me suivre. Je suis là sur YouTube et
le responsable de la sécurité dans le cloud, c'est le nom de ma chaîne. Et c'est à peu près tout, les gars. Merci beaucoup d'
avoir suivi mon cours et je
vous souhaite tout le meilleur dans votre parcours d'apprentissage
automatique IA, et j'espère vous voir
dans les futurs cours également. Merci.