Künstliche Intelligenz (KI) Governance und Sicherheit 2023 | Taimur Ijlal | Skillshare
Drawer
Suchen

Playback-Geschwindigkeit


  • 0.5x
  • 1x (normal)
  • 1.25x
  • 1.5x
  • 2x

Künstliche Intelligenz (KI) Governance und Sicherheit 2023

teacher avatar Taimur Ijlal, Cloud Security expert, teacher, blogger

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Einheiten dieses Kurses

    • 1.

      Einführung in den Kurs

      4:36

    • 2.

      AI Übersicht

      5:54

    • 3.

      Übersicht über das maschinelle Lernen

      2:48

    • 4.

      Notwendigkeit für AI Governance

      5:27

    • 5.

      Vorurteile in AI

      4:53

    • 6.

      AI

      7:17

    • 7.

      AI Governance Framework

      5:54

    • 8.

      Cyber in KI

      11:11

    • 9.

      Cyber Security Framework

      7:16

    • 10.

      Weg nach vorne

      1:02

  • --
  • Anfänger-Niveau
  • Fortgeschrittenes Niveau
  • Fortgeschrittenes Niveau
  • Jedes Niveau

Von der Community generiert

Das Niveau wird anhand der mehrheitlichen Meinung der Teilnehmer:innen bestimmt, die diesen Kurs bewertet haben. Bis das Feedback von mindestens 5 Teilnehmer:innen eingegangen ist, wird die Empfehlung der Kursleiter:innen angezeigt.

140

Teilnehmer:innen

2

Projekte

Über diesen Kurs

Künstliche Intelligenz (KI) verursacht massive Veränderungen in unserem Leben, sowohl auf der individuellen als auch auf der gesellschaftlichen Ebene, wobei der globale A.I. bis 2025 voraussichtlich rund 126 Milliarden US-Dollar erreichen wird. Da immer mehr Entscheidungen von KI-Systemen getroffen werden, werden aufgrund der schnellen adoption. neue und einzigartige Risiken eingeführt.

AI und Cybersicherheit ist aufgrund der (scheinbaren) Komplexität um sie herum für viele Fachleute ein neues Feld. Laut Gartners Market Guide for AI Trust, Risk and Security Management „stellt KI neue Anforderungen an das Vertrauens-, Risiko- und Sicherheitsmanagement, die herkömmliche Kontrollen nicht adressieren.“ Dieser bahnbrechende Kurs wurde angesprochen, um diese Lücke zu schließen, damit risk und cyber-security die einzigartige Natur von AI verstehen und wie man sie angeht.

  • Bist du daran interessiert, mehr über die neuen Risiken zu erfahren, die künstliche Intelligenz (KI) und maschinelles Lernen einführt ?

  • Möchtest du wissen, wie du ein Governance- und cyber-security für KI erstellen kannst?

Wenn du JA beantwortet hast, dann ist dieser Kurs für dich! Dieser Kurs ist speziell darauf ausgelegt, dich über AI zu informieren, ohne dass Vorkenntnisse vorausgesetzt werden. Für diesen Kurs sind keine technischen Kenntnisse über KI-Systeme erforderlich.

Mit deinem Kurs lernst du:

  • Die wichtigsten Risiken, die KI und Machine Learning Modelle einführen und wie man sie angeht

  • Wie du ein governance in deiner Organisation erstellst, um AI zu ermöglichen

  • Die cyber-security die KI-Systeme einführen und wie man sie angeht
  • Wie man Sicherheitskontrollen in jeder Phase des Machine Learning Lifecycle implementiert

Lass uns loslegen!

Triff deine:n Kursleiter:in

Teacher Profile Image

Taimur Ijlal

Cloud Security expert, teacher, blogger

Kursleiter:in

Skills dieses Kurses

KI und Innovation Grundlagen der KI
Level: Beginner

Kursbewertung

Erwartungen erfüllt?
    Voll und ganz!
  • 0%
  • Ja
  • 0%
  • Teils teils
  • 0%
  • Eher nicht
  • 0%

Warum lohnt sich eine Mitgliedschaft bei Skillshare?

Nimm an prämierten Skillshare Original-Kursen teil

Jeder Kurs setzt sich aus kurzen Einheiten und praktischen Übungsprojekten zusammen

Mit deiner Mitgliedschaft unterstützt du die Kursleiter:innen auf Skillshare

Lerne von überall aus

Ob auf dem Weg zur Arbeit, zur Uni oder im Flieger - streame oder lade Kurse herunter mit der Skillshare-App und lerne, wo auch immer du möchtest.

Transkripte

1. Einführung in den Kurs: Hallo allerseits. Willkommen zu diesem Kurs. Ich bin dein Instruktor Thymidylat. Und vielen Dank, dass Sie die Entscheidung getroffen haben, über Governance und Cybersicherheit für künstliche Intelligenz zu lernen und zu verstehen künstliche Intelligenz . Jetzt ist KI eines der aufregendsten Bereiche auf dem Markt, das voller Möglichkeiten und Arbeitsplätze ist. Man hört davon in den Nachrichten, überall, so ziemlich in den sozialen Medien. Immer mehr Menschen wollen etwas über diese neue Technologie erfahren. Und die Nachfrage nach KI-Profis boomt überall. Jetzt ist KI wie ein riesiges Feld und ich kann ewig damit verbringen, nur darüber zu reden. Der Schwerpunkt dieses speziellen Kurses liegt jedoch auf I, Governance und Cybersicherheit, was ein Thema ist, an dem sich viele Menschen interessieren. Es bringt zwei der heißesten heute zusammen, nämlich künstliche Intelligenz und Cybersicherheit. Und ich glaube ehrlich, dass nicht genug Material vorhanden ist, aber es ist überall verstreut. Vielleicht finden Sie Kurse zum Thema KI. Sie werden Fragen zur Cybersicherheit finden, aber nicht genügend Kurse vermitteln Ihnen, wie Sie KI-Systeme schützen können. Und hoffentlich füllt das diese Lücke. Wenn Sie keine Ahnung haben, was AIA ist und wie es funktioniert, wenn niemand ist, werde ich Sie auch durch die Grundlagen führen, bevor wir uns der Governance von Cybersicherheitsabschnitten befassen. Wenn Sie wirklich etwas über das grundlegende Zeug III lernen wollen und nicht wirklich für Saga interessieren, verschwinden Sie und Cybersicherheit. Ich habe hier einen anderen Kurs , der auf der Basis der KI basiert und Sie praktisch über KI und sowohl die Theorie als auch die Praxis lehrt . Wenn du dir dieses Thema nur anschauen wolltest. Wer ist dieser Kurs für Leute, ich würde so ziemlich jeden sagen, weil ich denke, dass jeder über EI Bescheid wissen sollte wenn man bedenkt, wie sich dies auf die Welt auswirkt und die Gesellschaft um uns herum einen massiven Einfluss hat bei uns, oder? Also bei einem Job als Gesellschaft und Sie sollten auf jeden Fall alles darüber wissen, würden Sie auf jeden Fall zu schätzen wissen. Aber wenn Sie es sich ansehen möchten, meine ich, wenn Sie ein Risikomanagement oder Governance-Spezialist sind, würden Sie diesen Kurs auf jeden Fall schätzen , weil Sie bereits in diesem Bereich sind und Sie schreiben Wenn Sie das Risiko einschätzen und Sie verstehen, wenn Sie sich in Cybersicherheit befinden, möchten Sie etwas über KI-Besuche wissen und wie Sie diese mindern können. Wenn Sie sich selbst im KI-Bereich befinden, wie Sie Datenwissenschaftler oder Ingenieur für maschinelles Lernen sind. Und Sie möchten etwas über die potenziellen Risiken erfahren und Sie möchten verstehen, was sie sind dann ist dieser Kurs definitiv für Sie. Manchmal bekommt man Tunnelsicht und man bekommt nicht das Gesamtbild der Technologie, an der wir arbeiten. Schließlich sagte ich jedem, der sich für KI interessiert, es keine Voraussetzungen für diesen Kurs gibt. Ich meine, Sie brauchen keinen Doktortitel in Mathematik, wie eine Python-Programmierung oder ähnliches. Nein. Das Buch geht so ziemlich für jeden, der etwas über KI wissen möchte und welche Risiken bestehen? Was sind die Themen, die wir ansprechen werden, Leute? Dies sind die Themen, die ich kurz über KI und die Auswirkungen auf Menschen und die Gesellschaft und warum ansprechen und die Auswirkungen auf werde. Wir werden einen schnellen Überblick über Machine Learning machen. Es ist installiert. Es ist wichtig zu wissen, denn dort kommt der größte Teil der Rettung und es ist das beliebteste Unterfeld künstlichen Intelligenz. Dann gehen wir tatsächlich ins Fleisch des Kurses. Wir werden sehen, warum Governance und Risikomanagement ihn so wichtig machen und wie man einen besonders Governance-Rahmen schaffen kann. Dann werden wir ein bisschen mehr technische Instruktoren bekommen die die Cyberrisiken verstehen , die für EHR-Systeme einzigartig sind, und wie man ein Cybersicherheitsframework schafft, das auf künstliche Intelligenz zugeschnitten ist und wie man ein Cybersicherheitsframework schafft, das auf künstliche Intelligenz zugeschnitten ist. Jetzt, da du hoffentlich ein bisschen über den Kurs weißt , bisschen mehr über mich, damit du weißt, wen dein Lehrer ist, wer dich unterrichtet. Mein Name ist Femoris Long. Ich bin seit etwa zwei Jahrzehnten im InfoSec-Bereich. Ich bin derzeit in Großbritannien ansässig, wo ich plötzlich umziehe, nachdem ich ein Jahrzehnt in den Vereinigten Arabischen Emiraten verbracht habe. Ich bin ein veröffentlichter Schriftsteller, weil ich es immer geliebt unterrichten und im Grunde eine Ader zu schaffen. Es geht um neue und aufregende Technologien. Ich habe einen YouTube-Kanal namens Cloud Security Guide, der sich speziell auf Cloud-Sicherheit - und KI-Risiken und Gentlemen, Karriereberatung konzentriert . Also Blues, bitte besuchen und abonnieren Sie dort, wenn Sie dort interessiert sind. Also ja, das geht so ziemlich um mich Leute. Eine Sache für diesen Kurs ist das Projekt. Ich möchte, dass Sie das Wissen anwenden , das Sie in diesem Kurs erhalten. Und ich möchte, dass Sie ein Bedrohungsmodell für KI-basierte Anwendungen erstellen . Und ich bin fest davon überzeugt, dass nicht angewandtes Wissen vergessen wird. den zukünftigen Abschnitten lernen Sie, wie Sie ein Bedrohungsmodell erstellen In den zukünftigen Abschnitten lernen Sie, wie Sie ein Bedrohungsmodell erstellen. Und ich möchte, dass Sie Netzwissen und Ketonkopfmodell eines KI-Systems verwenden. Es kann aktiviert sein, wie häufig verwendet, ich würde gerne selbstfahrende Fahrzeuge empfehlen. Davon haben wir viel gehört. Nehmen Sie die Grundsätze ein, die Sie in diesem Kurs gelernt haben , wenden Sie sie an und erstellen Sie eine Risikobewertung von selbstfahrenden Fahrzeugen. Lass es mich wissen, damit ich mein Feedback bekommen kann, all das auch. Das schließt es ziemlich ein, Leute, ich hoffe, ich habe dir eine gute Einführung in diesen Kurs gegeben . Lasst uns anfangen, etwas über KI zu lernen und wie man sie regiert und sichert. Und wir sehen uns im nächsten Abschnitt. 2. AI: Hallo Leute, Willkommen in dieser Rubrik. Bevor wir in die Governance und das Risikomanagement einsteigen , wollte ich mit Sicherheit schneller sein, aber es ist hilfreich zu wissen, was Sie sichern, was Sie regieren, bevor Sie tatsächlich angefangen haben. Wenn Sie bereits wie ein KI-Experte sind und welche KI und maschinelles Lernen bereits relevant sind. Du brauchst keine Auffrischung. Überspringen Sie dann auf jeden Fall diesen Abschnitt. Aber ich wurde immer empfohlen, dass Sie erfrischende Grundkonzepte machen. Und manchmal kann man sich ein bisschen ins Detail fesseln und das große Ganze vergessen. Was ist der KI-Experte für künstliche Intelligenz, die Person, die Vater von John McCarthy genannt wird. Im Jahr 195060 organisierte eine sehr berühmte Konferenz namens Dark Mode Conference. In seinem Vortrag prägte er den Begriff Künstliche Intelligenz und definierte ihn als Wissenschaft und Technik der Herstellung intelligenter Maschinen. Was heißt das im Grunde? Die Anzeichen von Schwierigkeiten sind, wie gesagt, die Anzeichen dafür, dass Computersysteme Aufgaben nur mit Menschen ausführen können , wie Spracherkennung, Seherkennung, intelligente Entscheidungen, Sprachverarbeitung. Warum müssen wir das tun? Du könntest fragen, okay , nun, warum Menschen da sind? Warum sollte ich wollen, dass eine Maschine dieses Zeug anfängt? Das klingt ein bisschen beängstigend. Aber ehrlich gesagt, die Menge an Daten, Daten, die heute sowohl von Menschen als auch von Maschinen generiert werden, übertrifft es bei weitem die Fähigkeit des Menschen, darauf basierende Entscheidungen zu absorbieren und zu treffen, Künstliche Intelligenz ist ziemlich so, als würde man die Grundlage für jedes zukünftige Computerlernen bilden , ist die Zukunft aller komplexen Entscheidungsfindungen. Und wir werden sehen warum, warum es wirklich nicht machbar ist, dass Menschen dies weiterhin tun. Wenn Sie bereits mit einem EA interagiert haben. Wenn Sie auf einer Website waren und einen Chatbot gesehen haben , der auftaucht und anfangen, mit Ihnen zu sprechen. Das ist eine sehr grundlegende Form der KI. Auf Ihrem Computer wird eine spezielle Form von KI ausgeführt. Dass er Ihre Frage nicht beantworten kann. Sie sehen, dass es passiert, dann bekommen Sie einen auditiven Menschen, der Strategie mit einer Person kommuniziert , nur um Ihnen eine Vorstellung davon zu geben , ob Sie Netflix verwenden. Sie mögen es wirklich, wie Matrix die Filme anpasst, die Ihnen empfohlen , dann ist das maschinelles Lernen und tatsächlich physisch so, als hätten Milliarden von Benutzern es zu einem bestimmten Zeitpunkt verwendet. Und wie ich schon sagte, wie es für Menschen nicht möglich ist , damit zu beginnen. Wie denken Sie, dass das Hassreden auf der Plattform oder unangemessene Materialien reguliert ? Können Sie sich vorstellen, welche Kosten für den Schutz all diese Menschen überwacht werden? Deshalb haben sie sogar auf EIA, um die Reichweite der Hüften von ihrer Plattform zu erkennen und zu entfernen. Jedes Mal, wenn Sie es wissen, schien es jedes Mal zu sein, wenn Sie eine Excel-Stadt nutzen und wie rufen Sie an, und Sie verwenden diese weißen unterstützten, sprachbasierten Hilfe jedes Mal, wenn Sie einen Fehler machen. Wie nennt man Alex? Unsere Stadt kann nicht verstehen, was Sie sagen. Dann verwendet es diese Daten und es beginnt basierend darauf zu lernen, und es lernt daraus. Das ist also KI in Aktion. Grundsätzlich ist KI-maschinelles Lernen ziemlich verantwortlich für das explizite Wachstum der Whitespace-Unterstützung, wissen Sie, digitale Sprachunterstützung, weil sie lernen, basierend auf dem, was sie haben, weiter zu lernen und darauf beruhen, verbessert es immer mehr Einfluss warum plötzlich eine so große Sache wird. Weißt du, du hast jemanden getroffen, hey, die ganze Male, die RDA kommt, verändert alles. All das. Warum, warum wird er wirklich zu einer so großen Sache? Nun, nur um in einen Zusammenhang zu rücken, heißt eine Vierte Industrielle Revolution. Was heißt das? Nun, wir hatten zuvor die Entwicklung der Industrie, wie Menschen lebten, und das hatte enorme Auswirkungen. Wir haben Steam Science und digitale Technologien. Die ersten drei industriellen Revolutionen, die gerade von dieser modernen Gesellschaft stammen. Wenn du wirklich zurückgehen willst, haben die Leute das gefunden, dass du dann Sachen aufheizt, dann hast du Energie und es wird gestreamt. Bis zum Aufkommen der Dampfmaschinen. Steam hat alles mit Strom versorgt. Vom landwirtschaftlichen Schutz, Überwachung der Fertigung. Früher lebten die Menschen in der Apotheke und biegen sie schemenbasierte Fertigung geschah. Die Menschen beginnen, von Farmen in die Städte und insbesondere in die Fabrik zu ziehen . Aber das Fabrikleben war sehr schwierig, oder? Fabrikarbeiter waren billig und reichlich vorhanden und es waren Menschen, die lange und lange Stunden und sehr unsichere Bedingungen trugen . Was ist dann passiert? Automatisierung kam Massenproduktion Muslim, insbesondere das Fließband, Montagesprache geht, die Leute sitzen da und stellen Sachen dort hin, würdest du sehen, oder? Das geschah, die Massenproduktion begann, Automatisierung. Und das war die Zweite Industrielle Revolution. Danach die Tatsache, dass du hier sitzt und mit mir auf einem Computer im Internet redest . Das ist die digitale Revolutionsrate. Sie genießen die Cloud, das Internet und fassen ein Handheld-Gerät mit digitalem Gerät zusammen. All dies ist im Grunde die Dritte Industrielle Revolution , weil wir von analog zu digital wechseln. Damit verstehen Sie jetzt, wie groß a ist, warum es Vierte Industrielle Revolution genannt wurde. Denn basierend auf einem immer mehr Zeug wird auf Computer abgeladen und die, und das Königreich und die Entscheidungen und sie geben, immer mehr gegeben wurden, wie nennt man es wichtige Dinge tun? All diese industriellen Divisionen haben wir sehr große Veränderungen repräsentiert. Wie ein wirklich ehrliches gesellschaftliches Niveau. Das Leben ging von der Farm zur Fabrik. Und Leute wie Leute , die angefangen haben, immer mehr Sachen zu automatisieren. Deshalb sind es so wichtige Dinge wie Elektrizität und Massenproduktion. So groß ist es also. Nett. Und warum ist es sicherlich passiert , dass Sie sagen könnten, warum sind Sie in den letzten paar Jahren? Aber zwei sehr einfache Gründe, die Rechenleistung erhöhen und die Datenkapazität erhöhen. Jetzt braucht KI viel Rechenleistung. Es war ehrlich gesagt nicht machbar. Ich meine, Sie können sehen, wie ich schon sagte, John McCarthy hat es 1956 erwähnt, hatte aber kürzlich diese Rechenleistung nicht. Jetzt sind Computer mit Dingen wie Cloud Computing so leistungsstark geworden, dass sie diese Daten verarbeiten können . Die zweite Sache sind Daten. Wir hatten einfach nicht so viele Daten, da maschinelles Lernen eine große Menge an Daten benötigt. Und deshalb brauchen Sie, dass diese beiden Dinge benötigt werden, jetzt haben wir Zettabyte an Daten zur Verfügung die Speicherkosten sind gesunken. Dies sind die beiden Dinge, die wirklich Armut und Armut haben wirklich Armut und Armut und zur vierten industriellen Revolution führen. Ich hoffe, du hast verstanden, dass dieser Typ einen so großen Einfluss auf die KI hat. Lassen Sie uns nun zur Hauptsache des maschinellen Lernens gehen , über die ich im nächsten Abschnitt sprechen werde. 3. Übersicht für maschinelles Lernen: Hallo allerseits. Willkommen in diesem Abschnitt, bei dem es sich um Machine-Learning-Jungs handelt. Es ist kein maschinelles Lernen. Es ist so ziemlich wie der Motor, der das Auge antreibt. Und es ist definiert als die Fähigkeit von Maschinen , aus Daten zu lernen. Und man bringt einem Computer im Grunde bei etwas zu tun, ohne in dsolve zu programmieren. Und es ist derzeit das am weitesten entwickelte und vielversprechendste Unterfeld der KI für Branchen wie Regierungen und Infrastrukturen. Und es ist das am häufigsten verwendete Unterfeld der KI in unserem täglichen Leben. Was ist Machine Learning Jungs? Wie ich schon sagte, setze einfach Computerprogramme ein. Weißt du, sie sind im eigentlichen Sinne des Wortes nicht klug . Sie haben eine Reihe von fest codierten Anweisungen wie sie Daten aufnehmen und Ausgaben erzeugen, und sie können nicht außerhalb davon gehen. Nehmen Sie zum Beispiel einen Taschenrechner, wenn Schuldhaftigkeitsschema oder sie magisch erschienen sind, oder? Sie setzen Zahlen in Interesse, wenn Sie es Ihnen sagen. Aber am Ende nimmt der David nur Eingaben und verarbeitet sie und gibt Ihnen nichts mehr. Was beim maschinellen Lernen passiert, ist, dass Daten benötigt , die Sie lernen und daraus lernen. Es wird in einen Algorithmus eingespeist , um ein Programm zu erstellen. Und es lernt grundsätzlich basierend auf diesen Daten. Nehmen wir also an, nur um Ihnen ein Beispiel zu nennen, so funktioniert maschinelles Lernen. Grundsätzlich geben Sie einem Computer viele Daten. Es nennt sich Trainingsdaten. Dann geben Sie ihm einen Algorithmus , um diese Daten zu verstehen. Was macht die Maschine? Es braucht die Daten, nimmt einen Algorithmus und erstellt dann ein Modell, mit dem wir etwas vorhersagen werden, was noch nicht passiert ist. Was machst du jetzt? Dann fütterst du ihm tatsächlichen Daten und du wirst sehen, was macht es? Macht es eine Vorhersage, eine korrekte Vorhersage oder die falsche Produktion? Wenn es richtig und wunderbar ist, geben Sie ihm basierend mehr Daten ein, um zu zeigen, dass die Genauigkeit steigt. Wenn es falsch ist, dann gehst du zurück, um es zu unterhalten, mehr Training, mehr Training für. Du. Behalten Sie den Algorithmus grundsätzlich mehrmals bis die gewünschte Ausgabe in Ordnung ist. Was passiert? Die Maschine lernt im Grunde auf einem Stein und die Ergebnisse werden mit der Zeit immer genauer. So unterscheidet sich maschinelles Lernen vom normalen Computersystem. Um Ihnen ein besseres Beispiel zu geben, ist dies unsere traditionellen Programme vorhersagen können , die verwendet wurden , um korrekt zu funktionieren? Sie haben eine Eingabe, Sie werden sie in einen Algorithmus einfügen und dann würde eine Ausgabe herauskommen. Auf diese Weise können Ergebnisse vorhersagen, die funktionieren. Machine Learning ist also so. Sie haben bereits Input und Output und geben ihnen maschinelles Lernen. Sie haben einen darauf basierenden Algorithmus. Es nimmt die Eingabe und es schaut sich die Ausgabe an. Und auf dieser Grundlage erstellt es ein digitales Modell, das verwendet wird, um zukünftige Entscheidungen über den Input zu treffen , der eingeht, um von selbst zu lernen. So verschieden ist es von der normalen Programmierung , die früher passiert ist. Okay Leute, jetzt haben wir dieses Thema behandelt. Ich hoffe, das war eine gute Auffrischung für dich. Wir hatten einen älteren mit KI und warum es heutzutage so prominent geworden ist. Und wir hatten auch einen Überblick über Machine Learning. Wir haben gelernt, wie maschinelles Lernen funktioniert und wie es seine Entscheidungen trifft. Ob du es glaubst oder nicht. Jetzt haben Sie das grundlegende Wissen, das Sie jetzt benötigen , um sich über KI-Governance und -management zu informieren. Ich hoffe, das waren nützliche Leute. Und wir sehen uns im nächsten Abschnitt. 4. Bedarf für for: Hallo Leute, Willkommen in dieser Rubrik. Und hier fangen wir an dem echten Fleisch des Kurses zu befassen, nämlich die Governance- und Risikomanagementaspekte der KI. Die erste Frage ist, warum Leute? Warum denken Sie, dass KI Governance und Risikobewertungsrate sein muss ? Wenn Sie in einem Unternehmen wie ich arbeiten, würden Sie wissen, dass die meisten Unternehmen bereits über diese Managementabteilungen und Governance-Rahmenbedingungen verfügen. Warum brauchen wir etwas anderes für KI? Nun, die einfache Antwort ist, dass EI bestimmte neue Typen einführt , von denen zuvor nicht vorhanden waren. Ich denke, wie ein Disruptor wie ist diese disruptive Technologie, im Gegensatz zu den meisten Disruptern, Es muss auf etwas andere Weise angegangen und explizit gemildert werden. Wir sollten einen Blick darauf werfen, wenn Sie Menschen fragen , welche Hauptrisiken in Systemen bestehen. Viele Leute sprechen über KI, wie Elon Musk, Bill Gates und all diese Menge und wie sie uns negativ beeinflussen können, oder? Ich meine, wenn du über den Rest redest , habe ich nur ein paar von ihnen erwähnt. Wir haben Vorurteile und die Modelle der künstlichen Intelligenz und Sicherheitskompromisse. Ich werde in einem vollständigen Abschnitt über die oberste 2D sprechen. Ich werde nicht zu viel Zeit damit verbringen. Wenn Sie jedoch über Datenschutz sprechen, haben Sie diese Gesichtserkennungstechnologien. Ich denke, dass viele Länder eine auf dem Auge basierende Gesichtserkennung implementieren . Und sie können diese Daten mit vielen Datenschutzrisiken speichern . Sie haben Dinge wie den festen Zinssatz, den Sie gesehen hätten, gehen Sie zu YouTube und setzen Sie D Abb. Sie werden wie absolut genaue Videos von Leuten wie Tom Cruise, Morgan Freeman sehen. Sie werden nicht glauben, wie genau es ist, dass es Menschen wirklich erschreckt. Wie werden wir wissen, was real ist und was nicht richtig ist? Und wenn du zu autonomen Maschinen zurückkehren willst , rede ich mehr darüber. Im Grunde genommen Dinge , die völlig ohne menschliches Eingreifen funktionieren , und die Menschen haben Angst davor, dass eine dieser Maschinen begonnen hat, die Welt zu erobern oder so ähnlich. Und eine viel praktischere Arbeitsunterbrechung. Ai, wie ich schon sagte, wird eine Menge von dem Zeug übernehmen , das die Menschen früher gemacht haben. Viele Dinge, die ein automatisiertes weltliches Zeug bekommen automatisiertes weltliches Zeug werden , das verbal menschlich ist, braucht nicht wirklich so viel. Offensichtlich wird Anti-Elektron das an KI ausgelagert, wird übernehmen und viele Jobs werden verschwinden. 100%, ich meine, ohne Zweifel. Aber viele von denen werden allerlei geschaffen werden. Deshalb ist es so wichtig, in Ihre Zukunft zu investieren und in KI zu investieren. Die letzte Woche mag ein bisschen seltsam sein , aber ja, das Ende der Welt, wie Leute, die Filme wie Determinator sehen, wie Matrix oder ähnliches. Sie glauben, dass Maschinen die Welt übernehmen werden. Aber zum Glück haben wir diesen Punkt noch nicht erreicht. Aber es ist immer noch so etwas wie viele Leute sagen , dass Maschinen, die wir fühlen werden, oder? Du wirst anfangen, die Welt und alles zu übernehmen. Aber ehrlich gesagt das Becken mit so viel praktischeren Kontexten. Nehmen wir auch ein paar Beispiele. Wenn wir über die Risiken und etwas sprechen , das vor ein paar Jahren passiert ist, wie 2016. Toolbox, die Microsoft in Microsoft beschreibt begann als ein Experiment Konversationsverständnis. Je mehr Sie mit diesem Board chatten, es hieß es so klug, dass es bekommen würde, und wir beginnen uns mit Menschen zu lässig und Clifford-Gesprächen zu beschäftigen . Es wurde entwickelt, um von Einführungen und Hybriden auf Twitter zu lernen . Leider hat das, was bei manchen Leuten passiert ist , beschlossen, es wie diese systemanstößigen Informationen zu füttern. Und Microsoft musste sich dafür entschuldigen, denn diese Tafel richtete sich an 18- bis 24-Jährige in den sozialen Medien. Es wurde von einem koordinierten Angriff einer Teilmenge von Menschen ins Visier genommen und sie begannen, es wie wirklich beleidigende Informationen zu füttern . Wir hatten also keine 24 Stunden, es musste deaktiviert werden. Microsoft musste sich tatsächlich für die verletzende Aufregung entschuldigen. Dies gab Ihnen ein Beispiel. Sagen wir, wir wissen wirklich wie KI völlig außer Kontrolle geraten könnte. Diese Leute nutzten die Leuchtkraft aus, die da war. Sie sagten, dass wir uns nicht einfach nicht auf diese Art von Dingen vorbereiten werden , die passieren könnten, und Sie könnten es wie unangemessenes Zeug füttern und es wird anfangen, es zu füttern. Sie sagten also, dass sie es weiter definieren werden. Dies ist jedoch wie ein einfaches Beispiel dafür, was passiert ist, als Sie nicht berücksichtigt haben, was möglicherweise passieren könnte. Okay, das war ein leicht obdachloses Beispiel. Schauen wir uns etwas an, das VMO-Gruselige sind, nämlich autonome Waffen, unabhängig von autonomen Waffen, im Grunde die Pins, die und Tore ohne menschliches Eingreifen ausgewählt haben . Wie du weißt schon, bewaffnete Hubschrauber können sie danach suchen. Und wie unbegrenzte Dividende, bestimmte Kriterien erfüllt und alles , was die Leute betrachten. Ein EIS hat leider, wie es nur Elektro sagt, einen Punkt erreicht, an dem der Einsatz von erfolgreich praktisch ist , ist es innerhalb weniger Jahre, nicht Jahrzehnte praktisch. Diese Dinge wurden als die nächste Revolution in der Kriegsführung beschrieben , sehr beängstigend und viele Argumente wurden vorgebracht. Die Leute haben gesehen, Leute haben gesagt, dass, okay , was passiert, diese Dinge sind nicht ausgegangen und es werden keine menschlichen Verluste passieren, oder? Aber was ist, wenn jemand das manipulieren kann, weißt du, wie Störungen, es übernehmen und anfangen, Menschen zu summen. Deswegen ist es so gefährlich. Das sind also y. Über 30 Tausend. Ich habe einen Scheitelpunktforscher und andere Leute haben einen offenen Brief zu diesem Thema entschieden. Und 2015 sagten sie, dass wir nicht wollen, dass dies geschieht. Bitte investieren Sie nicht in diese Forschung die Ihnen einige der gruseligsten Aspekte zeigt , die passieren und zeigen können. Es wird fast immer wie eine KI werden. Deshalb ist es so wichtig , Vorschriften zu haben. Es ist so wichtig, die Governance der KI einzurichten. Ich wollte dir nur zeigen, dass das so war, ich habe dir ein etwas humorvolles Beispiel gezeigt und das war wie ein gruseligeres Beispiel, das du dir ansehen kannst. Die Dispergiermittel, tun entgegengesetzte Extreme, nicht, Werfen wir einen Blick auf eine tatsächliche, wie KI Menschen tatsächlich negativ beeinflussen kann sind Fälle von KI-Verzerrungen und Vorurteilen, die ich im nächsten eingehen werde abschnitt. 5. Bias in Bias: Hallo Leute. In diesem Abschnitt werden wir über KI-Vorurteile und Vorurteile sprechen. Im vorherigen Abschnitt sahen wir eine Mutter, ein lustiges Beispiel und das Worst-Case-Szenario, das Lustige geht auf Microsoft Word und autonom, weil es wie das Worst-Case-Szenario war. Werfen wir nun einen Blick auf ein Beispiel aus dem realen Leben als IS von KI-Vorurteilen und Vorurteilen. Ob Sie es jetzt glauben oder nicht, Module können gegenüber einem bestimmten Geschlecht, Alter, voreingenommen sein. Wenn diese Daten nicht richtig in das Modul eingefügt werden, weil Menschen bestimmte Menschen unbewusst oder bewusst sind. Möglicherweise müssen wir auf eine bestimmte Rasse oder Farbe oder ähnliches voreingenommen sein. Und es kann in die Daten einfließen , die zum Trainieren von Machine Learning-Modellen verwendet werden. Und es kann tatsächlich zu falschen Entscheidungen führen, die wir getroffen haben , die sich auf Ihre Gesundheit auswirken können. Wir sind alles gegangen. Da Unternehmen also zunehmend menschliche Entscheidungsalgorithmen durch Algorithmen ersetzen , können sie davon ausgehen, dass diese Algorithmen nicht voreingenommen sind. Aber wie gesagt, diese Algorithmen spiegeln die reale Welt wider, oder? Das bedeutet, dass sie diese Viren unbeabsichtigt weiterführen können, da falsche Ergebnisse das Leben eines Menschen ruinieren können. Werfen wir einen Blick auf diesen Nachrichtenartikel, die zuerst im Science Magazine veröffentlichte Elektrostudie ist . Er stellte fest, dass der Gesundheitsalgorithmus, wie er für 200 Millionen Menschen verwendet wurde die USA. Es war voreingenommen gegen ein bestimmtes Rennen weil festgestellt wurde, wer mehr medizinische Gesundheitsversorgung benötigt. Leider war es wie ein Polaroid, ich denke, weiße Leute über anderen Menschen. Und weil ich herausgegriffen habe, leugnete es tatsächlich Menschen, die tatsächlich ärztliche Hilfe benötigen weil die Daten nicht in Millionen eingespeist wurden und Milliarden von Schwarzen betroffen waren durch ein Problem Bye in diesem speziellen Gesundheitsalgorithmus. Deshalb ist es so wichtig sicherzustellen , dass dies nicht geschieht weil es tatsächlich tatsächliche Auswirkungen auf Menschen haben kann . Also schauen wir uns das tatsächlich an, schauen wir uns das an. Schauen wir uns ein Beispiel im Detail an. Kompass. Ich meine, ich weiß nicht, ob du damit vertraut bist weil das schon eine ganze Weile in den Nachrichten war. Es heißt „ Justizvollzugstraftäter Management Profiling für alternative Sanktionen, glaube ich, dass Kompetenz steigt. Es war ein System für maschinelles Lernen, das entweder an die Vereinigten Staaten vor Gericht gewöhnt war . Was es tun würde, würde vorhersagen , dass jemand ein Verbrechen empfehlen würde oder nicht. Wissen Sie, wenn Personen, die Gefängnisstrafen erhalten haben, würde es ihnen tatsächlich eine Bewertung geben, basierend darauf, wie groß die Chance ist, dass diese Person ein Verbrechen empfehlen wird. Auch hier nutzte der Richter diese Lesung tatsächlich, um Gefängnisstrafen zuzuweisen, findet, wissen Sie, was passiert, ist wie Menschen Ich hoffe, dass bestimmte Rasse fast doppelt so wahrscheinlich angesehen wurde wie weiße Leute als hochrisikoreich bezeichnet zu werden. Und trotz der Tatsache, dass sie Computing nicht sehr kleine übersetzte völlig harmlose Verbrechen lieferten . Und das gegenteilige Ergebnis wurde von Weißen angetrieben. Sie erhielten also niedrige Sicherheit, obwohl sie kriminelle Geschichten hatten und eine hohe Wahrscheinlichkeit sind , Ihr Freund zu sein. Deshalb war es so gefährlich und funktionierte. Es wurde in Kraft genommen, wobei viele Dinge wie Daten berücksichtigt wurden, die zu Alter und Beschäftigung gehen, und alles. Und darauf aufbauend hat es diese physische Sache zugewiesen. Aus diesem Grund haben Menschen leider ein bestimmtes, das fälschlicherweise als hohes Risiko bezeichnet wird , um in Zukunft doppelt so viel Verbrechen zu bekommen wie weiße Menschen. Sogar das Unternehmen hat es bestritten. Aber leider die Ergebnisse, besonders wenn man so dick sehen kann, schauen wir uns alle an, weil sie hängen können. Aber das mittlere Beispiel ist ziemlich witzig. Visual Bowden, sie hatte wie einen Kleindiebstahl begangen, meinen Diskriminatoren, und als sie ein Jugendlicher war. Und der andere Typ weiter, er war ein viel erfahrener Verbrecher. Er hatte Gefängnisstrafe wegen bewaffneten Raubüberfalls und anderer Anklagen. Aber laut Campus und die Ergebnisse waren ein geringes Risiko und die visuelle Grenze war ein hohes Risiko. Und zwei Jahre später hat das Kapital antworten, um eine falsche Vorhersage gemacht zu haben , weil beide bestellten Bischof keine neuen Arten begangen haben. Und Theta dagegen verbüßte er in ETS-Haftstrafe für allgemeine Rasse. Jetzt hoffe ich, dass Sie verstehen, dass Sie sich auch andere Beispiele ansehen können. Aber jetzt hoffe ich, dass Sie verstehen, wie KI bestehende Ungerechtigkeit und Verzerrungen, die Antennen unbeabsichtigt mit den Daten, die in sie eingespeist werden, aufrechterhalten bestehende Ungerechtigkeit und Verzerrungen, die Antennen unbeabsichtigt kann. Und dann werden wir im nächsten Abschnitt einen Blick darauf werfen, welche Prinzipien wir setzen können, um dies zu verhindern. Dies bringt uns zum Ende des gesamten Governance-Abschnitts, dem, wie er den Risikobereich nannte. Wir haben uns die Risiken angeschaut, die im Auge dessen vorhanden sind was Sie als Beispiele für das schiefgehen von KI bezeichnen. Die Gefahren des Worst-Case-Szenarios und die Fallstudie von Voreingenommenheit. Sie können also sehen, dass es alle Arten von Kosinus i und der Scheck gibt alle Arten von Kosinus i und , der völlig anders ist als der Westen , an den wir hier normalerweise gewöhnt sind. Werfen wir nun einen Blick darauf welche anderen Maßnahmen und Kontrollen wir ergreifen können um sicherzustellen, dass diese KI-Systeme diese Risiken nicht haben und wie sie im nächsten Abschnitt gemildert werden können. Danke. 6. AI: Hallo Leute. Willkommen zu diesem Abschnitt , der jetzt, da wir ein gutes grundlegendes Verständnis über KI haben ein gutes grundlegendes Verständnis über und welche Risiken und Probleme verursacht werden können. Werfen wir nun einen Blick auf höchster Ebene wie Sie einen Governance-Rahmen für I. schaffen Im Grunde haben wir einen Kontrollrahmen. Ich wünsche mir, dass ein Management-Framework für KI eingeführt wird. Wie gehen wir das vor? Dieser ganze Abschnitt wird sich jetzt darauf konzentrieren. Der erste Schritt sind also Gestaltungen, Vorschriften und Standards. Der erste Schritt ist, dass niemand Vorschriften mag. Weil Vorschriften wie Bürokratie aussehen. Die Leute müssen Formulare ausfüllen und Sie halten sich nicht an Hunderte davon, dass niemand so war. Glücklicherweise eigentlich nicht. Leider muss ich reguliert werden, um uns selbst zu schützen und Technologie ohne Manipulation und Voreingenommenheit einzusetzen . Wir haben in ihrem letzten Abschnitt darüber gesprochen, dass KI voreingenommen ist. Nun ist der beste Weg, um sicherzustellen, dass es nicht voreingenommen ist , und Regeln sind die Schätzungen, die sicher sind, dass Vorschriften vorhanden sind. Die traurige Tatsache ist, dass sich Unternehmen in der Regel mehr auf Gewinne konzentrieren und diese Dinge ihm keine angemessene Priorität einräumen werden . Wir wollten zuerst einen Blick auf Yada-Kollisionen werfen, denn B ist von zentraler Bedeutung, um sich für alles zu entspannen. Und wir werden einen Blick auf die regulatorische Landschaft für KI werfen, die die wichtigste Verordnung ist, die derzeit derzeit auf dem Weg ist. Wie ich schon sagte, die Notwendigkeit von Vorschriften. Es benötigt Vorschriften , um sich und seine Benutzer vor internem und externem Missbrauch zu schützen . Und Regierungen nutzen KI , um schnelle Entscheidungen zu treffen , die eine enorme haben können und sich auf Ihre Gesundheit und Ihr Leben auswirken können. Wie eine große Menge an Unterschieden können wir machen? Und Sie sehen, wie falsche Entscheidungen, unfaire Entscheidungen passieren können, was wie wir gesehen haben, dass Menschen der medizinischen Versorgung beraubt wurden, Menschen ins Gefängnis gebracht wurden. All das. Wenn Sie also Vorschriften haben, haben wir Rechenschaftspflicht, Menschenrechte. Es versendet, legt Mindestbehandlungsstandards fest , die jeder akzeptieren kann. Es besagt, dass jeder das Recht hat, Abhilfe zu schaffen, wenn diese Standards nicht erfüllt werden, dann können Sie tatsächlich Dokumente, die sicherstellen sollen , dass die vorhandenen Standards und alle so groß sind , so standardisiert zur Rechenschaft gezogen. Deshalb ist es so wichtig. Das Land. Das Lustige ist, dass es keine spezifischen Gesetze gibt, keine spezifischen Gesetze gibt speziell zur Regulierung KI entwickelt wurden, die durch die bestehenden Vorschriften wie Datenschutz und Verbraucherschutz geregelt werden die durch die bestehenden Vorschriften wie . Und diese wurden zur Regulierung übergeben. Und die Regierungen arbeiten hart und schnell daran. Aber keine Gesetzgebung wurde in China ordnungsgemäß verabschiedet , hat ähnliche Strategien eingeführt, der USS Hafen im Weißen Haus als Schießerei, dann steile für die Regulierung der KI. Und es ist, als würden sich die meisten Länder darauf konzentrieren. Ich wollte mich auf die Verordnung konzentrieren erwartet wird , dass sie den größten Einfluss auf der ganzen Welt auf diese spezielle Technologie haben den größten Einfluss auf der ganzen wird. So wie ich darüber gesprochen habe, wird eine große Menge an Arbeit geleistet. Der ehrgeizigste schlägt einige vor, es ist bisher vom Vater der Europäischen Union für Reisen und Sie handeln letztes Jahr im April 2021. Es ist der weltweit erste Rechenvorschlag zur Regulierung der KI. Und es wird einen großen Einfluss haben, glauben Sie mir, auf die Grenze der KI und wie Unternehmen, sowohl kleine als auch Start-ups, große Technologieriesen , wissen, wie sie KI nutzen können. Es ist sehr interessant. Es greift den Weltraumansatz auf. Es verbietet nicht, es sagt nicht, dass alles AAs gut ist. Es greift also den Weltraumansatz und macht es illegal, A4, das Cello, inakzeptable Zwecke wie Gesichtserkennung zu inakzeptable Zwecke wie Gesichtserkennung verwenden und es für das, was er als soziale Skalierung bezeichnete, zu verwenden. Sie können Menschen basierend auf einem vertrauenswürdigen Immunsystem einstufen , das Menschen ausbeuten kann. Deshalb ist die US-Verordnung immer noch wichtig. Aber warum denkst du, dass ich mich mehr darauf konzentriere als auf alle anderen Vorschriften , die es gibt und was macht diese besonders? Nun, einfach sagen Leute, normalerweise EU-Vorschriften, die am Ende den Standard für den Rest der Welt setzen . Es ist nichts Konkretes. Aber normalerweise ist das passiert. Jeder, der in der DSGVO gearbeitet hat, signalisiert Daten privat, dass Sie eine Verordnung über die DSGVO und fast alle anderen Vorschriften der Welt veröffentlicht DSGVO und fast alle haben, alle anderen Regierungen, so ziemlich einfach die DSGVO auf ihr besonderes Umfeld zugeschnitten. Deshalb ist es so wichtig, weil die UVP-Verordnung den Ton für den Rest der Unternehmen bestimmen wird . Bei jedem Unternehmen, das in den Vereinten Nationen arbeitet, auch außerhalb der Zahlen, werden wir sehen. Deshalb ist es so wichtig , wirklich über diesen interessanten Teil davon zu wissen , wie groß es ist. Es hat also einen zusätzlichen territorialen Umfang. Es ist wie in der DSGVO. Es ist, als würde es sich außerhalb der Organe der EU erstrecken. Jeder Anbieter wird das KI-System auf den Markt bringen. Du wirst natürlich auf jeden Fall in der Schule gehen. Wenn Sie jedoch wie Ihr Anbieter oder Benutzer sind, befinden sie sich außerhalb, aber Ihr Ausgabesystem wird in der EU verwendet. Andererseits wird es in großem Umfang sein, sehr breites Spektrum. Und das, ja, Ihre Systeme können sehr potenziell hineingezogen werden. Es liegt also in der Pipeline und Schweregrad, den wir als das Wichtigste bezeichnen, was wir uns ansehen möchten, ist diese. Wie ich schon sagte, wie kategorisiert es Risiken? Anstatt sich für eine Decke, ein vollständiges Verbot oder das vollständige Zulassen zu entscheiden. Es hat einen Weltraumansatz verwendet, der auf einigen Stufen basiert, wie etwa einem akzeptablen gegenüber Kivas geringem Risiko. So. Je größer das Risiko und je mehr wir nennen, wird mehr Einschränkungen und mehr Kontrollen dazu bringen , die motorischen Verpflichtungen für das Unternehmen. Stellen Sie sicher, wie transparent der Algorithmus ist und gemeldete Schwierigkeiten nicht verwendet werden. Inakzeptables Hydrosphärensystem, sie binden einfach, damit wir nicht einmal darüber nachdenken müssen, ich schätze, bist du der Mond? Das Hauptaugenmerk dieser Verordnung liegt auf hyperskalierten KI-Systemen. Und sie unterliegen erheblichen Verpflichtungen zur Einhaltung technischer Überwachung. Wenn Sie ein geringes Risiko haben und Sie müssen nur transparent darüber sein. Wir müssen sie nur informieren. Von welchen Höhensystemen sprechen wir? Ich meine, dies kann wie Verkehrssysteme sein , die dazu führen können , dass Gesundheit und Leben der Menschen großartige Bildungssysteme ansprechen großartige Bildungssysteme ansprechen, die bestimmen können, wer Zugang zu Bildung hat. Wie die Untersuchung der Prüfungswertung. Wie Roboterchirurgie. Mitarbeiter skalieren gerne Arbeitgeber für Ihre Arbeit zu spät, was sich darauf auswirken kann, wer eingestellt wird oder nicht. Wie Kredit-Scoring, Strafverfolgung, Migration, all diese Dinge. Hier fällt Ihre Größe SKA ein und Bewertung der Videokonformität kommt in Stückchen. Ich spreche davon, was ist die Konformitätsbewertung? Nur um das zu verstehen. Aber im Grunde genommen mit diesen SNPs bestätigt, ist es so, als ob Sie sagen können , dass sie sich einer Konformitätsbewertung unterziehen müssen . Grundsätzlich passiert es signifikant wie die Bewertungen zu spät, wenn die Genauigkeit, in Ihre technische Dokumentation Qualität, das gesamte System bewertet wird, das heißt die Einhaltung der Verordnung. Wenn es passiert ist, erhalten Sie eine Zertifizierung von der EU. Es ähnelt der Registrierung von Medizinprodukten, die bereits in der EU vorhanden sind. Es kann selbst gemacht werden, es kann eine Selbsteinschätzung sein. Aber wenn es wie einige Systeme ist, die am empfindlichsten sind, dann brauchen Sie einen erfahrenen Dritten, der als völlig gleichgültig in der Regulierung hereinkommt. Nehmen wir ein Beispiel für eine Bio-Metrik. Sie müssen also ein AAC-System, das für die bio-metrische Identifizierung durch einen Dritten verwendet bio-metrische Identifizierung wird , eingehen. Die Kollision geht hier näher ins Detail. Aber nur um Sie jetzt und nachher verstehen zu lassen, selbst nachdem Sie die Konformitätsbewertung bestanden und einige Änderungen vorgenommen haben, muss dies erneut geschehen. Es ist sehr mächtig, es ist wie Sie sehen können, es ist wie eine Prüfung des gesamten Ökosystems, wie es funktioniert, welche Regeln gelten und alles, was Sie nicht ins Spiel bringen müssten. Ich hoffe also, dass Sie dadurch verstehen, welche Art von Regulierungsrahmen für KI-Systeme geplant ist. Jetzt haben Sie die Vorschriften verstanden , die in Kraft sind und eingehen. Betrachten wir den Modus jetzt ihren Governance-Rahmen für KI in Irland. Wir sehen uns im nächsten Abschnitt, Leute. 7. AI: Hallo Leute. In diesem Kurs werfe ich einen Blick auf das KI-Governance-Framework. Jetzt haben wir über die Gesetze, Vorschriften und alles gesprochen . Nun, während eine umfassende und durchsetzbare Regulierung entstehen wird, aber es wird einige Zeit dauern. Aber in der Zwischenzeit können Unternehmen nicht einfach sitzen und darauf warten, dass diese Dinge kommen. Ein neuer Ort, an dem du eine Art Hi Leute haben musst. In dieser Klasse werde ich mich auf den Governance-Rahmen konzentrieren. Jetzt haben wir über EA-Revolutionen in der vorherigen Klasse gesprochen . Wir haben darüber gesprochen, wie diese Gesetze kommen, welche Art von Mandat kontrolliert, um tragbare KI zu sein. Und die Sache ist, dass Visa etwas Zeit brauchen wird. Sie können nicht erwarten, dass Unternehmen einfach sitzen und darauf warten, dass etwas passiert. Unternehmen sind also verpflichtet, ähnliche Governance-Rahmenbedingungen einzurichten , um sicherzustellen Sie anrufen und viele Unternehmen dort bereits daran arbeiten, Governance-Rahmenbedingungen einzurichten . Vor allem in Ländern, in denen viel Arbeit an KI geleistet wurde. Das Unternehmen sollte proaktiv sein. Und sie müssen einen Berühmten haben, um die einzigartigen Risiken zu mindern, die künstliche Intelligenz eingeführt die einzigartigen Risiken zu mindern, die wird, bevor Sie auf die KI-Reise beginnen, und stellen Sie sicher, dass Sie diese Dinge an Ort und Stelle haben. Worüber redet man? Wenn Sie es also von einem sehr hohen Niveau betrachten, die E-Governance aus Mekka, unabhängig davon, in welchem Sektor Sie sich befinden, unabhängig davon, welche Technologie Sie verwenden? Wie auch immer. Dies ist technologieunabhängig, algorithmusunabhängig und alles, worüber sie für allgemeine Teile eines Gewebes sprechen . Wann ist die Police? Setzen Sie sich also einfach hin, um zu klären, wie Sie die Organorganisation nicht kontrolliert haben. Was sind die allgemeinen Prinzipien, die Sie haben und wie werden sie kontrolliert? Was sind die Dinge an Ort und Stelle? Als Nächstes müssen Sie den Ausschuss informieren. Dies sind Personen aus den Datenteams, von den Technologieteams, von Ihren Sicherheitsteams, von Ihren Risikomanagement-Teams. Damit das Framework wie eine richtig kontrollierende KI eingerichtet wird. Und es ist offensichtlich eine Lösung sie wussten, dass sie Entscheidungen treffen. Es gibt also eine Chance, keine Entscheidungen zu ersten Initiativen zu treffen, sich ein wenig bewegen. Aber darunter haben Sie ein Risikomanagement-Framework. Dies wird identifizieren, was sind die kritischen Besuche, bei denen es sich um die Arrhenius handelt. Was ist, wie betrachten wir all diese Räume als Cybersicherheit, sei es wie Integritätsverzerrung. All diese Dinge werden dazu führen, in KI umzuwandeln , dieses Management-Framework. Und schließlich werden die Prinzipien im gesamten Unternehmen sein. Also KI im Grunde um sicherzustellen , dass er ordnungsgemäß arbeitet. Daher Vertrauensgrundsätze, Integrität, Erklärbarkeit, Fairness und Belastbarkeit. Und wir werden mehr darüber sprechen. Diese helfen Ihnen im Grunde dabei, sicherzustellen , dass Sie die Organisation ordnungsgemäß steuern . Und ich gehe näher darauf ein. Dies ist jedoch im Grunde ein hochrangiger Maßstab, auf hohem Niveau wie ein Skelettrahmen für die Umsetzung von Governance. Wenn du dieses zu hohe Niveau fühlst und dir gut fühlst, brauche ich mehr Details dazu. Wie setze ich meine Governance wirklich in meine Organisation ein? Abstimmen bedeutet, dass Sie keine Dinge von Grund auf neu bauen müssen. Im Jahr 2019 war Singapur teuflisch eine erste Ausgabe des Rahmenwerks für Modellierungsdominanz. Also im Grunde genommen für den Tag, Immobilien für Adoptionsfeedback. Und es bietet Ihnen gerne umsetzbare Anleitungen zur Implementierung KI-Governance in einer hervorragenden Vorlage. Wenn du das benutzen willst. Und es geht sehr gut ins Detail, man kann buchstäblich einfach die Grundsätze nehmen , die es gibt, und sie in eine Organisation bringen, um einen Rahmen für die Luft-Governance zu schaffen. Es ist eine sehr gute Vorlage. Es konzentriert sich auf zwei Leitprinzipien , die erklärbar sein sollten und dieselben Prinzipien übertragen, über die wir zuvor gesprochen haben. Menschlich zentriert. Ich meine, es sollte unsere Ernährung vor menschliches Interesse stellen, anstatt Profit und alles andere ähnliches. Darauf sollten wir uns konzentrieren. Ich würde Ihnen auf jeden Fall empfehlen, dies auf Google zu stellen. Sie werden es feststellen, wenn Sie es ernst meinen KI-Governance in Ihrem Unternehmen zu implementieren. Ich habe über Prinzipien gesprochen welche anderen Prinzipien Vertrauen in KI-Systeme schaffen sollen. Wenn Sie über Vertrauen sprechen, ist Vertrauen unerlässlich, oder? Ich meine, wenn Ihre Kunden nicht das Gefühl haben, dass Ihr System sie oder diese Vorurteile richtig beurteilt, kann dies ein großes Problem für die Replikation Ihrer Kunden haben , wenn ich Wiederholung und den Marktpreis begleite, Unternehmen sind einfach, sie könnten wichtigen Erkenntnissen unterliegen. Sie könnten davon ausgehen, dass Ihre Bewerbung beschädigt und die Industrie ist. All diese Dinge werden eintreten. Vertrauen ist also unerlässlich , wie schaffen wir also übergreifende Prinzipien. Setzen Sie die Experten, Integrität, Erklärbarkeit, Fairness, Belastbarkeit, was ist Integrität? Wir sprechen von Algorithmusintegrität. Stellen Sie sicher, dass niemand Algorithmus oder die Daten manipuliert. Wie das passieren kann. Wir werden in die Zukunft schauen. Wir schauen uns die zukünftige Klasse an. Erklärbarkeit. Wissen Sie, wie die KI ihre Entscheidung trifft? Ist es wie eine Blackbox? Niemand hat eine Ahnung, wie das Ohr funktioniert, wie, wie wird die Logik verwendet? Es muss nicht vollständig hier rein übertragen werden. Fairness. Wir haben schon über Fairness gesprochen, oder? Als sollten sie nicht voreingenommen sein. Wenn Sie Entscheidungen über eine bestimmte Gesellschaft treffen, sollte dies alle Rassen widerspiegeln. Ethnisindizes weisen darauf hin, dass Trainingsdaten nicht genau 90% haben sollten, wenn die ethnische Gruppe und alle anderen Gruppen ausgeschlossen werden, da dies die ethnische Gruppe und alle anderen Gruppen ausgeschlossen werden völlig nicht akzeptabel wäre. Und das letzte ist das Resilienzattribut technisch robust. Sie müssen Kontrollen haben. Das Ohr sollte in der Lage sein, Angriffe abzulenken, es sollte sich erholen können. Und wir werden uns diese Dinge genauer ansehen. Das sind also die vier Grundprinzipien, die Sie haben müssen. Das deckt den Governance-Rahmen ab. Ich hoffe, das war nützlich. Ich hoffe, Sie haben jetzt eine gute Idee, wie ein KI-Governance-Framework erstellen können, wie Sie praktisch vorgehen können? Nun, was haben wir hier gelernt? Wir hatten etwas über AIG-Vorschriften und -Standards erfahren, wie es den Regierungen geht. Ich denke an die Herausforderung, Vertrauensgrundsätze, wie man Kunden-AA-Anwendung einbetten kann. Eine Sache, die Sie beachten sollten und wie Sie einen übergreifenden Governance-Rahmen schaffen um sicherzustellen, dass Ihre Anwendungen, die vorhanden sind, sicher und vertrauenswürdig sind. Das schließt den Governance-Teil unseres Kurses ziemlich ab. Ich hoffe, du hast jetzt verstanden, was andere, sie sind auf hohem Niveau. So erstellen Sie ein Ws-Framework unabhängig von dem Sektor, in dem Sie sich befinden. Jetzt gehen wir in den nächsten Abschnitt. Sie gehen näher auf die technische Sicherheit ein. Wir haben darüber gesprochen, dass hochrangige Kenntnisse einfließen, welche Arten von Sicherheitsdisketten in KI-Anwendungen vorhanden sind. Und wir sehen uns in der nächsten Klasse, Leute. Danke. 8. Cyber Sicherheitsrisiken in KI: Hallo Leute und willkommen. Dies ist möglicherweise der wichtigste Abschnitt des Kurses, der Cybersicherheitsrisiken in EI-Systemen darstellt. Jetzt haben wir die Grundlage Governance und Management und was wir tun müssen. Werfen wir nun wirklich einen Blick auf Cybersicherheit und Gefäßsysteme. Und wenn Sie es sich wirklich ansehen wollten, begründe ich normalerweise, dass es drei Arten von Sicherheitsmöglichkeiten gibt , die passieren können. Ai kann die Festplatte unbeabsichtigt verursachen oder sie kann böswillig wie jemand verwendet werden. Es kann als Enabler für Cyberkriminelle fungieren. Weißt du, was in Zellen passiert ist, wird kompromittiert. Dies ist eine Welt, in der sich ein sehr, sehr neues Gebiet befindet. Und leider arbeiten nicht viele Leute daran leider aus Sicht der Cybersicherheitsexperten. Wenn Sie einen normalen Leitfaden für Cybersicherheit fragen und ich werde es jetzt im Jahr 2022 tun, wie sichern Sie sich in einem System es von der traditionellen Art und Weise an , wie sie ein System, Sicherheit, Software- oder Hardwaresystem, das so ist, wie man es nicht konfigurieren musste und hart im System durchführt Penetrationstests und all das. Was sie jedoch nicht wissen, ist wie das System konfiguriert ist, wer Zugriff hat. Aber was sie das nicht erkennen, handelt es sich um bestimmte Discs, die für AIS-Systeme sehr einzigartig sind. Und das ist der ganze Zweck dieses speziellen Abschnitts, Bewusstsein für die einzigartige Sicherheit der Switches im maschinellen Lernen zu schärfen. daher von Natur KI-Komponenten befolgen daher von Natur aus nicht die gleichen Regeln wie statistische Software, KI-Systeme und Algorithmen für maschinelles Lernen. Sie stützen sich auf Regeln, die auf der Analyse von Daten oder großen Datensammlungen beruhen . Und Sie legen sich mit diesen Daten an, sie können das Verhalten des Systems tatsächlich ändern. Was passiert ist, dass KI verwendet wird, wenn Sie immer mehr hinzufügen, um die Entscheidungsfindung sektorübergreifend zu automatisieren . Das Ende, das diese Systeme der Cyberangriffe freilegt, die Vorteile der Mängel und Schwachstellen der KI nutzen können . Und wenn Sie das wirklich wissen müssen , um diese Angriffe richtig zu mildern. Hast du über die Sicherheitsrisiken gesprochen, Kaffee, ich wie es passieren kann und was auch immer. Dies ist ein sehr ausgezeichnetes Papier. Ich würde jedem empfehlen, dies als böswillige CIA-Report.com zu lesen. Was haben sie gesagt? Tatsächlich wurde dieser Bericht von 26 Autoren aus 14 Institutionen, Wissenschaft, Zivilgesellschaft und Industrie verfasst 26 Autoren aus 14 Institutionen, Wissenschaft, . Sie hatten einen zweitägigen Workshop in Australien. Ich glaube, es war Februar 2017. Und Sie können diesen Bericht durchgehen. Es ist ein Unfallbericht, aber was hat das Gleiche gemacht? Du kannst es dir in deiner Freizeit ansehen, aber sie sagten bestimmte Dinge die ich sehr interessant fand. Absteigende KI-Fähigkeiten werden immer leistungsfähiger als durch Spread, oder? Was passieren wird, ist, dass sich die Bedrohungslandschaft ändern wird. Bestehende Reisen werden expandieren. Die Kosten für Angriffe werden aufgrund der Verwendung von KI sinken. Normalerweise würden Sie Leute für die Promotion bezahlen. Diese Dinge, die du abladen kannst, tun. Ich weiß, dass Nährstoffe auftauchen werden, denen wir keine Ahnung hatten. Und sonst würde man, wie in der Praxis, nicht erwarten , dass sich bestehende Bedrohung ändert. Etwas geschah in besonderer Weise um Malware, DDoS-Angriffe, komplett veränderte Malware , wir werden uns ändern, um EI zu berücksichtigen. Deshalb Leute, deswegen verstehe ich es. Das heißt es in diesem Papier. Wenn er über die Sicherheitsrisiken sprach , die in KI gesteckt werden, gibt es zwei Arten von Kategorien. Eine davon sind die Discs, die nicht eindeutig für KI sind, und die andere, die für KI einzigartig sind. In der ersten ist es technisch gesehen wie angegriffen zu werden, und das zweite Ohr wird manipuliert oder es wird verwendet, um etwas anderes anzugreifen. Wenn Sie über den Besuch sprechen, sind Sie nicht eindeutig. Wir sprechen über die Sicherheit der zugrunde liegenden Infrastrukturrate, wie die Daten gesichert werden wie die Daten gespeichert werden. Ist Systeme richtig konfiguriert? Der Internetzugang ist richtig konfiguriert, Sie nur Standardsachen mit wissen Sie nur Standardsachen mit Cybersicherheitszwecken bereits. Und der andere ist die Datensicherheit. Wie werden diese Daten transportiert? Sichern Sie die Datensätze und werden Sie nicht zu ja, ich glaube nicht, dass es der Mangel an Wissen ist, was ich meine, als jemand, der seit ein paar Jahren in Cloud-Sicherheit arbeitet . Dies ist ein weiterer Bereich, dem ich glaube , dass Wissen sehr fehlt. Deshalb gibt es keine Verwendung, die ich diesen Kurs gemacht habe , um Menschen zu befähigen, über diese Dinge Bescheid zu wissen. Der Mangel an Wissen über KI, Dies ist sehr schwerwiegend. Sie haben EA-Profis, Sie haben Sicherheitsexperten, aber Sie haben keine Leute , die zwischen den beiden wissen. Und was sind die einzigartigen Besucher kommen? Was sind die Entscheidungen, die Sie für KI benötigen, wo wir über Vergiftungsangriffe sprechen können und was wird Datenvergiftung genauer sehen. Aber denken Sie im Grunde daran, was ich sagte. Die Algorithmen des maschinellen Lernens verwenden Daten zu welchen Entscheidungen? Was wäre, wenn ich mich mit diesen Daten anlegen könnte? Was wäre, wenn ich die Daten wirklich ändern könnte? Sicherlich wird es sich tatsächlich auf die Entscheidungen auswirken , die der Algorithmus für maschinelles Lernen trifft. über die Modelle des maschinellen Lernens spreche, was ist, wenn ich kontaminiert bin? Was ist, wenn dieses Modell wie ein kommerzielles Modell irgendwo aus einem Repository gezogen wird , kann ich es wieder nach rechts legen. Oder ich kann vielleicht ein neues Modell für maschinelles Lernen einsetzen, das sehr gut ist, aber es hat eine Hintertür darin. Es ist wie ein Trojaner. Neue Schwachstellen entstehen , weil Unternehmen schnell nutzen wollen. Normalerweise bauen sie die Modelle nicht von Grund auf neu, oder? Sie kaufen es tatsächlich kommerziell von einem Open-Source-mächtig verfügbaren Netzwerk ab . Dies sind die neuen Arten von Physik, die Sie aufgrund des Weges sehen werden. Werfen wir einen Blick auf, denken Sie daran, wir haben vor einiger Zeit den Algorithmus für maschinelles Lernen gemacht. Werfen wir einen Blick darauf aus Sicherheitsperspektive und Sie sehen einige KI-spezifische. Wenn nun ein Modell für maschinelles Lernen auf Daten geschult wurde , können diese Daten tatsächlich giftig von einem Angreifer verschmutzt sein. Das Training und die Oberfläche sind nur erledigt. Du würdest denken, wie könnte das passieren? Nun, viel Zeit, die diese Beta ist, sind Trainingsdaten nicht etwas, was unser Unternehmen von Grund auf neu arbeitet Trainingsdaten nicht , aber sie sind tatsächlich offen auf Open Source verfügbar, als ob sie vollständig verfügbar sind. Oder sie beißen kommerziell , weil sie nicht die Zeit und Energie haben, es selbst zu tun. Aber weil viele Leute es auslagern. Und dann der Guide. Hast du also dieses vortrainierte Datenmodell schon da? Was ist, wenn ich dorthin gehe und die Daten verschmutzen? Was wäre, wenn ich die Etiketten gewechselt hätte? Und Sie verstehen stattdessen die Entscheidung, die Grundausbildung selbst könnte falsch sein. Okay, also gehen wir mit der nächsten Phase über , die das Trainingsmodell ist, du trainierst einen Algorithmus für maschinelles Lernen. Wir sind in den falschen Datenmodellen im Trend. Was passiert wie ich dir diese Modelle gezeigt habe, das Auge normalerweise sehr, rechnerisch, sehr intensiv. Sie benötigen die Hälfte unserer Daten, VP of Training und dieses Ergebnis, viele, die tun, was sie tun, sie lagern und die Cloud aus und verlassen sich auf vortrainierte Modelle, Modelle, die bereits vorab sind -trainiert. Ich komme gerade aus dem Internet. Was kann ich gehen? Ich kann einfach gehen und ziehen. Ich injiziere es gerne bösartig in die Morula. Wenn Sie dieses Modell herunterladen, haben Sie eine Hintertür. Jedes Motiv, genervt, was auch immer Es ist wie ein offizielles Anerkennungsmodell. Ich lege eine Zwei hin, damit mein Gesicht nicht erkannt wird. Und du wirst nichts davon wissen, oder? The Odd Vielleicht ist es wie ein selbstfahrendes Auto, oder? Sie haben diese selbstfahrenden Autos. Und statt eines Stoppschildes habe ich es geändert, um zu ignorieren , nicht zu sagen, was passieren wird. Sie können sich vorstellen, welche Auswirkungen dies haben wird. Sie haben diese also von Anfang an in charakteristischen Trainingsdaten und charakteristischen Trainingsdaten und falschen Modellen . Deshalb ist es so wichtig, ob das, was passieren kann, wenn leitende Akteure auf die Trainingsdaten oder das Modell zugreifen, diese Informationen tatsächlich manipulieren können. Und was passiert als nächstes, die Produktionsdaten. Wie nennen Sie die Produktionsdaten, werden Sie das Modell auf immer mehr Daten trainieren, oder? Was also passieren wird, ist, dass diese Daten oft von Datenwissenschaftlern behandelt wurden von Datenwissenschaftlern behandelt und nicht in Bezug auf Sicherheit geschult sind. Dies ist nicht wie ein neues Unikat für KI, aber diese Produktionsdaten können verletzt werden. Ich hoffe, Sie verstehen jetzt, wenn wir über maschinelles Lernen sprechen und die Alternative gemacht wird. Sie können Dinge wie Datenvergiftung haben. Sie können Dinge wie Modellpolizei haben, dass es eine Hintertür gibt , die nur den Angreifern bewusst ist. Und Sie können AWS aufgrund einer intensiven Datenmenge , die in sie gepumpt wurde, passiert . Das ist also eher aus der Lernperspektive, aber was passiert? Betrachten wir es aus dem Lebenszyklus eines Modells. Dies ist, dies ist Ihr traditionelles Machine Learning-Modell ist ein vereinfachter Ansatz, aber schauen wir uns es aus dem Kontext des gesamten Lebenszyklus eines Moduls an. Wie ich bereits sagte, braucht man wegen der Luft so viele Daten, dass man so viel Rechenleistung benötigt , um Algorithmen zu trainieren. Die derzeit am meisten Unternehmen verwenden sie normalerweise Modelle. Der Chat trainiert von großen Unternehmen und sie modifizieren sie leicht. Zum Beispiel haben Sie wie beliebte Bilderkennungsmodelle wie von Microsoft. Und was sie tun, diese Modelle setzen mehr Hu Zu, als wäre es wie ein Repository. Was ich tun kann, ist, dass der Angreifer einfach die Modelle im Repository modifizieren kann einfach die Modelle im Repository modifizieren und es wird den Brunnen für alle anderen vergiften , auch wenn er es richtig macht. Der nächste Schritt wird eine Datenvergiftung wie diese sein , die ich bereits mit Ihnen besprochen habe. Jemand kann gehen und die Daten vergiften, die verwendet wurden, um das Modell so zu trainieren , dass es falsche Entscheidungen trifft. Als nächstes kommt es zu moderaten Tests. Du testest das Modell. Sie haben eine Datenbank, in Sie generell Datenpunkte haben können. Also nächster Schritt, Video optimieren oder das Modell fein abstimmen. Du machst es , um sicherzustellen, dass es kurz ist, es trifft die richtigen Entscheidungen. Sie können eine Datenschutzverletzung haben, bei Sie auch hier keinen Datenpunkt hatten. Der zweite ist das Modell kompromittiert. Was also hier im Modell passiert, besteht aus dem Angreifer nicht wie Manipulation des Algorithmus oder irgendetwas. Er nutzt Software aus. Diese Schwachstelle ist, wissen Sie, dass Sie, wenn Sie an Anwendungen wie herkömmlichen Anwendungsschwachstellen gearbeitet haben , die Software manipulieren können, die Zugriff auf ihre Wenn Sie wie das interne Arbeiten der traditionellen Aquarelle des maschinellen Lernens lernen, müssen Sie sicherstellen, dass Ihre traditionellen Sicherheitskonfigurationen von Ihren Komponenten und allem vorhanden sind. Okay, jetzt geht das Model live. Man kann Dinge wie Modellieren von Vision haben, was ist mehr Fernsehen? Mehr Fernsehen ist wie. Nehmen wir ein Beispiel für ein Bilderkennungsmodell. Dinge, die sehr subtil sind. Weißt du, was ich tun kann ist, wenn ich, wenn ich dieses Bilderkennungsmodell zeige, wie ein Bild einer Katze, indem ich nur ein bisschen für ein paar Pixel ändere, ich tatsächlich modellieren kann, nicht in der Lage sein wird klassifiziere es als Katze. Dinge, die für einen Menschen nicht zu unterscheiden sind, das Modell die Funktionsweise eines Moduls komplett verändert. Und was tun Angreifer, um es weiter zu testen und zu testen, möchten Sie sehen, wie Sie dieser Moral entgehen können und was müssen wir tun , um sicherzustellen, dass sie nicht richtig funktioniert ? Was passiert danach? Modell-Extraktion. Was ist also Modellextraktion und Datenextraktion? Sie können Angreifer sie weiter hinzufügen oder wen. Sie können sich ansehen, was zurückkommt, die Antworten, die das Modell sendet. Und das können sie tatsächlich verwenden , um das Modell neu zu erstellen. So können Sie Ihr geistiges Eigentum über Ihr geistiges Eigentum informieren lassen. Weil wir mit Frequenzen beginnen . Er zitiert dieses Modell ständig und versucht zu verstehen, wie das Modell funktioniert, was ist das Ergebnis , das herauskommt? Und er hatte eine Tragödie absolviert, er baut ein Bild von diesem Modell auf, warum es passiert, weil das Modell zu viele Daten liefert. Darauf aufbauend ist er in der Lage, Daten und die modale Logik zu extrahieren. Zuletzt ist der moralische Kompromiss , mit dem ich früher auch gesprochen habe. Im Grunde genommen kann das Modell die Software mit diesem Modell gebaut wird, die Software-Verbindlichkeiten, sie können kompromittiert werden, was zu einem Kompromiss des internen Modells führt, ich hoffe, Sie haben Leute verstanden. Ich hoffe, das war gut. Ich konnte Ihnen innerhalb des Lebenszyklus eines Modells erklären , welche Arten von Bedrohungen auftreten können? Und Sie können sehen, dass viele dieser Dinge von Cybersicherheitsexperten völlig ignoriert werden von Cybersicherheitsexperten völlig ignoriert . Heutzutage wissen sie nicht, dass diese Dinge passieren können. Deshalb ist es für dich so wichtig, es zu verstehen. Jetzt wo du es verstanden hast. Im nächsten Abschnitt werden wir darüber sprechen, wie ein Cybersicherheitsframework zu erstellen. Was sind die Dinge, die Sie tun müssen, um sicherzustellen , dass Ihre KI ordnungsgemäß gesichert ist. 9. Cyber security: Hallo Leute. Okay, jetzt haben wir fast die letzte, unsere letzte Klasse, erreicht, die ein Cybersicherheitsframework für KI-Systeme schafft. Wie wieder, jetzt haben wir das Gefäßsystem dort verstanden, oder? Wie sichern wir sie also richtig? Jetzt? Ich sage Ihnen das ungern, es gibt keine einzigartige Strategie bei der Anwendung von Sicherheitskontrollen zum Schutz KI- und Machine-Learning-Algorithmen. Was Sie gerade tun, müssen Sie es nur ein wenig anpassen und Steuerelemente speziell für die KI sorgfältig auswählen. Der erste Schritt sind ziemlich einfache, regelmäßige Bewertungsvorschriften und Gesetze, die die KI-Anwendung eingehalten wird. Es geht auf die Vorschriften zurück, über die wir gesprochen haben, die DSGVO. Hast du ihr nicht gegeben, dass du Dysregulation und das alles in Ordnung bist. Weil Ärzte den Maßstab setzen und es den Ton für all die anderen Dinge gibt, die passieren werden. Sie müssen ein Inventar des KI-Systems führen. Wenn Sie nicht einmal wissen, welche Systeme verwendet werden, CDD oder Konkurrenz, können Sie sie nicht sichern, oder? Und es sind grundlegende Schritte, von denen Sie nicht glauben werden, wie leicht es verpasst wird. Dann erstellen Sie eine Sicherheitsbasis für KI und maschinelles Lernen. Und wir sehen es im kommenden Abschnitt. Wie schwer ist das zu machen? Dies basiert auf der Physik. Sie müssen sicherstellen, dass diese Steuerelemente vorhanden sind. Und Sie müssen Ihre bestehenden Sicherheitsprozesse aktualisieren um KI- und Machine-Learning-Techniken zu integrieren. Sie müssen sicherstellen, dass es sich bei Sicherheitstests um das Sicherheitstests um das maschinelle Lernen von KI abdeckt? Wenn Sie, ich weiß es nicht, passieren Penetrationstests. Ist IT-Unternehmen IN, ist es das Testen des Datenkandidaten um kontaminiert zu sein oder nicht, wie Angriffen der Lieferkette kommen kann. Zu guter Letzt und natürlich möchte ich mich wirklich darauf konzentrieren. Wie nennt man es, Bewusstsein für KI. Es ist so wichtig, Ihre Cybersicherheitsexperten und die Datenwissenschaftler auszubilden . Die CIA, die Algorithmen für maschinelles Lernen abzielt , denn sobald Sie sie als Zeugen erziehen, Sie langsam und langsam erstellt, werden Sie langsam und langsam erstellt, können Sie diese Risiken richtig mindern. Aber derzeit gibt es eine große Lücke im Marketing, das möchten Sie leider wissen. Um also nur zusammenzufassen, die Gesetze zu betrachten, das Inventar zu pflegen , einen Baseline zu erstellen. Ich zeige Ihnen, wie und aktualisieren Sie dann Ihre bestehenden Sicherheitsprozesse. Wenn Sie jährlich Sicherheitsüberprüfungen festgestellt, dass Ihre KI-Systeme für maschinelles Lernen dies auch nicht sind. Und natürlich kann uns die Schaffung von Unschuld nun die Sicherheitskontrollen ansehen , die vorhanden sein sollten. Ich wollte basierend auf den Vesikeln gehen, die es gibt. Der erste, der der häufigste Angriff ist , über den ich gesprochen habe, Datengift. Wie ich schon sagte, ich habe es in die Beschreibung geschrieben, dass du es dir ansehen könntest. Im Grunde genommen, wie ich Ihnen sagte, der Angreifer, der die Daten verdrängt, dass die Maschine lernt, was Sie als Entscheidungsfindung bezeichnen, gefährdet ist , weil sie von Rohdaten gespeist wurde. Was müssen Sie tun, um sicherzustellen, dass die Daten ein Supermodel sind , und Sie müssen sicherstellen, dass Prüfungen und Salden. Gibt es da. Jeder, der die Integrität der Daten überprüft, wer sich zu diesen Daten verpflichten kann, wer kann sie ändern. Okay, der nächste Schritt ist Modellvergiftung , bei der, wie ich dir schon sagte, wie jemand bösartige Befehle in die Hintertür injizieren kann , wie eine Hintertür zum maschinellen Lernen. Und es ist besonders riskant, weil meisten Unternehmen das Modell nicht von Grund auf neu glauben und sie waren wie bei öffentlich zugänglichen, wie Angriffen in der Lieferkette. Verwenden Sie Modelle nicht direkt aus dem Internet, ohne sie zu überprüfen. Verwenden Sie Modelle, die Bedrohungen sind, identifizieren Sie sie tatsächlich und heben Sie die Sicherheitskontrolle auf. Wenn Sie besonders an einem hohen Risiko arbeiten, würde ich Ihnen auf jeden Fall sagen, dass Sie keine öffentlich zugänglichen Dinge verwenden sollen. Datenlecks, bei dem der Angreifer Kompromisse eingehen kann nicht auf die Live-Daten zugreifen kann, die in den Feinabstimmungsphasen während der Produktion in das System eingespeist wurden . Sie möchten sicherstellen, dass Sie über eine Datenpipeline verfügen wenn der Sicherheitsbetrag den Zugriff autorisiert hat, wenn er ein Get von Drittanbietern als ausgereift verwendet hat, deren Integrität erneut überprüft wird, eine Lieferkette und das kommt hier rein. Was ist das Modell kompromittiert? Als ich mit dir darüber gesprochen habe, kann jemand die Bibliotheken gefährden. Die meiste Software basiert heute auf Open-Source-Softwarebibliotheken. Sie müssen sicherstellen, dass es sich um die öffentliche Sicherheit handelt. Sie müssen sicherstellen, dass diese getestet werden , und Sie benötigen keine Art Überwachung. Bitte verwenden Sie etwas wie Schwankungen innerhalb des maschinellen Lernmodells, einige Änderungen passieren. Sie müssen Metriken definieren und Sie können schnell feststellen, dass Anomalien auftreten. Modellieren Sie Innovation. Was ist Modal Division? Dies ist eine weitere Bewegung der häufigsten Angriffe. Der Angreifer findet einen Weg, sie auszutricksen, die ihn im Grunde dazu bringen, eine falsche Entscheidung zu treffen. Sicherlich hat das Wichtige geändert. Wie ich dir schon sagte, wenn es eine Bilderkennung ist, habe ich versucht, sie zu finden. Vielleicht, wenn ich nur ein paar Pixel einsetze , klassifiziert es das Bild nicht richtig. Was musst du tun? Sie müssen diese gegnerischen Daten tatsächlich darin einfügen , wenn Sie sie testen, alle möglichen falschen Daten unterstützen. Sehen Sie auch, wie die Sterblichkeit x ist, denn wenn Sie sie getestet haben , können Sie sicherstellen , dass sie Teil Ihrer Teststraße ist. Was bedeutet die Extraktion der Modelldaten dieses Kerls? Das wurde dir schon gesagt, oder? Jemand kann versuchen, Daten zu modellieren. Und die Logik Einführung in so ziemlich dasselbe eigentlich, was hat der Angreifer gegessen? Schickt Claudius immer mehr Anfragen. Und er möchte sehen, welche Art von Output kommt. Und darauf aufbauend können Sie verstehen, wie Ihr Modell funktioniert und welche Daten eingehen, und das Modell rekonstruieren. Wir können die Daten rekonstruieren. Die Steuerung hier ist ziemlich das Gleiche. Sie müssen steuern, welche Art von wie viel Detail Ihr Modell gibt. Sie müssen sicherstellen, dass die Daten wahrscheinlich bereinigt werden. Du bekommst nicht zu viele Daten. Es stimmt oder nicht zwei Variablen. Sie müssen es wirklich aus Risikoperspektive betrachten die Menge der Informationen begrenzen, die ausgegeben werden. Denn sieh es dir aus den Augen eines Angreifers an und wie es böswillig benutzt werden kann. Leute, jetzt wo du es weißt, kannst du es dir jetzt ansehen. Dies sind also die gemeldeten Kontrollen. Sie führen eine Risikobewertung Ihrer Modellmanagement-Tools durch. Und es ist, als ob Sie ein Modell mit hohem Risiko haben, Sie nicht mögen möchten, nehmen Sie es aus dem Internet. Sie erstellen Ihr Risikobewertungsblatt basierend auf den Kontrollen, die ich Ihnen mitgeteilt habe, Sie werden die Modellüberprüfung durchführen, Sie werden die Integrität sehen. Ist diese Wahrscheinlichkeit gewichtet? Benutzen die Unternehmen es? Wie wie, wenn es völlig aus dem blauen Himmel ist , der Innovator es benutzt, ist es kein Kunde. Benutze dieses Modell nicht. Dann stellen Sie sicher, dass die Idee der Kontrollen aus der Datenüberprüfung darin besteht, dass sie die Kontrollen aus Ihren Daten überprüft haben. Wenn Sie beispielsweise eine vollständige Sorgfaltspflicht des Anbieters durchführen, dass die Daten wieder besser gegen Ihre Modelle kämpfen, wenn es werden Sie sicherstellen sich um eine vollständige Sorgfaltspflicht handelt und die Komponenten, die die Software sind. Dieses Modell ist entweder sicher wurde mit gegnerischen Tests getestet, wie ich Ihnen sagte, Sie werden sicherstellen , dass die Ausgabe herauskommt. Es ist richtig bereinigt oder nicht. Und die Komponentensicherheit, mir gefiel die Softwarebibliotheken nicht. Wie ich hoffe, dass Sie unter strengen Jungs was ich sagen wollte, ich weiß, dass es viel zu nehmen ist, aber das ist nur, um diese Denkweise in Ihnen zu entwickeln, verstehen Sie die besondere Sicherheit Distanz welche da sind. Wenn Sie einen echten Tiefgang machen möchten, stehen Ihnen einige Ressourcen von einer ESA von Microsoft zur Verfügung . Sie können zu diesem Link gehen und sie herunterladen und es kann Ihnen wirklich gefallen. Ich hoffe, dieser Kurs hat Ihnen geholfen zu verstehen was Sie tun müssen und wie Sie es verstehen können. Sie können also auf die Quellen verweisen. Es gibt viele, viele Quellen zur Verfügung. Ich hoffe das, ich habe diese Motivation in Ihnen geschaffen diese Motivation in Ihnen , sich diese Kurse anzusehen. Okay, also endlich Leute, wir stellen es an. Dies war die letzte Klasse, glaube ich, was wir verstanden haben , ist, dass Sie jetzt die Cyber-Sicherheitsbezirke verstanden haben, gibt es die einzigartigen Risiken, die KI-Systeme darstellen können? Und wie verfolgt man Modellierung oder was, was muss man sich ansehen? Wie kann man Campus-Analyse eines Systems und alle einzigartigen Kontrollen, die Sie aus der Perspektive der KI erstellen und einsetzen müssen , erfassen können. Okay Leute, lass uns zu unserer letzten Klasse übergehen und ich hoffe, dass dir das gefallen hat. Und verabschieden wir uns bitte im kommenden Abschnitt. Danke. 10. Weg nach vorne: Herzlichen Glückwunsch Leute, wir haben das Ende dieser Meisterklasse erreicht. Und ich hoffe aufrichtig, dass Sie jetzt eine Wertschätzung für das neue Umfeld haben , in dem Sie und wie viel KI die Bedrohungslandschaft verändern wird, ist wie eine irreduzible Technologie und stört alle Disrupter oder Dinge für das Gute und das Schlechte ändern. Außerdem müssen Sie sicherstellen, aber Bewusstsein ist so, als ob Wissen Macht der Sensor ist. Ich hoffe, dass ich dieses Wissen rückgängig gemacht habe. Wie ich schon sagte, Wie man auf dem aufbaut was man für das Projekt gelernt hat. Ich sagte Ihnen, Sie müssen ein Bedrohungsmodell eines KI-Systems erstellen , oder Sie können recherchiert haben , dass es Voreingenommenheit abgibt und verstehen, wie es passiert ist, weil dies Sie wirklich befähigen wird , diese Lektion zu verstehen. Wenn Sie sie nicht anwenden, werden Sie es vergessen. Ich hoffe, das war für euch nützlich. Bitte hinterlassen Sie mir eine Bewertung und Feedback, ob es positiv oder negativ ist. Und ich würde mich über Ihr Feedback freuen , wenn Sie mir folgen möchten. Ich bin dort auf YouTube und der Cloud-Sicherheits-Typ, das ist der Name meines Kanals. Und das ist so ziemlich alles, Leute. Vielen Dank für Ihren Unterricht und ich wünsche Ihnen alles Gute für Ihre KI-Reise zum maschinellen Lernen, und ich hoffe, Sie auch in zukünftigen Kursen zu sehen. Danke.