Maschinelles Lernen mit Python und Scikit-learn für absolute Anfänger | Engineering Tech | Skillshare
Suchen

Playback-Geschwindigkeit


  • 0.5x
  • 1x (normal)
  • 1.25x
  • 1.5x
  • 2x

Maschinelles Lernen mit Python und Scikit-learn für absolute Anfänger

teacher avatar Engineering Tech, Big Data, Cloud and AI Solution Architec

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Einheiten dieses Kurses

    • 1.

      Einführung

      1:02

    • 2.

      Was ist maschinelles Lernen?

      1:19

    • 3.

      Maschinelles Lernen

      2:03

    • 4.

      Arten des maschinellen Lernens

      3:17

    • 5.

      Anaconda Spyder erstellen

      2:39

    • 6.

      Python Numpy Pandas Matplotlib Crashkurs

      14:21

    • 7.

      Erstellen eines Klassifikationsmodells mit KNN

      15:07

    • 8.

      Das Modell und der Skalierung speichern

      4:08

    • 9.

      Das Modell aus der Pickle wiederherstellen und lokal verwenden

      3:04

    • 10.

      Das Modell in die Google Colab exportieren

      4:20

    • 11.

      Das Verständnis von Flask web

      4:08

    • 12.

      Erstellen einer REST-API für das Klassifikationsmodell

      5:05

    • 13.

      Lineare Regression

      9:02

  • --
  • Anfänger-Niveau
  • Fortgeschrittenes Niveau
  • Fortgeschrittenes Niveau
  • Jedes Niveau

Von der Community generiert

Das Niveau wird anhand der mehrheitlichen Meinung der Teilnehmer:innen bestimmt, die diesen Kurs bewertet haben. Bis das Feedback von mindestens 5 Teilnehmer:innen eingegangen ist, wird die Empfehlung der Kursleiter:innen angezeigt.

88

Teilnehmer:innen

1

Projekt

Über diesen Kurs

Dieser Kurs beschreibt, wie du maschinelles Lernen mit Python und Scikit-learn von Grund auf maschinelles Lernen erstellen kannst. Course wird unten erfasst

  • Maschinelles Lernen
  • Python, NumPy, Grundlagen der Pandas
  • Klassifikationsmodelle mit Scikit-learn erstellen
  • Bereitstellung von Klassifikationsmodellen mit Python Flask Webrahmen
  • Regressionsmodelle mit Scikit-learn erstellen

Als Voraussetzung sollten die Schüler grundlegende Programmierfertigkeiten und das high in Mathematik haben, bevor sie mit diesem Kurs beginnen. Es sind keine Vorkenntnisse in maschinellem Lernen erforderlich.

Triff deine:n Kursleiter:in

Teacher Profile Image

Engineering Tech

Big Data, Cloud and AI Solution Architec

Kursleiter:in

Hello, I'm Engineering.

Vollständiges Profil ansehen

Level: Beginner

Kursbewertung

Erwartungen erfüllt?
    Voll und ganz!
  • 0%
  • Ja
  • 0%
  • Teils teils
  • 0%
  • Eher nicht
  • 0%

Warum lohnt sich eine Mitgliedschaft bei Skillshare?

Nimm an prämierten Skillshare Original-Kursen teil

Jeder Kurs setzt sich aus kurzen Einheiten und praktischen Übungsprojekten zusammen

Mit deiner Mitgliedschaft unterstützt du die Kursleiter:innen auf Skillshare

Lerne von überall aus

Ob auf dem Weg zur Arbeit, zur Uni oder im Flieger - streame oder lade Kurse herunter mit der Skillshare-App und lerne, wo auch immer du möchtest.

Transkripte

1. Einführung: Willkommen zu diesem maschinellen Lernkurs mit Python und scikit-learn entwickelt für absolute Anfänger. Beginnt mit den Klassenbewertungen auf Python und verschiedenen Bibliotheken. Dann tauchen wir in das Erstellen maschineller Lernmodelle mit scikit-learn ein. Sie werden auch verstehen, wie Sie ein riskantes Papier erstellen, Ihr maschinelles Lernmodell mit Flask Framework. Dies ist ein völlig Hudson-Kurs. Als Voraussetzung Einheit, haben einige Programmier-Hintergrund und High-School-Niveau Mathematik Kenntnisse. Um mit diesem Kurs beginnen zu können, sind keine Vorkenntnisse in Bezug auf maschinelles Lernen erforderlich. Erklären Sie alle Konzepte Schritt für Schritt und lehren Sie, wie maschinelles Lernmodell von Grund auf neu zu bauen. 2. maschinelles Lernen?: Lasst uns maschinelles Lernen verstehen. Beim maschinellen Lernen lesen wir Muster aus Daten mit einem maschinellen Lernalgorithmus und erstellen dann ein Modell. Dann verwenden wir dieses Modell, um die Ausgabe für neue Daten vorherzusagen. Wenn ein Modell beispielsweise dazu trainiert ist, das Kundenverhalten vorherzusagen, können Sie ein neues Kundenprofil eintragen und vorhersagen, ob der Kunde BYOD geschrieben hat, nicht basierend auf seinem Alter, Gehalt und anderen Parametern. Wenn ein Modell trainiert wird, um ein Bild zu klassifizieren, egal ob es sich um eine Katze oder einen Hund handelt. Die neue Feed neue image_id, um vorherzusagen, ob es sich um eine Katze oder einen Hund handelt. Eine Stimmungsanalyse Modern kann Text lesen und vorhersagen, ob die Stimmung positiv oder negativ ist. Also, was genau ist ein Modell? So kann Modell eine Klasse oder ein Objekt sein oder es kann eine mathematische Formel sein. Und wie stellen Sie das Modell bereit und verwenden Sie es? Das Modell kann im Dateisystem im Binärformat gespeichert werden. Es kann in einer Datenbankspalte, im Blog oder in anderen Formaten gespeichert werden. Wie Sie das Modell nehmen und eine Rest-API erstellen und es für Anwendungen oder welches HTTP-Protokoll zugänglich machen können. Oder Sie können einfach die Modalkoordinate nehmen, das Widget in einem anderen Programm. 3. Maschinelles Lernen Prozess: Werfen wir einen genaueren Blick auf den Prozess des maschinellen Lernens und verstehen, wann unser Modell bereit für die Bereitstellung ist. Beim maschinellen Lernen betrachtet der Algorithmus die Daten, leitet Muster ab und erstellt ein Modell. Fangen wir mit Daten an. Typischerweise erhielten wir breite Daten und führen dann die Datenvorverarbeitung durch. Datenvorverarbeitung beinhaltet Stapes, See-Datenbereinigungsdaten Standardisierung, Beheben von Problemen mit Nullwerten, fehlenden Datensätzen, unbekannten Werten und verschiedenen anderen Dingen. Während der Datenvorverarbeitung konvertieren wir auch kategoriale Werte, zwei numerische Werte. Denn maschinelles Lernen Modelle können mit numerischen arbeiten. Dieser Schritt kann innerhalb der Grenzen des maschinellen Lernens durchgeführt werden, oder er kann von einem anderen Team ausgeführt werden. Zum Beispiel ein Team, das sich auf Big-Data Spark spezialisiert hat, das eine sehr beliebte Technologie für die Datenvorverarbeitung ist. Für viele Modelle führen wir auch Feature-Skalierung durch. Das bedeutet, dass alle Features auf den gleichen Maßstab gebracht werden, sodass das Modell nicht voreingenommen wird oder vom jeweiligen Feature beeinflusst wird. Sobald das erledigt ist oder Daten sind bereit für maschinelles Lernen Algorithmus. Abhängig von dem Problem, das wir lösen möchten, können wir diesen Vorgang mehrmals wiederholen, um die perfekten Daten zu erhalten. Für unseren maschinellen Lernalgorithmus. Wir füttern die Daten an einen Algorithmus, ein Modell. Aber ist das das endgültige Modell? Sobald wir ein Modell erhalten haben, testen wir die Genauigkeit. Wir verfeinern auf das Modell, um eine höhere Genauigkeit zu erhalten. Wenn wir auf den Datenvorverarbeitungsschritt zurückgehen und die Daten erneut generieren und an den Algorithmus wieder einspeisen und das Modell mit der gewünschten Genauigkeit zu erhalten. Neben der Genauigkeit prüfen wir auch, ob die Daten überpassen und unterrüsten. Und wenn wir mit dem Modell zufrieden sind, setzen wir einen bestimmten Watson für die Produktion ein. Das ist also das endgültige Modell und das wird von verschiedenen Anwendungen verwendet. 4. Maschinelles Lernen: Lassen Sie uns verschiedene Arten von maschinellen Lernalgorithmen verstehen. Wir sprachen über Kundenprofil, Lernen vom Kundenverhalten basierend auf einem bestimmten Profil und das Anwenden dieses Lernens. Schauen wir es uns im Detail an. Also, wenn wir Kundenprofil sagen, könnte es AID Gehalt Länder, Geschlecht sein. Angenommen, wir wissen, ob ein Kunde in der Vergangenheit gekauft wurde oder nicht. Man beginnt mit dem Kauf, Euro beginnt, aber nicht gekauft. Wenn wir diese Informationen an einen Algorithmus für maschinelles Lernen weiterleiten, könnten Sie sich diese bisherigen Kaufdaten ansehen. Es wird diese verschiedenen Funktionen in ihrem Verhalten in Bezug auf den Kauf betrachten oder nicht, dann erstellen Sie ein Modell. Hier ist die Ausgabe immer ein oder 01 bedeutet Kauf, 0 bedeutet nicht kaufen. Diese Art von maschinellem Lernen wird also Klassifikation genannt. Wenn wir bestimmte Anzahl von Klassen aus den Eingabedaten vorhersagen. Schauen wir uns ein anderes Beispiel für die Klassifizierung an. Wenn wir ein Bild an ein Modell füttern und das Modell erkennt, dass es sich um eine Katze oder einen Hund handelt. Das ist auch Einstufung. Wenn wir einen maschinellen Lernalgorithmus mit verschiedenen Bildern erstellen , die zu drei Klassen gehörten. Es ist eine Katze, ein Hund und eine Kuh. Und wenn wir ein Modell erstellen, das ist auch Klassifizierung, weil unsere Vorhersage ist immer begrenzt Satz von Werten. Es gibt eine andere Art von maschinellem Lernen, die Regression genannt wird, wo wir anstatt eine Klasse vorhersagen, bestimmte Werte vorhersagen, die ein kontinuierlicher Wert in Bezug auf den Hauspreis sein könnten. Möglicherweise haben Sie Informationen über die Fläche, die Anzahl der Schlafzimmer und die Entfernung zur Bushaltestelle oder zum Stadtzentrum. Wenn Sie auf dieser Grundlage ein Modell erstellen müssen, das den Hauspreis vorhersagt, wird diese Art von maschinellem Lernen Regression genannt, bei der Sie einen kontinuierlichen Wert vorhersagen, anstatt vorherzusagen, zu welcher Klasse die Ausgabe gehört. Klassifizierung und Regression werden als überwachtes maschinelles Lernen bezeichnet , da Algorithmus aus den Daten landet. Es landet von einer Reihe von Features und dem Verhalten. Passende Informationen über den Hauspreis für eine Reihe von Funktionen. Oder Sie passen Informationen darüber, ob der Kunde gekauft wird oder nicht. Daraus lernt der Algorithmus. Und dann prognostiziert es die Ausgabe für neue Variablensätze. Dies ist überwachtes maschinelles Lernen, bei dem Sie dem Algorithmus mitteilen, wonach in einem bestimmten Datensatz gesucht werden soll. Es gibt eine andere Art von maschinellem Lernen, das als unbeaufsichtigtes maschinelles Lernen bezeichnet wird, bei dem Sie bestimmte Daten an einen Algorithmus senden, aber Sie sagen nicht, wonach Sie suchen sollen. Sie könnten beispielsweise ein Gehalt, ein Land, ein Geschlecht und wie viel sich die Person dreht, füttern . Und bitten Sie den Algorithmus, sie so zu gruppieren , dass Sie bestimmte Entscheidungen basierend darauf treffen können. Typischerweise Nukleate Cluster mit unbeaufsichtigtem maschinellem Lernen, können Sie verschiedene Cluster erstellen, wie junge Spender mit hohem Einkommen, hohe Ausgaben sind. Darauf aufbauend können Sie entscheiden, welche Kundengruppe Sie in Ihrer Marketingkampagne ansprechen möchten. Dies ist unbeaufsichtigtes maschinelles Lernen. Beim überwachten maschinellen Lernen teilen wir die Daten in Trainingsdaten und Testdaten auf. In der Regel werden 70 bis 80% Daten für das Training des Modells aufbewahrt, und die restlichen 20 bis 30% werden zum Testen des Modells verwendet. 5. Anaconda an erstellen: Wir verlieren Anaconda Spinne für die Entwicklung des maschinellen Lernens. Suchen Sie zum Download Anaconda und gehen Sie auf ihre Website. Klicken Sie auf die Preisgestaltung. Scrollen Sie nach unten und wählen Sie die kostenlose Edition aus. Klicken Sie auf Weitere Informationen. Klicken Sie auf Herunterladen und wählen Sie die richtige Version für Ihr Betriebssystem aus. Sobald Sie heruntergeladen haben, klicken Sie auf das Installationsprogramm. Außer, dass Thomson-Bedingung nur fein ausgewähltes Verzeichnis bedeutet. Stellen Sie sicher, dass keine Leerzeichen im Verzeichnis vorhanden sind. Ich würde empfehlen, beide Kontrollkästchen auszuwählen, da Sie Python NEW dalda Umgebungsvariablen erstellen können . Klicken Sie auf Installieren. Die Installation dauert ca. 20 bis 30 Minuten. Klicken Sie nach Abschluss auf Weiter. müssen diese Option nicht auswählen, um auf Fertig stellen zu klicken. Angefangen für die Aufzeichnung, unsere Spinne hatte zu Mittag. Spider wird zuerst ein Arbeitsverzeichnis erstellen, in dem wir alle Dateien speichern werden. Verzeichnis unter Benutzermodul. Dies wird mein Arbeitsverzeichnis sein. Gehen Sie in die obere rechte Ecke und wählen Sie dort direkt aus. Und das, das würde direkt funktionieren. Lassen Sie uns nun eine neue Schaltfläche erstellen. Wir werden Helloworld schreiben. Die Datei ist Python oder niedriger ausgewählt und führen Sie sie aus. Sie können es mit recyceltem biegen. Und wir können Helloworld Punktkonsole sehen. 6. Python Numpy Pandas Matplotlib Crashkurs: Wir werden Python, Numpy, Pandas und Matplotlib abdecken . In diesem Labor. Sie sind bereits mit diesen Python Verbindlichkeiten vertraut. Dann können Sie diese Vorlesung überspringen und zur nächsten wechseln. Lassen Sie uns eine neue Datei mit Spider erstellen und mit dem Codieren beginnen. In Python können Sie Variablen deklarieren, ohne Datentypen anzugeben. Und er hat jetzt einen String-Wert füllen wir können, Python wird sich nicht beschweren. Kann Spider Variable Explorer, können Sie alle Variablen und ihren Wert sehen. Sagen wir drei, seien Sie gleich fünf, dann brechen Sie in ein Plus b. Wählen Sie diese 31. So können wir sehen, dass die Ausgabe in Python gedruckt wird. Sie können alle Arten von arithmetischen Operationen ausführen. Python ist ein Datentyp namens list. Und Sie haben das innerhalb von eckigen Klammern erklärt. Und dann geben Sie eine Liste von Elementen an. Und Sie können dann Elemente greifen, die die Indexnummer angeben. Und Indexnummer beginnt mit 0. Wir drucken das aus. Dann. Tun Sie, was auch immer Index eins ist, und so weiter. Um das letzte Element zu erfassen, geben Sie minus1 an. Sie können in diesem Fall auch drei angeben, aber minus1 würde Ihnen auch das letzte Element geben. Auf diese Weise können Sie, wenn die Liste sehr lang ist, leicht das letzte Element erfassen, indem Sie minus1 angeben. Und dann, wenn Sie minus zwei tun, wird es Ihnen das zweitletzte Element geben, das ist 30. So können wir eine Liste deklarieren und verschiedene Elemente greifen. Und die Liste kann kommunistisch genug verschiedene Datentypen haben. In Python können Sie eine Schleife schreiben, indem Sie einen Bedingungspunkt geben und die Eingabetaste drücken. In Python sind sowohl einfache Anführungszeichen als auch doppelte Anführungszeichen in Ordnung. Leer- und Einrückungsbatter in Python. Also, wenn wir das so schreiben, wird es ihre Schleife endet, wenn Sundance. Nun, wenn ich hier etwas schreibe, das draußen ist, wenn Blick außerhalb der Schleife gedruckt wird, ändern Sie die Bedingung. Es wird beides drucken. Es gibt viele Möglichkeiten, wie Sie eine for-Schleife in Python schreiben können. Also kann ich für i im Bereich zehn sagen. Dies sollte also drucken, dass der Wert von i von 0 bis neun beginnt. Das sind also die zehn Werte. Sie können diese Liste auch durchsehen. Meine Anmeldung, Sie können für i in meinem Unterstrich Liste sagen, Krawatte, es, gedruckt alle Elemente der Liste. Und lassen Sie uns eine weitere Operation in der Liste machen, die alle Werte aus der ersten Liste auswählt, sie mit drei multipliziert, hatte die neue Liste erstellt. In Python deklarieren Sie die Funktion mit dem Schlüsselwort def. Berechnen Sie etwas, sagen wir, B, und wir können diese Summe erledigen. Und jetzt können wir es nennen, zwei Werte zu übergeben und dann bekommen wir die Summe. Sie können auch mehrere Werte zurückgeben. So können wir sehen, dass beide Variablen gefüllt werden. Deswegen können Sie mehrere Werte aus einer Python Funktion zurückgeben , um eine Datei in Python zu erstellen, mit open zu verwenden und dann etwas Inhalt zu schreiben. Sie können meine Datei im Datei-Explorer sehen. Es hat Beispielinhalt. Beachten Sie, dass hier der Modus W ist. Das ist, was Bewertung. Mit einem App-Kampagnenmodus können Sie weitere Inhalte hinzufügen. Lassen Sie uns dies ausführen und die Datei auschecken. Sie können mehr Inhalte sehen, die Kunst es bekommen. Sie können aber auch mit dem W-Modus arbeiten. Jetzt sollten Sie sehen, dass neue Inhalte, schwere Dinge sollten überschrieben werden neue Inhalte. Das sind also, wir können eine Datei in Python erstellen. Lasst uns jetzt NumPy verstehen. Numpy ist eine beliebte Python Haftung für wissenschaftliches Rechnen. Zuerst müssen wir numpy importieren, numpy als np importieren. Und jetzt können wir alle NumPy-Operationen mit NB machen. Viele der beliebten maschinellen Lernbibliotheken, scikit-learn, sind so konzipiert, dass sie auf Numpy-Arrays basieren. Sie können eine Liste erstellen. Lassen Sie uns eine Liste deklarieren. Und wir können ein eindimensionales Array aus der Liste erstellen. Nehmen wir diesen Wert heraus, Probe Nummer eins DRA. Dies ist also ein numpy Array-Objekt, wird nun ein zweidimensionales NumPy-Array erstellen. Es hat vier Reihen und drei Spalten. Sollte ein Schiedsrichter zweidimensionales Gitter erstellen. Sie können leicht umformen sie Paar ist. Dies ist also ein Array für Zeile drei Spalten. Wir können es in zwei Reihen und sechs Spalten umformen. Beachten Sie, dass der ursprüngliche Arabismus beim Umformen neu geformt wird, Sie ihn auf eine neue Art speichern können. Es hat zwei Reihen und sechs Spalten. Sie können die Form umformen, sofern die Gesamtzahl der Elemente übereinstimmt. Sie können nicht zwei Dateien haben, da es zwei Elemente enthält. Wenn wir mit umformen, sagen wir eine minus1, würde es eine Zeile und maximale Anzahl von Spalten erstellen. In ähnlicher Weise müssen Sie die Form zu einer Spalte und maximal zulässige Anzahl von Brutto umformen. Sie können dies tun, indem Sie minus1 und eins angeben. Sie müssen nicht zählen, wie viele Zeilen oder Spalten vorhanden sind. Wir werden dies als neue Bearbeitung drei haben. So können wir NumPy R umgestalten, die manchmal maschinelles Lernen verarbeitet. Möglicherweise müssen Sie Zeilen extrahieren und Spalten extrahieren und einige Operationen ausführen, um diese Umgestaltung wäre sehr nützlich. Sie können einen Teil des Numpy-Arrays greifen. Also das bedeutet, geben Sie mir zuerst bis zur dritten Reihe, aber nicht intuitiv die dritte Reihe. Zweite Spalte bis zur vierten Spalte, jedoch nicht die vierte Spalte. Mal sehen, was wir bekommen. Das ursprüngliche Array wird also nicht geändert. Wir leben, um es in ein neues Array zu füllen und sehen die Ausgabe Nachrichtenbeispiel. Wir haben rosig bei Index 12 und Spalte bei Index zwei, weil es keine Spalte bei Index drei gibt. Pandas ist eine beliebte Python Bibliothek für die Datenanalyse. Sie importieren Pandas, die sagen, importieren Pandas als pd, das ist überzeugend. Und Pandas eindimensionale Arrays bekannt als Städte. Das ist also sehr klar, dass Städte, es ist eindimensional. Ihr Vorteil mit Klammern, können Sie Ihre Elemente und Namen geben. Zum Beispiel kann ich 10203040 sagen, aber ich kann ihnen ein Etikett geben. Schauen wir es uns an. Sie können sehen, dass der Index ABCD, Sie können eine Grenze unter Angabe der Zahl, Indexnummer unserer Perspektive greifen . Wenn Sie Sample Series zwei machen, erhalten Sie 30. Sie können es auch greifen, indem Sie sagen, gesampelte Städte zu sehen. Das wird auch den gleichen Wert geben. Sie deklarieren einen DataFrame, das ein zweidimensionales Array mit pd dot DataFrame Funktion ist. Und Sie können eine zweidimensionale Liste übergeben und Sie erhalten einen DataFrame. Wir können den Pandas DataFrame sehen. Und mit Pandas können Sie auch Zeilen und Spalten und Beschriftungen geben. Sollten wir jetzt Zeile eins, Zeile vier, Spalte zwei, Spalte drei haben. Außerdem können Sie Elemente erfassen, die den Zeilennamen, den Spaltennamen oder die Indexnummer für jede Zeile und Spalte angeben. Also Spalte drei Jahre, 36912, das ist dies. Und Sie können mehrere Spalten erfassen, indem Sie beide Spalten angeben. Um Zeilen zu greifen, geben Sie eine Lucy-Position vorab und geben Roden m, Sie erhalten die Zeile, um einen Teil des Datenrahmens zu greifen. Sie können eine Bootsreihe und Spaltennamen angeben und diese Person abrufen. Also erhalten wir Spalte zwei, Spalte drei, Zeile zwei, Zeile drei aus dem Beispieldatenrahmen zwei. Sie können auch den Indexspeicherort in anstelle von Liberalen angeben , um einen Teil eines Datenrahmens zu erhalten. Dies ist rho 0 bis zu Zeile zwei naught einschließlich Zeile zwei, Spalte eins, bis zu Spalte drei, ohne Spalte drei. Wenn Sie nichts angeben, erhalten Sie alle Zeilen und alle Spalten. Und wenn Sie bis zur letzten Spalte sind, sagen Sie schwarze Minus1. Du hast also 14710 bis 581. Das ist Spalte 1, Spalte 2 und alle Zeilen. Und wir sagten, greifen Sie alle Spalten bis zur letzten Spalte. So können wir alle Spalten und alle Zeilen erfassen, aber die letzte Spalte ausschließen. Und eine Teilmenge eines DataFrame ist ein Datenrahmen, wenn es zwei Diamanten riechen. Wenn Sie eine Zeile oder eine Spalte erfassen, könnte es sich um eine Reihe handeln. In Python können Sie Band verwenden, um Papier einer beliebigen Variablen zu überprüfen. Sie können es leicht in Pandas umwandeln, indem Sie Punktwerte aufrufen , wenn er Machine Learning Verbindlichkeiten zu unserem Putnam PRA entworfen sind. So tun Sie die Konvertierung mit dunklen Werten. Dies ist jetzt ein NumPy-Array. Sie sehen zwei öffnende und schließende Klammern. Es ist also ein zweidimensionales NumPy-Array. Sie können dies in einem neuen NumPy-Array speichern. Dies ist jetzt ein numpy Array. Wir haben einen Teil des DataFrames erfasst und in eine NumPy-Daten mit dunklen Werten konvertiert. Dies würde die letzte Spalte in eine NumPy-Daten konvertieren. Schauen wir uns ein Beispiel für Filteroperationen auf DataFrame an. Also sagen wir hier, holen Sie mir die Beispiele, in denen Spalte 1 Werte größer sind als für. Wo immer es größer als 48 ist, gibt dir die Wahrheit. Sonst hat es dir falsch gegeben. Beispiel für den Datenrahmen. Sie wenden diese Bedingung auf den mittleren Datenrahmen an. Mit Pandas können Sie leicht lesen CSV-Dateien sind in der Tat get-up-Datei. Und wie das read_csv, lassen Sie uns eine sample.csv Datei aus unserem Projektarchiv lesen. Wir würden sagen, speichern Sie Daten Punkt CSV. Pandas würde die CSV-Datei in einen DataFrame laden. Und wenn wir unsere DF Now überprüfen , wurde das Streben in einen DataFrame geladen. Wir können die Datei auch überprüfen. Diese sind teilweise riesig, können Sie alle Zeilen und Spalten einfach in einen DataFrame laden. Mit df.describe können Sie video-statistische Element über den DataFrame erhalten. Wie viele Zeilen, was ist der Mittelwert und die Standardabweichung? Sie können zusätzliche Informationen mit dF dot info erhalten. Welcher Datentyp und was sind die Spalten? DF.loc Kopf würde Ihnen die ersten fünf Zeilen geben. Sie können eine Probe von einem DataFrame nehmen, indem Sie Kopf tun. Und Sie können auch angeben, wie viele Zeilen Sie nicht im Kopf waren. Also diese Auf-Prämisse drei Spalten. Wir können die ersten beiden Spalten packen und das Vietnam umwandeln. Nun gehen wir zum Variablen-Explorer und überprüfen x. So sind es die ersten beiden Spalten, weil wir die letzte Spalte ausgeschlossen und sie wurde in einen Schiedsrichter umgewandelt. Um die letzte Spalte zu konvertieren, greifen Sie einfach die letzte Spalte. Sie müssen den Bereich nicht angeben. Und die letzte Spalte wird in einen Schiedsrichter umgewandelt. Es ist ein eindimensionaler Bereich. Schauen wir uns schließlich die Matplotlib-Bibliothek an. Mit matplotlib können Sie die Daten visualisieren, indem Sie verschiedene Blutbilder zeichnen. Spider ist Applauds Registerkarte, wo die Plots erstellt werden. Sie importieren Matplotlib so. Lassen Sie uns nun zwei Listen deklarieren. Und wir werden x und y plotten. Wir haben standardmäßig Inline-Block, wir bekommen ein Liniendiagramm. Wenn wir plotten, um ein Streudiagramm zu erhalten, sagen Sie plt.plot scatter. Und Sie werden ein Streudiagramm bekommen. Sie können Etiketten zu Ihrem Blut und auch eine Titelprobe Diagramm, X- und Y-Achse. Lassen Sie uns ein Diagramm für unsere Daten erstellen, die wir aus der CSV-Datei lesen. Wir erstellen eine neue Handlung. Und X6 ist, wir nutzen die Y-Achse wird Gehalt haben, und wir werden Spalten ergreifen und es an die Plotfunktion weitergeben, um den Block zu erhalten. So können Sie Diagramm für unsere Daten sehen, die aus der CSV-Datei helfen. Dies ist ein Beispiel für ein Histogramm. Das geht also um Numpy, Pandas, Matplotlib und einige grundlegende Python. Das ist nicht alles, was da draußen in diesen Verbindlichkeiten ist. Allerdings reicht so viel Wissen aus, damit Sie mit der maschinellen Lernprogrammierung mit Python beginnen können. 7. Erstellen eines Klassifikationsmodells mit KNN Algorithmus: Wir haben die Shop-Kaufdaten. Wir haben Daten für verschiedene Kunden. Es gibt in ihrem Gehalt und ob sie kaufen oder nicht. Basierend auf diesen Daten erstellen wir ein Machine Learning Classification Modell, das vorhersagt, ob ein neuer Kunde mit einem bestimmten Alter und Gehalt kaufen würde oder nicht. Also in diesem ist in Gehalt oder unabhängigen Variablen. Wir werden ein Machine Learning Classification Modell mit KNn erstellen, das mit verzerrten Parteien Daten loswerden wird. Lassen Sie uns k-nächster Nachbar oder K-nn Machine Learning Algorithmus durch ein sehr einfaches Beispiel verstehen . Stellen Sie sich vor, wir haben Katzen und Hunde in diesem Diagramm gezeigt. Auf der x-Achse haben wir Gewicht und auf der y-Achse haben wir Höhe. Alle grünen sind Katzen, weil sie offensichtlich weniger Gewicht und laicite haben und alle blauen Hunde sind. Und wenn wir die Größe und das Gewicht eines neuen Tieres kennen, sagen wir dieses neue in der Mitte. Können wir vorhersagen, ob es eine Katze oder ein Hund ist? Knn-Algorithmus? Außerdem, basierend auf den Eigenschaften der nächsten Nachbarn. Kleiner k Wert ist fünf. Wir schauen uns die fünf nächsten Nachbarn können, basierend darauf, wir entscheiden, welche Klasse das Tier könnte zwei geklumpt werden. Zum Beispiel gibt es in diesem Fall drei Grüns und zwei Blues. Das bedeutet, dass es drei Katzen und Hunde gibt , die ähnliche Eigenschaften wie das neue Tier haben. Das AnyVal ist also eher eine Katze, weil die meisten Tiere zur Katzenklasse in der nächsten Nachbarschaft gehören. Dies ist also k nächste Nachbar-Technik, bei der das Ergebnis basierend auf Eigenschaften vorhergesagt wird, die von den nächsten Nachbarn gezeigt werden. Und die Kava Louis typischerweise fünf. Lassen Sie uns diese Technik auf die Shop-Kaufdaten anwenden. Wir haben die Daten im Projektordner. Wir können spidery up, um Ihren Projektordner hier auszuwählen. Und dann können wir zu Dateien gehen und den gesamten Quellcode und Dateien sehen. Dies sind also die gespeicherten Kaufdaten, die wir verwenden, die ein Machine Learning Classification Modell erstellen. Lassen Sie uns eine neue Python Datei erstellen. Wird Nematoden ML Pipeline. Wir werden die Standardbibliotheken importieren. Wir gehen davon aus, dass Sie mit NumPy und Pandas vertraut sind, was eine Voraussetzung für diesen Kurs ist. In Spinne, sobald Sie eingeben, erhalten Sie alle Fehler oder Warnungen. Es heißt, wir benutzen keine Numpy Pandas, das ist in Ordnung. Wir werden den Code für den gleichen in Kürze schreiben. Laden wir nun die Shop-Kaufdaten in einen Pandas DataFrame. Wir leben es Trainingsdaten, Datenrahmen, die die Shop-Kaufdaten speichern. Beachten Sie, dass die Reinigung nicht mit den gesamten Daten erfolgt. Wir werden einige Aufzeichnungen für Schulungen und Tests haben, die wir als nächstes sehen werden. Aber Schulungsdaten Pandas DataFrame würde die gesamte CSV-Datei Daten speichern. Sie können die gesamte Datei ausführen, indem Sie den Zyklus auswählen, oder Sie können die Auswahl ausführen. Lassen Sie uns die Auswahl ausführen. Sie können zum Variablen-Explorer gehen, klicken Sie auf Reinigungsdaten und wir können sehen, dass Gehaltskäufe in den Trainingsdaten Datenrahmen geladen wurden. Lassen Sie uns einige statistische Informationen, Bootsreinigungsdaten. Wir können verschiedene statistische Informationen über die Daten sehen. Wie viele Aufzeichnungen? Wir haben 40 Aufzeichnungen. Wir können den Mittelwert sehen, Standardabweichung und einige andere Statistiken über die Daten werden die unabhängigen Variablen in einer IRA speichern. Wird bis zur letzten Spalte steigen und sie in einer abhängigen Variablen X gespeichert, die ein NumPy-Array ist. Lass uns das machen. Dies sollte also Agenten bevölkern, die angestellt sind. Als Nächstes. Gehen wir zum Variablen-Explorer und zur Kasse. Wir können sehen, dass Agent Gehalt haben jetzt in NumPy Array gefüllt wird die Einkaufsspalte, die die Vorhersage an und an der Numpy Array entfernt. Dies sollte also die letzte Spalte füllen und sie auch in einer Weise speichern. Dies ist unser y, das ist die abhängige Variable oder die, die wir vorhersagen wollen. Wir haben Hilfsmittel im Gehalt und x NumPy Array. Und wir haben y, das sind die Kaufdaten. Für nicht gekaufte. Eins ist dort, wo Partys. Das wird also in einem Numpy-Array gespeichert. Jetzt haben wir die unabhängigen Variablen und abhängigen Variablen in zwei separaten Numpy-Arrays. Als nächstes werden die Daten mithilfe von scikit-learn in Trainingsset und Testsatz getrennt. Und wir werden riesige 80-20 Verhältnis, 80% der Daten für Training und 20% für Tests. Scikit-learn ist eine sehr beliebte Bibliothek für maschinelles Lernen mit Python. Scikit-Learn wird mit Anaconda Spinne vorinstalliert. Wenn ich eine andere Python Umgebung verwende, müssen Sie möglicherweise scikit-learn mit pip install installieren skLearn style ist der Befehl, um Python-Bibliotheken zu installieren. Anaconda Spider kommt mit scikit-learn, numpy, pandas und vielen anderen Bibliotheken, die für den wissenschaftlichen Wettbewerb und maschinelles Lernen benötigt werden . Wir verwenden scikit-learn, trainieren, testen Split-Klasse, um das Dataset in zwei Teile zu teilen. Jetzt, wenn wir dies tun, lassen wir das Training Set und den Test Set. Das Trainingsset wird 32 Rekorde haben. Wir sagten, 80% Daten werden für die Ausbildung verwendet werden. Also haben wir insgesamt 40 Aufzeichnungen, von denen 32 für die Reinigung verwendet werden. Das ist also extrem. Und Gewicht Zug 32 Datensätze für den Handel. Und X-Test hat Wärmespeichern. Ähnlich Gewicht wird dies acht Datensätze haben. Dies sind die Daten zum Testen des Modells. Als Nächstes werden wir Skill diese Daten verwenden. Also, das ist es, Gehalt sind in der gleichen Brücke und das maschinelle Lernmodell konnte nicht durch Gehalt beeinflusst werden, das in einem höheren Bereich liegt. Lassen Sie uns das laufen. Jetzt können wir die Skalendaten sehen. Standard-Scaler verteilt die Daten so, dass der Mittelwert 0 ist und die Standardabweichung eins ist. Jetzt sowohl das A's als auch das Gehalt oder in der gleichen Brücke. Als nächstes erstellen wir ein Klassifizierungsmodell mit der K nächsten Nachbarn Technik. Wird fünf Nachbarn haben. Wir verlieren die Minkowski-Metriken. Um diesen Klassifikator zu erstellen. Minkowski-Metriken basieren auf dem euklidischen Abstand zwischen zwei Punkten. Euklidische Entfernung ist nichts anderes als die kürzeste Entfernung zwischen zwei Punkten. So entscheidet es, welche Nachbarn am nächsten sind. Als nächstes passen die Trainingsdaten an den Klassifikator an, um ihn zu säubern. Hier wird das Modell abgelassen. Dies ist das Klassifikatorobjekt, das mit bestimmten Reinigungsdaten trainiert wurde, das heißt, es Gehalt ist die Eingabevariablen, head kauft die Ausgabevariablen. Der Klassifikator ist unser Modell. Wird schnell die Genauigkeit des Klassifikators überprüfen , indem Sie versuchen, vorherzusagen. Für die Testdaten. Classifier hat eine Vorhersagemethode, die eine Numpy Arrays Eingabe nimmt und als Ausgabe in einer anderen Zahl zurückgibt. Das ist also unser x und das ist das Gewicht. Und mal sehen, was die Vorhersage ist. Wavelet sechs Satz für einen Datensatz. Das Modell wurde genau vorhergesagt. Für alle Aufzeichnungen. Wir können auch die Wahrscheinlichkeit der Vorhersage für alle Testdaten überprüfen. Hier können wir sehen, dass überall dort, wo wir mehr als 0,5 Wahrscheinlichkeit haben, das Modell prognostiziert, dass der vom Kunden geschuldete Kunde nicht kaufen würde. Mobilität ist hilfreich, wenn er es liebte, Daten aus der Vorhersage zu sortieren und die Kunden waren eher kaufen. Die Geschichte. Die dritte ist wahrscheinlicher zu kaufen, da die Wahrscheinlichkeiten 0,8 oder 80% die Genauigkeit des Modells mit Confusion Matrix überprüfen. Confusion Matrix ist eine statistische Technik, um es mit freundlicher Genehmigung eines Klassifizierungsmodells vorherzusagen. Die Art und Weise, wie es funktioniert, ist ziemlich einfach. Wenn der tatsächliche Wert eins ist und das Modell ein PRINCE2-Projekt vorhergesagt hat. Wir verlieren 10, es ist falsch negativ. Ebenso ist 00 wahr negativ und 01 falsch positiv. Es kann auch in diesem Format dargestellt werden. Sobald wir alle vier Typen kennen, können wir leicht die Genauigkeit bestimmen. So konnten sie nicht sehen, ist wahr positiv plus wahre negative geteilte Weise. Alle vier Arten von Vorhersagen. Unabhängig davon, welche Klassifizierungstechnik Sie verwenden, kNN oder eine andere Confusion Matrix kann verwendet werden, um die Genauigkeit des Modells zu berechnen. Zyklisches Lernen und andere maschinelle Lernbibliotheken. Die eingebauten Klassen zu Jen Bit-Verwirrungsmatrix erlauben Julian vorhergesagte Daten. Lassen Sie uns die Verwirrung Metriken wird den tatsächlichen Wert des Testsatzes übergeben, dh Gewichtstest und die vorhergesagten Werte, das ist Weißbrot. Und erhalten Sie die Verwirrungsmetriken aus der zyklischen Landkonfusions-Matrix-Klasse. Gehen Sie zum Spinnen-Variablen-Explorer. Und wir können die Verwirrungsmatrix hier sehen. Wir haben drei echte Negative. Für wahre Positive. Nur ein falscher negativer und falscher positiver. Also dieses Modell ist sehr gut es, weil wir nur eine falsch positive oder negative aus acht Datensätzen haben. Lassen Sie uns die Genauigkeit des Modells berechnen. Und wir drucken die Ruhezeit 0.875. So ist unser Modell 87,5% aufgetreten. So kann dieses Modell vorhersagen, ob ein Kunde mit einem bestimmten Agent Gehalt, Wiedersehen oder nicht mit 87% Genauigkeit. Sie können auch den intakten Klassifizierungsbericht erhalten, um mehr über den Präzisionsrückruf und die F1-Punktzahl zu erfahren. Also haben wir dies in Richtung Kaufdaten genommen und einen Klassifikator erstellt , der vorhersagen kann, ob jemand es mit R nichts tun würde. Dieses Modell oder Klassifikator kann verwendet werden, um vorherzusagen, ob ein Kunde mit einem bestimmten Agenten Gehalt BYOD nichts würde. Also lassen Sie uns versuchen, vorherzusagen, ob ein Kunde mit H Porter Sal Tag zu Tag 1000 gute Biokohle. Beachten Sie, dass dieses Modell ein NumPy-Array verwendet und ein Compare-Europe zurückgibt , um ein Numpy-Array aus Agenten Gehalt zu erstellen, Feature Fertigkeit, dass Daten, und dann füttern Sie es an den Klassifikator. Da der Klassifikator auf Feature-Fertigkeitsdaten trainiert wurde, sollten die von Ihnen angepassten Daten verkleidet werden, ist auch Feature-skaliert. Gleiche Technik, die Standard-Scaler in unserem Fall ist. Und die Vorhersage ist 0, der Kunde oder nicht von jemandem mit 40 Jahren. Und Zelle D2, D3 Budget würde nicht kaufen ist. Aber dieses Modell können wir die Wahrscheinlichkeit der Vorhersage für die gleichen Daten überprüfen. Klassifiziert als Prädiktor Parameter, mit denen Sie die Wahrscheinlichkeit erhalten können. Die Wahrscheinlichkeit beträgt also 0,2 oder 20%. Das ist, warum das Modell, das auf den Kunden gesetzt wurde, nicht kaufen würde. Lassen Sie uns versuchen, für einen Kunden vorherzusagen, der 42 Jahre alt und Gehalt 50 Tausend ist. Diesmal setzt das Modell den Kunden oder Käufer. Schauen wir uns die Wahrscheinlichkeit an. Es sind 0,880%. So gibt es 80% Chancen der Kunde ein maschinelles Lernmodell kaufen kann, gierig. Es ist ein Klassifizierungsmodell. Es kann vorhersagen, ob ein Kunde mit einer bestimmten Agentenzelle D würde. Dies ist also der Klassifikator, den wir haben, das ist das Modell, und wir passen Daten an dieses Modell an, um Ausgabe zu erhalten. Als nächstes werden verschiedene Modellbereitstellungstechniken zu sehen. Wie wir dieses Modell speichern und dieses Modell in anderen Umgebungen bereitstellen können, einschließlich einiger Cloud-Anbieterumgebungen. 8. Das Modell und den Scaler speichern: Wir haben ein kNN-Klassifizierungsmodell gebaut, das in Gehalt als Eingabeparameter nehmen kann und vorhersagen ob ein bestimmter Kunde mit diesem Agenten Gehalt würde R nichts. Lassen Sie uns nun verstehen, wie Sie das Modell speichern, das wir erstellt haben. Um den Modelltending-Prozess zusammenzufassen, lesen wir 40 Datensätze aus dem Datensatz und identifizierten 32 , also 80%. Für das Training. Diese sind hier vertreten. Und dann verwenden wir Standard-Scaler, um die Werte zu skalieren, so dass der Mittelwert 0 wird und die Standardabweichung für beide Agenten Gehalt eins wird. Für viele Modelle ist das Töten erforderlich. Andernfalls könnte das Modell durch Werte beeinflusst werden, die in unserem Fall im höheren Bereich Gehalt liegen. Und Sie können Standard-Scaler oder einen anderen Skalierungsmechanismus verwenden. Sobald die Daten skaliert sind, geben wir diese in einem zweidimensionalen NumPy-Array-Format an das Modell. Und wir erhalten eine Ausgabe, die auch ein numpy Array mit einer Spalte ist. Intern wendet das Modell die KN-Technik an. Es schaut auf die Ausgabe für jeden Datensatz und versucht, die Formel zu optimieren, so dass die gesamte Liquidus Sie gehen würde. Es gibt verschiedene Möglichkeiten, wie wir das Modell speichern können. Für einige können wir die Formel extrahieren. Und in einigen Fällen müssen wir das Modellierungs-Binärformat speichern, damit wir es wiederherstellen können und dann dieses Modell verwenden, um die Ausgabe für neue Datenmengen vorherzusagen. Das werden wir in Kürze sehen. Wenn jemand mit dem Model vorhersagen will, zwei Dinge. Benötigen Sie das Klassifikatormodell nicht. Und sie würden auch den Standard-Skalar benötigen , wenn sie eine andere Technik verwenden, um die Daten kennenzulernen, dass das Modell möglicherweise kein korrektes Ergebnis liefert , weil wir einen bestimmten Standard-Killer verwendet haben. Wir würden es auch zusammen mit dem Modell exportieren. Sie mit dem Klassifikatormodell und dem Standard-Scaler FührenSie mit dem Klassifikatormodell und dem Standard-Scalerdie Vorhersage in jeder Python Umgebung durch. Lassen Sie uns sehen, wie wir diese Objekte speichern und in andere Umgebungen exportieren können. Python ist eine Technik namens Beizen, mit der Sie Python Objekte im serialisierten oder Byte-Stream-Format speichern können. In einer anderen Python Umgebung können Sie diese Objekte serialisiert werden und sie in Ihrem Code verwenden. Also lassen Sie uns verstehen, wie wir das Modell und Standard-Scaler wurden in der vorherigen Laboreinheit gebaut, wir importieren die Kommissionierverbindlichkeiten Datei, kNN model.predict sind bereit, begrenzte Klassifikator Dot Pickle. Wenn wir nicht sagen wollen, welche Technik wir verwenden, um dieses Modell zu erstellen, können wir es einfach als klassifiziert oder schneller benennen. Und mit eingelegtem Punkt-Punkt-Punkt-Methode können wir die Klassifikator-Objekt speichern, die wir zuvor im Druck auf diese klassifizierte oder Pickle-Datei erstellt . In ähnlicher Weise können wir die Gurken-Akte für diesen Mörder löschen. Speichert den Standard-Scaler in einer CDART-Gurke-Datei. Hier bedeutet wB, dass die Datei zum Schreiben und im Binärmodus geöffnet wird. Lassen Sie uns diesen Code ausführen. Und wir können zum Datei-Explorer gehen. Und sieht, dass klassifiziert oder Gurke und ACWP Kilobit erstellt. Sie können dies auch im Explorer überprüfen. Diese beiden sind also binäre oder serialisierte Dateien für unsere Klassifizierer und Standard-Skalarobjekte. In diesem Labor haben wir gesehen, wie man den Borderland-Standard-Skalar im Binärformat mit Python Pick Berühmtheit speichert . Als nächstes werden wir sehen, wie die eingelegten Dateien in einer anderen Python Umgebung verwendet werden. 9. Das Modell aus Pickle wiederherstellen und lokal verwenden: Bis jetzt haben wir gesehen, wie man ein Modell erstellt und im gebeizten Format speichert. Wir haben auch die standardmäßigen skalaren Objekte im Binärformat unter Verwendung von Picker-Haftung gespeichert. Als nächstes werden wir sehen, wie DC-Relais und verwenden Sie diese Pickle-Objekte in einer anderen Python Umgebung. Es könnte vor Ort sein, oder es könnte in der Cloud sein. Wird zuerst versuchen, die Pickle-Dateien in der lokalen Umgebung zu verwenden. Lassen Sie uns eine neue Python Datei erstellen. Wir nennen es model.predict verwenden. Wir müssen zuerst die Bibliotheken importieren. Wir müssen auch NumPy importieren. Als nächstes werden wir DC Relais und speichern Sie den Klassifikator in einem lokalen Objekt im neuen Programm wird die eingelegte Punkt Lord Methode verwenden, um den Klassifikator dieses Fahrzeug mit lesen Binärformat zu laden. In ähnlicher Weise wird der Skalar zu einem neuen Objekt gelesen. St.Petersburg wird in lokale skalare Objekte geladen. Als nächstes werden wir den lokalen Klassifikator und den lokalen Skalar verwenden , um vorherzusagen, ob ein Kunde im Alter von 40 und plötzlich 20 Tausend Abschied oder nicht. Bevor es ausgeführt wird, können Sie alle alten Variablen löschen. Sie können hier klicken und alte Variablen entfernen. Sie können die Konsole auch löschen, indem Sie mit der rechten Maustaste klicken und die Konsole hier löschen. Jetzt lassen Sie uns dieses Programm starten. Jetzt können wir sehen, dass neue Vorhersage und die 0 ist, die mit der vorherigen Vorhersage übereinstimmt. Nehmen wir die neue Wahrscheinlichkeit ein. Dies ist wieder 0,2 für den Kunden mit 40 Jahren und plötzlich 20 Tausend und verzögert das Klassifikatorobjekt und das lokale Skalarobjekt. Dann haben wir versucht, vorherzusagen, ob ein Kunde oder Käufer dieses D verwandte Objekte nicht in einem neuen Python Programm verwendet. Dieses Programm weiß also nichts darüber, wie das Modell gebaut oder gehandelt wurde. Es nahm den Modellierungsskalar aus den Gurkendateien auf und nutzte sie, um vorherzusagen. Wir können auch versuchen, für jeden 42 und Gehalt 50 Tausend vorherzusagen. Früher haben wir 80% Wahrscheinlichkeit. Wir sollten die gleiche Ausgabe hier sehen, 0,8, und Vorhersage ist eins. Kunde kaufen. Sie haben also gesehen, wie Pickle-Dateien in einem anderen Python Programm verwendet werden, das nichts darüber weiß, wie das Modell gebaut wurde und wie das Modell trainiert wurde. Wir haben das in einer lokalen Umgebung ausprobiert. Als Nächstes versuchen wir es in einer Cloud-Umgebung. 10. Exportieren des Modells in Google Colab Environment: Als nächstes nehmen wir die eingelegten Dateien in die Google-Collab-Umgebung und versuchen, ihre vorherzusagen. Google Collab ist wie eine Jupiter-Umgebung mit einigen visuellen Anpassungen. Und es hat viele vorgefertigte Bibliotheken für maschinelles Lernen und Deep Learning. Sie können sich einfach mit Ihrer Jimmy Lady oder Google Lady anmelden und dann ein neues Notizbuch erstellen und mit dem Programmieren beginnen. Lassen Sie uns ein neues Notizbuch erstellen, das ich bereits eingeloggt habe. Gibt dieser Datei einen Namen. Wir können zur Werkzeug-Einstellung gehen und das Thema zu dunkel oder adaptiv ändern. Schicken wir es ins Dunkel. Kolumbien ist wie eine Jupiter-Notebookumgebung. Sie können einfach Code NDA eingeben, Shift Enter drücken. Sie werden die Ausgabe sehen. Oder Sie können hier auf das Symbol Ausführen klicken und das Programm ausführen. Und Sie können mit der rechten Maustaste Löschen sin oder Sie können einfach hier klicken und den Verkauf löschen. In Kuulab finden die meisten der maschinellen Lern- und Deep-Learning-Bibliotheken vorinstalliert. Wenn etwas nicht installiert ist, können Sie hier pip installieren und installieren. Wallabies mögen Linux-Umgebung. Sie können Ausrufezeichen Ellis machen und alle Dateien sehen, die hier vorhanden sind. Derzeit gibt es nichts, was ein Beispieldatenordner in Ihrem kolumbianischen Moment ist. Und alle Dateien werden im Google Drive gespeichert. Übertragen Sie dies, um Ihre Dateien in den kolumbianischen Moment zu holen. Wir gehen zu unserem GitHub-Repository. Und wir haben bereits die Pickle-Dateien in dieses Repository auf GitHub hochgeladen, futuristisch erfahrene ML-Modellbereitstellung. Wählen Sie die klassifizierte oder typische. Stark kann herunterladen und kopieren Sie die Link-Adresse, gehen Sie zum kolumbianischen Robert und machen Sie eine Linux W bekommen. Und der Pfad stellt sicher, dass der Dateipfad Zeile ist. Holen Sie sich die Datei, tun Sie ls, um zu sehen, ob die Datei kopiert wurde oder nicht. Als nächstes holen wir uns den Standard-Scaler. Klicken Sie auf eine CDO Essiggurke, oder? T kann herunterladen, Link Adresse kopieren, nicht ein W GET tun und die Standard-Scaler Pickle Datei erhalten. Jetzt können wir sehen, beide die eingelegten Dateien sind im kolumbianischen Moment verfügbar. Wir haben die Moral in den kolumbianischen Moment hochgeladen. Hier in diesem Notizbuch. Wir wissen nicht, wie die Modelle gebaut wurden, geschult werden, aber wir können diese Modelle verwenden, um ähnliche Vorhersagen zu machen, wie Sie es früher getan haben. Erstellen Sie ein Klassifikationsobjekt. Wir nennen es Klassifikator-Zusammenbruch. Erstellen Sie ein skalares Objekt. Und wir werden diesen Klassifikator und Gelehrten benutzen, um vorherzusagen. Geben Sie einfach den Variablennamen ein und drücken Sie Enter. Wir werden die Ausgabe sehen. Die Vorhersage ist also 0. Es ist dasselbe wie, was wir früher für einen Kunden mit dem Alter 40 bekommen haben und plötzlich 20 Tausend werden gehen Wahrscheinlichkeit auch bekommen. Sie können es auch in der gleichen Zelle drucken. Das letzte Land wird gedruckt. So sehen wir 20% Wahrscheinlichkeit, dass jemand im Alter von 40 und solide 20 Tausend kaufen das Produkt wird das gleiche für Alter von 42 und san-Seriif 50 Tausend tun. Vorhersage ist eins. Die Wahrscheinlichkeit ist 0,6, weil wir nicht die rechte Kante gesetzt haben. Lass es uns nochmal laufen. Diesmal kriegen wir 80. Auf diese Weise können wir Modelle in einer Umgebung trainieren und sie in eine völlig neue Umgebung bringen und sie töten. Sie geben das Modell an ein anderes Team oder einen anderen Drittanbieter. Sie wussten nicht, wie Sie gebaut geben Sie in Ihr Modell all das Geräusch. Es ist ein Klassifikator, es nimmt Wert in einem bestimmten Format. Und Gibbs zweifeln. 11. Flask Webframework verstehen: Als nächstes werden wir verstehen, wie das maschinelle Lernmodell mit Rest-API-Neustarts pro repräsentativen Staatstransport verfügbar gemacht wird. Rest ist eine beliebte Möglichkeit, umfangreiche Daten in der realen Welt zu erhalten. Sie können eine Anwendung mit Java, Scala oder einer anderen Technologie erstellen , und Sie können sie mit einer Ruheschnittstelle der Außenwelt zugänglich machen. Und in der Tat, Client möchte Ihre Anwendung verwenden oder auf die Daten zugreifen, können sie dies mit Handgelenkdaten tun wird in der Regel im XML- oder JSON-Format über HTTP-Protokoll erweitert. Flask ist ein beliebtes Framework, um Rest-API für eine Python Anwendung zu erstellen. Schauen wir uns zuerst eine helloworld Flask Rest API-Anwendung an. Dann tauchen wir ein, unser maschinelles Lernmodell der restlichen API zur Verfügung zu stellen. In Spider hat neue Python Datei erstellt. Wir werden es Flask Halloworld nennen. Um eine Flasche Christy EPA zu bauen, importieren Sie Flask und das zugehörige Anforderungsobjekt aus der Flask-Bibliothek. Sie können zur Flask-Dokumentation gehen, um mehr darüber zu erfahren, wie Sie eine Flask-Anwendung erstellen. Moment folgen Sie einfach dieser Syntax und mit ein paar Codezeilen können Sie sie als TPA erstellen. Wir werden ein Endpoint-Klassenmodell deklarieren. Und wer wird Post Anfrage in dieser Anwendung erhalten. Mit Post können Sie einige Daten an die restliche API senden und eine Antwort erhalten. Wenn Sie Git verwenden, können Sie nur eine Antwort erhalten. Lass uns eine Hallo Welt-Funktion haben. In diesem Beispiel senden wir die Daten im JSON-Format und empfangen sie im JSON-Format. Hier, unabhängig davon, welche Daten wir die Anfrage im JSON-Format erhalten, wir speichern sie in Anfrage Unterstreichungsdaten werden den Modellnamen in der Anfrage übergeben , die abgerufen und dem Benutzer angezeigt wird. Jeder könnte den Modellnamen darstellen, der diesen letzten Modellierungspunkt aufruft , zeigt eine einfache Zeichenfolge die Sie für eine mit Python String-Interpolation anfordern. Wir zeigen das Modell Nim an. Fügen wir nun eine Hauptmethode hinzu. Gibt die Portnummer an, so dass beim Start der App an diesem bestimmten Port ausgeführt wird. Lassen Sie uns die Anwendung in der lokalen Umgebung starten. Wenn jemand es verwenden möchte, wird es mit diesem Klassenmodell aufrufen, das Sie sind. Jetzt um zu rennen. Es wird zur Eingabeaufforderung gehen und das Programm starten. Schauen wir uns die Eingabeaufforderung Premier an. Jetzt fangen wir an. Obwohl. Helloworld Programm, Darpa ist jetzt gestartet. Wir haben eine einfache Rest-API erstellt, die an Port 8 Tausend läuft. Lassen Sie uns jetzt sehen, wie Daten zu dieser App übertragen und eine Antwort zu erhalten. Wir werden eine neue Python Datei erstellen. Wir nennen es Restaurant einen Geltungsbereich Pflanze Punkt. Da Sie die Daten im JSON-Format senden, importieren wir JSON First. Wir müssen auch die Anforderungsbibliothek importieren. Request ist die HTTP-Bibliothek. Und du könntest einfach darüber schweben und mehr darüber lesen. Verwenden von Anfragen. Sie können eine HTTP-Anfrage senden. Nun lassen Sie uns eine Variable für die URL haben. Geben Sie im Servernamen ein. Wir können localhost hinzufügen, oder wir können die IP-Adresse setzen, die in der Konsole angezeigt wurde, 1270018 Tausend, die auf den lokalen Host zeigt, wird sehr einfache Anforderungsdaten im JSON-Format mit einem Schlüssel und einem Wert haben. Und wir sind vorbei an KnN ist die modale Gliedmaße. Jetzt senden wir eine Post-Anfrage, möglicherweise URN Daten im JSON-Format eingeben. Und aus dem Antwortobjekt können wir den Text extrahieren und ausdrucken. Jetzt lassen Sie uns es laufen und sehen Sie die Ausgangsleistung. Jetzt können wir die Ausgabe sehen, die Sie für ein KNN-Modell anfordern, das von grace TPA kommt. 12. Erstellen einer REST API für das Klassifikationsmodell: Als nächstes erstellen wir eine Liste EPA für das maschinelle Lernmodell , so dass jeder das Risiko EPA aufrufen und Vorhersagen machen kann. Lassen Sie uns eine neue Python Datei erstellen. Wir nennen es Klassifikator Rest Service dot pi. Lassen Sie uns den Code aus der HelloWorld Python Anwendung kopieren. Und wir werden Gurke importieren, importieren numpy wird die Gurken-Dateien beherrschen. Wir verwenden die lokalen Klassifikatoren, um die Daten vorherzusagen. Für jede Hecke. Und Gehalt wird den Agent Gehalt von der Anfrage abrufen wird zuerst h darstellen, dann das Gehalt. Wir übergeben jetzt Schwule in Gehaltskantenvariablen an den Klassifikator, um vorherzusagen. Und was auch immer wir Vorhersagen haben, wir werden sie zurückgeben. Die Vorhersage ist und übergeben Sie die Prognosevariable zu verschiedenen Zeiten. Jetzt lassen Sie uns diese Anwendung ausführen. Wir werden Python Klassifikator sagen, rr Wizard. Mittlerweile läuft es am Hafen 8 Tausend. Lassen Sie uns die Machine Learning Klasse löschen. Wir nennen es einen Meld Rest Client. Lassen Sie uns den Code von hier kopieren. Und anstatt tödliche kNN zu haben, verwenden wir jetzt zwei Parameter, die ein numerischer Wert ist, sagen wir 40. Und wir lieben Gehalt, 20 Tausend. Wir übergeben jetzt zwei Variablen. Und mit diesen beiden Variablen werden wir die Klassifikator-Vorhersagemethode aufrufen , um die Vorhersage zu erhalten, wo es 0 oder eins geben wird. Und basierend auf dieser Vorhersage, zurück zu obwohl Client jetzt, lassen Sie es uns ausführen. Wir werden es an einem anderen Hafen betreiben. Lets löschen Sie die Konsole und sind da, um Aussage für Agent Gehalt zu drucken , so dass wir wissen, was Wahnsinn ist oder übergeben werden. Lassen Sie uns es laufen und sehen, ob alles in Ordnung ist. Es hat sich gut zusammengestellt. Lassen Sie es nun von der Eingabeaufforderung aus ausführen. Es läuft an Port 8 Tausend bis jetzt. Und wir gehen zum Mail-Client und rufen es mit dem Alter für die Sangre 20 Tausend. Die Vorhersage ist 0. Wenn wir es mit dem Alter 42 und Gehalt nennen, 50 Tausend aufgezeichnet, ist die Vorhersage eins. Anstelle von zwei endgültigen Vorhersagen können wir auch die Wahrscheinlichkeit oder das Risiko TPA bestimmen. Wir können sehen, die Vorhersage ist 0,8. Und wenn wir es auf 4020.000 ändern, sollten wir 0,2 bekommen. Wir haben gesehen, wie man eine Rest-API erstellt, mit der die Clients auf das maschinelle Lernmodell zugreifen und die Vorhersage erhalten können. Und diese Clients können dort in Python, Java oder einer anderen Sprache ausgeführt werden. Sie können Daten über HTTP senden und eine Antwort auf das, was BIP ist. Also, wenn Sie einen Ruheruf machen wird nicht nur darüber, wie die Anwendung geschrieben wird. So können wir Ihr Python Modell für maschinelles Lernen anderen Anwendungen aussetzen , die mit Python geschrieben werden. 13. Lineare Regression: Lassen Sie uns also die lineare Regression durch ein einfaches Beispiel verstehen. Im Gegensatz zur Klassifizierung, wo wir die Klasse der Ausgabe vorhersagen. Hier prognostizieren wir kontinuierliche Werte. Zum Beispiel, wenn dieses Diagramm zeigt, was ist der Autopreis für eine bestimmte Anzahl von Zylindern, dann können wir angesichts einer Anzahl von Zylindern, den Preis vorhersagen? Diese Art der Vorhersage wird als Verordnung bezeichnet. Nun angesichts dieser Daten Punkte, wie bestimmen wir den Autopreis eines neuen Autos für eine bestimmte Anzahl von Zylindern? Mit linearer Regression können wir dieses Problem leicht lösen. Lineare Regression ist nichts anderes als zu versuchen, die Linie zu finden, die am besten zu diesen Punkten passt. Und wie bestimmen wir diese Linie? Es wird basierend auf einer Formel namens Y berechnet, entspricht einem Plus bx, wobei a der Schnittpunkt und b der Koeffizient der Linie ist. Jetzt brauchen wir einen neuen Punkt, wenn wir den x-Wert kennen, dann können wir leicht den y-Wert bestimmen, indem wir diese Formel verwenden. Scikit-Learn und andere maschinelle Lernbibliotheken bieten Ihnen eine Klasse, mit der Sie verschiedene Datenpunkte füttern und diese Aggression oder den Prädiktor erhalten können. Wie bestimmt das Modell die am besten passende Linie? Und woher wissen wir die Genauigkeit der Vorhersage? Dies geschieht durch ein einfaches Konzept namens r-squared, das auch als Koeffizient der Bestimmung bekannt ist. Was das bedeutet, ist, wie gut die Linie im Vergleich zu der Linie ist, die durch den Mittelwert aller Punkte dargestellt wird. Wenn dies beispielsweise der Mittelwert aller Datenpunkte ist, können wir auch mit diesem Mittelwert vorhersagen. Aber wenn wir mit einer neuen linearen Regression in der Linienbreite kommen, müssen wir sehen, wie gut diese Spur im Vergleich zu dieser Linie ist. Jetzt ist es einfach, das R-Quadrat-Wertkonzept zu berechnen. Sie berechnen, was der Fehler für jeden der Punkte ist. Das bedeutet, wie weit ist die Linie vom tatsächlichen Wert entfernt? Für irgendeinen Punkt? Wenn dies der tatsächliche Wert ist, fängt der Punkt mit der vertikalen roten Linie ab, der Prädiktor ist der vorhergesagte Wert. Der Abstand in Rot stellt den Verlust oder den Fehler in der Vorhersage dar. Sie berechnen den Verlust für jeden Punkt. Machen Sie ein Quadrat davon, und addieren Sie es, erhalten Sie die Summe der Residuen, die hier im Zähler angezeigt wird. In ähnlicher Weise berechnen Sie, wie weit die Mittellinie vom tatsächlichen Wert entfernt ist, der hier grün dargestellt wird. Also, das ist die Summe der Quadrate bis Summen niedriger der Fehler niedriger ist der Wert der Summe des Quadrats der Residuen. So wird der Zähler zu 0 neigen. Wenn das Modell genauer wird. Das bedeutet, dass R-Quadratwert näher an eins für eine höhere Genauigkeit Modellierung wäre. So höher ist das Fensterteil Quadrat besser die Genauigkeit. Und R-squared kann nie Maxwell eine Schleife machen. R-Quadrat wird auch als Bestimmungskoeffizient bezeichnet. Sie können sich an die genaue Formel des R-Quadrats erinnern oder nicht erinnern. Aber für jedes Modell finden Sie eine Methode, um den R-Quadrat-Wert zu erhalten. Hollywood zu überprüfen ist, ob es in der Nähe eines ist oder nicht. Wenn der Wert nahe an einem Wert liegt, wissen Sie, dass Ihr Modell sehr genau ist. Lassen Sie uns dieses Konzept anwenden und einen Anwendungsfall lösen. Dann werden wir sehen, wie Formeln zu extrahieren und dann die Formel verwenden, um die Ausgabe für neue Werte vorherzusagen. Wir haben einen neuen Datensatz namens Haus betet dot csv. So sind es zwei Felder, Entfernung und Preis. So Entfernung stellt dar, was ist die Entfernung des Hauses vom Stadtzentrum und, und stellt dar, was der Hauspreis ist. So wie Sie sehen können, sind höher die Entfernung niedriger ist der Preis. Nun, wie berechnen wir, wie Sprays eines neuen Hauses, das in einer bestimmten Entfernung vom Stadtzentrum ist. Wir müssen ein maschinelles Lernmodell mit der linearen Regressionstechnik erstellen, die Sie aus diesen Daten lernen und ein Modell erstellen , mit dem wir Hausspiele für neue Datenmengen vorhersagen können. Lassen Sie uns die Standardbibliotheken importieren. Dieses Mal werden wir auch matplotlib importieren, so dass wir den Preis und die Entfernung des Hauses darstellen können. Als nächstes laden wir den Datensatz in einen Pandas DataFrame. So wie Sie sehen können, die Anzeige auf den Pandas DataFrame geladen. Lassen Sie es uns beschreiben, um einige statistische Informationen zu erhalten. Wir können sehen, es gibt 40 Datensätze und den Mittelwert, Standardabweichung und andere Werte. Lassen Sie uns die unabhängigen und abhängigen Variablen trennen. X wird die Entfernung zum Stadtzentrum haben und warum Sie den Hauspreis verlassen haben. An diesem Punkt. Wir können auch den Hauspreis und die Entfernung plotten, um zu sehen, wie es auf einem Diagramm aussieht. Wir können sehen, dass es eine lineare Beziehung gibt. Wenn die Entfernung zunimmt, gehen die Immobilienpreise nach unten. Und das ist in einer linearen Art und Weise. Wenn Sie nun lineare Regression verwenden, müssen Sie eine Linie finden, die diese Punkte am besten darstellt. Und wenn Sie dies verwenden, wird die Ausgabe für neue Datenpunkte prognostiziert. Wir werden es vorerst auskommentieren. Lass es uns nochmal laufen. Jetzt mit scikit-learn Zug test split erstellt die Trainingsdaten und Testdaten mit 32 Datensätzen für Training und acht Aufzeichnungen zum Testen. Scikit-Learn bietet in linearer Regressionsklasse , mit der wir ein Regressionsobjekt erstellen können, das unser Modell sein wird. Dies ist also die Aggression die Linie oder das Modell, das auf den Trainingsdaten trainiert wurde. Aus der Regression können wir den R-Quadratwert leicht berechnen. Es gibt eine Punktemethode, die uns das R-Quadrat gibt. Wird der R-Quadratwert drucken 0,807. Aus dem Regressoren können wir leicht bestimmen, dass der Abfangkoeffizient für unseren Schnittpunkt 610710 ist. Holen wir uns jetzt den Koeffizienten. Koeffizient ist minus 72635, weil unsere Hauspreise sinken, wenn die Entfernung zunimmt. Hier sind wir also ein einziger negativer Koeffizient. Nun, jeder, der unser Modell benutzen will, kann diesen Abfang und Koeffizienten nehmen und den Hauspreis bekommen. Wir müssen ihnen die Regressor-Klasse nicht im Binärformat senden oder dieses Modell exportieren. Alles, was wir teilen müssen, ist die Formel. So wird unsere Formel Y gleich Schnittpunkt plus Koeffizient multipliziert mit x. So ist es die Sequenz 610710 minus 72635 multipliziert mit der Entfernung wird zuerst mit der Prädiktormethode vorhersagen, wird die Trainingsdaten an die Regression und erhalten Sie die Vorhersage. Das ist also der vorhergesagte Hauspreis. Vergleichen wir es mit dem Gefängnishaus. Wir können sehen, dass es für einige Fälle sehr nah ist. In einigen Fällen ist es etwas abseits vom tatsächlichen Preis. Dies sind die tatsächlichen Preise, das sind die prognostizierten Werte. Wir können auch den prognostizierten Wert und den tatsächlichen Wert darstellen. Erstellt ein Streudiagramm für die Istwerte pro Planwertperiode L-Liniendiagramm. Diese Linie repräsentiert also unseren Grad oder unseren Prädiktor. Jetzt für jeden neuen Punkt, können wir leicht den Hauspreis aufgrund der Entfernung zu den Bürgern bestimmen. Lassen Sie uns jetzt den Hauspreis für ein Haus vorhersagen, das 2,5 km vom Stadtzentrum entfernt ist . Der Wert kommt um 1449100 auf 0. Wir können auch die gleiche Ausgabe mit der Formel y gleich Schnittpunkt plus Koeffizient multipliziert mit dem X-Wert erhalten. Also haben wir vier zu 91 zu 0. Nun, um dieses Modell mit jedem zu teilen, können wir die Formel teilen. Wir können auch Pickle-Dateien erstellen und Rest-APIs erstellen, aber dies ist eine der Optionen, die verfügbar ist, um lineare Regressionsmodelle zu exportieren.