Transkripte
1. Einführung: Hallo, alle, und ich bin froh, in diesen Kernen künstliche Intelligenz,
maschinelles Lernen,
Deep Learning,
neuronale Netzwerke und Big Data zu sehen maschinelles Lernen, Deep Learning, . All diese Begriffe und Technologien werden heutzutage immer häufiger verwendet. Erst vor 40 Jahren konnten
wir über diese Dinge nur in einigen futuristischen Büchern oder Zeitschriften lesen, während sie jetzt, ob wir sie verstehen oder nicht, bereits zu einem wichtigen Teil unseres Alltags werden. Bei der Recherche nach
Nachrichten zeigen uns Nachrichtenaggregatoren im Internet genau die Nachrichten, an denen wir am meisten
interessiert sein könnten . Dasselbe passiert in sozialen Netzwerken auf YouTube-Musikdiensten, wo wir genau jene Videos,
Songs oder Bilder zeigen , die Ihnen höchstwahrscheinlich gefallen werden. Computer können unsere Rede bereits erkennen, und die automatische Übersetzung von Google übersetzen funktioniert viel besser als vor fünf
Jahren . Bild- und Umwelterkennungstechniken werden in autonomen Autos verwendet, die bereits
herumfahren , sind sehr Städte in der Anzahl der autonomen Autos, nimmt
zu, bekommen einen enormen Raum, und fast alle Autohersteller entwickeln diese Technologie. Darüber hinaus wird
KI von Banken verwendet, um die Kreditwürdigkeit aus einem möglichen Krieg Krieg Verkaufs- und
Marketing-Abteilungen in Unternehmen zu entscheiden , verwenden es, um Verkäufe vorherzusagen und mehr personalisierte Empfehlungen für jeden Kunden. Riesige Budgets werden für gezielte Werbung ausgegeben, die immer gezielter wird. Dank Machine Learning Technologien. E. Ich werde besonders relevant in der Medizin, wo neuronale Netzwerke das Vorhandensein von schweren Krankheiten viel genauer erkennen können als die meisten professionellen Ärzte. Wie Sie sehen können, ist
das Anwendungsspektrum von KI sehr umfangreich, und diese Technologien werden bereits in mehreren Branchen eingesetzt und da das Anwendungsspektrum fast alle Bereiche
abdeckt, erfordert
dies eine große Anzahl von Spezialitäten , die in der Funktionsweise ihrer Divisional Intelligence und Machine Learning Algorithmen gut gerundet sind. Und das ist der Grund, warum heute
jeder, der seinen Träger entwickeln will, braucht einen Priester, ein grundlegendes Verständnis,
Husten, Husten, künstliche Intelligenz und maschinelles Lernen. Nach verschiedenen Schätzungen gibt es weltweit nur etwa 300.000 KI-Experten, von nur 10.000 sehr starke Fachleute sind, die an großen Projekten arbeiten. Es wird geschätzt, dass in naher Zukunft die Nachfrage nach solchen Spezialisten auf 30 Millionen Menschen wachsen wird und in der
Zukunft weiter wachsen wird,
was bedeutet, dass es für Jetzt gibt es einen großen Mangel an Experten, die verstehen und in der Lage sind arbeiten mit den Technologien sowohl von KI als auch von maschinellem Lernen. Viele technologische Giganten wie Google, Netflix, Alibaba, Tencent, Facebook beschwerte sich über den Mangel an hochwertigen Spezialisten und Gehälter für solche offenen Stellen sind eine der höchsten auf dem Markt heute, vor allem mit zwei oder drei Jahren Erfahrung auf dem Gebiet der Big Data. Und KI kann mehr als $150.000 pro Jahr in Amerika,
Europa und China erhalten , und der beste Spezialist, der von $1.000.000 pro Jahr und mehr gelernt hat. Unnötig zu sagen über die zahlreichen Start-ups im Bereich der KI, die jede Woche gestartet werden und riesige Runden von Investitionen anziehen,
diejenigen, um A zusammenzufassen, wird bereits in unserem Leben von vielen Unternehmen und Dienstleistungen verwendet. Manchmal, selbst wenn wir es nicht bemerkt haben. Im Allgemeinen macht
es unsere Erfahrung aus Vertrag gehören die umgebende Qualität, mehr personalisiert und bequem. Es gibt viele Bereiche und Branchen, in denen die Norwich aus einem I in die Praxis umgesetzt werden kann, und es gibt einen offensichtlichen Mangel an Spezialisten in diesem Bereich, und sie werden in den nächsten zwei Jahrzehnten gefragt sein, zumindest in diesem Kurs, Sie geben die Grundidee davon, was ein I und maschinelles Lernen Auto Ihnen über seine wichtigsten
Tauchgänge erzählen . Algorithmen, die Modelle zeigen Ihnen, wo Sie nach Daten für die Analyse und Praxis mit Ihnen suchen. Wie man einige echte Probleme mit dem maschinellen Lernen löst. Wir bieten Ihnen auch eine kurze Einführung in das Tragen der per Telefon, eine Programmiersprache, die verwendet wird, um die meisten Maschinen in Fondles zu bauen. Nachdem Sie diesen Kurs bestanden
haben, werden Sie in der Lage sein, frei zu diesen Themen zu kommunizieren, und Sie werden in der Lage sein, Ihre eigenen einfachen vorausschauenden Modelle C innerhalb des
Kurses zu erstellen .
2. Die Geschichte der künstlichen Intelligenz: in den letzten Jahren die Begriffe künstliche Intelligenz, maschinelles Lernen, neuronale Netzwerke, Big Data vielleicht eines der am meisten diskutierten Themen der ganzen Welt heute geworden. Auf die faulen Menschen sprechen nicht über ein I. jedoch daran erinnert werden, Es muss
jedoch daran erinnert werden,dass künstliche Intelligenz ist nicht etwas, das Sie und diese Disziplin seit mehreren Jahrzehnten. In der Mitte des 20. Jahrhunderts begannen Wissenschaftler darüber nachzudenken, ob Maschinen Intelligenz haben können. Zurück im Jahr 1950 der englische Mathematiker Freiwilligenarbeit vorgeschlagen, dass Hörtest, dessen Zweck war zu bestimmen, ob eine Maschine kann denken und täuschen eine Person, so dass er glauben, dass er mit der gleichen Person wie sich selbst kommuniziert und nicht mit auf dem Computer. Im selben Jahr führte
Science-Fiction-Schriftsteller I Sock Icing Off die drei Gesetze der Robotik ein, in denen er andeutete, wie die Beziehung zwischen Mensch und Roboter sein sollte. 1955 hielt eine Gruppe von Wissenschaftlern ein Seminar ab, in dem sie über die Zukunft der Computer diskutierten. Einer der Anwesenden war John McCarty, der zum ersten Mal den Begriff künstliche Intelligenz geprägt hat. Daher ist
es 1955, das als das Jahr vor der Geburt eines I. Drei Jahre später, die gleiche McCarty erstellt die Programmiersprache am wenigsten, die die Hauptsprache wurde, mit der für die nächsten zwei arbeiten Jahren. Im Jahr 1956 schuf Ingenieur Artur Samil den weltweit ersten selbstfremden Computer, der Dame
spielen konnte . Dame wurden aufgrund der Tatsache gewählt, dass sie elementare Regeln hatten, und zur gleichen Zeit, wenn Sie sie gewinnen wollten, dann müssen Sie eine bestimmte Strategie folgen. Dieser Computer, von Samil Learned auf Simple Books
erstellt wurde, beschreibt Hunderte von Spielen mit guten und schlechten Bewegungen im selben Jahr. Im Jahr 1956 kamen Helber Simon Alan, You Oh und Clifford Chou mit einem Programm namens The Logic Theories. Es wird angenommen, dass dies eines der ersten Programme mit einem I. Die Logiktheorien haben eine gute Arbeit mit der begrenzten Bandbreite von Problemen, zum Beispiel Probleme in der Geometrie und war sogar in der Lage, die gleiche, wörtliche Dreieckstheorie, ähm, eleganter als ihr Trend. Russell. Im nächsten Jahr kam
1957 Front krosen lot mit Perceptron,
das war ein Lernsystem, das nicht nur in Übereinstimmung mit gegebenen Algorithmen und
Formeln, sondern auch auf der Grundlage von Erfahrungen aus der Vergangenheit handelte . Es ist wichtig, hier zu beachten, dass Perceptron das erste System war, das neuronale Netze nutzte. Selbst dann verstanden
Wissenschaftler, dass einige Probleme von einer Person sehr schnell verkauft werden, während sie viel Zeit von einem Computer nehmen . Daher dachten
sie, dass es vielleicht notwendig ist, die Struktur des menschlichen Gehirns zu reproduzieren um der Computerzehenarbeit so schnell beizubringen. Sie nennen die einfachsten Elemente der Perceptron-Neuronen, weil sie sich ähnlich
verhalten wie die Neuronen im menschlichen Gehirn. Das Computermodell aus dem Perceptron wurde 1960 in Form des ersten
neueren Computers,der Mark eins
genannt wurde, implementiert neueren Computers, . Fast zur gleichen Zeit gründete ein mächtiges Institut ein Labor. Lassen Sie uns hier ein Beispiel geben. Die Frage. Wie lernen kleine Kinder? Sie werden eine Art von Objekt gezeigt, und sie sagen, dass dies ein Stier und dies ein Würfel ist. Schließlich haben
wir dem Kind nicht erklärt, dass der Würfel alle Winkel von 90 Dekrete hat und alle Seiten gleich
sind und der Ball das Konzept von Radios im Durchmesser hat, daher sieht
die Schale einfach eine Menge ähnlicher -Objekte. Viele verschiedene Bälle und andere Objekte eine Schreibmaschine, einen Tisch, ein Flugzeug von uns bekommen. Und nach einer Weile beginnt
das Kind, all dieses Objekt unabhängig voneinander zu unterscheiden, auch wenn sie eine andere Farbe haben oder sich in ihrer Form leicht unterscheiden. Wenn der Computeralgorithmus aus einer großen Anzahl von Beispielen lernt, wird
dies maschinelles Lernen genannt. Künstliche Intelligenz
wiederum
bedeutet, dass der Algorithmus, der von Beispielen lernt, verschiedene intellektuelle Probleme lösen kann. Also lasst uns das in das nächste Jahrzehnt durchmachen. Es war im Jahr 1961, dass General Motors den ersten Roboter in seinem Herstellungsprozess
von Autos eingeführt . Im Jahr 1965
wurde das erste Kind geboren ELISA, erfunden. ELISA sollte einen Psychotherapeuten nachahmen, der den Patienten nach seinem Zustand fragte und mögliche Lösungen vorschlug oder einfach mit dem Gesprächspartner sympathisieren konnte. Es stellte sich heraus, dass das Gespräch mit ELISA Menschen die gleichen Emotionen und
Gefühle erleben wie mit einer echten Person. 1974 wurde das erste unbemannte Fahrzeug im Labor der Stanford University erfunden. Es würde bald zum Prototyp für die folgenden Eckmodelle im Jahr 1978 Douglas Lynn werden und schuf das Your Risk Selber Kriegssystem. Das System klärte nicht nur bereits bekannte Muster, sondern schlug auch neue vor. Ein paar Jahre später, Sie riskieren ein gelernt, solche Probleme wie mehr tun biologische Evolution zu lösen, Reinigung des Dienstes von Chemikalien, Platzierung Elemente auf integrierten Schaltungen und so weiter. Du bist Iskan ist eine Reihe von logischen Regeln. Wenn dann Yuri Sticks und Regel, die in vielen Fällen funktioniert, aber nicht in allen. Es ermöglicht Ihnen, schnell eine Entscheidung zu treffen, wenn es keine Möglichkeit gibt, eine vollständige Analyse
von der Situation durchzuführen . Zum Beispiel, wie man schmackhaft von geschmacklosen Speisen unterscheidet? Wenn es Zucker, als es ist köstlich, Es funktioniert, aber nicht immer. Zum Beispiel, verkaufen Sie es oder gebratenes Fleisch oder Zucker ist auch nicht immer tief bleibt. Zum Beispiel, treffen mit Zucker Yuri Sticks kann kompliziert oder ergänzt werden. Zum Beispiel Obst oder eine Kombination von Produkten entweder köstlich werden. Die Maschine selbst lernte, sie aus Erfahrung zu erfinden. Wir geben Beispiel, so dass der Algorithmus und es findet bereits Muster. Die Maschine kann das Aussehen mehr Optionen als Menschen sortieren. Wenn Kunden es nicht mögen, dann ist dies vielleicht eine schlechte Kombination von Ente mit Äpfeln. - Was? Es gibt nicht genug Quelle. Gehen wir also zum Ende des 20. Jahrhunderts, 1989 schuf Carnegie Mellon ein unbemanntes Fahrzeug mit neuronalen Netzen. 1988 spielt der tiefe Gedankencomputer gegen Kasparov, Jess Champion, aber verliert ihn nach acht Jahren. Sie haben ein anderes Spiel im Spiel. Kasparov ist stärker als der Computer, aber nur das Jahr Führer. 1997 besiegt das hochgradig aufgerüstete A I D blau von IBM Gary Kasparov und wird zum ersten Computer. Der Sieg gegen den aktuellen Schachweltmeister De Boop
hat viele Schritte nach vorne gearbeitet und versucht, den am meisten bevorzugten Zug zu finden. Szenen von 2000 Computern haben den Menschen konsequent übertroffen. Im Jahr 1999 kündigt Sunny den Hund Aibo an, dessen Fähigkeiten und Verhalten sich im selben Jahr im Laufe der Zeit entwickeln. Zum ersten Mal M. I. zeigte
M.
I.
T eine emotionale KI namens Kiss gemeint, die die Emotionen der Menschen erkennen und
darauf reagieren kann . Nach sauber. In 2000 und zwei, beginnt
die Massenproduktion von Autonomous My Robot Staubsauger, die im Haus auf eigene Faust bewegen können, Vermeidung von Hindernissen Im Jahr 2000 und neun Google trat das Rennen der Unternehmen zu entwickeln ihre eigenes unbemanntes Fahrzeug im Jahr 2011. Intelligente virtuelle Assistenten wie Siri, Google Now und Cortana erscheinen im Jahr 2014. Alexa, von Amazon, wird ihnen beitreten und im Jahr 2017 zumindest von Yandex. Denken Sie daran, wir sprachen über den Turing-Test
, der 1950 durch Freiwilligenarbeit erfunden wurde. Es war beabsichtigt, zu verstehen, ob ein Ich eine Person täuschen und ihn davon überzeugen kann, dass es kein Computer vor ihm von der Person ist. So im Jahr 2014 das Computer-Kinderboot Eugene Guzman bestanden diesen Test, zwingt 1/3 der Jury zu glauben, dass der Computer von einer Person gesteuert wurde, nicht ein I. Im Jahr 2016 die Google Deepmind mit einer AI namens Alphago besiegt vor Champion Go Game ist viel komplizierter als Schach. Es gibt mehr Optionen innerhalb des Spiels und dennoch, gehen wurde das zweite Spiel, in dem die Menschen nicht mehr gewinnen können. Im Jahr 2017 bot mehr als 10 Jahre off Versuche und Fühler. Die beiden Teams entwickelten eigenständig ihre eigenen KI-Modelle, Deep Stack und Liberties Computer, die Poker-Profis schlagen konnten. Im Gegensatz zu gehen Brust, wo alles unterliegt strengen Regeln. Der menschliche Faktor kommt beim Poker in den Vordergrund, weil Poker weitgehend ein psychologisches Spiel ist, das auf Emotionen, nonverbale Kommunikation, der Fähigkeit zu bluffen und Bluffs zu erkennen. Einer der Teilnehmer eines Pokerspiels mit diesen Computern beschreibt seine Eindrücke wie folgt. Es ist wie mit jemandem zu spielen, der all deine Autos sieht. Ich gebe dem neuronalen Netzwerk nicht die Schuld für die volle Platte. Es ist nur so, dass es wirklich so gut ist. Im Jahr 2015 gründete der unmaskierte Präsident von Sam Altman Off Y Combinator Open I, um offene
und freundliche künstliche Intelligenz zu schaffen . Im Jahr 2017 hat sich das Open I ein Entwicklungsteam entschlossen, in Serial Network auch in der größten
Eastport Game Tochter
zu trainieren Eastport Game Tochter . In diesem Spiel, Teams von fünf Menschen spielen, und sie verwenden viele Kombinationen von mehr als 100 Helden. Jeder von ihnen hat seine eigenen Fähigkeiten. In zwei Wochen konnte
das neuronale Netzwerk mehrere der besten Spieler der Welt in
einer Stimmung lernen und besiegen ,
und jetzt bereiten sich seine Schöpfer darauf vor, eine Version für den Hauptmodus zu veröffentlichen. Fünf mal fünf. Zu Beginn des Jahres 2018 sind wir unseren Tagen noch näher gekommen. Die Algorithmen von Taliban Microsoft überraschen die Person im Test für
Leseverständnis im März 2018 einen kleinen Roboter, der ähnlich Rubik's Cube in nur Ihren 20180.38 Sekunden. Der Rekord unter den Menschen davor war 4,69 Sekunden. Einer der wichtigsten Durchbrüche in der Entwicklung von KI, die viele Vorteile für die Menschheit bringen kann,
war, dass im Mai 2018 künstliche Intelligenz besser wurde als Menschen, um
Hautkrebs zu erkennen . Neben der Erkennung von Krankheiten bei Patienten werden heute Algorithmen verwendet, um Proteinfaltung zu untersuchen. Sie versuchen, das Heilmittel für Alzheimer zu finden und Parkinson-Krankheit wird auch verwendet, um den
Energieverbrauch zu reduzieren und neue revolutionäre Materialien zu schaffen. Künstliche Intelligenz wird auch aktiv in der Wirtschaft eingesetzt. Banken verwenden es, um Kredite an Einzelhandelsunternehmen zu genehmigen, sie für gezieltere Werbekampagnen und Angebote für ihre Kunden zu
nutzen. Warum genau in unserer Zeit? A. Ich fing an, so schnell zu sprechen. Dafür gibt es zwei Gründe. Erstens wird
jetzt alle zwei Jahre eine riesige Menge an Informationen in der Welt produziert. Die Menge an Informationen, die die Welt verdoppelt. Und wie wir wissen, lernt
KI aus den verfügbaren Daten und der zweite Grund ist das Vorhandensein einer starken Rechenleistung. Unsere Computer sind heute stark genug, um in der Lage zu sein, riesige Informationsprobleme
in einer relativ begrenzten Zeit zu verarbeiten . So haben wir uns eine kurze Geschichte der Entwicklung von einem I angesehen. In einem der Full Inc Vorträge werden
wir sehen, was von der Entwicklung in der Zukunft erwartet werden kann.
3. Der Unterschied zwischen KI, maschinelles Lernen und Deep Learning: heute die Begriffe künstliche Intelligenz, maschinelles Lernen, Deep Learning, sind
die Begriffe künstliche Intelligenz,
maschinelles Lernen,
Deep Learning,
neuronale Netzwerke und Big Data sehr häufig oder von diesen Begriffen werden austauschbar verwendet. Und obwohl sie wirklich sehr verbunden sind, schauen wir uns an, was jedes dieser Konzepte bedeutet und wie sie sich voneinander unterscheiden. Erstens, um es sehr kurz zu schneiden, ist
KI eine ziemlich breite Branche, die Ausdauer umfasst sowohl maschinelles Lernen kann Deep Learning Machine Learning ein
Considine Teil der KI ist , und Deep Learning ist ein Bestandteil des maschinellen Lernens. Künstliche Intelligenz impliziert, dass ein Computer ähnliche Aufgaben ausführen kann, die eine Person
ausführen kann und sie bald afrikanisch hören kann. Es geht nicht nur um mechanische Aktionen. Zum Beispiel kann
die Einnahme einige Objekte heilen, aber Aufgaben, die intellektuelles Denken erfordern. Das ist, wenn Sie die richtige Entscheidung treffen müssen, zum Beispiel, dass wir auch im Schach sein können oder erkennen, was auf dem Bild gezeigt wird, oder um zu verstehen was der Sprecher gesagt hat und die richtige Antwort geben. Um das zu tun. Computer wird eine Menge Obst oder Algorithmen gegeben, indem sie folgen, denen es solche
intellektuellen Probleme lösen kann . Ich kann schwach sein oder es wird auch schmale ai genannt, das ist, wenn die Maschine nur mit einer
begrenzten Art von Test besser bewältigen kann als eine Person, zum Beispiel,
erkennen, was auf dem Bild ist oder spielen Schach und Zwilling. Jetzt befinden wir uns in diesem Stadium der Entwicklung von einem I. Die nächste Stufe ist die General AI. Wenn die kann jedes intellektuelle Problem sowie Person in der letzten Phase lösen. Ist eine starke künstliche Intelligenz. Wenn die Maschine mit den meisten fertig ist, fragt viel besser als eine Person. Wie wir bereits gesagt haben, ist
künstliche Intelligenz ein ziemlich großer Wissensbereich. Er hat nicht die folgende Pflege der natürlichen Sprache Verarbeitung geschlossen, wenn der Computer muss verstehen, was geschrieben ist und geben die richtige und relevante Antwort. Dies umfasst auch Übersetzungen von Text und sogar Zusammenstellung von komplexen Texten durch Computer, zweite Expertensysteme oder Computersysteme, die ähnlich, die Fähigkeit einer Person, Entscheidungen vor allem unter Verwendung der wenn dann Regeln zu treffen. Anstatt irgendeine Art von kalter Sprache zu verwenden, muss
der Computer diese Rede von Menschen erkennen und in der Lage sein, als nächstes ein Computer Vision Computer sollte bestimmte Objekte im Bild erkennen oder wenn sie sich bewegen. Robotik ist auch sehr beliebt Bereich von a. I. Die Schaffung von Robotern, die ausführen können Es gibt Funktionen einschließlich bewegen kann Kommunikation,
Überwindung von Hindernissen, automatisierte Planung. Normalerweise wird es von autonomen Robotern und unbemannten Luftfahrzeugen verwendet, wenn sie
maschinelles Lernen benötigen , um Sequenzinfektionen durchzuführen,
vor allem, wenn es in einem mehrdimensionalen Raum geschieht und wenn sie komplexe
Probleme lösen müssen . Und schließlich erschien
maschinelles Lernen, maschinelles Lernen, nachdem wir lange Zeit versucht hatten, unsere
Computer intelligenterzu machen , unsere
Computer intelligenter ihnen immer mehr Regeln und Vorschriften zu
geben. Aber
es war nicht so eine gute Idee, weil es sehr viel Zeit brauchte und wir konnten nicht
mit Regeln für jedes Detail und für jede Situation kommen . Und dann kamen Wissenschaftler auf die Idee. Warum versuchen Sie nicht die Algorithmen, die unabhängig lernen, basierend auf ihrer Erfahrung? So wurde maschinelles Lernen geboren. Das heißt, wenn Maschinen aus großen Datensätzen lernen können, anstatt explizit geschriebene Anweisungen. Und Truls Machine Learning ist die Ära der KI, in der wir unseren Algorithmus mithilfe von Datensätzen trainieren, was ihn besser,
genauer und effizienter mit maschinellem Lernen macht . Unsere Algorithmen sind auf Daten geschult, aber ohne vorprogrammierte Anweisungen, das heißt, wir geben der Maschine eine große Menge von Daten und sagen die richtigen Antworten. Und dann erstellt die Maschine selbst Algorithmen, die diese Antworten befriedigen würden. Und mit jeder neuen zusätzlichen Menge an Daten, die Maschinengewehre weiter und weiterhin seine Vorhersage zu verbessern. Genauigkeit. Wenn wir Brust in der Tradition Programmierung oder in einem Programm namens A nehmen würde ich der Maschine
die Reihe von logischen Regeln geben und auf ihnen basieren, es lernt, am Beispiel der Maschine zu spielen. Lernen ist, wenn wir der Maschine die Reihe von Beispielen der vergangenen Spiele geben, die er nimmt, erinnert sie und analysiert, warum einige Spieler schwingen und andere, deren welche Schritte zum Erfolg führen und besiegen wollen. Und basierend auf diesen Beispielen erstellt
die Maschine selbst Algorithmen und Regeln, wie man Schach spielt, um zu gewinnen. in einem Beispiel an, Nehmen wirin einem Beispiel an,wir müssen verstehen, wie sich der Preis einer Wohnung verhält, wenn
bestimmte Parameter geändert werden . Zum Beispiel, abhängig von der Gegend, die Entfernung von der U-Bahn Anzahl der Geschichten des Hauses und so weiter. Wir laden keine Daten aus verschiedenen Wohnungen auf dem Computer,
erstellen ein Modell, mit dem es möglich sein wird, Preise in Abhängigkeit von diesen Faktoren vorherzusagen, wir aktualisieren regelmäßig die Daten und unser Algorithmus wird auf der Grundlage dieser geschult neue Daten, und jedes Mal wird es seine Vorhersagegenauigkeit zu verbessern. Deep Learning ist der Teilsektor des maschinellen Lernens, in
dem der Computer lernt, aber ein wenig anders lernt als in der
Standardmaschine . Lernen. Deep Learning verwendet neuronale Netzwerke, die Algorithmen repräsentieren, die die Logik menschlicher Neuronen im Gehirn wiederholen. Große Datenmengen am besten für diese neuronalen Netzwerke und in der Ausgabe wurden die
Antworten auf die Aufgabe gegeben . Neuronale Netze sind viel schwieriger zu verstehen, ungewöhnliches maschinelles Lernen, und wir können nicht immer verstehen, welche Faktoren zu Beginn mehr Gewicht haben. Aber der Einsatz neuronaler Netzwerke hilft auch, sehr komplizierte Probleme zu lösen. Manchmal werden neuronale Netze sogar als Blackbox bezeichnet, weil wir nicht immer verstehen was in diesen Netzwerken geschieht. Angenommen, Ihr Computer wertet aus, wie gut ein Aufsatz geschrieben wird. Wenn Sie Deep Learning verwenden, wird
der Computer Ihnen die endgültige Entscheidung geben, dass der Aufsatz gut ist oder nicht, und wahrscheinlich wäre die Antwort sehr ähnlich, wie eine Person es bewerten würde. Aber Sie werden nicht in der Lage sein zu verstehen, warum eine solche Entscheidung getroffen wurde, weil bedauern mehrere Ebenen von neuronalen Netzwerken verwendet, was es sehr schwierig macht, zu interpretieren. Sie werden nicht wissen, welche Note des neuronalen Netzwerks aktiviert wurde und wie sich der Schnee
zusammen verhält , um dieses Ergebnis zu erzielen. Wo ist, wenn maschinelles Lernen verwenden, zum Beispiel der Algorithmus aus einem Entscheidungsbaum? Dann können Sie sehen, welcher Faktor eine entscheidende Rolle bei der Bestimmung der Qualität ihres
Mitspracherechts gespielt hat. So sind neuronale Netze seit dem 20. Jahrhundert bekannt, aber zu dieser Zeit waren sie nicht so tief. Es gab nur eine oder zwei Schichten, und sie gaben nicht so gute Ergebnisse wie andere Algorithmen aus maschinellem Lernen. Daher verblassten
für einige Zeit neuronale Netzwerke in den Hintergrund. jedoch Sie sindjedochin letzter Zeit populär geworden, vor allem seit etwa 2000 und sechs, als riesige Datensätze und starke Computer-Kapazitäten insbesondere Grafikkarten und
leistungsstarke Prozessoren erschienen , , die in der Lage war, tiefere Schichten von neuronalen Netzwerken zu erstellen und Berechnungen schneller und effizienter durchzuführen. Aus den gleichen Gründen. Der Poulenc ist ziemlich teuer, weil erstens
es schwierig ist, große Daten zu bestimmten Elementen zu sammeln und zweitens, die ernsthaften Rechenfunktionen von Computern sind auch teuer, um es kurz zu schneiden. Wie nimmt bedauernde Eigenart an? Unsere Aufgabe ist es, zu berechnen, wie viele Transporteinheiten und welche Transportmittel das ist . Busse, LKWs, Autos oder Fahrräder fuhren pro Tag durch eine bestimmte Straße, um Fahrspuren für
verschiedene Fahrzeugtypen zu verteilen . Zu diesem Zweck müssen
wir unserem Computer beibringen, Arten von Transport zu erkennen. Wenn wir dieses Problem mit Hilfe von maschinellem Lernen lösen würden, würden
wir einen Algorithmus schreiben, der die richtige Heuristik von Autos,
Bussen,
LKWs und Fahrrädern anzeigt Bussen, . Zum Beispiel, wenn die Anzahl der Räder ist, dann ist es ein Fahrrad. Wenn die Länge eines Fahrzeugs mehr als 56 Meter beträgt, dann ist es ein LKW oder ein Bus. Wenn es viele Fenster gibt, dann ist es ein Bus unverschämt. Aber wie Sie wissen, gibt es viele Leute. Zum Beispiel kann
der Bus getönt werden, und es wird schwierig sein zu verstehen, wo die Fenster sind oder ein LKW kann wie ein Bus aussehen oder umgekehrt. In Florida sehen
Pickup-Autos wie einige kleine Lastwagen aus, und es kann schwierig für Computer sein, zwischen einem Fahrrad und einem Motorrad zu unterscheiden. Daher ist
eine weitere Möglichkeit, dieses Problem zu lösen, eine große Anzahl von Bildern mit
verschiedenen Arten von Transport in unseren Computer hochzuladen und ihm scheinbar zu sagen, welche Bilder das Fahrrad, Auto, LKW oder einen Bus. Der Computer selbst wird beginnen, die Eigenschaften auszuwählen, mit denen er bestimmen kann, welche Art von Transport dargestellt wird und wie sie voneinander unterschieden werden können. Danach werden
wir einige weitere Bilder hochladen und testen, wie gut der Computer mit der Aufgabe fertig wird. Wenn es einen Fehler macht, werden
wir sagen, dass Sie hier einen Fehler gemacht haben. Es ist kein Truck, sondern von uns. Der Computer-Praktikant wird zu seinen Algorithmen zurückkehren. Dies wird durch den Weg zurück Ausbreitung genannt und machen einige Änderungen dort, und wir werden wieder in einem Kreis beginnen, bis der Computer beginnt zu erraten, was auf dem
Bild mit einer sehr hohen Vorhersagegenauigkeit gezeigt wird . Dies wird als Deep Learning basierend auf neuronalen Netzwerken bezeichnet. Wie Sie verstehen, kann
dies ziemlich lange dauern, vielleicht mehrere Wochen, abhängig von der Komplexität der Aufgabe. Es erfordert auch viele Daten. Es ist wünschenswert, dass es mindestens Millionen von Bildern gibt, und alle diese Bilder sollten entweder markiert werden, denn es sollte von einer Person gemacht werden, aber es wird sehr zeitaufwendig sein. In Ordnung. Zusammenfassend ist
Deep Learning ein Zweig des maschinellen Lernens, und beide fallen unter die breitere Definition von Artificial Intelligence Machine Learning verwendet Algorithmen, um aus Daten zu lernen und fundierte Entscheidungen oder Vorhersagen zu treffen auf dem, was es gelernt hat. Deep Learning macht das gleiche, da es auch eine Variation des maschinellen Lernens ist. Aber was anders ist, ist, dass Deep Learning Algorithmen verwendet, die in mehrere Schichten unterteilt sind, um ein künstliches neuronales Netzwerk zu schaffen, das
auch lernen und kluge Entscheidungen treffen kann . Maschine Lauren kann mit kleinen Datensätzen und auf kleinen Datenmengen verwendet werden. Maschinelles Wirbeln und Deep Learning haben fast ähnliche Vorhersagegenauigkeit, aber mit steigenden Datenmengen. Deep Learning ist auch eine viel größere Vorhersagegenauigkeit im maschinellen Lernen. Wir selbst sagten die Eigenschaften, auf denen unsere Algorithmen im Beispiel
mit der Bestimmung des Preises einer Wohnung basieren , wir selbst geben die Parameter an, wann der Preis abhängt. Zum Beispiel die Footageentfernung vom U-Bahn-Zeitalter des Hausgebiets und so weiter. Und in Deep Learning, der Computer oder man könnte sagen, neuronales Netzwerk selbst, durch Versuch und Irrtum kommt mit bestimmten Parametern und dem Gewicht, von dem unsere Ausgabe abhängt. Was die lording Time-Off-Algorithmen angeht, dauert
Deep Learning in der Regel länger als maschinelles Lernen Entschlüsseln oder Interpretieren ihrer Algorithmen aus maschinellem Lernen ist einfacher, da wir sehen welcher Umfang eine wichtige Rolle in Bestimmung der Ausgabe. Zum Beispiel bei der dimensionalen Bestimmung des Preises einer Wohnung sehen, können
wirbei der dimensionalen Bestimmung des Preises einer Wohnung sehen,dass das Gewicht des Filmmaterials im Preis,
sagen wir,
60% im Deep Learning beträgt sagen wir, . Entschlüsseln genau das, was zu einem solchen Ergebnis geführt hat, kann manchmal sehr schwierig sein, da es mehrere Schichten außerhalb neuronaler Netze und viele Parameter
gibt, die der Computer als
wichtig betrachten kann , aber die wir nicht unbedingt sehen. Deshalb wird
Deep Learning, wie wir bereits gesagt haben, wie wir bereits gesagt haben,manchmal die schwarzen Bücher genannt, da wir nicht wissen, welche Parameter von der Maschine im Deep
Learning als wichtig eingestuft wurden . Daher die Verwendung der beklagenswerten Provision während auch vom Zweck Ihrer Aufgabe ab. Zum Beispiel, wenn Sie verstehen müssen, warum der Computer diese oder jene Entscheidung getroffen hat, welcher Faktor eine
wichtige Rolle gespielt hat, dann müssen Sie maschinelles Lernen anstelle von Deep Learning tun. Da die Bereitstellung viel mehr Daten sowie leistungsfähigere Rechenfunktionen
des Computers erfordert , und im Allgemeinen dauert
es länger, um zu lernen. Es ist auch teurer im Vergleich zum maschinellen Lernen. Also, wenn wir die gesamte Vorlesung zusammenfassen, dann überall dort, wo Sprache oder Bilderkennung verwendet wird Robotik, Text oder Sprache, Interpretation oder Übersetzung Chart Boards Fonds bedeutete fahren Anruf Fahrzeuge Vorhersage der einige Parameter basierend auf verfügbaren Daten. All diese Beispiele enthalten die I-Elemente, da KI ein sehr breites Konzept ist, das
all diese Bereiche abdeckt . Wenn ein Computer nachahmen Denken und Verhalten von einer Person in Fällen, in denen wir statt dem Computer schriftliche Anweisungen und Wahrheit zu
geben, um das Problem zu lösen, geben
wir ihm eine Reihe von Daten im Computer, lernt aus diesen Daten, finden einige Muster in Daten und basierend auf solchen Lauren kann dann Vorhersagen machen. Solche Fälle werden als maschinelles Lernen bezeichnet, und eine der Methoden zur Analyse kann. Das Auffinden von Mustern in Daten durch Computer nennt man beklagenswert ,
das mehrere Schichten von künstlichen neuronalen Netzwerken verwendet , was solche Berechnungen einerseits
effizienter macht , aber andererseits mehr
schwer zu entziffern. Ich hoffe, der kurze Sommer war hilfreich. Aber wenn Sie immer noch Schwierigkeiten haben, diese Konzepte außerhalb der Maschine zu verstehen, Gordon kann bedauern. Bitte zögern Sie nicht, mich in den Kommentaren dieses Kurses zu fragen und fühlen Sie sich auch frei , weiterhin die Ergebnisse für sie zu beobachten. Wir sehen uns in den nächsten Vorträgen.
4. Überwacht und unüberwacht maschinelles Lernen: Wenn Sie sich für das Thema Künstliche Intelligenz und Machine Learning interessieren, haben
Sie vielleicht bereits auf solche Konzepte ein überwachtes Lernen und unbeaufsichtigtes
Lernen gestoßen . In diesem Video erfahren
wir, wie sich diese beiden Namen unterscheiden. Zunächst einmal sind
sie beide Arten von maschinellem Lernen. Zweitens bedeutet
überwachtes Lernen nicht notwendigerweise, dass jemand hinter dem Computer steht und jede Aktion steuert. Zusammengefasstes Lernen bedeutet, dass wir die Daten bereits für die weitere Arbeit am
Computer vorbereitet haben, dh jedes Objekt hat ein Etikett. Die Beschriftung unterscheidet das Thema von anderen Objekten oder gibt ihm einen Namen oder einen numerischen Wert. Und der Computer kann Veteranen zwischen den Features von Objekten in ihren Namen finden, basierend auf diesen vorbereiteten oder, wie sie beschriftet Daten genannt werden. Betreutes Lernen umfasst zwei Haupttypen von Aufgaben. Progression und Klassifizierung. Schauen wir uns ein typisches Beispiel Überklassifizierung Problem. Dies ist ein Beispiel für irische Blumendatensatz, der vom britischen Statistiker und
Biologen Ronald Fisher in seiner 1936 Zeitung eingeführt wurde, dieser Datensatz ist bereits klassisch geworden und wird oft verwendet, um die Arbeit sehr statistischer -Algorithmen. Sie können es an der Eisbahn finden, die auf dem Bildschirm angezeigt wird oder einfach durch Googeln von Kindern im
Internet . Also schauen wir es uns in der Natur an. Es gibt drei Arten von Iris Blumen. Sie unterscheiden sich in Bezug auf die Größe des Blütenblattes und der Proben voneinander. Will Eigenschaften der Blumen sind in der Tabelle aufgeführt. Die Spalten geben die Länge und Breite des Blütenblattes sowie die Länge und Breite der Proben an. Der letzte Mais zeigt eine der drei Arten von Kirschen Irish Sentosa, Iris, Virginia und Iris Vertical sind diese Namen Off Typen sind Etiketten für unser Detail. Basierend auf diesen, Daten sagten, wir müssen Deklassifizierungsregel bauen, die die Art der Blume abhängig von ihrer
Größe bestimmt . Dies ist die Aufgabe der Multi Classification, da es freie Klassen drei Arten von Ari Blumen gibt. Im Klassifizierungsalgorithmus teilen
wir unsere Iris in drei Typen auf, abhängig von der Länge und Breite des Kampfes und der Proben. Nächstes Mal, wenn du kommst, überqueren Sie sind Mehl. Mit Hilfe unseres Modells können
wir sofort vorhersagen, zu welchen Spielen diese Blume gehört. Warum betrachten wir dieses Beispiel als überwachtes Lernen? Weil für jede Blume in unserem Training Daten gesagt. Wir haben ein Etikett, ob es irisch ist, Sentosa, IRS, Virginia Iris insbesondere, Das
heißt, Wir handeln als Lehrer und wir lehren unser Modell, bis es, dass, wenn Sie sehen, dass die Wissenschaft der Blütenblatt ist so und so, und die Proben sind so und so, dann ist dies Iris für Jessica. Und wenn die Wissenschaft so und so sind, dann ist dies Iris, wo Fortsetzung oder das wird überwachtes Lernen genannt. Oder manchmal heißt es Learning Curve ein Lehrer, wenn wir unserem Modell alle Antworten zeigen, abhängig von den Eigenschaften, die das Modell auf diesen Daten trägt, und erstellen Sie eine Formel oder Algorithmus, der uns in Zukunft helfen wird, den Typ eines neuen Blume je nach Größe. Neben Klassifizierungsproblemen, die wir gerade am Beispiel der Künstlerblumen erwähnt haben, gibt es eine andere Art betreuten Lernens. Es wird Regression in Klassifizierungsproblemen genannt. Wir haben mehrere Klassen von Objekten, wo in Regressionsproblemen ist. Wir haben nur eine Klasse, aber jedes Objekt unterscheidet sich von den anderen, und wir müssen die konkrete Zahl oder den konkreten Wert von einem neuen Objekt für Objekte vorhersagen abhängig von seinen Eigenschaften und basierend auf dem Datensatz, der für unsere -Computer. Das klassische Beispiel für die Progression ist, wenn wir den Preis einer Wohnung vorhersagen, je verbindet Filmmaterial. Wir haben also eine Art Tabelle mit den Daten aus verschiedenen Abteilungen. In einer Spalte ist das Filmmaterial, und eine andere ist der Preis dieser Wohnungen. Dies ist ein sehr vereinfachtes Beispiel für den Fortschritt, offensichtlich, dass der Preis einer Wohnung von vielen anderen Faktoren abhängt, wie Lage, Qualität des Gebäudes, Anzahl der Geschichten und so weiter. Dennoch zeigt
es deutlich, was Regression ist. Also in der letzten Spalte haben
wir die tatsächlichen oder realen Preise für Wohnungen. Wir erhielten Aufnahmen. Warum wird es betreutes Lernen? Weil wir als Lehrer unser Modell
zeigen, dass, wenn Sie sehen, dass das Material so und so ist, der Preis Sergeant sein wird. Solch das Preis-X-ähnliche Label für jedes Objekt in unserem Datensatz und wann immer Diddy es beschriftet , ist ein Fall von überwachtem Lernen. Basierend auf diesen Daten lernt
das Modell und produziert dann einen Algorithmus, auf dem wir vorhersagen können, welcher
Preis der Wohnung abhängig von einem bestimmten Material sein wird, um
so in überwachtem Lernen zusammenzufassen. Der entscheidende Punkt ist, dass wir Daten in unserem Datensatz beschriftet haben. Das heißt, wir laden Daten mit Antworten in unser Modell, ob es sich um die Klasse handelt, zu der das Objekt gehört, oder es ist eine bestimmte Zahl, wie im Fall von Wohnungspreisen, abhängig von dem Material, das auf diesem basiert -Informationen, lernt
das Modell und erstellt einen Algorithmus, der Vorhersagen machen kann. In Ordnung, also lasst uns weitermachen. Die zweite Art von maschinellem Lernen ist unbeaufsichtigtes Lernen. In diesem Fall erlauben wir unserem Modell, unabhängig zu lernen und Informationen zu finden, die für eine Person möglicherweise nicht sichtbar sind. Im Gegensatz zu betreuten Lernmodellen, die in unüberraschtem Lernen verwendet werden, leiten Muster ab und ziehen
Schlussfolgerungen basierend auf unbeschrifteten Daten. Denken Sie daran, wir hatten ein Beispiel mit Iris Blumen. In den Datensätzen, die wir dem Computer gegeben haben, gab es Antworten, welche Art von Virus wir haben, abhängig von der einen oder anderen Seite des Pedals und Proben und in unbeschrifteten Daten. Wir haben Objekte und ihre Eigenschaften, aber wir haben keine Antwort, zu welcher Art oder Klasse sie gehören. Daher Thema achtziger Jahre genannt unbeschriftet in auf überwachtes Lernen, die mittleren Arten von Aufgaben oder Clustering und Dimensionalitätsreduktion. Sie wissen, dass zeigen Dimensionalitätsreduktion bedeutet, dass wir unnötige oder redundante
Merkmale aus unserem Datensatz entfernen , um die Klassifizierungen unserer Daten zu erleichtern und sie für die Interpretation verständlich zu machen. Und nun schauen wir uns ein Beispiel für Kreuzschrumpfung in den Problemen des Clusterings an. Wir haben einen Datensatz von Objekten und wir müssen seine interne Struktur identifizieren. Das heißt, wir müssen Gruppen von Objekten innerhalb dieser Daten finden, die einander
am ähnlichsten sind und unterscheiden sich von anderen Gruppen von Objekten aus dem gleichen Tag zu setzen, zum Beispiel, um alle Fahrzeuge in kategorisiert alle Fahrzeuge, die einem Fahrrad ähnlich sind, in eine Gruppe oder Cluster und ähnlich einem Bus in einer separaten Gruppe. Außerdem sagen
wir dem Computer nicht, was es ist. Es muss alleine verstehen, ähnliche Zeichen
zu finden und ähnliche Objekte in einer bestimmten Gruppe zu identifizieren. Daher wird
dies als Learning Ohne Lehrer waren unbeaufsichtigt Lernen, weil wir
zunächst nicht sagen, den Computer, zu welcher Gruppe diese oder jene Objekte gehören, Solche Aufgaben können sehr nützlich für große Einzelhändler sein, zum Beispiel, wenn sie verstehen wollen, wer ihre Kunden gemacht sind,
nehmen wir an, es gibt einen großen Supermarkt, und um gezielte Aktionen für seine Verbraucher zu machen, müssen
sie sie in Gruppen aufteilen oder -Cluster. Und wenn sie jetzt Verkäufe für Sport gut haben, nur sie werden die Anzeigen senden. Nicht alle Verbraucher, sondern nur diejenigen, die bereits beide Sportarten haben, geht in der Vergangenheit. Das ist der Hauptunterschied zwischen überwachtem Lernen und unbeaufsichtigtem Lernen. Ist das beim überwachten Lernen? Wir verwenden Beschriftungsdaten, bei denen jedes Objekt markiert ist und zu einer bestimmten Klasse gehört oder einen
bestimmten numerischen Wert hat . Und basierend auf diesen Etikettendaten, unsere Modellrechnungen und Algorithmus, der uns hilft, Ergebnisse auf neuen Daten vorherzusagen und als Antwort auf steigende Lernen, die Daten, die wir haben, sind unbeschriftet oder unmarkiert im Computer selbst, finden bestimmte -Muster und gemeinsame Features, und teilen Sie alle Objekte in verschiedene Gruppen, die innerhalb einer Gruppe ähnlich sind und sich von
Objekten in anderen Gruppen unterscheiden . Es gibt zwei Haupttypen des Aufgaben-überwachten Lernens, die Klassifikationen sind, wenn wir unsere Datierung in Klassen und Fortschritt teilen, wenn wir eine Wunderprognose basierend auf früheren Daten
machen. Die wichtigsten Arten von Aufgaben des unbeaufsichtigten Lernens umfassen Clustering, wenn ein Computer teilt unsere Datierung, die Gruppen oder Cluster und Dimensionalitätsreduktion, die für eine bequemere Demonstration von großen Mengen von -Daten. Nun, betrachten Sie jede dieser Aufgaben in den folgenden Frakturen genauer.
5. Lineare Regression und Vorhersage von regression: , so dass einer der beliebtesten Algorithmen für maschinelles Lernen Regression ist. Es ist eine Aufgabe, ein bestimmtes Attribut vorherzusagen, oft Objekt mit den verfügbaren Daten und anderen Attributen des Objekts. Zum Beispiel können
wir das Gewicht einer Person basierend auf seiner Höhe vorhersagen, wo wir Abteilungen Preis basierend auf der Entfernung von der U-Bahn für die Fläche
der Wohnung vorhersagen können . In dieser Episode werden
wir sehen, wie wir unser Aggressionsproblem in gewöhnlichen Excel -Datei lösen können. Nehmen wir ein Beispiel mit der Vorhersage der Küste einer Wohnung,
abhängig von Kornett-Aufnahmen. Jede Aufgabe des maschinellen Lernens benötigt Daten in je mehr Daten, desto besser. Also ist es ein Agent, dass wir eine Excel-Tabelle mit Daten in einer Spalte haben, die Fläche der Wohnung in der anderen, der Preis dieser Wohnung. Wir bitte diese Daten über das Handwerk, und im Prinzip können wir feststellen, dass es eine gewisse lineare Abhängigkeit gibt, die ganz von denen ist, weil je größer die Fläche, das Herz, die Kosten der Wohnung. Natürlich ist
es klar, dass viel mehr Faktoren den Preis einer Wohnung beeinflussen, wie Entfernung vom Stadtzentrum und geistige Anzahl von Geschichten, Alter des Hauses und so weiter, aber aus Gründen der Einfachheit, mit gleichermaßen einem Sektor, die Fläche der Wohnung. So ist unsere Aufgabe zu lernen, wie man den Preis vorhersagt, um diese wirklich die Formel zu tun, die uns den prognostizierten Preis basierend auf der Fläche der Wohnung geben kann. In Fällen, wenn wir Alina Beziehung sehen, wird
die folgende Formel in der Regel verwendet, weshalb ist gleich einem X Plus B, in dem, warum physisch zu Preis und X ist die Fläche. Eigentlich ist die Abhängigkeit möglicherweise nicht notwendigerweise linear. Es kann ein Heilmittel sein oder einen sehr seltsamen Blick haben. Also, um eine konkrete Arbeitsformale haben müssen wir die Koeffizienten A und B finden . Wie können wir sie finden? Das einfachste und klassische Gewicht, das Sie wahrscheinlich aus den Lektionen der Algebra oder Statistik gelernt haben, ist die Methode der kleinsten Quadrate. In der Tat wurde
diese Methode vor 200 Jahren erfunden, und jetzt sind effektivere Lösungen erschienen, aber dennoch ist
die am wenigsten schlechteste Methode immer noch ziemlich relevant und wird oft in der Regression verwendet -Probleme. Die am wenigsten quadratische Methode ist, wenn Sie eine Formel finden, in der die Summe der quadrierten Abweichungen vom Wunsch an Rivalen am kleinsten ist. Mal sehen, wie es in Excel aussehen könnte. So haben wir einen Tisch mit einer bestimmten Anzahl von Wohnungen gibt, Fläche und Preis. Aber seine Stelle diese Daten auf dem Handwerk und sehen Sie die Punkte mit den entsprechenden Fehlern. Wir sehen, dass es eine Art Unabhängigkeit gibt, je größer die Fläche, das Herz, die Kosten für die Wohnung. Lassen Sie uns eine Linie in Excel zeichnen. Sie können dies wie folgt tun. Wir klicken auf das Diagramm. Ein Pluszeichen wird auf der Website angezeigt. Klicken Sie darauf und setzen Sie ein Häkchen, um die Trendlinie anzuzeigen. Okay, die Linie ist sichtbar, aber wie können wir die spezifische oder effiziente bisher Formel finden, damit wir Preise
für neue Wohnungen vorhersagen können ? Theoretisch können
Sie lange Berechnungen machen und diese Gleichung lösen Hier in Excel, mit Metrikberechnungen, Dies kann
jedoch in zwei Wochen viel einfacher gemacht werden. Wiederum, Trick auf das Pluszeichen Quicken zusätzliche Optionen. Und hier setzen wir ein Häkchen, um die Formel zu zeigen. Okay, los geht's. Jetzt sehen wir unsere formale, ähm, an der Spitze des Handwerks. Warum ist gleich 0,715 x plus. Sie sind ein 0.8111 Also 0.7 ist unser Koeffizient A und 0.81 ist unser Koeffizient B. Sie können auch sehen, es gibt einen Buchstaben sind Quadrat unterhalb der Formel. Es steht für R-Quadrat Werte. Dieser Indikator nimmt Ausfälle von 0 bis 1 und impliziert das Tal von 0 bis 100%. Wenn der Wert eins ist, dann bedeutet dies, dass unsere Zeile oder Formel 100% das Verhältnis für
Indikatoren in unseren Schlüsseln richtig beschreibt . Das Verhältnis von Preis und Fläche. Wie Sie auf dieser Grafik sehen können, ist der Indikator quadratisch Ihre 0,976, was ein ziemlich hoher
Indikator ist , der darauf hindeutet, dass unsere formale ist sehr effektiv. Nach sauber. Jetzt können wir die Preise in Abhängigkeit von der Region bekannt diese Formel und die Koeffizienten vorhersagen. Wir ersetzen einfach die Gegend von einigen neuen Wohnungen und sehen, wie der Preis in
Übereinstimmung mit unserer Formel sein sollte . Wie Sie verstehen, wird sich
diese Formel auch jedes Mal ändern, wenn Sie einige neue Daten von realen Wohnungen von realen
Preisen eingeben . Es ändert sich und passt sich so an, dass alle Objekte in unserer Probe am besten übereinstimmen. Sie können Ihre Aggression Former so anpassen, dass alte Preise beeinflussen Ihre Formel weniger weil es diejenigen, die sie weniger relevant in der neuen Wohnung sind. Preise würden mehr warten auf Ihre Probe, so zusammenzufassen, in Aggressionsproblemen, prognostizieren
wir den spezifischen numerischen Wert eines bestimmten Attributs mit verfügbaren Daten und anderen Attributen, und wir tun all dies mit Hilfe einer Formel, die wir aus einem vorhandenen Satz von
realen Daten ableiten .
6. Classification in maschinelles Lernen: Klassifizierungen ist eine große Gruppe von Tests, die oft verwendet werden, würde
ich sagen, ist seine Regression offen oder noch öfter, wie wir aus der Namensspezifikation verstehen, um ein Objekt zu
einer bestimmten Klasse zuzuordnen verwendet wird . Zum Beispiel, wird die Grenze in der Lage sein, allein zu wiederholen oder nicht? Oder ist es ein Hafenarbeiter, der das Bild bekommt, oder wird das Unternehmen bankrott werden oder nicht? Und so weiter? Wenn wir mit Regression in der Regression vergleichen, haben
wir keine Klassen. Wir sagen einfach einen Wunderwert voraus. Zum Beispiel in der vorherigen Vorlesung haben wir
in der vorherigen VorlesungPreise von Wohnungen und die Probleme der Deklassifizierung vorhergesagt. Die Anzahl der Klassen ist begrenzt. Wir stellen dem Computer die Namen der Klassen zur Verfügung, und der Computer bestimmt, zu welcher dieser Klassen das neue Objekt gehört. Schauen wir uns einige Schlüssel sagt, wenn Klassifikationen Stoßzähne verwendet werden können. Heute verwenden
viele Banken Klassifizierungsalgorithmen, um zu bestimmen, ob ein Darlehen an einen
Kreditnehmer genehmigt werden soll oder nicht. In diesem Fall gibt es normalerweise zwei Klassen. Die erste Klasse ist ein Kredit wert Bora-Arbeit, und die zweite Klasse ist eine potenziell unvertrauenswürdige Bora. Stellen Sie sich jetzt vor, und Ihr Kunde kommt zur Bank und will allein nehmen, wie Banken bestimmen, zu welchem Christus das eine oder andere potenzielle Grenzwasser gehört, besonders wenn sie keine Erfahrung mit ihm hatten. Das ist richtig. Sie betrachten eine große Datenbank von ihren Kunden und ziehen Rückschlüsse auf welche Klasse von
Weltkriegen . Dieser neue Client ähnelt eher der Funktionsweise dieser Klassifizierungsalgorithmen. Die Bank hat Zehntausende oder sogar Hunderttausende von Daten von ihren Kunden, und sie wissen, welche der Kunden pünktlich bezahlen und erreichen, die Zahlung
verzögern oder sogar insolvent werden. Sie aggregieren diese Daten auf der Grundlage von. Zum Beispiel übersteigt derjenige, der seinen Darlehensbetrag 30% Rabatt auf sein monatliches Einkommen hat, in der
Regel regelmäßig derjenige, der bereits eine weitere lange Waisenverzögerung hat. Und es gibt viele psychologische Ketten, die auf diesen Informationen basieren. Der Computer in der Bank hat ein Spezifikationsmodell erstellt, so dass der Computer ein Modell erstellt. Dann fragt der Bankmanager zu wenig einen Fragebogen von einem neuen Kunden aus. Dann gibt er alle diese Daten in das Modell ein, und der Algorithmus gibt eine Antwort. Dieser neue Kunde ist kreditwürdig oder potenziell unvertrauenswürdig Kreditnehmer. Das Modell kann sogar zeigen, mit welcher Wahrscheinlichkeit sich dieser neue Kunde
allein verzögert und ob er an all diesen Tagen ködern wird. Der Kredit-Scoring-König die meisten Banken wird automatisch durchgeführt, auch ohne die Beteiligung des Bankwesens. Fachkunden füllen einfach eine Bewerbung online aus, und der Computer gibt automatisch die Genehmigung oder nicht. In komplexen und umstrittenen Fällen ist natürlich
ein Bankmanager. Wolf, in diesem Beispiel von Verstopfungsproblemen, wurde in den vorherigen Vorträgen erwähnt, wo wir irische Blumen erwähnt. Dies ist auch eine typische Fragekationsaufgabe. Wir haben freie Klassen von Blumen, und wir müssen lernen, vorherzusagen, zu welcher Klasse eine Blume gehört. Abhängig von der Größe der Blütenblätter und Proben können
Deklassifizierungsprobleme mit verschiedenen Methoden gelöst werden. Die am häufigsten verwendeten sind die folgende Entscheidungsbaum-logistische Regression und
verwechseln sie nicht mit der üblichen linearen Regression, die wir bereits erwähnt haben. Und wir würden einen bestimmten numerischen Wert vorhersagen. Die logistische Regression ist ein wenig anders. Mit Algorithmen finden
wir die Linie, die unseren Datensatz in Klassen unterteilt, dann einen zufälligen Wald, Ensembles und bettelnde Unterstützung, Vektormaschine und scharfe Ohren Nachbarn. Wir werden dies in den folgenden Frakturen genauer untersuchen. In der Zwischenzeit, auf den Punkt gebracht. In den Verstopfungsproblemen sagen
wir voraus, zu welchem Christus und Objekt gehört. Die Anzahl der Plätze ist begrenzt. Das ist zum
Beispiel zu genehmigen . Allein oder nicht. Das Bild zeigt einen Bus, Auto oder ein Fahrrad, und so weiter. Heutzutage werden
Klassifizierungsprobleme mehr und mehr in vielen Branchen verwendet, vielleicht sogar häufiger als Regressionsprobleme, und daher ist
es eine gute Idee, diese Frage Gatien Methoden zu lernen.
7. Clustering in maschinelles Lernen: Clustering ist eine der Haupttypen des unbeaufsichtigten maschinellen Lernens in Clustering-Aufgaben. Wir haben einen Datensatz, und wir müssen seine interne Struktur verstehen. Wir teilen die Daten so in Gruppen oder Cluster auf, dass wir innerhalb jedes Clusters
Elemente haben , die einander am ähnlichsten sind, sich aber von den Elementen in den anderen
Gruppen unterscheiden . Vielleicht haben Sie eine vernünftige Frage. Was ist der Unterschied zwischen Klassifizierungen und Clustering-Problemen? Ich werde versuchen, es mit einem Beispiel zu erklären. Stellen Sie sich vor, wir haben einen Tisch mit den Eigenschaften von Planeten und Sternen. Und dank jedem Objekt haben
wir eine Antwort, ob es sich um einen Planeten oder einen Stern handelt. Die Antworten sind die sogenannten Labels, die im überwachten maschinellen Lernen verwendet werden. Basierend auf diesen Etiketten, erstellt
der Computer ein Modell, das in nutzlos vorhersagen kann. Trotzdem ist der
Körper ein Planet oder ein Stern. Dies ist ein Beispiel für Klassifizierungsprobleme, da wir eine begrenzte und vordefinierte
Anzahl von Klassen haben , die Sterne und Planeten sind, und wir vorhersagen, zu welcher Klasse das neue Objekt gehört. Aber stellen Sie sich vor, wir hätten keine Antworten. Was sind diese Objekte im Weltraum? Wir hatten nur ihre Eigenschaften, wie Gewicht, Temperatur, Zusammensetzung und so weiter. In diesem Fall ist der Computer mit gerade Bohrlobjekten in zwei Gruppen unterteilt, abhängig von ihren ähnlichen und unterschiedlichen Eigenschaften. Unser Computer würde sagen, dass es zwei offensichtliche Cluster gibt, die sich voneinander unterscheiden, und es wäre unsere Aufgabe, diese beiden Cluster irgendwie danach aufzurufen, weil Clustering ein Beispiel für unüberwachtes maschinelles Lernen
ist, in dem wir keine Tags haben oder Antworten für jedes Objekt. In unserem Datensatz teilen
wir einfach alle Objekte in Gruppen auf, und wir versuchen nichts vorherzusagen. In Bezug auf neue Objekte teilen
wir die vorhandenen Objekte einfach in Cluster auf. In welchen anderen Fällen müssen wir Clustering verwenden, einer der aktivsten Benutzer der Klasse? Ring für Einzelhändler und Kaufhäuser, die herausfinden wollen, wer ihre Kunden sind? Nehmen wir zum Beispiel
ein großes Kaufhaus, das gezielte Werbeaktionen für seine Verbraucher machen will. Es muss sie in Gruppen oder Cluster aufgeschlüsselt werden. Beispielsweise können
Verbraucher in die folgenden Gruppen Familien-Cluster unterteilt werden. Sie neigen dazu, Haushaltswaren beißen und gut mit Kindern. Athleten, die oft von Sportprodukten und Sporternährung Gärtner und so weiter. Und das nächste Mal, wenn es einen Verkauf gibt, wird die
Förderung von Sportartikelgeschäft die Problemmeldungen über diese Aktion senden. Nicht alle seine Kunden, sondern nur diejenigen, die bereits beide Sportartikel in der Vergangenheit haben. Klassengetränk nutzt auch sehr aktiv soziale Netzwerke. Es wird in erster Linie getan, um Benutzer in Gruppen basierend auf ihrem Interesse an, dass Überläufer zu brechen, und bieten ihnen dann besser geeignete und relevante Videos, Bilder, Verwendung und andere Inhalte, so dass sie mehr Zeit in diesen APS verbringen. Zweitens geschieht
dies durch nur zielgerichtete Werbung effektiver, um es zielgerichteter zu machen. Gerade für die Gruppen von Benutzern, könnte
es am meisten Interesse an den beworbenen Produkten sein. Smartphones verwenden auch Clustering-Algorithmen, um Fotos und Videos in verschiedene
Ordner zu trennen , z. B. abhängig von dem Datum für den Ort, an dem die Fotos aufgenommen wurden, damit Benutzer diese
Fotos leichter finden können In diesen Tagen. Smartphones können sogar unterscheiden, was auf dem Foto dargestellt ist, und sie können Fotos trennen, basierend auf dem, was gesehen wird, ob es Menschen Landschaften für zu Hause in der Biologie, Klassenraumschlüssel verwendet, um neu entdeckte trennen Vertreter von Tier- und Pflanzenreich in bestehende Arten, abhängig von ihren Eigenschaften. Sehr oft werden Clustering-Algorithmen in der genetischen Forschung verwendet, insbesondere für die Gentleman-Notation. Alles, was Evolutionsbiologie, also im Clustering, wird nichts vorhersagen. Aber wir verteilen die vorhandenen Objekte einfach in verschiedene Cluster oder Gruppen basierend auf ihren ähnlichen Merkmalen und Merkmalen. Es hilft uns, die Infrastruktur aus unserem Datensatz in der Mandalas toe zu verstehen, effizienter mit unseren späteren
arbeiten.
8. Ensemble in maschinelles Lernen: Hi da. Nehmen wir an, wir haben einen bestimmten Algorithmus, seine Aufgaben im Prinzip gut bewältigt. Aber was ist, wenn wir die Genauigkeit der Vorhersagen unserer Algorithmen verbessern wollen? In diesem Fall werden wir einige zusätzliche und fortschrittlichere Methoden verwenden. In den nächsten Vorträgen werden
wir einige von ihnen lernen,
darunter Ensembles, Packing und Random Forest. Methoden des Ensembles. Im maschinellen Lernen bedeutet, dass wir eine Kombination
verschiedener Algorithmen verwenden , um
das gleiche Problem zu lösen , um die Genauigkeit der Vorhersage zu verbessern. Die Verwendung von Ensembles im maschinellen Lernen basiert auf dem Satz der Condorcet-Jury
, der bereits im 18. Jahrhundert veröffentlicht wurde. Nach diesem Satz, wenn wir eine Jury haben und jedes Mitglied der Jury eine unabhängige Meinung hat, das heißt, ihre Antworten sind unabhängig und die Wahrscheinlichkeit für jedes Mitglied
der Jury die richtige Entscheidung zu treffen, beträgt mehr als 50 Prozent, dann wird sich die Wahrscheinlichkeit, die richtige Entscheidung der alten Juroren insgesamt zu treffen, 100 Prozent nähern, wenn die Zahl der Jurymitglieder steigt. Das Gleiche gilt im gegenteiligen Fall. Wenn die Wahrscheinlichkeit, die richtige Entscheidung zu treffen, weniger als 50 Prozent beträgt, steigt die Zahl der Juroren,
die Wahrscheinlichkeit, die richtige Entscheidung zu treffen, tendenziell bei 0. Ein weiteres anschauliches Beispiel ist die sogenannte Weisheit des Crowd-Beispiels. Im Jahr 1906
veranstaltete die Stadt der Aufräumung eine Angst, die viele verschiedene Unterhaltungsveranstaltungen beinhaltete. Und es ist eine dieser Veranstaltungen, rund 800 Menschen nahmen an einem Wettbewerb teil, um das Gewicht eines Bool zu erraten. Keiner der Besucher der Ausstellung konnte das genaue Gewicht des Bullen erraten. Statistiker Francis Galton berechnete jedoch, dass der arithmetische Durchschnitt aller Annahmen um weniger als 1% vom tatsächlichen Gewicht des Bullen abweicht. Der Bulle wartete einhundertzweihundertsieben Pfund, und der arithmetische Durchschnitt betrug 1198 Pfund. Dies führte zu einer überraschenden Schlussfolgerung, dass, wenn eine Person nicht die richtige Antwort geben kann, wenn Sie Daten von vielen Personen sammeln und diese durchschnittlich erreichen, ein sehr gutes und sehr nahes Ergebnis erhalten. Die Weisheit der Menge wird heute in vielen Branchen verwendet. Zum Beispiel, wenn der Spieler das Publikum
bittet, der berühmten TV-Show Who Wants to Be ein Millionär zu helfen. Und sogar die ganze Idee hinter der Erstellung einer Wikipedia oder Yahoo Answers oder ähnlicher Dienste. Sie alle basieren auf den Informationen, die von einer großen Anzahl von Benutzern bereitgestellt werden. Und wenn wir bedenken, dass die meisten Benutzer Informationen nach bestem Wissen zur Verfügung stellen, wird bei jedem neuen Benutzer die Zuverlässigkeit und Genauigkeit dieses Inhalts und der Informationen steigen und die Qualität der Informationen wird tendenziell dazu führen verbessern. Daher beschlossen Datenwissenschaftler, diesen Satz der Condorcet-Jury und die Idee der
Weisheit der Menschenmengen im maschinellen Lernen anzuwenden , um die Genauigkeit der Algorithmen zu verbessern. Nehmen wir an, wir haben mehrere Algorithmen. Wir wissen, dass ein Algorithmus auf
einem Datensegment ausgeführt wird und der andere falsch ist, das Datensegment zu führen. Wenn wir also die Ergebnisse kombinieren, können
wir zeigen, dass sie kombiniert sind. Fehler wird fallen, weil sie sich gegenseitig abbrechen. Bei Verwendung der Ensemble-Methode ist
das kombinierte Ergebnis mehrerer Modelle in Bezug auf die Prognosegenauigkeit fast immer besser im Vergleich zur Verwendung nur eines Modells. Nehmen wir ein anderes Beispiel. Eine lustige Geschichte über eine Gruppe von Blinden und einem Elefanten. In der Geschichte werden mehrere Blinde gebeten,
einen Elefanten zu berühren und zu sagen, wie es aussieht, als ob
jemand seine Ohren berührt, jemand seinen Rumpf berührt
und jemand seinen Schwanz oder seine Beine berührt. Für jeden dieser Menschen wird
die Vorstellung, wie der Elefant aussieht, anders sein. Wenn wir jedoch kombinieren, dass die Meinungen voll von ihnen sind, werden
wir eine sehr vollständige Vorstellung davon bekommen, wie ein Elefant aussieht. Dies ist ein Beispiel für ein Ensemble, indem
verschiedene Modelle miteinander kombiniert werden, um die Genauigkeit unserer Vorhersage zu verbessern.
9. Bagging und Boosting: etwas fortgeschritteneren Methoden zur Ensemble-Klassifizierung gehören Abpacken, Boosting, Zufallswald und Stapeln Bagging steht für Bootstrap-Aggregation. Angenommen, wir haben einen großen Datensatz. Wir fangen an, Objekte nach dem Zufallsprinzip aus dem Set zu ziehen und kleinere Datensätze daraus zu erstellen. Als Ergebnis erhalten wir mehrere neue, kleinere Datensätze, die in Bezug auf die interne Struktur unserem ursprünglichen Datensatz sehr ähnlich sind, aber gleichzeitig etwas anders sein werden. Einige Objekte werden in mehreren neuen Datensätzen gefunden. Das heißt, sie werden sich kreuzen und das ist normal. Und dann werden wir unsere Algorithmen in diesen neuen kleineren Datensätzen trainieren. Und diese Methode verbessert tendenziell unsere Genauigkeit. Angenommen, wir sind ein Pharmaunternehmen und haben Daten über
10 Tausend Patienten und ihre Reaktionen auf ein neues Medikament, das wir erfunden haben. Für einige der Patienten funktioniert
das Medikament sehr gut. Für andere funktioniert es überhaupt nicht. Wir haben einen Entscheidungsbaum und nachdem wir unseren Algorithmus trainiert
haben, erhalten wir ein Modell, das in 75 Prozent der Fälle die richtigen Vorhersagen liefert. Das ist sicherlich nicht schlecht, aber 25 Prozent des Prognosefehlers sind immer noch ein ziemlich großer Spread. Daher teilen wir unseren Patientendatensatz, mehrere kleinere Datensätze auf. Zum Beispiel mit jeweils 2000 Patienten. Und dann trainieren wir unsere Algorithmen in jedem neuen Datensatz. Und dann aggregieren wir die erhaltenen Algorithmen in das endgültige Modell, das nun in mehr als 80 Prozent der Fälle die richtigen Vorhersagen treffen wird. Betteln wird normalerweise verwendet, wenn die Varianz des Fehlers der Basismethode hoch ist. Betteln ist auch in Fällen nützlich, in denen die ursprüngliche Stichprobe nicht so groß ist, und daher erstellen wir viele Zufallsstichproben aus dem ursprünglichen Datensatz. Obwohl die Elemente in solchen Sub-Datasets in der Regel dupliziert werden können, sind
die Ergebnisse nach der Aggregation
im Vergleich zu den Ergebnissen, die nur auf dem ursprünglichen Datensatz basieren, genauer . Boosting ist eine weitere Möglichkeit, ein Ensemble von Algorithmen zu erstellen, wenn jeder nachfolgende Algorithmus versucht die Mängel früherer Algorithmen
auszugleichen. Zu Beginn des ersten Algorithmus wird auf den gesamten Datensatz trainiert. Und jeder nachfolgende Algorithmus basiert auf den Samples, in denen der vorherige Algorithmus einen Fehler gemacht hat. Damit die vom Vorgängermodell fälschlicherweise
vorhergesagten Beobachtungen mehr Gewicht erhalten. In den letzten Jahren ist Boosting eine der beliebtesten Methoden
des maschinellen Lernens entlang neuronaler Netze geblieben . Seine Hauptvorteile sind Einfachheit, Flexibilität und Vielseitigkeit. Eines der beliebtesten Beispiele für den Boosting-Algorithmus ist der adaptive Adaboost-Algorithmus, der Ende der 90er Jahre des letzten Jahrhunderts von
Shapiro und Fluid entwickelt wurde.
10. Majority und Averaging in Ensembles: Ensembles können auf verschiedene Arten angesehen werden. Die einfachsten Methoden sind die Mehrheitsabstimmung oder die Durchschnittswerte und die gewichtete Mittelwertbildung. Mehrheitsabstimmung bedeutet, dass jedes Modell für jede Testinstanz eine Vorhersage macht. Und die endgültige Vorhersage wird diejenige sein die am häufigsten sein
wird oder mehr als die Hälfte der Stimmen erhält. Wenn keine der Vorhersagen mehr als die Hälfte der Welt erhält als in diesem Fall, können
wir zu dem Schluss kommen, dass die Ensemblemethode keine gute Wahl für die Vorhersage war, und wir sollten wahrscheinlich eine andere Methode wählen. Nehmen Sie das folgende Beispiel. Angenommen, wir wollen ein neues Telefon kaufen. Wir wählen zwischen amerikanischen, chinesischen und koreanischen Modellen. Wenn wir die Ensemble-Methode nicht verwenden würden, würden wir zum Beispiel in den Laden
kommen, den CEO resistent fragen, was Sie empfehlen würden, und nehmen dieses Modell an. Wenn wir ein Ensemble
verwenden, führen
wir vor der Auswahl des zu kaufenden Telefons zunächst eine Umfrage mit verschiedenen Personen, mit allen Freunden durch, sehen Nutzerbewertungen im Internet, sera Verwendung von Modellen auf YouTube und Experten empfehlungen. Wenn wir die Methode der Mehrheitsabstimmung wählen. In diesem Fall wählen wir das Formularmodell aus, das von den meisten Personen empfohlen wurde. Die nächste Methode ist die einfache Mittelung. Angenommen, wir haben ein Filmportal und weisen für jeden Film die Bewertung von eins bis zehn zu. Oder Benutzer, die den Film gesehen haben, reichen ihre Bewertungen ein. Und dann leiten wir eine Durchschnittsbewertung ab, die auf all diesen Daten basiert. Zum Beispiel gaben zwei Personen eine Bewertung von 76 Personen ab, oder? Bei acht Personen gaben 12 Personen bei 99 Personen eine maximale Bewertung von 10 an. Infolgedessen liegt der durchschnittliche Punktestand bei 8,96. Und die nächste Methode ist die gewichtete Mittelwertbildung. Nehmen wir nochmals das Beispiel für die Filmbewertung. Hier können wir verschiedenen Gruppen von Ihnen unterschiedliche Gewichte geben. Zum Beispiel erhielten professionelle Filmkritiker ein Gewicht von einem. Benutzer, die schon lange auf der Plattform sind, erhalten ein Gewicht von 0,75. Endbenutzer, die sich bei angemeldet haben, wir kürzlich ein Gewicht von 0,5 erhalten. Als nächstes leiten wir aus ihren Schätzungen einen gewichteten Durchschnitt ab. Und so erhalten wir eine bessere Bewertung, da davon ausgegangen wird , dass Filmkritiker und regelmäßige Filmbesucher sich besser mit Filmen auskennen.
11. Random: Random Forest Algorithmen werden sehr häufig bei Problemen mit dem maschinellen Lernen verwendet
und können in einer Vielzahl von Aufgaben,
Clustering-, Regressions- und Klassifikationsproblemen verwendet werden. Der zufällige Wald wird auf die gleiche Weise wie Betteln gebaut, aber das ist, es ist eine etwas komplizierte Version. Die Ähnlichkeit mit dem Betteln besteht darin, dass wir aus unserem großen ursprünglichen Originaldatensatz
mehrere kleinere Datensätze erstellen . Der Unterschied besteht darin, dass
wir bei der Kreditvergabe alle Funktionen verwenden, wenn wir Algorithmen erstellen. Und im zufälligen Wald wählen
wir nach dem Zufallsprinzip nur wenige Features aus, auf deren Grundlage wir jeden einzelnen Baum bauen werden. Wir hatten ein Beispiel mit einem Pharmaunternehmen, in dem wir verstehen mussten, ob unser neues Medizinprodukt Auswirkungen auf Menschen mit unterschiedlichen Merkmalen haben würde, insbesondere Alter, Geschlecht, Cholesterinspiegel und Blut Druck. Beim Verpacken erstellen wir Unterbeispiele und erstellen für
jedes Teilbeispiel einen Entscheidungsbaum , der auf allen Attributen in einer zufälligen Gesamtstruktur basiert Wir werden auch Unterbeispiele erstellen. Aber für jede Teilprobe werden
wir nach dem Zufallsprinzip nur bestimmte Funktionen verwenden, nicht alle. Zum Beispiel ein Weg Geschlecht und Alter oder nur der Cholesterinspiegel des Wirkstoffs. Dann werden wir wie üblich unser Ergebnis zusammenfassen und in der Regel erhalten
wir eine noch größere Genauigkeit der Vorhersagen unserer Algorithmen. Bei Klassifikationsproblemen werden wir unser endgültiges Modell durch Mehrheitsabstimmung wählen. Und bei Regressionsproblemen werden
wir die Mittelwertbildung verwenden. Zufälliger Wald hat jedoch einen erheblichen Nachteil. Die Interpretation von Vorhersagen wird sehr schwierig, da wir viele Bäume über unterschiedliche Struktur und Tiefe haben. Und jeder Baum verwendet eine andere Kombination von Funktionen. Und daher wird in Fällen, in denen Transparenz über Entscheidungsschlüssel benötigt wird, zufällige Gesamtstruktur praktisch nicht verwendet. Zum Beispiel beim Kredit-Scoring, wenn Banken entscheiden, ob sie einem Kreditnehmer ein Darlehen gewähren möchten oder nicht. In diesem Fall müssen wir wissen, warum unser Modell diese oder ihre Entscheidung getroffen hat. Und wenn wir den Zufallswald benutzen, wird er unverständlich. Ein zufälliger Wald ist also wie eine Blackbox. Es sagt sehr gut voraus, aber praktisch erklärt es nichts. Das heißt, es ist nicht klar, worauf diese Vorhersagen basieren. Für Enten war jedoch eine hohe Prognosegenauigkeit erforderlich. Die Zufallsstruktur ist einer der bevorzugten Algorithmen.
12. Python Einrichtung. Anaconda Distributiv: Es gibt viele Programmiersprachen. Aber Überläufer und historisch gesehen, Brighton ist der Standard in Maschinenwärter geworden, Kandidaten-Analysten ist. Viele Bibliotheken wurden für Python gesammelt. Natürlich können auch
andere Sprachen verwendet werden, wie z.B. unser Scaler oder C Sharp. Aber wir werden uns auf Python konzentrieren, weil es wahrscheinlich die beliebteste und einfachste genug ist, um zu lernen. Es gibt eine wunderbare Seite namens Anaconda. Auf dieser Seite können
Sie nicht nur Python, sondern auch verschiedene Bibliotheken herunterladen, die von Datenwissenschaftlern sowie allen, die sich mit maschinellem Lernen beschäftigen . Was ist eine Lüge? Jede beißende Bibliotheken sind fertige Lösungen, dh Modelle mit Codevorlagen. Sie wurden so erstellt, dass Programmierer nicht den gleichen Code jedes Mal zurückziehen müssen, wenn sie einfach die Datei öffnen, fügen Sie Ihre Daten ein und erhalten das gewünschte Ergebnis, Also betrachten Sie sie als Depositories off-court Vorlagen. Das On a Kondom enthält also alle grundlegenden Werkzeuge zum Schreiben von Code, Datenanalyse und verschiedene Bibliotheken, die in diesem Prozess helfen können. Das erste Instrument ist Jupiter Notebook. Dies ist eine Umgebung, in der Code schreiben und getestet. Dann haben wir verschiedene Bibliotheken. Die beliebtesten E-Spender. Dies ist eine Bibliothek für die Arbeit mit tabellarischen Daten. Es ist sehr ähnlich wie Excel. Die zweite Bibliothek ist viel Schlaf. Es wird verwendet, um Daten zu visualisieren, Diagramme und Diagramme zu
erstellen. Die erste Bibliothek ist psychisch. Lerne. Es enthält die grundlegenden Algorithmen für maschinelles Lernen. Mit Hilfe von psychischen lernen, können
Sie Algorithmen wie lineare Regression, einfache neuronale Netzwerke und Entscheidungsbäume, und eine weitere Bibliothek Tensor voll verwenden. Es wird verwendet, um mit neuronalen Netzwerken verschiedener Architekturen zu arbeiten, also laden wir Brighton herunter. Die neueste Version unentschlossen kann für Windows,
Mac OS und Kleenex heruntergeladen werden. Nach dem Herunterladen kann ein Kondom, Sie sehen die Anaconda Navigator-Verknüpfung, entweder auf dem Desktop oder im Startmenü. Klicken Sie darauf und dieses Fenster wird angezeigt. Wir werden uns vor allem für das Jupiter-Notebook interessieren
und nicht, dass Sie es nicht mit Jupiter-Lampe verwechseln sollten. Nach dem Quicken Contributor Notizbuch öffnet sich
ein Browser und ein solches Fenster wird angezeigt. Jupiter können Sie Notizbücher erstellen, die Dateien mit dem Python-Code sind, den Sie sofort ausführen und testen können, wo Sie erstellen, packen und andere Dinge tun können. Lassen Sie uns einen Ordner erstellen und ihn benennen. Nun, In diesem Ordner erstellen
wir eine Datei für ein sogenanntes Notizbuch, und Sie werden Code in die Zellen dieses Notizbuchs schreiben. In den folgenden erhaltenen Ergebnissen werden
wir beginnen, die Grundlagen der Python Programmierung zu lernen, die grundlegendsten Befehle für die erste Einführung. Wenn Sie Python oder Anaconda Distributive aus irgendeinem Grund nicht installieren möchten, vielleicht ist nicht genügend Speicherplatz in ihrem Computer vorhanden oder aus einem anderen Grund können
Sie auch Google Collapse-Dienste verwenden. Dies ist die Umgebung, die Google an Sie vermietet und wo Sie auch in Python codieren können ohne Kind auf Ihrem Computer zu installieren. Das heißt, dies ist ein fertiges System, auf dem Sie sofort mit der Arbeit beginnen können. Das heißt, Ihre Umgebung von Microsoft funktioniert auf die gleiche Weise. Wenn Sie über ein Microsoft-Konto verfügen, können
Sie deren Punkte und Notizbücher in der Azure-Umgebung verwenden, ohne
etwas zu installieren . In der nächsten Folgelernen
wir einige grundlegende Befehle in Brighton In der nächsten Folgelernen
wir einige grundlegende Befehle in Brighton In der nächsten Folge lernen
wir einige grundlegende Befehle in Brighton
13. Grundlegende Befehle in Python: Wenn Sie also noch schlimmer über Python sind, ist
dies eine ziemlich bequeme Sprache für diejenigen, die gerade anfangen zu programmieren, würde
ich sagen, dass es einen etwas einfacheren Syntex hat. Es gibt keine Semikolons und das gemeinsame scheint mir einfacher auszusehen. Und er musste nicht ständig überwachen, so dass alle Klammern offen sind unsere geschlossenen und so, dass alle Modelle richtig gestapelt sind und so weiter. Schauen wir uns das einfachste Anfangen per Telefon an. Erstens, wie es viele Sprachen. Wenn Sie das Hash-Symbol setzen, können
Sie alles schreiben. Es wird als Kommentar betrachtet werden und wer kann als kalt reproduziert werden. Normalerweise werden
diese Kommentare benötigt, damit Sie selbst verstehen, warum Sie diesen oder jenen Code geschrieben wenn Sie überprüft werden, wann andere Programmierer es betrachten, damit sie auch
verstehen können , warum Sie den Mantel auf diese Weise reiten und nicht Sonst. Dann zeigt der Druckkommentar an, was Sie in Klammern auf dem Schrei geschrieben haben. Wenn es sich um einen Text
handelt, müssen Sie ihn in Anführungszeichen setzen, um den Kommentar auszuführen. Sie können UMSCHALT+EINGABETASTE drücken. Pyfrom ist in jeder Programmiersprache, die Sie beliebige mathematische Operationen ausführen können, zum Beispiel beim Abzug, Multiplizieren oder Dividieren. Wenn wir $100.300 Preisverschiebung drucken, geben Sie ein und wir erhalten 400. Wir können auch von Ankünften erklären, indem wir einen Brief oder einen Namen schreiben und dann gleich markieren. Zum Beispiel ist
A gleich einem Anführungszeichen Hügel eine Welt. Und dann können wir diese Ankunft drucken, indem wir drucken anti in Klammern A. Oder wir können sagen, dass jetzt der Buchstabe A die Zahl 100 der Buchstabe B wird die Zahl
von 313 sein . Und mit Hilfe des dort angezeigten Druckbefehls können
einige auf dem Bildschirm oder andere mathematische Wahlnummern auch
miteinander verglichen werden . Sie können auch wissen, dass, wenn Sie wollen, um die Ankunft zu erklären, er legte ein Gleichheitszeichen. Und wenn Sie mit den Rivalen miteinander vergleichen und fragen, wo der eine gleich dem
anderen ist , dann haben wir gemeinsam gleich gemacht. Und wenn Sie das vergleichen möchten, sind
die beiden Zahlen ungleich, wir setzen ein Ausrufezeichen, und ein Gleichheitszeichen ist mit jeder Programmiersprache. Es gibt verschiedene Arten von Objekten in Python. Welche Arten von Objekten sind am häufigsten? Nun, wir können sie in zwei gemeine Zeiten aufteilen. Veränderbares und unveränderliches Objekt, dessen Wert sich ändern kann, werden als veränderbar bezeichnet. Wo befinden sich Objekte, deren Wert unveränderbar ist, nachdem sie erstellt wurden? Werden unveränderlich genannt. Die Veränderbarkeit eines Objekts wird durch seine Zeit bestimmt. Unveränderliche Typen umfassen Integer-Gleitkommazahl. Logische Rebsorten auch seine Milliarden genannt, die
zum Beispiel
Tour fällt und Stärke ist zum Beispiel . Schöne Typen umfassen Priester, Set und Wörterbücher, die auf dem Weg sind. Wir können sie ändern. Mal sehen, wie wir überprüfen können, zu welcher Zeit das Objekt gehört. Wir können die Typ-Funktion verwenden, um die Klasse der Ankunft herauszufinden. Darüber hinaus, wie Sie sehen können, anders als in C Sharp oder Java zum Beispiel ist
die Python-Sprache
anders als in C Sharp oder Java
zum Beispielauch dadurch gekennzeichnet, dass, wenn Sie
selbst ankommen , nicht zunächst sicher, welche Art von Ankunft Sie jetzt per Telefon erklären versteht sich. Sie haben gerade versucht, den Namen der Ankunft und dann geben Sie es zu Wert. Daher per Telefon klassifiziert ist eine dynamisch typisierte Sprache. Wenn wir in C Sharp oder Java schreiben, wer würde zunächst angeben, welche Art von Ankunft es sein würde, und in per Telefon. Wir erklären einfach ein Musical zu 10 und per Telefon selbst,
versteht, dass in diesem Fall die Art der Ankunft eine ganze Zahl ist und hält es so. Was wir sonst noch brauchen könnten. Es gibt einen solchen Gedanken wie Ausgabeformatierung und Arbeit mit Strings. Dies ist eine sehr bequeme Funktion, die es uns ermöglicht, Code nicht ständig wieder zu schreiben, sondern ihn irgendwie zu schablonen, zum Beispiel, um den Namen nicht jedes Mal zu schreiben, wenn wir möchten, dass unser Mantel den Namen ersetzt, wenn Wir brauchen es. Es kann auf verschiedene Arten entworfen werden, abhängig von der Python, die Sie installiert haben. Hier sind die wichtigsten Ausgabeoptionen, zum Beispiel
Name, Name, Musical, Toe-Team oder und Druck. Hallo plus Name ist der schwierigste Weg, wenn wir einfach das Wort Hallo und den
Sortennamen hinzufügen ,
bitte wissen Sie, dass unsere Phrase in Anführungszeichen eingeschlossen ist und vergessen Sie nicht, ein
Leerzeichen nach dem Wort hallo und vor dem zweiten verlassen Anführungszeichen und der Ankunftsname sollte ohne Anführungszeichen sein. Die zweite und erste Option verwenden den zusätzlichen Buchstaben F oder das Wort vier Monate ist gut, eine sichere Klammern. also Wenn wiralsoden Namen der Sorte ändern wollen, müssen
wir keine neue Codezeile mehr schreiben. Es wird automatisch für den neuen Namen und eine weitere grundlegende Funktion ersetzt. Mal sehen, welche Version von Python wir in ihren Importen verwenden sieht und dann drucken und in Klammern Version beenden und nur zum Spaß. Mal sehen, welche Version aus per Telefon bei Google kollabieren verwendet wird. In dieser Vorlesung lernen wir, wie man druckt, wie man mathematische Operationen durchführt und wie man Zahlen miteinander
vergleicht, wie man verschiedene Ankünfte deklariert und welche Objekttypen sie sich beziehen können, wie man für die Minuteneingabe verwendet und wie Sie herausfinden können, welchen Teil des Lebens und wir jetzt verwenden . sehen uns in der nächsten Vorlesung, wo wir einige grundlegende Befehle per Telefon lernen
14. If-Statement: für Grundkenntnisse in der Programmierung per Telefon. Wir müssen auch die sogenannten Operatoren lernen, um den Fluss von Befehlen zu steuern. Dazu gehören, wenn sonst while und vier Operatoren. Beginnen wir mit dem ersten Operator, wenn es sonst verwendet wird, um Bedingungen zu überprüfen. Wenn die Bedingung wahr ist, dann führen wir die If. Schau, wenn die Bedingung nicht wahr ist, dann führen wir den elsen-Block aus, was bedeutet, dass wir dem Computer sagen, wenn eine Bedingung passiert, führen
dann eine bestimmte Empfehlung aus. Andernfalls führen Sie einen anderen Befehl aus. Lassen Sie uns also sehen, wie die if-Anweisung an einem konkreten Beispiel aussieht. Jetzt werden wir überprüfen, ob die angegebenen Zahlen gerade sind oder um, wie wir aus dem Schulkurs wissen, gerade Zahlen sind jene Zahlen, für die der Rest, wenn er durch 20 geteilt wird, und für alte Zahlen, der Rest, wenn sie durch zwei geteilt
wird, ist eins nach Fonds. Es gibt eine Person, die Operator, die den Rest über die Division einer Zahl durch eine
andere Zahl zeigt . Zum Beispiel, wenn wir 25% schreiben, dann werden wir eine bekommen, denn wenn Sie I 25 mal zwei tun, erhalten Sie 12 und der Rest ist eins. Wenn wir 26% schreiben, dann erhalten Sie Null, weil 26 durch zwei geteilt wird, ohne den Rest. Versuchen wir es mit anderen Nummern. Also lassen Sie uns nicht eine Formel aufschreiben, die uns die Antwort geben wird. Ob die eingegebene Nummer gerade Bestellnummer ist, ist gleich. Beispiel:
Zahl 22, wenn auch Zahl Prozent, ist gleich Null Druck. Die Nummer ist auch sonst gedruckt. Die Zahl ist sonst in diesem Fall bedeutet, dass in allen anderen Fällen, wenn der Rest nicht gleich Null ist, Sie die Antwort geben müssen, dass die Zahl alt ist. Lassen Sie uns den Mantel auf verschiedenen Zahlen überprüfen. Großartig, alles Leiche. nun Wenn Sienunauch die Nummer aufschreiben möchten, die er in Ihrer Eingabe angegeben hat, können
Sie auch die frühere Funktion verwenden. Es sieht wie folgt aus. Wir hatten sicher Klammern an der Drucklinie nach der Weltnummer und nach den
Anführungszeichen , legte einen Punkt ehemaligen und versuchte die Zahl in Klammern. Das ist die Nummer, die wir angegeben haben. Der Anfang wird automatisch in geschweiften Klammern gestartet. Zahl ist gleich 22, wenn Zahl Prozent zu physischem 20 Druck. Die Zahl geschweifte Klammern ist gerade Punkt. Ehemalige und in Parentis ist Nummer sonst. Drucken Sie die Zahl geschweifte Klammern ist alte Periode ehemalige und in Klammern in Klammern Zahl . Wenn Sie jemals überprüfen, dass er rein Klammern nach der Weltnummer verwendet und auch
die Periodenmarke vor vier Monaten setzen ,
versuchen Sie, die Zahlen nur durch Ändern Ihrer Anzahl der Ankunft überprüfen. Fügen wir hier noch eine Bedingung hinzu. beispielsweise Wenn wirbeispielsweiseNull eingegeben haben, würden
viele argumentieren, ob Null eine gerade oder ungerade Zahl ist. Lassen Sie uns einfach notieren, dass
wir bei der Eingabe von Null erhalten, dass Sie Null bitte unter einer anderen Nummer eingegeben haben. Also, wenn wir eine neue Bedingung hinzufügen, verwenden
wir, dass ein Blatt-Operator. Eine Blattnummer ist Null Druck, den Sie Null eingegeben haben. Probieren Sie eine andere Nummer aus, aber schauen Sie, was passiert. Wir sind immer noch gegeben, dass Ihr Even ist. Dies liegt daran, dass Python Kommentare in der Reihenfolge ausführt. Zuerst liest
das Programm die erste Zeile und teilt unsere Zahl durch zwei. Und wie wir wissen, wenn wir Null durch zwei teilen, erhalten
wir Null, das heißt. Der Rest ist auch Null, also gibt er uns den ersten Befehl, dass die Zahl gerade ist. Was glauben Sie, kann getan werden, um diese zu vermeiden und dass, wenn er durch Null teilt, gibt
er uns den Kommentar, den wir brauchen. Nehmen Sie einen kurzen Bullen, stoppen Sie das Video und denken Sie darüber nach. Sie können es sogar selbst auf Ihrem Computer ausprobieren. Also, wie Sie wahrscheinlich erraten haben, wer gerade die Linien fegte, wird
Durst den Wind zum Überprüfen bringen. Ob die Antwort Tom Berry, Null oder nicht, und nur dann werden wir überprüfen, welchen Rest wir haben. Na gut, dann. Hier ist also eine weitere Aufgabe, die Sie jetzt selbst erledigen werden. Sie müssen eine Ziege schreiben, in der wir die Geschwindigkeit des Autos angeben. Und wenn die Geschwindigkeit kleiner oder gleich 60 Kilometer pro Stunde ist, dann müssen wir schreiben. Seien Sie vorsichtig auf den Straßen, und wenn die Geschwindigkeit mehr als 60 Kilometer pro Stunde beträgt, dann werden wir schreiben. Bitte beachten Sie die Geschwindigkeitsbegrenzung. 100 pro Stunde ist optional. Es ist nicht notwendig, in der Kälte nur die Geschwindigkeit in Zahlen anzugeben und jetzt das
Video zu posieren und Sie können versuchen, die Aufgabe abzuschließen. Also, wie geht's dir? Haben Sie es geschafft, diesen Mantel zu schreiben und getestet? Das Gericht wird aussehen, wie diese Geschwindigkeit ist gleich 61 hier können wir tatsächlich eine beliebige Zahl schreiben wenn Geschwindigkeit kleiner oder gleich 60 ist. Drucken Sie, seien Sie vorsichtig auf der Straße. Wenn die Geschwindigkeit mehr als 60. Drucken, bitte beachten Sie hier grundsätzlich die Geschwindigkeitsbegrenzung. In der zweiten Codezeile können
wir entweder eine weitere Anweisung oder eine andere Anweisung verwenden. Es gibt keinen wirklichen Unterschied. Lassen Sie uns die verschiedenen Geschwindigkeiten überprüfen und die Geschwindigkeit von 16. Wie Sie sehen können, funktioniert
alles, wenn Sie wollen. Sie können versuchen, andere Beispiele für sich selbst zu denken und sie zu Hause zu üben, zum Beispiel
versuchen, den Code zu schreiben, ob es möglich ist, Alkohol oder Zigaretten an einen Käufer zu verkaufen, abhängig von seinem Alter und in Dankeschön Vortrag wird setzen Sie unsere Vereinbarungen mit anderen Befehlen in Bytom fort.
15. Während der Erklärung: der nächste Kontrollflussoperator ist die wilde Anweisung. Es ermöglicht uns, die wiederholten Zyklen von Aufgaben auszuführen. Wild Statement funktioniert wie folgt Während die folgende Bedingung erfüllt wird, ist
es notwendig, den folgenden Befehl auszuführen. Das einfachste Beispiel ist, wenn wir den Computer bitten, alle Zahlen von 1 bis 50 anzuzeigen wird
das Gericht so aussehen. Zuerst erklären wir seine Ankunft taub und das ist gleich eins. Als nächstes schreiben
wir, dass, während unsere Variable kleiner oder gleich 50 ist, dann werden wir diese Zahl
mit dem Druckbefehl anzeigen , der die nächste Zeile endet. Wir geben Befehl, um diese Zahl durch Ausführen mit jedem nächsten Zyklus zu erhöhen. Das Zeichen plus und gleich bedeutet, dass wir unsere Variable geben und Sie Wert von Agent Kwan Treat. Diese beiden Zeilen, die während des Drucks geschrieben werden und die Ankunft um eins erhöht, werden als eine Iteration für einen Durchgang der Schleife bezeichnet. Sie werden nur ausgeführt, wenn die wilde Aussage wahr ist. Innerhalb eines Zyklus kann
es eine beliebige Anzahl von Affektionen und sogar zusätzliche Zyklen innerhalb des Hauptzyklus geben. Während Aussage wird sehr oft in Computerspielen, in der Datenübertragung und in vielen anderen Fällen in der Regel verwendet. Innerhalb der Wild-Anweisung
gibt es eine Sorte, die ihren Wert innerhalb der Schleife ändert, denn wenn sie immer
gleich bleibt , wird
die Gruppe konstant und unendlich sein. Lassen Sie uns versuchen, eine andere ähnliche Aufgabe zu tun. Versuchen Sie, den Code mit dem while-Operator zu schreiben, so dass Sie jetzt Zahlen in die
entgegengesetzte Richtung von 52 0 erhalten , aber so dass die Zahlen nicht in der Reihenfolge gehen. Aber nach einer Ziffer ist
das 50 48 46 so weiter. Pausieren Sie das Video und versuchen Sie, diese Kälte zu schreiben, also denke ich, Sie haben es geschafft. Das Gericht wird wie diese jetzt musikalisch aussehen 15, während Mama mehr oder gleich Null ist. Drucken Sie Nam in der nächsten Zeile, taub, minus gleich OK und erstellen Sie. Was müssen wir noch wissen, wenn wir über die wilde Aussage sprechen? Erstens, wie man es stoppt? Weil die Zyklen ewig dauern können. Wir haben bereits gesagt, dass Sie es stoppen können
,indem Sie
zum Beispiel eine Einschränkung am Anfang , angeben, während die Zahl kleiner als 15 ist. Aber was ist, wenn wir keine Zahlen haben, Aber stattdessen haben wir Wörter, wo Wir Zahlen haben, aber sie ändern sich in zufälliger Reihenfolge. Was sollen wir in dieser Situation tun? In diesem Fall benötigen
wir möglicherweise den Break Command, der
die Gruppe stoppt. Wie sieht es aus? Nehmen wir ein ähnliches Beispiel. Geben Sie Zahlen von 1 bis 10 ein. Wir sagten, die Ankunftsnummer ist gleich eins jetzt, um die konstante Schleife zu starten, die wir drucken können. Während wahr, dann wird der Kommentar die Zahl selbst gedruckt. In der nächsten Zeile fügen
wir jedes Mal eine zu der Zahl hinzu. Und dann verwenden wir die if-Anweisung, die bereits in der vorherigen Vorlesung gelernt hätte. Geben Sie die Zahl ist 10. Der Break-Kommentar wird unseren Zyklus unterbrechen, und nach dem Zyklus stoppte er. Sie können die Phrase schreiben, zum Beispiel, fertig. Nein der Rand vom Rand der Zeile, weil die Phrase auf der
gleichen Ebene zurückgegeben werden muss, ist die ursprüngliche while-Anweisung und dann wird sie erst ausgeführt, nachdem der wilde Zyklus abgeschlossen ist. Also lasst uns jetzt weitermachen. Die nächste Funktion ist, wie der Computer uns etwas fragen lässt und dann verwendet wird,
wofür für für die Operation eingegeben wird . Um dies zu tun, müssen
wir die Eingabefunktion voraussetzen, wir wollen ein Spiel namens Guess My Age
Durst dem Computer unser wahres Alter zur Verfügung stellen. Und dann wird der Computer die Person bitten, es zu erraten. Abhängig von der Antwort, die wir eingeben, wird
der Computer uns entweder weiter fragen oder uns sagen, dass wir dieses Alter erraten haben. Richtige Art und Weise. Wie können wir dieses Spiel in ein paar Codezeilen implementieren? Zuerst sagten wir das Sortenalter, das eine beliebige Zahl ist, die nicht gleich unserem wahren Alter ist. Als nächstes schreiben wir, während Wahrheit, was im Grunde bedeutet, dass wir den Befehl geben, um den Zyklus für immer auszuführen. Dann die if-Aussage sogar im Alter von 13 Jahren und das ist das Alter, das wir erraten, ist wahr. Dann geben
wir in der nächsten Zeile break ein, was bedeutet, dass wir die Schleife brechen. Und wenn diese if Anweisung nicht funktioniert, dann schreiben wir Alter gleich und dann die folgende Formel int Eingabe und erhalten das Alter. Diese erstere bedeutet, dass jetzt das Sortenalter einen Wert haben wird, den der Benutzer als Antwort auf die Phrase Gatter Alter eingibt. Die in Arbeit am Anfang bedeutet, dass es eine ganze Zahl sein wird. Es ist eine Zahl in der nächsten Zeile und auf der gleichen Ebene mit der wilden Aussage, die wir schreiben, Sie haben es erraten. Dieser Satz wird nur ausgeführt, wenn die while-Schleife bricht, denn wenn die Altersgruppen nicht erraten, wird
der Computer weiterhin den Zyklus ausführen und bitten, das Alter immer wieder zu bekommen. Lassen Sie uns es testen, wie Sie alles Macken sehen können. Das einzige, was hier ist, einen kleinen Raum nach dem Weltzeitalter einzufügen. Noch eine Sache, Sie können fragen, Warum schreiben wir, während Wahrheit? Was bedeutet das? Dies wird getan, um eine konstante Schleife zu setzen, eigentlich statt der Welt wahr. Nach einer Weile können
Sie
zum Beispiel eine echte Anweisung setzen , während eine kleiner als zwei ist und der Computer diese while-Schleife ausführen wird, solange eine
kleiner als zwei ist . Das ist immer und deshalb ist in solchen Fällen nur üblich, einfach zu schreiben, während wahr, also was wir in dieser Episode gelernt haben,
die while-Schleife, wie es gestoppt werden kann mit dem ursprünglich angegebenen, eingeschränkten oder mithilfe des Befehls break. Wir haben auch übergegangen, wie zu erfassen und zu verwenden, was der Benutzer mit dem Eingabe-Befehl eingegeben hat, also jetzt einige Hausaufgaben für Sie. mit der wild-Anweisung, Versuchen Siemit der wild-Anweisung,den Code so zu schreiben, dass der Computer Cue immer wieder nach dem Passwort fragt, bis Sie es
richtig eingeben . Und wenn Sie das richtige Kennwort eingegeben
haben, zeigt der Computer den Ausdruck Willkommen an. Ein kleiner Hinweis in der Zeile, in der Sie das vom Benutzer eingegebene Passwort erfassen. Achten Sie auf die Art der Ankunft, ob Ihr Passwort eine Nummer oder ein Satz von Buchstaben sein wird.
16. : in dieser Episode werden
wir lernen, wie man Wohnungspreise mit Python und einfach in einem
Regressionsmodell vorherzusagen . Denken Sie daran, dass wir die gleiche Aufgabe an sich getan haben. Also werden wir die gleiche Datei verwenden und sehen, wie sie auf meinem iPhone am Ende der
Episode aussieht . Ich werde Ihnen auch eine andere Aufgabe geben, ist Ihre Hausaufgaben. Hier haben wir eine Excel -Datei, die uns den Preis einer Wohnung sagt, abhängig von ihrer Fläche. Wie Sie wissen, ist
dies eine sehr vereinfachte Korrelation. Wir alle verstehen, dass der Preis der Wohnung durch eine sehr große Anzahl von
Faktoren neben der Gegend beeinflusst wird , wie die Stadt. Wie alt ist der Gebäudestandort vom Stadtzentrum und von der nächsten Metrostation, Zustand der flachen Anzahl von Geschichten und so weiter. Aber aus Gründen der Einfachheit nehmen
wir nur einen Faktor. Der Bereich, weil es offensichtlich einer der wichtigsten Faktoren ist, und die Korrelation ist ziemlich stark, wenn wir solche Vorhersagen machen, wo es eine lineare Abhängigkeit oder wir tun müssen, ist unsere Werte auf dem Chart und zeichnen Sie eine Linie zwischen ihnen, die am genauesten die Korrelation widerspiegeln. Und wenn wir eine solche Linie haben, können
wir vorhersagen, was der Preis sein wird, abhängig von jedem Bereich. Aber Sie können fragen, warum die Linie so aussieht, weil sie nicht durch alle Punkte geht. Ist es die beste Linie, die die Korrelation zwischen Preis und Fläche beschreibt? Wie wir bereits in einem unserer vorherigen Vorträge über die Regression gesagt haben? Um die Linie zu finden, die unsere Abhängigkeit beschreibt, wie ich charakterisiere möglich, verwenden
wir die Formel. Warum ist gleich einem X Plus B in unseren Schlüsseln? Warum ist der Preis und X ist die Fläche? Und um die Koeffizienten zu finden, werden
wir die klassischste Methode verwenden, die die kleinste Quadrate Methode ist. Die Methode der kleinsten Quadrate ist die Methode. Wenn Sie die Formel angereichert finden, ist
die Summe der quadrierten Abweichungen von unseren tatsächlichen Werten die kleinste von der Linie, die wir erstellen. Mal sehen, wie es funktionieren wird. Fife in erster Linie wird unser Modell mit den verfügbaren Daten auf Wohnungen mit tatsächlichen Preisen trainieren, und dann wird es Vorhersagen für andere Partner mit einem anderen Bereich machen. Denken Sie daran, als wir Python auf dem Hals auf der Website installiert haben, sagten wir, dass Anaconda auch verschiedene Bibliotheken für maschinelles Lernen
enthält. Sie waren Experten Modell, schlafen weiter und andere. Diese Bibliotheken enthielten vorgefertigte Codemodelle für verschiedene maschinelle Lernalgorithmen. Daher ist
das erste, was wir tun sollten, zu wichtig. Es sind Bibliotheken in unserem Bison Notizbuch in Jupiter. Bundle ist notwendig, um mit tabellarischen Daten wie Excel zu arbeiten. Jetzt kaufen erleichtert mathematische Operationen in per Telefon und wird benötigt, um unser
Datum in Diagrammen und Diagrammen zu visualisieren . Und eine weitere wichtige Bibliothek ist das psychische Lernen. Es enthält grundlegende Algorithmen, aus maschinellem Lernen vom psychischen Lernen. Wir werden den linearen Regressionsalgorithmus importieren. Als Nächstes. Was wir tun müssen, ist unsere Excel -Datei in unser Jupiter-Notizbuch hochzuladen. Wir müssen diese Datei in den Ordner hochladen, in dem sich unser Python Notebook befindet. Klicken Sie auf den Upload und laden Sie die Datei in diesen Fuller hoch. Jetzt müssen wir diese Excel -Datei in unsere durch das Notebook mit dem folgenden Code PD
Gier hochladen , Excel und in Barrington sagt der Name der Datei haben Sie hier den Datenrahmen
bedeuten , den wir erstellen. Sie können es jeden anderen Namen geben, wie Sie möchten und mit dem D des Kommentars. Wir können nun diese Tabelle anzeigen. Übrigens, wenn Sie ein Feuer mit der CSC-Erweiterung haben, die auch bei der Arbeit mit Tabellen üblich ist, dann müssen Sie den Code pedido Treat CSE und den Namen der Datei verwenden. Lassen Sie uns nun die Daten aus dieser Tabelle im Diagramm visualisieren. Um dies zu tun, werden
wir sie nach oben Creep Bibliothek, die auch am Anfang wichtig waren, so dass das Gericht wird Prozent Monat in der
Schlange schlafen und dann die nächste Zeile. Plt nicht streuen und in Parentis ist DF-Bereich Kalmadi des Preises in BLTs Getter in Klammern , wir zeigen zuerst die X-Achse und dann dort y Achsen. Großartig. Wir können unsere Werte auf dem Chart sehen. Übrigens können
wir Punkte einer anderen Farbe machen, indem wir in schuldige Streufunktion,
die Weltfarbe und die Farbe, die wir in Anführungszeichen brauchen, essen . Wir können auch, wenn Sie möchten, ändern Sie Punkte auf andere Aikens, zum Beispiel, Plus- oder Sterne oder sogar Pfeile. Sie dazu VerwendenSie dazudie Wortmarke in der Skater-Funktion. Was fehlt uns sonst noch? Geben wir unseren X und y xs Ihre Namen. PLT DOT EXE Beschriftung im übergeordneten Element ist Fläche Quadratmeter und BLT für Erwachsene y Label in Klammern. Preis 1.000.000 Rubel. Großartig. Jetzt sieht es aus wie ein echtes Diagramm. Okay, jetzt können wir anfangen, Automodell zu trainieren. Wir haben bereits eine lineare Modellvorlage aus der psychischen Lauren-Bibliothek importiert. Lassen Sie uns eine Sorte namens Lappen erstellen, und es wird unser schlankeres Aggressionsmodell sein. Die Bremse ist gleich Zeh linear. Unterstrich Modell Punkt Lineare Regression Parentis ist nicht die Großschreibung in der linearen Regression der Arbeit. Wenn Sie Kleinbuchstaben eingeben, wird
das Gericht nicht funktionieren. Als nächstes müssen wir dieses Modell mit den Daten trainieren, die wir haben. Grob gesagt, wir müssen unser Modell alle Preise je nach Region zeigen. Und wir werden Sie bitten, die beste lineare Regressionsformel zu berechnen, die die
Korrelation zwischen dem Preis und der Fläche beschreibt . So verwenden wir Fußfunktion, um in unser Modell zu laden. Unsere Daten, wenn Luft und Preise in doppelten eckigen Klammern geben wir die Werte aus sind Faktoren in unserem Fall, die Fläche und nach dem Koma, die Antworten in unseren Schlüsseln, die Preise. In der Tat kann
es mehrere Faktoren geben. Und dann würden wir jeden Faktor nach dem Koma schreiben. In Ordnung, hier ist die Bestätigung, dass das Modell trainiert wurde, und jetzt kann es Vorhersagen machen. Wie Sie sehen können, der Zug Husten, ein Modell dauert nur ein paar Sekunden, und in maschinellem Lernen im allgemeinen Training ist nur ein Teil des Deals. Noch wichtiger ist die Vorbereitung der Daten für das Training, die
Auswahl des richtigen Modells und die korrekte Interpretation der Ergebnisse. Okay, lass uns weitermachen. Und lassen Sie uns versuchen vorherzusagen, wie viel eine Wohnung für 38 Quadratmeter kosten wird. Richtig, vorherzusagen und in Eltern ist 38. Ausgezeichnet. Und wenn 120 Meter, lassen Sie uns mit unserer Vorhersage in Excel vergleichen. Sie sind sehr ähnlich mit einer hohen Genauigkeit. Also erwähnten wir, dass eine schlankere Aggressionen auf der Formel basieren. Warum physikalische X plus B in unserer Dämmerung, dass Azkadellia Regressionsalgorithmus verwendet, um solche Koeffizienten A und B zu finden, wird
es die minimale Abweichung von unseren Werten von der Linie geben, die wir bauen. Mal sehen, welche Koeffizienten Modell für Koeffizienten acht hat. Wir schreiben Wrack Punkt Cueva Unterstrich, und für Koeffizient b schreiben
wir rektale Abfang-Unterstrich. So ist
unser Modell wie folgt der Preis der Wohnung ist Ihr ein 0,71 mal die Fläche und plus 0,8111 Lassen Sie uns überprüfen, welche Formel wir hatten. Ein Exzellent. Wie Sie sehr ähnliche Ergebnisse sehen können. Sie sind nur wenig dran. In Excel. Lasst uns nochmal nachsehen. Wir multiplizieren 120 Meter mit dem ersten Koeffizienten und fügen den zweiten Koeffizienten zum Essen hinzu. Und ja, wir haben genau die Nummer bekommen, die uns in der obigen Vorhersage gegeben wurde. Übrigens können wir die Linie zeichnen, die unsere Vorhersagen zeigt. Wir verwenden den linearen Regressionsalgorithmus, so dass wir eine gerade Linie haben, um es in unserem Diagramm zu sehen. Lassen Sie uns den Code kopieren, den wir oben verwendet haben, um das Diagramm zu erhalten. Und in der letzten Zeile, ed BLT dot plot und in Parentis ist DF Ära Komma Greg. DF-Bereich vorhersagen. Dieser Mantel bedeutet, dass wir die Linie zeichnen, auf der eine Fläche entlang unserer X haben wird, und der lange weiße Zugang wird Preise haben, die unser Modell vorhergesagt hat. Achten Sie auf die Anzahl der eckigen Klammern und Eltern ist es sehr einfach, sich zu irren, wenn Sie diese Kälte betreten. Nun, wie wir sehen können, beschreibt diese Zeile die bessere und ziemlich gut schmale, leichte Abweichung von den wahren Werten, aber sie werden unweigerlich von der Polizei sein. Wir können sicher sagen, dass dies die beste Option für alle möglichen geraden Linien für diese Punkte ist. Also lassen Sie uns fortfahren und das unterstützen. Wir haben ein Feuer mit Wohnungen, in denen wir wissen, dass sie Bereich sind, aber nicht wissen, die Preise. Wir müssen die zweite Spalte mit den Preisen spüren, die unser Modell vorhersagt. Laden wir diese Datei zuerst in unser Jupiter-Notizbuch hoch. Dazu muss sich diese Datei im selben Ordner wie Ihr Notizbuch befinden. Verwenden Sie nun den Excel Befehl, um die Datei in unser Python Notizbuch hochzuladen. Er heißt diesen neuen Tisch mit neuen Wohnungen. Pred von der Welt vorhergesagt. Jetzt lassen Sie uns unsere Tabelle anzeigen. Es gibt 10 Zeilen in der Tabelle, und wenn die Dateien zu lang sind, können
wir den Computer einfach bitten, die ersten Zeilen mit dem Kopf anzuzeigen. Empfehlen oder wir können sogar angeben, wie viele Zeilen aus der Tabelle wir anzeigen möchten. Zum Beispiel, bedruckte Kopf und freie Inferenz ist frei Rose. Als nächstes verwenden
wir unser bestehendes Modell, um Vorhersagen für diese neuen Wohngebiete zu machen. Wir verwenden unser rotes Modell und das Senden der Fläche, oder für eine neue Wohnungen, Rektal vorhersagen und in Eltern ist Druck. Ok. Wie Sie sehen können, sind dies die Antworten mit vorhergesagten Preisen. Große jetzt sind Dämmerung ist es, eine weitere Spalte in dieser Tabelle zu machen, so dass wir diese
vorhergesagten Preise dort einfügen können , um diese zuerst zu tun. Sparen wir unsere prognostizierten Preise. Ist eine Sorte p jetzt erstellen Sie Spalte und fügen Sie diese Preise dort ein, um dies zu tun? Wir schreiben einfach den Namen von unserem Preds Tisch. Dann in eckigen Klammern und in Anführungszeichen. Der Name der neuen Spalte prognostizierte Preise. Und danach haben wir dieser Spalte zugeteilt, gab es vorhergesagte Preise, die wir oben erhalten haben. Wie Sie sich erinnern, haben wir sie mit dem Buchstaben B
ausgezeichnet bezeichnet . Jetzt ist es nur sehen, diese Datei in Excel Gebet zu sagen, um zu übertreffen. Ending aktuelle ist's Lassen Sie es die Datei sein, die Sie. Nun sollte diese Datei in unserem Ordner in Jupiter erscheinen. Hier ist es. Wir öffnen es großartig. Das einzige, was es auch exportiert. Die Indexspalte, die die erste Spalte ist, die tatsächlich nicht benötigt wird. Wir können hier in Excel oder wieder für den Code entfernen. Es wird entfernt, wie diese Index physisch fällt. Lassen Sie uns erneut überprüfen, erstellen Sie den Index erschienen. Also, was haben wir in diesen Episoden durchgemacht? Erstens, wenn Sie mit Machine Learning Project arbeiten müssen fast immer Bibliotheken
vor dem Start jedes Projekts importieren . Die häufigsten Bibliotheken sind Pandas Klumpen, ich könnte höflich, psychisch lernen und andere. Sie ermöglichen es Ihnen, mit tabellarischen Daten zu arbeiten, Datum in Diagrammen
zu visualisieren und fertige Vorlagen aus verschiedenen Maschinen Lauren Calgary
Daumen zu verwenden . Als nächstes
haben wir gelernt, wie man Excel -Dateien in unser Jupiter-Notizbuch lädt und tabellarische Daten in
einem Diagramm visualisiert . Wir haben auch gelernt, unser Modell zu trainieren, indem wir die verfügbaren Daten verwenden und den linearen Regressionsalgorithmus verwenden. Und wir waren dabei, die verschiedenen für neue Daten vorherzusagen. Und wir haben auch gelernt, wie Sie neue Spalten in Tabellen per Telefon erstellen und dort unsere vorhergesagten
Daten eingeben und sie dann in einer Excel -Datei auf unserem Computer speichern können. Jetzt möchte ich Ihnen einige Hausaufgaben geben, um das zu festigen, was wir gelernt haben. Wir alle wissen, dass ein erheblicher Teil der Frakturen Budget besteht aus Einnahmen aus dem Verkauf von Energie, Öl und Gast. Es ist Teil unserer Hausaufgaben. Lassen Sie uns die Abhängigkeit des russischen BIP von den Ölpreisen vorhersagen. Dazu werden
wir die Daten der letzten 15 Jahre verwenden. Ich habe vorbereitet, für Sie in Excel einzureichen. Es ist dieser Vorlesung beigefügt. Wenn jemand interessiert ist, habe ich die Daten von der Weltbank Website genommen. Es gibt viele statistische Informationen über die Wirtschaft und andere Aspekte aus dem Leben in verschiedenen Ländern, sowie von den Websites, die dot com ist. Das Feuer sieht so aus. Wir haben das russische BIP, eine Spalte und die Ölpreise. In einer anderen Spalte müssen
Sie es in Ihr neues Notizbuch in Jupiter hochladen, diese Dating und Handwerk
anzeigen, dann das Modell trainieren und dann versuchen, unser BIP in Abhängigkeit von den verschiedenen Ölpreisen vorherzusagen. Nun, das ist alles vorerst. Sie bekamen eine Excel -Datei für die Aufgabe der Vorhersage der Abteilungspreise sowie die
Excel-Datei auf Öl. Preis und BIP sind die Bühne. Es gibt eine Ressource für diesen Vortrag. Ich hoffe, Sie haben diese Episode genossen, die nächsten zu sehen
17. Vorhersagen des BIP für das Land: Wie geht es also um deinen Fortschritt? Haben Sie es geschafft, das Modell für die Vorhersage Brecher BIP trainieren, abhängig von den Ölpreisen, mal sehen, wie cool sind, wie Ort aussehen, Erstellen Sie Datei und Sie nennen es. Das erste, was wir tun, ist, dass wir die Bibliotheken in unser Projekt importieren. Als nächstes öffnen
wir Excel -Datei mit der Ölkrise und dem BIP. Denken Sie daran, dass sich diese Datei im selben Ordner befindet, in dem sich Ihr Python Notizbuch befindet. Alles klar, lassen Sie uns anfangen, ein Diagramm mit ihnen zu bauen oder Tweet-Modell. Wir hatten die Namen des Zugangs, des Ölpreises und Russlands BIP in Milliarden von Dollar. So sieht die Grafik ziemlich realistisch aus, wie wir mit dem gleichen Ölpreis sehen können. Aber in verschiedenen Jahren war das
BIP etwas anders. Vielleicht liegt dies daran, dass Russland in der Lage war, seine Wirtschaft zu diversifizieren, oder aus
anderen Gründen . Als nächstes lassen Sie uns unser lineares Regressionsmodell erstellen, und mit Hilfe des Fußkommentars werden
wir es anhand der Daten über die Ölpreise im russischen BIP trainieren. los geht's. Wir haben die Bestätigung, dass unser Modell geschult wurde. Jetzt können wir Vorhersagen machen. Lassen Sie uns zunächst für alle Jahre vorhersagen und vergleichen, wie nah die prognostizierten Fehler mit den
wahren Werten sind . Nun, das ist ziemlich sicher eher von etwa 200 bis 400 Milliarden Dollar. Was bedeutet es wahrscheinlich? Nun, wir können uns einig sein, dass es eine gewisse Korrelation zwischen dem BIP und den Ölpreisen gibt, aber diese Korrelation ist bei weitem nicht sehr stark. Nun, natürlich sollten sie vorbei sein. Denn die russische Wirtschaft ist immer noch nicht vollständig von Lee abhängig von den
Energiepreisen . Es gibt viele andere Faktoren, die berücksichtigt werden sollten. Aber was wir sicher sehen können, ist, dass die niedrigeren Ölpreise, das kleinere BIP, übrigens
tendenziell sind, man kann es mit Ländern vergleichen, die Ölimporteure sind, beispielsweise Indien oder Japan oder Südkorea oder Deutschland. Wie haben sich die Ölpreise auf sie ausgewirkt? Wenn sie Nettoimporteure von Öl sind, würde dies
wahrscheinlich bedeuten, dass billige Ölpreise für sie besser wären. Aber es ist übrigens nur eine Hypothese,
die Sie bestritten haben. Also lasst uns jetzt weitermachen. Wir können eine Linie erstellen, die zeigt, wie unser Modell mit dem BLT-Kommentar aussieht. Setzen Sie nicht, wie Sie sehen können, ist
der Skater eher Deke lassen Sie uns vorhersagen, mit einigen konkreten Preisen. Zum Beispiel, was wird das BIP sein, wenn der Preis $10 Free College und 70 Milliarden? Nun, das ist ziemlich klein für Russland. Und was ist mit dem Preis ist $150 fast $3 Billionen? Das ist
übrigens viel besser . Jetzt haben wir Vorhersagen basierend auf Lee auf dem Preis von Öl, aber wir können auch in co-Unabhängigkeit auf das Jahr in unserem Modell. schließlich Schauen
wir unsschließlichnoch einmal unser erstes Detail an. Sie sehen, in 2000 und fünf und 2017 war der Ölpreis der gleiche, ungefähr $54. Aber das BIP ist komplett mit der Front im Jahr 2000 und fünf, nur $764 Milliarden. Und im Jahr 2017 schon mehr als 1,5 Billionen fast zwei Mal mehr, was bedeutet, dass Sie in dieser Zeit sind. russische Wirtschaft ist wahrscheinlich weniger abhängig von den Ölpreisen geworden. Also, wie können wir unser Modell zu trainieren, basierend auf den Rivalen vorherzusagen sind Modell in diesem Fall, Will Lucas folgt Warum ist gleich ein X plus B plus C wo warum ist unser BIP X der Preis Öl, und das ist das Jahr und A, B und C sind neue Wunderkoeffizienten. Und jetzt, wie spezifizieren wir es in unserem Code? Eigentlich, sehr Symbol. Denken Sie daran, wir hatten eine Codezeile, die wir verwendet haben, um das Modell zu trainieren. Wir fügen einfach zu den Wrackfüßen innerhalb der doppelten eckigen Klammern hinzu. Ein weiterer Faktor. Das Wort „Jahr“. In Anführungszeichen drücken wir die Eingabetaste. Okay, das Modell wurde trainiert, und jetzt lassen Sie uns zuerst die gesamte Serie für alle Jahre vorhersagen. Siehst du, es ist schon viel bessere Ungenauigkeit. Die Verbreitung ist nur ein paar tut, und so Milliarden. Lassen Sie uns versuchen, vorherzusagen, welches BIP sein wird. Zum Beispiel im Jahr 2025. Und wenn der Ölpreis $100 richtig ist, prognostizieren und in Aufzeichnungen, 2025 Komma, 100 fast 2 Billionen $700 Milliarden fast eine wirklich mehr als jetzt. Okay, ich denke, das ist alles für eine schlankere Aggression. Wenn Sie Fragen haben, zögern Sie nicht, in den Kommentaren zu fragen oder direkt zu schreiben. Sie können auch versuchen, Daten zu finden, zum Beispiel von verschiedenen Wechselkursen oder Aktienkursen, und versuchen, ein Modell basierend auf diesen Daten zu erstellen und zu trainieren, um Vorhersagen für
die Zukunftzu machen die Zukunft
18. Vorhersagen von Titanic: Klassifikationsaufgabe: Hallo, alle in dieser Vorlesung, wir werden ein Klassifizierungsproblem lösen. Wir werden vorhersagen, welche Passagiere beim Absturz der Titanic überlebt haben. Zunächst einmal erinnern
wir uns daran, was die Klassifizierung Tasking Maschine lording Schlüssel. Wie der Name schon sagt, wird die
Klassifizierung verwendet, um ein Objekt einem bestimmten Preis zuzuordnen. Zum Beispiel, in unseren Schlüsseln, wer den besten Sänger klassifiziert, ist entweder ein Überlebender oder nicht. Klassifizierung kann
zum Beispiel verwendet werden , um zu verstehen, ob die eingehende Nachricht ein Spam ist oder nicht, oder um zu verstehen, ob die Bank das Darlehen an eine mögliche Grenze geben sollte, wenn es
nur zwei Klassen gibt , dann wird das Problem den Kauf einer Reklassifizierung genannt. Wenn es mehrere Klassen gibt, dann ist dies eine Multi-Classification. Wenn wir mit Regression vergleichen, dann haben
wir in der Progression keine Klassen. Wir prognostizieren einfach einen numerischen Wert. Zum Beispiel in früheren Episoden haben wir
in früheren Episodendie Kosten einer Wohnung mit dem Volumen des BIP von unserem Land prognostiziert. Es gibt eine bestimmte Anzahl, und in der Klassifizierung ist
die Anzahl von Antworten oder Klassen begrenzt. Wir selbst stellen diese Klassen dem Computer zur Verfügung, und der Computer bestimmt, zu welcher dieser Klassen das neue Objekt gehört. Lassen Sie uns also auf die Lösung von Farbklassifizierungsproblemen kommen. Zuerst müssen
wir herunterladen. Die Daten werden über die Titanic-Überlebenden von der Kegel-Website einreichen. Dies ist eine sehr nützliche Seite hier. Hier finden Sie viele Beispiele für maschinelles Lernen mit Erklärungen und Lösungen
anderer Anwender. Als nächstes müssen
wir diese Datei in unseren Ordner hochladen, in dem unsere Dateien für Jupiter gespeichert sind. In Ordnung, lassen Sie uns eine Frau erschaffen, ein Notizbuch in Jupiter und nennen es. Jetzt lasst uns wichtig. Fonda und Mumbai Bibliotheken Groß. Lassen Sie uns also alle Dateien mit inhaftierten Überlebenden in unser FIFA-Notebook hochladen, Daten sind gleich P D Door Treat CSC und in Klammern Titanic. TSV Jetzt schauen wir mal, wie unser Feuer aussieht. Wie Sie sehen können. Hier sind die Daten für 891 Passagiere. Wir haben ihr Geschlechteralter. Welche Klasse, den Besetzten zu geben und das wichtigste Problem für uns ist die
überlebte Säule . Wie Sie vielleicht einen erraten. Es bedeutet, dass die Gegenwart, die Sie überlebt haben und Null, die leider, er hat uns das nicht wiederbelebt nennen lassen. Nennen Sie ihn unsere Zielsäule und nehmen wir vier weitere Spalten, die unserer Meinung nach
beeinflusst haben, ob der Bote gespeichert werden könnte oder genug. Diese Spalten werden Alter,
Geschlecht, Geschlecht, Kabinenklasse und Ticketangst sein. Nennen wir sie Training Collins. Bitte beachten Sie, dass wir die Kohlenamen genau so eingeben, wie sie in der Datei angegeben sind. Das heißt, ich meine, wo es Großbuchstaben gibt, ist
es notwendig, Großbuchstaben einzugeben. Andernfalls werden die Daten nicht gelesen, aber es ist nicht. Erschaffe die Rivalen. Es speichert die Daten, die diese Spalten ab physikalischen Zehendaten starten und in Klammern , Schulzug und warum wird es als Daten bezeichnet? Und in Klammern Spalte Stargate. Ein weiterer sehr wichtiger Punkt im maschinellen Lernen ist, dass Sie verstehen, wenn wir Modelle erstellen, nicht nur die richtigen Algorithmen wichtig sind, sondern auch die Qualität der Daten, auf denen wir sie trainieren. Das bedeutet, dass
es in unseren Daten keine Leerzeichen oder Werte geben sollte, die sicherlich nicht da sein können. Zum Beispiel, wenn sie sich als Stall fühlen, könnten
sie einfach vergessen, dass Zehe in den Villian einige Zellen eingeben, wo plötzlich der Alterswert auf eine Zelle mit einem fairen versehentlich
übertragen wurde . Daher bei großen Projekten sehr streng überprüft, wenn es um große Mengen geht diese Daten
bei großen Projektensehr streng überprüft, wenn es um große Mengen geht. Also in unserem Fall. Was können wir tun, um die Qualität der Datierung unseres Projekts zu überprüfen? Zumindest können wir überprüfen, dass wir keine leeren Zellen haben. Dies geschieht mit der folgenden Formel X in Klammern. Sex Dot ist jetzt Klammern, nicht einige Briketts, und wir tun es für alle Spalten. Es stellte sich heraus, dass es in der Alterskolonne 177 Passagiere gibt, deren Alter nicht in Dickie ist , was sollen wir tun, wenn wir all diese 177 Boten entfernen? Diese können unsere Auswahl stark beeinflussen, denn dennoch ist es schon eine ziemlich große Zahl. Also, was können wir tun? Wir können ihnen den Mittel- oder Mittelwert für diese Spalte geben. Es gibt eine spezielle Funktion im Panda, die diese leeren Zellen mit mittleren oder mittleren
Werten anheizt . in der Spalte Lassen Sie unsin der Spaltedie Medianwerte zuerst verwenden. Uns wurde eine kleine Warnung gegeben, aber sie kann sicher ignoriert werden. Lassen Sie uns überprüfen, ob alle Zellen in jeder Spalte Arfield wieder. Sollen wir jetzt weitermachen? Ganz und gar nicht. Wir müssen noch eine Manipulation in unserem Killer-Modell vornehmen. Wir können eine starke Ankunft nicht als kategorisches Dorival verwenden. Was ich meine, dass entwickelt sich in der Passagier-Geschlecht Spalte werden als die Welt männlich oder
weiblich angegeben . Unser Modell wird nicht in der Lage sein, sie für das Training zu verwenden. Es kann nur die Wunderdaten verwenden. Deshalb, was wir tun werden. Wir werden die Swartz einfach in Nullen und Einsen umbenennen. Lassen Sie uns Frauen durch die Nummer eins und Männer mit der Zahl Null ersetzen. Um dies zu tun, müssen
wir ein Wörterbuch erstellen. Das Wörterbuch ist, wenn Sie sagen, dass ein Meribel einen anderen Dorival bedeutet, wie in einem echten Wörterbuch, wo Sie Übersetzungen für die vierte von einer Sprache in eine andere haben. Das Wörterbuch per Telefon gesehen Sie sicher Klammern und im Inneren müssen wir Ankünfte, dass sie durch einen Doppelpunkt getrennt sind. Rufen wir unser Wörterbuch an, graben dicked physische Zehe rein Klammern E-Mail, Doppelpunkt, Null Komma weiblich Und jetzt werden wir Namen ersetzen, männlich und weiblich, mit Zahlen Null und eins mit der folgende Formel. Diese Arbeit Lambda bedeutet nur, dass wir unsere Wörter wie in einem Spiegel ersetzen werden, wie in unserem Wörterbuch angegeben. Sie können ignorieren, dass die von Corning sind. Sie hindern uns nicht daran, unsere Arbeit fortzusetzen. Später
werde ich Ihnen zeigen, wie Sie während sie ausschalten. Also lassen Sie uns mit unserem Coolum mit dem Geschlecht der Passagiere überprüfen. Sieht aus wie jetzt Nun, jetzt ist Ihr Send einmal überall. Das ist es, was du brauchst. Lassen Sie uns unser Date noch einmal überprüfen. Wie du dich erinnerst. Für den Trainingsdatensatz haben wir nur vier Spalten übrig gelassen. Alter, Geschlecht, Klasse von Karen und Angst. Was also beim maschinellen Lernen zu wichtig ist, ist, unseren Datensatz in zwei Teile zu unterteilen. Der erste ist der Trainingsteil wird unser Modell auf diesem Teil trainieren, und der zweite Teil ist ein Testteil des Datensatzes. Wir werden es verwenden, um zu überprüfen, wie gut unser Modell seine Genauigkeit macht. Also lasst uns wichtig das Modell, das unseren Datensatz in Trainingsbeispiel und Testprobe aus seinem
Farbpunktmodell aufteilen wird. Unterstriche Auswahl Zug unterstrichen importieren. Testen Sie bitte Unterstriche. Dies sind Standardindikatoren, die wir nehmen die Größe der Testprobe ist 1/3 oder, wenn Sie möchten, können
Sie es 20 oder 30% nehmen und der Zufallsstatusindikator ist 42. Sie können sie als grundlegende Standardindikatoren betrachten, also müssen wir jetzt unser Modell auf unserem Trainingsset trainieren, unser Modell wird auf dem schlankeren
Support-Vektormaschinen-Algorithmus basieren , der unsere Daten linear in verschiedene Gruppen unterteilt. Die Idee dieser Angelegenheit ist, dass wir versuchen, eine solche Linie zu finden, oder wenn wir mehrere
Klassen wie ein Wasserflugzeug haben , ist
der Abstand, von dem zu jeder Klasse maximal. Eine solche gerade Linie oder Hyperebene wird als optimale trennende Hyperebene bezeichnet. Die Punkte waren, wie Sie sagen können, Vertreter von Klassen oder Vektoren, die, wie schließt an den trennenden Keiper unsere kalte Unterstützung Vektoren reinigen. Hier kommt der Name dieser Methode. Was gut an der Programmierung per Telefon ist, dass es viele Bibliotheken und Handel hergestellte
Modelle hat , die bereits alle diese Methoden enthielten. Das heißt, wir müssen nicht alle diese Formeln selbst komponieren und berechnen. Wir importieren einfach das Modell, das wir brauchen, in unser Projekt. Also lassen Sie uns importieren. Der ECM-Algorithmus ist unser durch das Notebook und CO sind Modell Pred Modell von SK Lauren Import SPM. Motto von Fred ist gleich wie siendo weiner s V C. Nun lassen Sie uns unser Modell mit unserem Trainingsset trainieren und Füße funktionieren super. Wir haben bestätigt, dass das Modell wieder trainiert wird. Ignorieren Sie diese violetten Änderungen. Jetzt ist es an der Zeit, Vorhersagen für die Testprobe zu machen. Die Tatsache, dass in Klammern Nullaufruf auf 10 angezeigt wird, bedeutet, dass wir die ersten
10-Werte aus unserer Testprobe vorhersagen . Nun, wir sehen Nullen und Einsen, was bedeutet, ob der Bessinger überlebt hat oder nicht. Aber woher wissen wir, ob das Modell diese Fehler korrekt vorhergesagt hat? Um dies zu tun, verwenden
wir die Punktefunktion, wie Sie sehen können, fast 77%, was für unser erstes Modell nicht schlecht ist. Übrigens, Sie können diesen Mantel wieder ausführen, und ihm wird ein wenig andere Genauigkeit gegeben, denn wenn die Maschine Ihre Probe in Trainings- und Testproben teilt, trainiert sie sie nicht. Wir sind jedes Mal mit den Füßen. Die Genauigkeit wird ein wenig anders sein. auch
daran, wo wir 177 leere Zellen mit dem Alter gefunden, wir haben den Median Alterung sie eingefügt. Was wird die Genauigkeit sein, wenn wir das Durchschnittsalter mit dem mittleren Kommentar einfügen und sehen, was das Ergebnis sein wird? Trotzdem ist
es ein bisschen anders, das ist alles. Für den Moment. Der Python-Code für diese Aufgabe ist wie üblich dieser Vorlesung
beigefügt, aber auf jeden Fall
versuchen Sie, dieses Gericht selbst zu schreiben und auszuführen, um das Material, das Sie gelernt haben, zu konsolidieren.
19. Neuralnetz – Erstelle dein eigenes neuronales Netzwerk zum Einstufung von Bildern: Hallo, alle. Ich freue mich, Ihnen sagen zu können, dass
Sie am Ende dieser Episode Ihr eigenes neuronales Netzwerk aufbauen werden, das Bilder von Kleidung erkennen kann. Für diese Aufgabe wird ein Datensatz namens Gesichts Menaced verwenden. Es enthält 70.000 Bilder von verschiedenen Arten von Kleidung, wie T Shorts, Hosen, Schuhe, Taschen, Pullover, Code sniggers und so weiter. Jeder Spezialist für maschinelles Lernen beginnt seine Ausbildung. Mit diesem Datensatz. Es ist der sogenannte Standard für Trainingsspezialitäten. Denken wir daran, dass neuronale Netzwerke aus mehreren Schichten bestehen. Die Daten in unseren Schlüsselbildern werden an die Eingabe-Ebene geliefert. Dann durchlaufen diese Daten mehrere Schichten von Neuronen. Während dieses Prozesses, ihre zugewiesenen bestimmten Gewichtungen, und dann haben wir eine Ausgabe-Schicht, die Antworten geben sollte. In unserem Fall sagt uns
die Ausgabe-Ebene, was im Bild gezeigt wird. In Bezug auf maschinelles Lernen beziehen sich
die Sterne auf Klassifizierungsprobleme. Ein Bild wird an die Eingabe-Ebene aus unserem neuronalen Netzwerk geliefert, und die Ausgabe-Ebene bestimmt, zu welcher Klasse der Schließen dieses Bild gehört, ob es sich um einen Code Schuhe, T-Shirt oder ein anderes Kleidungsstück handelt. Es gibt 10 solche Krise. In diesem Satz ist
dieser Datensatz offen und kann frei heruntergeladen und verwendet werden, um unser neuronales
Netzwerk zu erstellen . Es wurde vom Salon,
dem Unternehmen mit Sitz in Berlin,erstellt dem Unternehmen mit Sitz in Berlin, und das Set umfasst 70.000 verschiedene Bilder von Kleidung. In einem der vorangegangenen Vorträge zum Thema Bedauern
haben wir erwähnt, dass neuronale Netze, um gut ausgebildet zu werden, so viele Daten wie möglich
Fleisch. Daher sind 70.000 Bilder im Prinzip eine gute Zahl. Sie können diesen Datensatz auf den Get Top- oder Kegel-Websites herunterladen. Wir haben in früheren Vorträgen erwähnt, dass wir, wenn wir unsere Modelle trainieren, Kopf unserer Daten in zwei Teile teilen. Die Trainingsprobe und die Testprobe und damit sie gesetzt sind, sind ebenfalls in zwei
Teile unterteilt . Der erste Teil besteht aus Husten. 60.000 Bilder, wird für das Training verwendet werden, und der zweite Teil von 10.000 Bildern wird zum Testen verwendet werden, um zu verstehen, wie gut unser Modell trainiert wurde, Dieser Datensatz enthält zwei Dateien. Die erste Datei mit Bildern in der zweiten Datei mit Klassenbeschriftungen
, also mit den richtigen Antworten. Alle Bilder sind 28 mal 28 Pixel groß und werden in Cremetönen ausgeführt und die große Intensität Bildpixel unterschiedlich auf einer Skala von 0 bis 255, wobei Null eine völlig weiße große Zelle und 255 ist eine starke Craig Farbe. Und da diese Bilder so einfach sind, ist
das nur 28 mal 28 Pixel und in den Schattierungen von Cray. Dies ermöglicht es Ihnen, mit ihnen zu arbeiten und mit neuronalen Netzwerken zu arbeiten, auch wenn Ihr Computer nicht zu stark ist. So haben wir das bereits in der Mode erwähnt. Die Polizei sagte später. Es gibt 10 Klassen von Kleidungsstücken hier. Sie können dort auf dem Bildschirm sehen. Sie sind von 0 bis 9 im Gericht in Queen nummeriert, wenn wir dieses oder jenes Bild unserem neuronalen Netzwerk unterbreiten, erhalten
aber die Klassennummer, zu der es gehört Null, wenn es ein T-Shirt ist, fünf dieser Schuhe und so weiter. Welche Art von Eingabedaten werden also in unser neuronales Netzwerk eingespeist? Wie wir bereits gesagt haben, Erstens, 28 mal 28 Pixel. Wenn Sie zusammen multiplizieren, ist
es 784 Picks Zellen, und zweitens ist
es die in Dichte aus den Schattierungen von Grau in jedem Pixel in der Dichte wird von 0 bis
255 variieren . Wir verstehen versucht, dass der Computer alle Informationen numerisch erhält, weshalb unser neuronales Netzwerk erhalten wird. Jedes Bild ist ein Satz von 784 Pixel, und jede große Zelle wird eine bestimmte Zahl von 0 bis 255 haben, abhängig von der Intensität
der Schattierungen von verrückt. Na gut, dann gehen wir weiter. Die Architektur unseres neuronalen Netzwerks wird sehr einfach sein. Es besteht aus nur drei Schichten. Der Eingabe-Layer, eine versteckte Ebene und die Ausgabe-Ebene. Die Eingabe-Ebene verwandelt unsere zweidimensionalen Bilder nur in eine Dimension. Jede der nächsten Schichten besteht aus Hunderten und 28 Neuronen, und diese Zahl kann tatsächlich geändert werden. Zum Beispiel können
Sie 512 oder 800 die Ausgangsschicht wird aus 10 Neuronen bestehen. Da wir 10 verschiedene Klassen von Nelken haben, werden
wir ein tanz-neuronales Netzwerk verwenden, was bedeutet, dass alle Neuronen des aktuellen Spielers mit allen Neuronen der
vorherigen Schicht verbunden sind . Jedes der 128 Neuronen aus der Hauptschicht erhält die Werte von allen 784 Pixeln aus dem Bild und jedem der 10 Urinson. Die Ausgabe-Schicht gibt uns die Wahrscheinlichkeit, dass dieses Bild die gegebene Klasse von
Kleidung darstellt . Die Wahrscheinlichkeit wird im Bereich von 0 bis 1 widergespiegelt. Denken wir daran, wie ein neuronales Netzwerk solche Vorhersagen machen kann und wie alles funktioniert. Wir werden solche Konzepte wie Gewichte,
Rückenausbreitung und acht Bücher zuerst verwenden , wie ein menschlicher Urin. Die Aufgabe, oft künstliches Neuron, ist es, Informationen zu erhalten, sie in einer bestimmten Weise zu
verarbeiten und sie an das nächste Neuron und die Verbindungen solcher
Neuronen in der künstlichen Intelligenz weiterzugeben , die Eingangsdaten erhalten, verarbeiten und dann die Ausgabedaten bereitstellen. Solche Strukturen werden neuronale Netzwerke genannt, so dass wir bereits erwähnt, dass jedes Neuron ein Bild im Format von 784 Peakzellen erhält , und jedes Pixel hat einen Wunderwert, abhängig von der Farbintensität, die ist grob gesprochen. Jedes Neuron erhält einen bestimmten Bereich oder eine Kombination numerischer Informationen. Dann wird jedes Neuron oder kein Dip eine Art Freund gegeben und warten. Das ist signifikant, oder wie viel der Wert des Neurons dem einen oder anderen Bild entspricht,
und auf diese Weise ist es zufällig verteilt. Ich möchte noch einmal betonen, dass in der ersten Stufe, die Suite wird nur trainiert sie danach, wenn diese Werte auf die Ausgabe-Ebene übertragen, weil wir tatsächlich wissen, was
im Bild gezeigt wird . Da wir Antworten auf jedes Bild haben, sagen
wir einem neuronalen Netzwerk, ob die Vorhersage wahr oder falsch war. Also, wenn das Netzwerk richtig vorhergesagt, als das Gewicht dieses Fehlers für diese Verbindung zwischen Neuronen in verschiedenen Schichten erhöht. Und wenn unser Modell eine falsche Vorhersage gemacht hat, reduzieren
wir das Gewicht, und dies wird als Rückausbreitung bezeichnet. Das heißt, wir schickten Informationen zurück an die neueren Schichten und sagen entweder, das
Gewicht zu erhöhen oder zu verringern ,
je nachdem, ob die Vorhersage richtig gemacht wurde oder nicht. Und diese Bewegung, Türen wechseln gleichgesetzt sichert ständig hin und her während des Trainings. Wenn die gesamten Daten sagten, das heißt, alle Bilder gehen für dieses Verfahren. Es wird eins genannt, ein Buch, das das Training von neuronalen Netzwerken ausdauert. In der Regel werden mehrere acht Bücher verwendet, zum Beispiel 10 oder sogar 100. Das sind die gleichen Bilder oder laufen 100 Mal durch alle Schichten jedes Mal, ändern das Gewicht von Neuronen und machen sie genauer, wodurch der Prognosefehler reduziert wird. Lassen Sie uns sehen, wie Sie ein solches neuronales Netzwerk in Tensorflow inneugierig erstellen und trainieren können. Dies sind die Bibliotheken per Telefon, die für die Arbeit mit neuronalen Netzwerken ausgelegt sind. Ja, und bevor wir anfangen werden, möchte
ich sofort eine Reservierung machen, dass wir dieses Projekt in Google
Zusammenbruch lösen werden. Wir haben bereits in der ersten Vorlesung telefonisch erwähnt, dass es sich um eine Cloud-Umgebung von
Google handelt , die die Möglichkeit bietet, Machine Learning-Projekte direkt im Browser zu testen. Warum entscheiden wir uns, Google Zusammenbruch jetzt zu wählen? Denn um dieses Problem mit neuronalen Netzwerken zu lösen, brauchen
wir den Tensor für Bibliothek und die Liebkosung meines Audio. Und wenn Sie sie auf Ihrem Computer installieren möchten, kann dies
oft sehr problematisch sein. Und es gibt viele Fehler mit verschiedenen Versionen oder Kompatibilität mit der Grafik und anderen Fehlern. Wo ist, wenn Sie mit Google Zusammenbruch umgehen? Sie müssen nichts installieren, sondern nur ein Notebook erstellen und sofort mit der Programmierung beginnen . Daher ,
wenn Sie möchten,
im Prinzip wenn Sie möchten, können Sie,
wenn Sie möchten,
im Prinzipversuchen, Tensorflow auf Ihren Computer herunterzuladen. Dies kann mit dem Peep erfolgen. Installieren Tensorflow Befehl auf dem Anaconda Common Flynt in einem solchen schwarzen Fenster, waren
aber sehr hohe Wahrscheinlichkeit. Möglicherweise haben Sie einige Schwierigkeiten beim weiteren Importieren dieser Modelle in Ihr Projekt. Und wenn solche Installationsfehler hier heilen, können
Sie die typischsten Fehler sehen und wie sie verkauft werden können. Daher der Einfachheit halber. Und um diese Schwierigkeiten bei der Installation von Tensorflow auf dem lokalen Computer zu vermeiden, werden
wir zeigen, wie man dies in einem Google-Zusammenbruch macht, und hier sollten Sie sicherlich keine Probleme haben. Darüber hinaus gibt Ihnen
dieses Framework von Google die Möglichkeit, mehr Rum zu verwenden, als auf Ihrem Computer
verfügbar ist . Okay, lasst uns anfangen und wurde erstellt, du weißt schon, Buch in Google Zusammenbruch. Nun, am
Anfang, müssen
wir die Bibliotheken und Mondial Sweeney importieren. zuerst Lassen Sie unszuerstalle Hauptbibliotheken importieren. Wir werden in letzter Zeit nicht mit Kirschen arbeiten und unsere Zeichnungen visualisieren müssen . Wie bereits erwähnt, sind
Tensorflow und Cara's notwendig, um neuronale Netzwerke aufzubauen. Der Modepolizei Datensatz ist bereits in der Pflege uns zur Verfügung, weil es einer von so
beliebten Datensätzen ist , auf denen alte Datenwissenschaftler neuronale Netzwerke lernen. Als nächstes importieren wir das sequentielle Modell. Dies ist ein neuronales Netzwerkmodell, in dem Schichten gehen eins aus, um dort heraus. Dann werden wir den dichten Typ Player importieren, was bedeutet, dass unsere Schichten vollständig miteinander verbunden sind. Und schließlich, die auch importieren verschiedene Dienstprogramme, die helfen, unsere Daten in ehemalige geeignet
für Pflege uns zu übersetzen . Also, da wir schon am Anfang wichtige Patientendaten haben, können
wir nun die Daten in unser Projekt laden. Wie wir in früheren Vorlesungen zum maschinellen Lernen gesagt
haben, werden unsere Datensätze in zwei Teile Trainings- und Testbeispiele unterteilt. Und jeder dieser Teile wird Teil X enthalten. Dies sind die Bilder und Teile, warum dies aus Die Antworten, auf welche Klasse das Bild gehört. Sie werden auch als Etiketten bezeichnet. Ortsnamen sind nicht im Datensatz enthalten. Also schreiben wir sie selbst. Okey,
dann, was kommt als nächstes? Jetzt müssen wir unsere Daten vorbereiten, bevor wir ein neuronales Netzwerk erstellen, und bevor wir dies tun, Lassen Sie uns zuerst sehen, wie unsere Bilder aussehen in den eckigen Klammern gewinnt oder der Index von 0 bis 59.999. Da wir 60.000 Bilder im Trainingsset haben, sind
einige Bilder leicht zu verstehen, und einige sind auf der Seite des Bildes fast unverständlich. Sie können auch die Pixelintensitätswerte von 0 bis 255 sehen. Wenn das große so so ist so dunkel wie möglich. Es hat einen Wert von Null-Antikörpern so leicht wie möglich. Es hat einen Wert von 255. Also, nachdem wir unsere Bilder jetzt gesehen haben, werden wir Datennormalisierung durchführen. Was bedeutet das? Dies bedeutet, dass, um die Optimierungsalgorithmen zu verbessern, die beim Training
neuronaler Netzwerke verwendet werden , wir die Intensität von jedem Pixel im Bild durch 255 teilen, so dass die Intensität jetzt im
Bereich von 0 bis 1 liegt , und wir werden es sowohl für das Trainingsset tun und es testen. Lasst es uns überprüfen. Großartig. Jetzt ist das Pixel in der Dichte von 0 bis 1, und es wird einfacher für neuronale Netzwerke sein, mit solchen Werten zu arbeiten, indem wir
mehrere Bilder auf einem Bildschirm auf eins darstellen können . Um dies zu tun, müssen
Sie ein paar Codezeilen schreiben. Wir werden die ersten 25 Bilder fünf in einem Troll zeigen, und wir werden auch die Namen ihrer Klassen unter ihnen anzeigen. Sieht fabelhaft aus, nicht, wenn Sie wollen, können
Sie die Bilder in Schwarzweiß machen, also das ist großartig. Wir haben die Daten vorbereitet, und dann können wir beginnen, ein neuronales Netzwerk in neuronalen Netzwerken zu schaffen. Das Hauptgebäude Buch ist das lineare, und der Hauptteil des Deploring ist die Kombination einfacher Schichten. Unneugierig, genau wie in der Maschine waren Inc Im Allgemeinen werden
neuronale Netzwerke Modelle genannt, und wie wir bereits erwähnt haben, wir diesen sequentiellen Typ von Modell verwenden, was bedeutet, dass unsere -Layer werden nacheinander in der Reihenfolge verlaufen. Lassen Sie uns also ein sequentielles Modell erstellen. Die erste Ebene, die als abgeflacht angezeigt wird, setzt das Format von Bildern aus einem zweidimensionalen Bereich dem jedes Bild eine Fläche von 28 x 28 Pixel hatte, in einen eindimensionalen Bereich von 28 x 28 Pixel. Das ist jetzt das Bild wird das Neuron eingeben ist eine Saite aus 784 Spitzenzellen als nächstes gehen zu dichten Schichten. Die erste dichte Schicht ist der vollständig verbundene Eingabe-Layer. Hier müssen wir entscheiden, wie viele Neuronen in dieser Schicht haben werden. In der Tat, viele Experimente wurden bereits durchgeführt, wenn diese Daten, und eine der erfolgreichsten Vorhersagen war die Eingangsschicht von 128 Neuronen. Obwohl, wenn Sie möchten, können
Sie 512 oder 800 Neuronen nach eigenem Ermessen herstellen. Als nächstes fahren
wir die Aktivierungsfunktion. In unserem Fall für die Haupteingabeschicht geben
wir die echte Aktivierungsfunktion an. Es zeigte eine gute Effizienz in solchen einfachen neuronalen Netzwerken, und dann ist die letzte Schicht die dichte Ausgabeschicht. Es wird 10 Neuronen genau wie die Anzahl unserer Klassen haben. Die Aktivierungsfunktion wird die Softmarks-Funktion sein. Diese Funktion ermöglicht es uns, zurückzukehren und sehr oft Wahrscheinlichkeitsschätzung, von denen einige
eins ist . Jeder Hinweis auf Urin enthält eine Schätzung, die die Wahrscheinlichkeit angibt, dass das aktuelle Bild zu einer unserer 10 Klassen gehört. Bevor wir das Modell trainieren, müssen
wir einige kleinere Einstellungen vornehmen. Dies wird als sterbliche Zusammenstellung bezeichnet. Bei der Kompilierung des Modells haben wir die Trainingsparameter angegeben. Es ist für Optimierer. In unserem Fall verwenden
wir den S G D, der für stochastischen Gradientenabstieg steht. Dieser Optimierer ist sehr beliebt bei der Lösung von Problemen aus der Bilderkennung. Wenn Sie möchten, können
Sie den Adam Optimizer verwenden. Die Fehlerfunktion wird durch den Verlustparameter in unserem Modell angezeigt. Anstelle der Standardwahrheit bedeuten Quadratabweichung, werden
wir kategorische Kreuzentropie verwenden. Diese Fehlerfunktion funktioniert gut bei Klassifizierungsproblemen. Wenn es mehr als zwei Klassen in der S Parameter ist die Qualität. Wir zeigen Genauigkeit an. Das ist der Anteil an den richtigen Antworten. Nachdem das Modell kompiliert ist, können
wir seine Parameter mit Modellzusammenfassungsfunktion drucken. Im Prinzip ist
alles fertig. Wir werden das Date ist vorbereitet. Wir haben ein neuronales Netzwerk erstellt und zusammengestellt. Jetzt können wir mit dem Training beginnen. Das Training von neuronalen Netzwerken erfolgt wie bei anderen maschinellen Lernaufgaben mit
Hilfe der Fußfunktion. Und da wir ein Klassifizierungsproblem haben, das zum betreuten Lernen gehört, geben
wir auf diese Funktion weiter. Sowohl die Trainingsprobe, nächste Zug als auch die Antworten oder Etiketten. Warum trainieren? Wir müssen auch den Umfang angeben. Die Nummer aus einer Box, wie wir bereits erwähnt. Ein e Buch ist, wenn unser ganzer Führer sagte Grundlage für ein neuronales Netzwerk diejenigen. Wir zeigen 10 8 Bücher, was bedeutet, dass wir unser neuronales Netzwerk trainieren 10 mal auf den gesamten Daten, sagte. Das heißt, auf allen 60.000 Bildern können
Sie fragen, wie viele Bücher benötigt werden. Die Antwort hängt sehr von verschiedenen Datensätzen ab. Aber das Grundprinzip ist, dass je vielfältiger unsere Datenstädte, desto wünschenswerter ist es, mehr acht Bücher zu verwenden, und Sie sollten wahrscheinlich die Stromversorgung Ihres Computers berücksichtigen. Wenn Sie eine sehr große Menge an Daten haben und sie alle sehr unterschiedlich sind, dann wird jedes Buch länger dauern. Daher aus der Einfachheit werden
wiraus der Einfachheitnur 10 8 Bücher verwenden. Sie können mehr e Bücher verwenden, wenn Sie möchten. Es wird nur mehr Zeit in Anspruch nehmen, und die Qualität wird wahrscheinlich nicht wesentlich besser sein, so dass wir sehen können, dass unsere Ausbildung begonnen
hat. Hier kommt das erste, ein Buch und dann von der Zeile eines jeden Buches, das jemals funktioniert, wird durch den verlorenen Parameter und die Genauigkeit der Vorhersagen angezeigt. Wie wir sehen können, während unser neuronales Netzwerk trainiert wird, das heißt ,
mit jedem nachfolgenden Buch nimmt der Fehler ab. Wo ist die Vorhersage? Die Genauigkeit erhöht sich. Das letzte Buch ist also beendet, und das bedeutet, dass auch das Training aus unserem neuronalen Netzwerk abgeschlossen ist. Wir sehen, dass die Genauigkeit etwas weniger als 90% beträgt. Nun, für ein neuronales Netzwerk bestehend Husten, nur zwei Hauptschichten, diese Eigenschaften ziemlich gut. Lassen Sie uns nun überprüfen, welche Genauigkeit auf der Testprobe haben würde. Denken Sie daran, dass
wir für das Training 60.000 Bilder aus dem Trainingsbeispiel verwendet haben und 10.000 Bilder in einem Testbeispiel waren, und unser neuronales Netzwerk hat sie nicht gesehen. daher sehen, Lassen Sie unsdaher sehen,was die Vorhersagegenauigkeit auf diesen Testbildern sein wird. Wie Sie sehen können, ist
die Qualität der Vorhersage etwas niedriger, aber immer noch ziemlich hoch. Herzlichen Glückwunsch an Sie haben Ihr allererstes neuronales Netzwerk aufgebaut und trainiert. Nun, nach Abschluss des Trainings, können
wir unser neuronales Netzwerk nutzen, um vorherzusagen, was in den Bildern gezeigt wird. Um dies zu tun, verwenden
wir die prognostizierte Methode aus unserem Modell. Wir werden auf den Bildern aus dem Trainingsmuster vorhersagen, auf dem unser Modell trainiert wurde. Also schreiben wir X Zug in Klammern und lassen Sie uns jetzt drucken, was unser Modell in den
eckigen Klammern vorhersagen wird . Wir setzen den Index aus dem Bild, das mit dem Bild mit dem Index Null beginnt, so dass wir
10 verschiedene Werte sehen können , jeder Wert, der die Wahrscheinlichkeit aus unserem Bild repräsentiert, das zu jeder unserer 10 Klassen gehört, jeder Wert und hat dann eine minus acht oder minus neun, was bedeutet, dass sie im minus neun Dekret sind, das heißt, nach einer Null. Wir haben noch ein paar Nullen, und das ist die Wahrscheinlichkeit nahe Null und nur ein Wert mit dem minus einem Grad, sehen
Sie 9,90 etwas minus eins. Dies bedeutet 0,99 Hunderte, die sehr nahe an einem sind. Und wie Sie sich in unseren Schlüsseln erinnern, steht
Nummer eins für 100% Wahrscheinlichkeit. So unser Modell haben wir Wahrscheinlichkeit aus fast 100% prognostiziert, dass diese Bild dieser Klasse entspricht , falls es schwierig für Sie ist zu finden, welche über die Täler von unserer Ausgabe das Maximum
ist, können wir die ARG-Markierungen Funktion verwenden
aus der Zahlenbibliothek. Es gibt nur den maximalen Wert. Und so erhalten wir den Maximalwert mit Index neun. Lassen Sie uns nun die richtige Antwort von unseren Etiketten überprüfen und ableiten. So sind für dieses Bild zu beantworten erwies sich als das gleiche, wie von unserem Modell vorhergesagt wurde. Das bedeutet, dass unser Modell funktioniert. Sie können mit anderen Bildern testen. Ersetzen Sie einfach die Zahl im Index durch eine andere Zahl aus unserem Beispiel von 60.000 Bildern . Lass uns Nummer 12 tanzen. Okay, es sagt uns, dass dies eine Klasse mit Index fünf ist. Schauen wir uns das Bild an. Was ist das? Es ist eine Sandale. Wenn Sie nicht jedes Mal nach den Bildern suchen möchten, können
wir einfach denKlassennamen drucken, indem Sie den Corey's Point Inc-Bildindex einfügen. Wenn Sie nicht jedes Mal nach den Bildern suchen möchten, können
wir einfach den Alles klar, das ist meine Glückwünsche. , noch
einmal, Hoffenoch
einmal,dass deine neuronalen Netzwerke perfekt funktionieren. Und jetzt ist es zusammengefasst, was wir abgedeckt haben. Wir importierten die gesamten Daten mit Bildern, unterteilten sie in Trainings- und Testproben. Dann optimieren wir diese Bilder ein wenig. Danach haben wir die Architektur für ein neuronales Netzwerk erstellt, das in unserem Fall sehen kann, dass nur drei Schichten kompiliert das Modell, was bedeutet, dass wir die Trainingsparameter angeben. Dann trainierten wir unser neuronales Netzwerk mit Culturing-Beispiel und testeten schließlich acht an unserer Testprobe. Jetzt können Sie versuchen, andere Bilder in den Trainingswettbewerb Proben vorherzusagen. Sie können das Modell auch ein wenig anpassen. Zum Beispiel können
Sie einen anderen Optimierer verwenden, Nehmen wir an, Adam, oder ändern Sie die Zahl von acht Bücher und so weiter. Übrigens, auf der Keg, einer Website, gibt es verschiedene Gershon's von anderen Arten von neuronalen Netzwerken mit unterschiedlichen Zahlen
Off-Layern und verschiedenen Architekturen für die Mode. Diese Projekte daher suchen und versuchen, können
Sie
daher suchen und versuchen,ein anderes neuronales Netzwerk für diesen Datensatz zu machen. Ich hoffe, dass diese Lektion nützlich war und zu einem besseren Verständnis dessen beigetragen hat, was neuronale Netze sind, wie sie trainiert und genutzt werden können, insbesondere für die Bilderkennung. Wenn Sie Fragen haben, Ihre Kommentare und ich freue mich darauf, Sie in unseren neuen Vorträgen und Kursen zu sehen,
20. Neurale Netzwerke für Textanalyse: Hi da. In dieser Vorlesung lernen wir
, wie man mit neuronalen Netzen Text analysiert. Wir werden auch unser eigenes neuronales Netzwerk schaffen, das
Filmkritiken analysiert und versteht, ob ihre Ansichten positiv oder negativ sind. Bevor wir jedoch zum praktischen Teil der Schaffung unseres neuronalen Netzes übergehen, schauen wir uns an, welche Art von Textanalyseaufgaben neuronale Netze heute verwendet werden. Erstens für die Textklassifizierung. Geschulte neuronale Netze helfen uns zu definieren, auf welches Thema oder R3 zu bekommen, den sich der gegebene Text bezieht. Zum Beispiel können Nachrichtenartikel in eine Gehaltserhöhung wie Politik und Wirtschaft,
Sport, Lebensstil usw.
klassifiziert werden in eine Gehaltserhöhung wie Politik und Wirtschaft,
Sport, Lebensstil usw.
klassifiziert . Eine der beliebtesten Aufgaben ist heute natürlich die automatische Übersetzung von einer Sprache in eine andere. Wenn Sie zum Beispiel
die Übersetzung von Google Translate,
die vor fünf oder sieben Jahren verwendet wurde,
und die Übersetzung, die es heute gibt, vergleichen die Übersetzung von Google Translate, die vor fünf oder sieben Jahren verwendet wurde,
und die Übersetzung, , werden
Sie feststellen, dass es sich um völlig andere Übersetzungen handelt Bezug auf Qualität. Heute wird die automatische Übersetzung mit einer sehr hohen Qualität durchgeführt, was dem Einsatz neuronaler Netze mit komplexen Architekturen zu verdanken ist. Für viele Unternehmen und Marken ist es heute auch wichtig zu verstehen, wie ihre Kunden und Nutzer sie behandeln, um die Markentreue der Kunden zu verstehen. Und neuronale Netze werden heute verwendet, um die emotionale Stimmung von Texten
wie Kommentaren oder Bewertungen zu bestimmen . Ob sie positiv, negativ oder neutral sind. Die Aufgabe wird als Stimmungsanalyse bezeichnet. Und viele Marken verwenden Stimmungsanalysen in sozialen Netzwerken, um das Niveau des Ansehens ihrer Marke zu verstehen. Aufgaben der Texterzeugung sind heute auch beliebt, wenn neuronale Netze völlig neuen Text erzeugen und erstellen und mit Benutzern kommunizieren
können, beispielsweise über Chat-Bots. Wie wir sehen können, können neuronale Netze in verschiedenen Aufgaben im Zusammenhang mit der Textanalyse verwendet werden. Und neuronale Netze zeigen Ihnen die besten Ergebnisse bei solchen Aufgaben im Vergleich zu anderen Algorithmen für maschinelles Lernen. Alles klar, jetzt ein paar Worte darüber, wie wir neuronale Netze verwenden
werden, um Texte zu analysieren. Zunächst werden wir Keras- und TensorFlow-Bibliotheken verwenden, die wir bereits in früheren Vorträgen verwendet haben um neuronale Netze zur Klassifizierung von Bildern aufzubauen. Sie haben Module vorinstalliert, die unser Training erheblich erleichtern. Zweitens, nun, denken Sie daran, dass ein neuronales Netzwerk nur mit
Zahlen arbeiten kann und der Text eine Reihe von Zeichen und Symbolen ist. Daher müssen wir unsere Reihe von Symbolen,
Wörtern und Sätzen in eine Reihe von Zahlen umwandeln . Dies kann auf verschiedene Arten geschehen. Und drittens, um neuronale Netze aufzubauen, werden
wir die Google-Kollaborationsplattform nutzen, eine kostenlose Cloud-Plattform von Google, der bereits beliebte Bibliotheken für maschinelles Lernen vorinstalliert sind. Und Sie erhalten auch kostenlos ziemlich leistungsstarke GPUs auf dieser Plattform. Die Leistung für Google Collab ist viel höher als bei den meisten Grafikkarten, die auf
einem persönlichen Laptop oder Computer installiert werden können , auf dem Google solche Computerressourcen kostenlos zur Verfügung stellt mit dem Computer
arbeitet Lernprobleme. Mal sehen, wie wir den Text in
einer digitalen Form darstellen können , die für ein neuronales Netzwerk geeignet ist. Wir erinnern uns, dass die Eingabedaten für das neuronale Netzwerk nur Zahlen sein können. Und neuronales Netzwerk kann nur mit Zahlen arbeiten. Es bilden verschiedene mathematische Operationen mit ihnen. Wenn wir also ein neuronales Netzwerk zur Analyse von Texten verwenden, müssen
wir unsere Textdaten in eine Reihe von Zahlen umwandeln. In der vorherigen Vorlesung, als wir Bilder von Kleidung analysieren, war dort
alles ganz einfach, da wir jedes Bild
als Zahlensatz digitalisieren können , die Pixelintensitäten von 0 bis 255 entsprechen. Wenn wir
zum Beispiel mit Daten in kategorischer Form arbeiten , handelt es sich um x eines Mannes oder einer Frau. Dann ist alles hier auch ein ziemliches Symbol. Denken Sie daran, als wir analysierten, welcher der Passagiere auf Titanic überlebt hat, haben wir Geschlechter männlicher,
weiblicher Passagiere durch Nullen und Einsen ersetzt . Das heißt, wir haben Wörter in Zahlen umgewandelt. Wenn wir uns mit komplexen Texten beschäftigen, ist
es hier etwas komplizierter. Wir wandeln Text auch in eine Reihe von Zahlen um, und dieser Prozess wird Vektorisierung genannt. Mal sehen, wie es gemacht wird. Im ersten Schritt teilen wir den Text in separate Teile auf, von denen
jeder separat digital dargestellt wird. Dies wird als Tokenisierung bezeichnet, wobei jeder einzelne Teil ein Token ist. Und es gibt möglicherweise mehrere Möglichkeiten, die Tags in Token aufzuteilen. Wir können den Text in separate Zeichen wie Buchstaben, Zahlen,
Satzzeichen aufteilen und jedem dieser Zeichen separat einen numerischen Wert verleihen. Oder wir können den Text in Wörter teilen und jetzt einzelnen Zeichen,
aber ganzen Wörtern
eine Zahl oder einen numerischen Satz geben. Oder jetzt gibt es auch einen Ansatz, wenn der Text in
ganze Sätze aufgeteilt wird und jeder Satz als separate Zahl oder Zahlensatz angegeben wird. In unserem Fall werden wir den Text in separate Wörter aufteilen. In der nächsten Phase wird die Vektorisierung durchgeführt, bei der jedes Token in eine Reihe von Zahlen umgewandelt wird, entweder durch einfache Kodierung oder durch Vektor eine Präsentation im Format einer One-Hot-Codierung oder durch dichten Vektor.
21. Neurale Netzwerke für Sentiment-Analyse (IMDB: Jetzt müssen wir ein wenig darüber wissen, wie neuronale Netze verwendet werden, um Text zu analysieren. Versuchen wir, unser eigenes neuronales Netzwerk aufzubauen. In dieser Episode werden wir ein neuronales Netzwerk erstellen und nutzen, um
festzustellen, ob die Filmkritiken auf IMDB positiv oder negativ sind. Diese Website enthält Informationen zu den meisten Filmen. Dies sind Beschreibungskosten, Trailer und natürlich Bewertungen von Zuschauern. Wie wir bereits erwähnt haben, ist
die Aufgabe der Stimmungsanalyse in der modernen Welt sehr beliebt. Viele Unternehmen und Marken möchten anhand ihrer Kommentare in Foren und sozialen Netzwerken wissen, wie ihre Kunden und
Nutzer sie behandeln. Der Datensatz der Filmkritiken von IMDB ist bei denjenigen, die maschinelles Lernen und neuronale Netze studieren, sehr beliebt. Sie können den Datensatz von dieser Website herunterladen. Und alternativ können wir es mit nur einer Codezeile sofort aus
den Bibliotheken in Keras herunterladen . Die Entwickler von Carriern haben die Bewertungen bereits vorbearbeitet und daher wird es für uns einfacher sein, mit dieser Datenbank zu arbeiten. Dieser Datensatz ist also in zwei Teile unterteilt, 25000 Überprüfungen für Schulungen und 25000 für Tests. Die Anzahl der positiven und negativen Bewertungen ist gleich. Und dieser Datensatz enthält nur positive und nur negative Bewertungen. Neutrale Bewertungen wurden in diesem Datensatz nicht aufgenommen. Um das Training nicht zu erschweren, galten
Bewertungen, die mit sieben Sternen oder höher von 10 Sternen bewertet wurden, als positiv. Während ich benutzt habe, die bewertet wurden, sind vier Sterne niedriger. Betrachte es als negativ. Der Datensatz sieht wie folgt aus. In einer Spalte können wir sehen, dass ich es benutzt habe, und in der nächsten Spalte toben sie entweder positiv oder negativ. Dieser Datensatz stellt überwachtes Lernen dar, da
wir für jede Überprüfung die richtige Antwort erhalten haben. 0 bedeutet negativ, eins positiv. Im maschinellen Lernen wird dies
als binäre Klassifizierungsaufgabe bezeichnet , da wir nur zwei Klassen haben, entweder negativ oder positiv. In Ordnung, dann haben wir den theoretischen Teil gemacht und haben uns mit dem Datensatz vertraut gemacht. Lasst uns nun zur praktischen Ausbildung übergehen. Wichtigste zuerst, und lassen Sie uns die notwendigen Bibliotheken, Keras und TensorFlow, importieren. Keras enthält Tools für populäre Datensätze der Arbeitsgruppe, die Datensätze aus der IMDB codieren. Wir verbinden auch die NumPy-Bibliothek, um
unsere Daten zu vektorisieren und die Ergebnisse unseres Trainings metabolisch zu visualisieren. Mit dieser Codezeile laden
wir also eine Reihe von IMDB-Bewertungen. In Klammern. Wir geben an, dass wir das GAN-Trainingsset x Zug und
y Zug und den Testsatz x Test laden , y test. Wir geben auch die maximale Anzahl eindeutiger Wörter an, mit denen wir den Text analysieren werden. Denn wenn wir diese Zahl nicht einschränken, wird die Anzahl der eindeutigen Wörter in allen 50.000 Bewertungen enorm sein und es wird für unser neuronales Netzwerk schwieriger und viel länger
sein, große Datensätze zu analysieren. Daher beschränken wir unseren Datensatz auf 10 Tausend Wörter, die am häufigsten in der Reihenfolge der USA verwendet werden. Kriege, die weniger verbreitet sind, werden nicht in diesen Datensatz aufgenommen. Mal sehen, wie Keras die Daten geladen hat. Lassen Sie uns etwas wiederverwenden. Eine Nummer neun sehen wir, dass
wir anstelle des Textes der Überprüfung eine Reihe von Zahlen haben. Jede dieser Zahlen repräsentiert ein Wort aus der ursprünglichen Rezension. Das heißt, es gibt Tokenisierung auf Wortebene. Jede Zahl entspricht einem Wort. Wie wir bereits sagten
, haben Entwickler von Betreuern bereits Wörter
in Zahlen übersetzt und so diesen Datensatz für uns vorbereitet. Mal sehen, wie das Format der richtigen Antworten ist. Wie wir am Anfang erwähnt haben, bedeutet
man positiv für Sie und 0 bedeutet, dass sie negativ verwendet haben. Werfen wir einen Blick auf ein paar andere Ansichten. Das IMDB-Dataset verwendet die Worthäufigkeitscodierung. Dies bedeutet, dass im Text jedes Wort durch eine Zahl ersetzt wird, die der Häufigkeit seines Auftretens in diesem Text
entspricht, das gebräuchlichste Wort wird durch eins ersetzt. Ein etwas seltener vorkommendes Wort wird durch zwei ersetzt und so weiter. Wir können das Wörterbuch herunterladen, das für die
Kodierung verwendet wurde , indem wir die IMDB-Wortindexmethode aufrufen. Dies ist ein Python-Wörterbuch, in dem der Schlüssel ein Wort ist und der Wert eine Häufigkeit
ist, mit der dieses Wort in Reviews erscheint. Und wie wir sehen, sind dies genau die Zahlen, die in Bewertungen anstelle von Wörtern verwendet werden. Je größer die Zahl, desto seltener erscheint das entsprechende Quartal in den Bewertungen. Aber lassen Sie uns ein umgekehrtes Wörterbuch erstellen, das das Wort nach Zahl bestimmt. Dies geschieht mit dem folgenden Code. Im Zyklus werden wir alle Elemente des Wortindex durchgehen und
einen Wörterbuchumkehrwortindex erstellen , in dem der Schlüssel die Zahl und der Wert das Wort sein wird, das dieser Zahl entspricht. Okay, geben wir jetzt 30 Wörter ein, die in unseren Bewertungen am häufigsten vorkommen. Wie Sie sich vorstellen können, werden es sich bei diesen Wörtern höchstwahrscheinlich verschiedene Konjunktionen, Präpositionen und Artikel handeln. Und die beliebtesten Wörter, die wir am häufigsten in unserer täglichen Rede verwenden. Lassen Sie uns nun unser Reverse-Wörterbuch verwenden, um einige Bewertungen zu entschlüsseln. Okay, jetzt können wir sehen, was aus ihrer Sicht geschrieben wurde. Oder richtig, wie wir gesehen haben, werden
unsere Bewertungen jetzt durch Zahlensätze von 0 bis 9.599 repräsentiert. Um jedoch die Arbeit unseres neuronalen Netzwerks zu erleichtern, werden
wir ihre Ansichten als Vektor im Format der One-Hot-Codierung darstellen. Grob gesagt, jetzt wird jeder von Ihnen ein Vektor sein, dessen Größe 10 Tausend beträgt. In diesem Vektor werden nur Nullen und Einsen in
den Positionen enthalten , die den Wörtern in dieser Rezension entsprechen. Um solche Vektoren zu erstellen, verwenden
wir die Funktion vektorisierte Sequenzen. Die Funktion, die wir Sequenzen bestehen
, also unser Datensatz x Zugindextest, und die gewünschten Dimensionen der Vektoren, in unserem Fall 10 Tausend. Mit ihrer Ergebniszeile haben wir einen Vektor erstellt, der alle Nullen für jede Wortposition
enthält. Dann gehen
wir mit dem Zyklus alle Elemente der Sequenz durch. Und für jedes Wort, das in der Rezension vorhanden ist, haben wir den entsprechenden Wert auf eins gesagt und wir geben das Ergebnis zurück. Jetzt werden wir diese Funktion verwenden, um den Trainingsdatensatz und den Testdatensatz zu verarbeiten. Okay, dann und jetzt sehen wir uns an, wie unsere Datensätze aussehen. Nehmen wir die Rezension Nummer 19 an. Früher sahen unsere Bewertungen aus wie Arrays mit Zahlen, die Wörter repräsentierten. Jetzt ist unsere Rezension ein Array mit nur Nullen und Einsen. Mit der Len-Funktion können
wir überprüfen, ob die Länge jeder Überprüfung jetzt 10 Tausend beträgt, wie wir angegeben haben. Und dies entspricht der maximalen Anzahl von Wörtern, die wir für die Analyse verwenden. Wir können uns auch die Form unseres gesamten Trainingssets ansehen. Wie Sie sehen können, gibt es 25000 Bewertungen und jeder von ihnen ist 10 Tausend Elemente lang. Nun, da wir unsere Daten vorbereitet haben, bauen
wir unser neuronales Netzwerk auf, das klassifiziert, überprüft und bestimmt, ob ihre Bewertungen positiv oder negativ sind. Wir werden das sequentielle Modell erstellen, das drei dichte Schichten haben wird. Die ersten zweiten Spieler werden 16 Neuronen haben, und die Ausgabeschicht wird
nur ein Neuron haben , da wir eine binäre Klassifikationsaufgabe haben. Das heißt, wir haben nur zwei Klassen, da es sich nicht nur um zwei Arten von Bewertungen handelt, sondern wir wählen eine. Wenn die Ausgabe 0 ist, ist die Rückmeldung negativ. Wenn ja, dann ist das Feedback positiv. Anstelle von drei Ebenen können Sie mehr verwenden. Sie können auch die Anzahl der Neuronen in der ersten,
zweiten Ebene ändern und sehen, wie sich das Ergebnis als Aktivierungsfunktion ändert. In den Schichten 1 und 2 verwenden
wir eine Semi-Liner-Relu-Funktion. Und in der Ausgabeebene wird
eine Sigmoid-Funktion verwendet. Die Sigmoid-Aktivierungsfunktion gibt den Wert im Bereich von 0 bis eins an
, der perfekt zu binären Klassifizierungsaufgaben passt. Nach der Erstellung des Modells werden
wir unser neuronales Netzwerk kompilieren. Wir verwenden den LMS-Requisitenoptimierer, aber Sie können auch den gewünschten Adam-Optimierer verwenden. Die Fehlerfunktion ist die binäre Kreuzentropie. Binär, weil wir nur zwei Klassen haben. Die Metrik der Qualität des neuronalen Netzes ist die Genauigkeit. Das ist der Anteil der richtigen Antworten. Und jetzt müssen wir unser neuronales Netzwerk nur mit der Fit-Methode trainieren. Stellen wir die Anzahl der Epochen auf 20 ein, die Losgröße 128. Und wir werden den Datensatz teilen und 10 Prozent davon als Validierungssatz verwenden. Wie wir beobachten können, der Prozentsatz der richtigen Antworten im Trainingsdatensatz nahe 100 und im Validierungssatz, der digital,
korrekt, auf Quellen von etwa 85 Prozent platzt . Lassen Sie uns die Qualität des Trainings visualisieren. Und jetzt besteht der letzte Schritt darin, die Genauigkeit des Modells auf
dem Testdatensatz zu testen, der nicht für das Training verwendet wurde. Können wir sehen, dass die Genauigkeit etwas unter 85 Prozent liegt, was im Allgemeinen nicht schlecht ist, aber es kann sicherlich besser sein. In dieser Vorlesung haben wir also gelernt,
ein neuronales Netzwerk aufzubauen , um die Stimmungsanalyse durchzuführen oder zu verwenden ,
damit unser Modell anhand des Textes der Überprüfung bestimmen kann, ob seine Ansicht
positiv oder negativ war . Wie bereits erwähnt, ist
dies in der modernen Welt ein sehr beliebtes Problem, und Unternehmen und Marken nutzen es, um zu verstehen, wie Verbraucher und Kunden sie behandeln und was ihre Markentreue ist. Ich hoffe, dieser Vortrag war nützlich und ich freue mich darauf, Sie in den nächsten Episoden zu sehen.