Transkripte
1. Einführung: Hallo, ich bin Chris Hermione, ich komme aus Berlin, Deutschland, ich arbeite momentan für Microsoft. Ich bin seit 20 Jahren Webentwickler, und jetzt komme ich in den gesamten AI Machine Learning Space, um zu sehen, wie Computer uns noch mehr helfen können. Künstliche Intelligenz und maschinelles Lernen sind für mich die nächste Evolution des Computing so revolutionär wie die erste Fabrik auf dem Arbeitsmarkt war. In dieser Klasse lernen Sie maschinelles Lernen und KI kennen, aber nicht aus Sicht der Datenwissenschaft, sondern aus Sicht der Schnittstelle. Ich werde Ihnen helfen zu verstehen, wo Sie Informationen erhalten, wo Sie Tools finden, die Sie verwenden können, und wie Sie diese Tools verwenden, um Ihre eigenen Schnittstellen zu erstellen, um sie menschlicher zu machen. Sie müssen also keine technische Person sein, um diesen Kurs zu absolvieren, Sie müssen nur eine interessierte Person sein und jemand, der mehr über künstliche Intelligenz erfahren möchte. Maschinelles Lernen kann erstaunliche Dinge für Menschen tun, und ich denke, es gibt eine großartige Gelegenheit, Schnittstellen zu erstellen, die für Menschen
verständlich sind und die die Barriere für den Zugang zu Ihren Systemen verringern. Wo jemand in der Vergangenheit
Ihre Websites nur verwenden konnte , wenn er eine Tastatur oder eine Maus verwendet, können die Leute es
heutzutage per Stimme tun oder es tun,
indem sie einfach in eine Kamera schauen und sich so einloggen. Das ist eine spannende fast Science-Fiction-Idee , die wir heutzutage nutzen können, aber noch nicht genug Leute tun. Ich hoffe, dass dies Sie dazu inspiriert, Fragen zu stellen, mir
Fragen zu
stellen, anderen Menschen Fragen zu stellen
und auch die Schlagzeilen zu hinterfragen, die Sie über
maschinelles Lernen und künstliche Intelligenz und die Systeme sehen werden , die Sie verwenden. Ich möchte, dass Sie maschinelles Lernen und
künstliche Intelligenz nutzen , um menschliche Schnittstellen zu
machen und sie für Menschen zur Verfügung zu stellen, die zwangsläufig nicht allzu begeistert von Technologie sind. Also, wenn Sie etwas Cooles bauen mit dem, was Sie hier lernen, erzählen Sie uns bitte davon. Nun, ich freue mich, diesen Kurs zu geben und lasst uns anfangen.
2. Was ist Machine Learning: Machine Learning ist eine Möglichkeit, einem Computer
mitzuteilen immer wieder Dinge wiederholt macht, bis er Unterschiede findet, bis er Muster findet und bis er tatsächlich sieht, worum es bei den Daten geht. Machine Learning ist nicht magisch von lernen. Etwas immer und immer wieder. Sie müssen dem Computer eine sehr detaillierte und sehr genaue Frage stellen, um gute Antworten zu erhalten. Wir können keine magischen Informationen haben aus Computern
kommen, weil Computer nicht denken können. Sie können nur simulieren, wie Denkprozesse funktionieren. Es gibt zwei Denkschulen, es gibt noch ein paar, aber zwei große. Einer von ihnen ist wie der Terminator, wo Menschen Angst vor künstlicher Intelligenz haben, wo Menschen Angst haben, dass sie unseren Job wegnehmen, wo sie Angst haben, dass sie
uns ausspionieren und sie sind tatsächlich uns am Ende zu töten, was nur Filme wirklich ist, wenn man darüber nachdenkt. Die andere Seite ist Steve Jets Star Trek so etwas wo wir diesen allgegenwärtigen Computer haben, mit dem wir reden, das ist super aufregend für uns, das ist unser Freund, das ist einfach da in Not. ist ein großartiges Beispiel als Film dafür, wo Menschen sich in eine künstliche Intelligenz verlieben , weil es so ist, als würden sie gerecht zu werden, es ist der perfekte Partner zum Sprechen und es ist die perfekte Maschine, um Dinge für Sie zu tun. Wir sind in keinem dieser Räume. Natürlich gibt es schreckliche Leute, die
Machine Learning für böse Dinge benutzen und es
gibt Leute, die es viel einfacher für Aufgaben machen - für die Verwendung von Computern und für die Nutzung Ihres Mobiltelefons. Nehmen Sie einfach die letzte Generation von Mobiltelefonen, die jetzt automatisierte Aufnahmen für Sie
machen, stellen Sie sicher, dass Ihr Selfie gut aussieht, stellen Sie sicher, dass der Hintergrund synchron und im Fokus ist, ohne dass Sie etwas tun. Vieles davon ist Machine Learning und Deep Learning, aber wir reden nicht mehr mit Menschen darüber, wir benutzen sie einfach soziologisch und auch aus psychologischer Sicht, wir sind an einem sehr interessanten Ort dort. Wir haben Menschen, die entweder Angst haben, oder
Menschen , die Computer eigentlich den Menschen vorziehen. Ich denke, wir müssen ein
wenig in die Mitte zurückgehen und verstehen, dass all diese Dinge Werkzeuge für uns sind,
für Menschen, um kreativer zu sein. Wenn also die Terminator-Denkschule
besorgt ist , dass Arbeitsplätze von Computern weggenommen werden, sollte
die Star Trek Denkschule glücklich sein, dass einige Jobs von Computern und Robotern weggenommen werden, weil sie ungesund für Menschen und sie machen keinen Sinn für Menschen zu tun. Es gibt jetzt eine große Chance mit Automatisierung und Computern, die Dinge
für uns tun , dass wir uns von Dingen befreien können, von denen wir nie gedacht hätten, dass wir könnten. Wie meine Eltern zum Beispiel, waren Arbeiterklasse. Sie arbeiteten immer in Fabriken, arbeiteten in Kohlebergwerken. Sie mussten arbeiten, um zu leben, weil es keinen Roboter gab, der die Jobs annehmen konnte. Die ungesunden, sich wiederholenden, langweiligen Jobs, die sie hatten, konnten es für sie tun. Mit diesen Jobs verschwinden sie und sie werden verschwinden, weil es für Roboter und Maschinen viel kostengünstiger
sein wird , dies zu tun, haben
wir die Freiheit als Mensch,
kreativer zu werden und über die nächsten neuen Jobs zu erfahren, die wir weiß es noch nicht einmal. Arbeit muss nicht etwas sein, wo wir
einfach leben und wir tun, weil wir Geld dafür bekommen müssen. Arbeit könnte etwas sein, das noch nicht einmal dort war. Wir könnten uns von den Fesseln der
Produktion befreien , indem wir verstehen, dass Computer diese Dinge tun können. Wir müssen nur verstehen, dass
wir von irgendwo her Reichtum verteilen müssen, und wir müssen
Intelligenz verteilen und Bildung besser verteilen. Ich hoffe, dass dies ein Anfang ist, an dem Sie sich freuen, mehr
darüber zu erfahren und Sie keine Angst maschinellem Lernen und künstlicher Intelligenz mehr haben. Es gibt ein paar Dinge, wie ich Menschen helfen kann. Die erste Sache ist die Automatisierung, das ist jetzt die große. Es gibt Fehlervermeidung, die ein Computer uns sagen kann, dass das tatsächlich falsch ist, warum machst du das noch einmal? Es gibt Datenreduzierung und Dämpfung des Rauschens, wenn Sie viele Daten haben und Sie nur das eine finden möchten, das sich zwischen allen anderen unterscheidet. Computer sind großartig darin, diese Unterschiede zu finden. Es gibt Vorhersagen, die auf historischen Daten basieren. Wie oft haben Sie Ihren Computer benutzt und was kann er besser für Sie tun? Ein gutes Beispiel dafür wäre Ihre Tastatur, die Sie auf Ihrem Smartphone verwenden. Es erkannte, was Sie geschrieben haben und geben Ihnen automatisierte Wörter bereits indem Sie die ersten beiden Buchstaben eingeben, weil es weiß, dass dies die Wörter sind, die Sie die ganze Zeit verwenden. Das wird durch riesige Datenmengen
gepflügt, wie wenn Informationen eine Menge Informationen von Sensoren, Bilddaten sind, eine Audioaufnahme ist eine Menge Informationen, und wir als Menschen denken es nicht so. Aber Emotion in einer Audio-Erkennung zum Beispiel zu finden, ist eine wirklich schwierige Aufgabe. Computer sind also gut darin
, diese Datenmenge durchzupflügen und Ihnen nur die Ergebnisse zurückgeben zu können, anstatt sich all diese Daten selbst ansehen zu müssen. Das letzte Bit besteht natürlich darin, mehr menschliche Schnittstellen zu
schaffen. erlauben uns, mit einem Computer zu sprechen, wie wir es mit einer menschlichen Person tun würden, und erhalten Informationen, die für den menschlichen Verzehr geeignet sind, und nicht nur eine Liste von Steuern oder eine Liste von Ergebnissen. In diesem ersten Abschnitt möchte ich, dass du dir wegnimmst, dass Künstliche Intelligenz keine Magie ist. Es passiert nichts, was Computer denken können, Computer können kreativ sein und Lücken füllen, von denen sie nichts wissen. Sie sind verantwortlich für das, was Sie
der Maschine sagen , und Sie sind verantwortlich, was Sie daraus bekommen. Intelligente Maschinen können nur so intelligent sein wie die Fragen, die wir ihnen stellen. Sie können von vielen
aufgezeichneten Informationen und Mustern profitieren , die von anderen Menschen
bereits gefunden werden , aber Sie müssen sicherstellen, dass das Denken des
Computers nur eine Illusion des Denkens ist. Es ist kein anderer Mensch und es wird die Menschen nicht ersetzen. Wir haben die Chance, so kreativ zu sein, wie wir jemals sein wollten wenn wir nur verstehen, die langweilige sich wiederholende Aufgabe Computer zu erledigen.
3. So bringen wir Maschinen Dinge bei: Willkommen in diesem Abschnitt des Kurses, wo wir in die Magie schauen ,
die passiert, wie Computer wissen, um denken zu erscheinen. Woher kommen die Informationen, was dort vor sich geht. Ich werde natürlich nicht über alle Details sprechen, aber ich werde Sie hoffentlich verstehen lassen, dass es da etwas gibt, das nicht ganz so faszinierend ist und im ersten Lauf nicht ganz so offensichtlich ist, wenn man darüber nachdenkt. Also, wenn es um Filme geht und wenn es um Schnittstellen und Filmstars geht, immer dieser magische Moment, wo Informationen aus dem Nichts kommen. Das beste Beispiel ist die Trope eines jeden Films, wenn Sie
den Zoom und die Verbesserung eines wie CSI Episode haben , wo es ist wie, oh nur dieses kleine körnige Filmmaterial und wie, verbessern Sie dies, verbessern Sie dies, und es gibt immer große Informationen in denen, wo Sie wie finden, zoomen
Sie in eine Schraube eines Nummernschildes und dann sehen Sie die Reflexion eines Mörders im Hintergrund dort. Leider funktioniert die Welt nicht so. Wenn die Informationen vorhanden sind und Sie Daten haben, die beschädigt sind oder Daten mit
schlechter Qualität sind, können Sie nicht viel tun, um diese Informationen tatsächlich zu finden. Doch in den letzten Jahren tauchten
immer mehr Dinge auf, die so aussahen. Es gibt ein großartiges Papier für künstliche Intelligenz das Ihnen zeigt, wie Sie en face erhalten können, zum Beispiel aus einer 8 x 8 Pixel-Matrix und einfach weiter verfeinern, bis Sie herausfinden, welches Gesicht wahrscheinlich war. Kameras, die Menschen in Bahnhöfen und Dingen erkennen, sind besser und besser
geworden, körniges Material in etwas anderes zu verwandeln. Wir sind nicht ganz da in der CSI-Welt, wo wir dies tun können, aber was hier passiert ist, ist, dass wir über die Jahre so viele Daten haben, die aufgezeichnet, analysiert und mit maschinellem Lernen und
Deep-Learning-Logarithmen Takt, dass wir jetzt vergleichen Sie besser als das. Eines der großartigen Beispiele, die ich Ihnen zeigen möchte, ist eine Sache, die Google vor ein paar Monaten namens AutoDraw veröffentlicht hat, und was es tun kann und Sie können hier sehen, ist, dass Sie anfangen können, etwas zu zeichnen, und wenn Sie künstlerisch herausgefordert sind, wie ich es tut magische Dinge für Sie. Also, denn in diesem Fall versuche ich, eine Brille zu malen. Also, ich bekomme hier kaum eine runde Spezifikation und mache kaum die richtige Zeilenschließung. Aber wenn Sie da oben sehen, kann
ich jetzt darauf klicken und ich bekomme eine perfekte
Brille und ich kann sogar verschiedene Formen haben. Also, es erkannte aus den Umrissen, die ich gezeichnet habe, dass ich wahrscheinlich eine Brille machen möchte und nicht ein Fahrrad, wo ich einen Griff
darüber gehabt hätte , welche Art von könnte gleich aussehen
und die meiste Zeit, wenn ich versucht, die Brille zu malen, es sieht aus wie ein Fahrrad, so bin ich sehr glücklich, dass dieses Ding existiert. Das Interessante ist, dass die Informationen, die wir über diese Dinge
haben, nicht auf magische Weise kommen. Natürlich kann ein Computer die Rundung zwischen zwei Linien finden und macht es gerader, wie wenn Sie Ihre Umrisse in Illustrator verwenden oder was auch immer Sie verwenden, er tut diese Dinge für Sie. Aber herauszufinden, dass ich eine
Brille machen wollte , basiert auf etwas viel Interessanteres. ein paar Jahren veröffentlichte
Google ein Spiel namens Quick,
Draw, wo es die Leute gebeten, etwas zu zeichnen und zu sagen, was es ist. Also, es sagt, wie eine Linie zu ziehen und unter 20 Sekunden. Also, Sie zeichnen jetzt eine Linie und es steht. Oh, ich weiß, es ist eine Linie. Also, Computer sagt eigentlich, dass es eine Linie ist. Zieh einen Zug in weniger als 20 Sekunden und hier bin ich draußen, weil es für mich nicht passieren wird. Aber Millionen von Menschen nutzen dieses Spiel und hatten Spaß, dieses Spiel zu spielen und mit ihren Freunden zu konkurrieren. Dies ist der Datensatz, der später mit einem Autodraw-Werkzeug beginnen sollte. Also, jedes Mal, wenn Sie ein Foto auf Facebook hochladen, jedes Mal, wenn Sie ein Foto auf Twitter hochladen, jedes Mal, wenn Sie einen Kommentar zu etwas aufgeben, beginnt
die Maschine zu erkennen, dass und fängt es zu
filtern und wenn 10 Leute sagen die gleichen Dinge, dann höchstwahrscheinlich, dass sieht aus wie ein Zug. Wir laden seit Jahren Informationen kostenlos hoch, weil wir die Systeme kostenlos nutzen
wollten und im Hintergrund haben
Maschinen das schon lange aufgezeichnet. Also, das letzte, was diese Information herauskommt, was sehr interessant ist, ist ein Google-System namens reCAPTCHA. In letzter Zeit sind reCAPTCHAS wie, wenn hier fünf Fotos oder 20 Fotos von etwas sind, sagen Sie uns, wo etwas ist. Dies war früher verzerrter Text und das war, als Google Google Books hatte und einige der Scans nicht funktionierten. Also benutzte es diese Systeme für Menschen, um
diese Datensätze kostenlos zu bereinigen , indem sie mehr Sicherheit auf Ihre gängigen Formulare hatten. Heutzutage werden Sie viel mehr sehen, dass es Straßennamen oder Straßenschilder sind, und natürlich Straßenschilder und Autos, was natürlich bedeutet oder darauf hinweist, dass dieser Datensatz für selbstfahrende Autos
verwendet werden , um mehr über ihre Umgebung. Also, als Menschen, werden wir überwacht und wir werden ständig aufgezeichnet, aber es muss nicht unbedingt eine böse oder heimtückische Sache sein. Es ist ziemlich interessant, wenn es zu einem Spiel wird, in dem Leute etwas zeichnen und später andere Leute wie mich, die nicht zeichnen können, davon profitieren können, oder es kann sein, dass Sie
sicherstellen möchten , dass kein Bot versucht, sich bei Ihrem Website und einen Menschen, und dieser Mensch lehrt einen Computer später, Straßenschilder um ihn herum zu erkennen, so dass das Auto nicht in andere Autos oder Fußgänger läuft. Auf diese Weise wissen Computer, wie sie Lücken füllen können, so wissen Computer. Es ist alles ein Spiel aus Daten und massiven Daten, und das ist nur Cloud Computing
, da kommen Maschinen auf Abruf ins Spiel. Sie können viele dieser Dinge auf Ihrem eigenen Computer tun, aber es ist die meiste Zeit macht mehr Sinn, einen Computer für
ein paar Sekunden zu mieten , der viel leistungsfähiger ist als Ihre, um diese Art von Data Mining zu tun, und Data Mining ist für alle da draußen. - Es passiert. Lassen Sie uns also sicherstellen, dass wir es tun, um Lücken in Informationen zu füllen. Es gibt eine großartige Gelegenheit, ein schlechtes Bild hochzuladen und 50 zu
finden, die fast gleich sind und die Umrisse für Sie machen. Wir befinden uns in einer Welt, in der der Zoom und die Verbesserung nicht
weit entfernt ist , weil wir so viele Daten haben, mit denen wir vergleichen können.
4. Machine Learning als Unterstützung für den Menschen: Nun werden wir uns einige Beispiele ansehen, wie maschinelles Lernen dabei hilft, sehr menschliche Schnittstellen zu bauen. Also, was ich möchte, dass Sie verstehen, dass maschinelles Lernen Menschen
helfen kann viel einfacher zu werden oder viel besser zu verstehen, was die Welt um sie herum ist, indem wir das, was wir haben, mit vielen und vielen
anderen Informationen vergleichen und es besser auf diese Weise. Eines der Beispiele, die Sie wahrscheinlich schon seit einiger Zeit gesehen
haben, ist Google Translate. Viele Leute verwendet Chrome als Haupt-Browser, weil es der erste Browser war, um automatisch eine Website für Sie zu übersetzen, wenn es nicht in der Sprache war, die Sie hatten. Die Google Translate App auf Ihrem Mobiltelefon geht noch weiter, indem Sie Bilder analysieren. So können Sie zum Beispiel zu einem Straßenschild auf Kyrillisch gehen und Ihr Telefon halten, und es gibt es Ihnen auf Englisch, übersetzt es, was der Straßenname ist, falls Sie nur Richtungen haben, die in Englisch waren. In der Vergangenheit wurden Übersetzungsdienste zum Beispiel aus dem Englischen ins Deutsche übersetzt
und Wort für Wort getan. Aber je mehr Menschen diese Systeme benutzen, desto mehr haben wir verstanden, dass ein Wort, das dem
anderen folgt , einen viel natürlicheren Satz bildet, und so wurden auch die Übersetzungen besser. Google analysierte Bücher, Microsoft analysierte Bücher
und analysierte Bücher sowie, um zu verstehen, worum es sich bei Idiomen handeln könnte? Worum geht es vielleicht bei Metaphern? Wie Menschen miteinander reden? Also, heutzutage eine Übersetzung von einem Dienst zum
anderen zu haben , ist fast da, dass man sie lesen und verstehen kann, was los ist? Also, Übersetzung war wahrscheinlich das erste, was maschinelles Lernen im Web verwendet wurde, wir wussten es nicht einmal, aber es war so nützlich zu haben, dass es eine ganz normale Sache wurde. Heutzutage wissen die Menschen nicht einmal, wie viel Energie und Mühe
darin einging , dass deine Tweets in einer Sprache sein können und du verstehst, was dort vor sich geht. Ein weiteres interessantes Beispiel, das ich immer mag, ist Google Maps. Aber es gibt sehr clevere Dinge da drin, man könnte zum Beispiel einfach Google Maps durchsuchen und sagen: „Wie weit bin ich von der Hauptstadt Frankreichs entfernt? Es wird das analysieren und analysieren, dass die Hauptstadt von Frankreich tatsächlich Paris ist, Frankreich, und dann zeigt es mir die Entfernung von hier nach New York, und zeigt mir auch, dass es einen 8-stündigen Flug gibt, und es bietet mir tatsächlich, welche Flüge , um zu buchen. Also, in der Vergangenheit so etwas, würde ich in Paris tippen müssen, Frankreich. Dann muss ich sagen, tippen Sie auch in New York. Dann muss ich auf eine andere Website gehen und sagen: „Welche Flüge könnten verfügbar sein?“ Durch die Analyse der Muster, wie wir diese Systeme verwenden, jedes Klicken, jede Maus bewegt sich, jede Interaktion, die Maschinen sind viel
intelligenter geworden und geben uns die Dinge, die wir eigentlich wollten. Ich wäre nie auf die Idee gekommen einzutippen, wie weit ich von der Hauptstadt Frankreichs entfernt bin. Aber ein Kind, das zum Beispiel über Geographie lernt, würde das tun. Sie würden es nicht unbedingt tun, wie ich es jetzt in einem Browser getan habe, sie würden zu ihrem Google-Zuhause gehen, oder zu ihrem Alexa, oder was auch immer andere Maschinen sie sind, wie weit weg die Hauptstadt Frankreichs
ist und die Maschine würde sagen: „ Paris ist die Hauptstadt Frankreichs. Es ist so, in so vielen Meilen entfernt. Hier sind Flüge für den Fall, dass Sie gehen wollen.“ Das ist, wo ich will, dass der Computer hingeht. Ich möchte, dass wir das lernen, wie eigentlich die nächste Antwort, anstatt die einzige Antwort, die wir daraus kamen. Wir sind immer noch in einem Raum oder Menschen wie ich, die Computer schon so lange benutzen, wir waren konditioniert, um Computer als dumme Schnittstellen zu betrachten, die die richtige Frage haben müssen. Aber das ist eine vollkommen menschliche Frage, um die Maschine zu stellen, und man bekommt so etwas zurück. Wenn Sie etwas ziemlich Erstaunliches sehen möchten, könnten
Sie ein wenig Zeit damit verbringen, KI zu sehen. AI zu sehen ist eine Anwendung auf iOS von Microsoft, die ich mit einem Freund von mir gebaut habe, der blind ist. Er ist ein blinder Benutzer, und er... na ja, er ist ein blinder Mensch, und er ist auch ein blindes Programm, das faszinierend zu sehen ist. Aber er wollte eigentlich nicht die Leute fragen, was in den Menüs vor sich geht. Also wollte er eine App haben, in der man
ein Bild von der Speisekarte in einem Restaurant machen und sagenkann ein Bild von der Speisekarte in einem Restaurant machen und sagen „Zeig mir die Schlagzeilen oder lies mir die Schlagzeilen vor.“ Oder er wollte eine spezielle Brille auf dem Weg haben, um ein Foto zu machen, und es sagt ihm: „Du schaust einen Hund an, du siehst die Katze an, du schaust auf den Eiffelturm, du siehst auf die Spitze der Tower Bridge.“ All diese Dinge, die wir wissen, weil wir sie mit Millionen von Fotos
vergleichen, die Leute
bereits gemacht haben und sie als Tower Bridge markiert oder es ist die Form eines Hundes, also ist das wahrscheinlich ein Hund. Also, diese Art von Werkzeug ermöglicht es ihm, viel unabhängiger zu werden und niemanden um ihn herum zu brauchen. So können Sie alle diese Videos dort ausprobieren und Sie können selbst herunterladen und damit spielen. Das basiert auf diesen APIs, die wir später auch für Sie
abdecken werden, damit Sie spielen können. Ich hoffe, dass diese Beispiele Sie dazu inspiriert haben, menschliche Schnittstellen zu bauen, die den Menschen tatsächlich die Dinge einfacher
machen, ohne dass sie etwas extra tun müssen, ohne verstehen zu müssen, wie sie funktionieren, aber genau als eine großartige Sache im Hintergrund, Sie haben keinen alternativen Text irgendwelche Bilder, ich kann das für Sie erstellen. Überhaupt kein Problem. Maschinen sind da, um uns zu helfen, wenn Menschen, wenn wir es versäumt haben. Diese Schnittstellen zeigen Ihnen also, dass wir darüber nachdenken können, was Ihre Endbenutzer als Nächstes tun
möchten , anstatt ihnen zu sagen, dass sie dies Schritt für Schritt tun sollen. Je einfacher es ist, eine Schnittstelle zu verwenden, desto mehr Leute werden es verwenden. Je glücklicher Benutzer Sie haben, desto mehr Einkommen werden Sie haben und desto erfolgreicher werden Ihre Produkte sein. Wir haben all diese Dinge hier und es gezeigt, wie es gemacht werden kann, ohne Ihnen im Weg zu sein, aber nur da, wenn Sie es brauchen. So möchte ich, dass du über Künstliche Intelligenz im maschinellen Lernen nachdenkst.
5. Tools für das Machine Learning: - Hallo. In diesem Teil der Videoserie wollte
ich den Spielern vorstellen, die APIs anbieten,
damit Sie mit maschinellem Lernen und künstlicher Intelligenz beginnen können. Die großen Spieler, das sind jetzt viele Spieler in diesem Markt. Es ist eine große Sache, eine Menge Investitionen läuft,
aber diejenigen, die es seit Jahren und Jahren tun, sind die größten Unternehmen in der IT und alle von ihnen haben unterschiedliche Angebote, mit denen Sie spielen können. Zum Beispiel ist diese hier die Google Cloud API, Sie können hier sehen, Sie können es kostenlos ausprobieren und es gibt Leitfäden
und Ressourcen, und all diese Dinge sind mehr oder weniger gleich. Wenn Sie sich für sie anmelden, Sie versuchen sie aus, es gibt viele gute Dokumentation, wie Sie anfangen können, und einige von ihnen haben es sogar versucht, bevor Sie Schnittstellen kaufen, wo Sie mit den Informationen
spielen können und Sie sehen, welche Art von Daten Sie erwarten einzubringen, und welche Art von Daten Sie erwarten, dass Sie herauskommen. Also, das ist Google Cloud, das ist ein sehr, sehr großer Player in diesem Fall weltweit verfügbar, und in mehreren Sprachen, und eines der großen Unternehmen, die damit spielen. Es wird bei Google [unhörbar], es gibt immer viele Vorträge über Google Cloud, wie man sie auch benutzt. Amazon ist natürlich der nächste große Player Machine Learning mit AWS. AWS ist eine Cloud-Plattform von Amazon, Amazon Web Services, mit
der Sie alle möglichen Dinge für maschinelles Lernen und künstliche Intelligenz dort durchführen können. Viele Dinge in AWS sind auch mit den anderen Services in Amazon verbunden. Also, wenn Sie zum Beispiel mit einem Alexa interagieren und den Vorteil
nutzen möchten, dass diese natürliche Sprachverarbeitung dort ist, können
Sie eine Fähigkeit für Alexa schreiben, anstatt
Ihren eigenen Service zu schreiben und die unter der Haube Dienste zu verwenden, die befugt Alexa. Also, Sie können das auch verwenden. IBM Watson ist ein weiterer großer Akteur im Bereich Machine Learning und es war sehr gut in seinem Marketing. Denken Sie daran, zum Beispiel, dass es auf Jeopardy gespielt und war Gewinner all dieser Dinge dort vor Jahren und Jahren. IBM Watson, die Plattform selbst ist sehr viel über das Gesundheitswesen und über die Vorhersage, welche Art von Krankheiten Menschen bekommen könnten, aber natürlich haben sie eine normale KI Set und maschinelles Lernen Set, die Sie auch auf ihren Plattformen verwenden können. Es ist in den meisten Fällen ein B2B-Angebot, aber es gibt die Bluemix-Infrastruktur, in der Sie kleinere Server einrichten
oder auch lokal verwenden können , und eine API aufrufen und die Daten zurückholen können. Microsofts Cognitive Services ist das, worüber ich in den nächsten Videos sprechen würde,
vor allem, weil ich davon weiß und ich für sie arbeite, also ist das der Vorteil dort. Ich habe auch die anderen benutzt, ich sage nicht, dass du das eine oder andere benutzen musst. Stellen Sie sicher, dass Sie sich die Dokumentation durchlesen, stellen Sie sicher, dass Sie die Demos durchlesen
und sehen Sie, welche für Sie am sinnvollsten ist. Wenn Sie beispielsweise eine Serverfarm in Deutschland haben möchten, ist das Angebot von Microsoft
wahrscheinlich besser,
als nur in Kalifornien oder New York eine Art Farm zu haben. Denken Sie also darüber nach, wo Sie Ihr Geld am besten ausgeben können und auch nicht so viel Geld ausgeben können, wie Sie brauchen, weil es sehr schnell sehr teuer werden kann, wenn Sie viele
Datensätze haben und sie eine sehr komplexe Berechnung haben müssen. Also, stellen Sie sicher, dass Sie genug Geld an der Seite haben, und doch wäre es immer noch viel billiger, als alles auf Ihrer eigenen Maschine zu tun, oder auf Ihrem eigenen Computer, denn oder auf Ihrem eigenen Computer, denn
das bedeutet, dass Sie das Ding ständig und jede Hälfte ändern müssen, Sie müssen es wirklich für eine neue Rechenanforderungen aktualisieren, die wir haben. Stellen Sie einfach sicher, wenn Sie sich für einen von ihnen anmelden , dass Sie es sich auch nach einer Weile leisten können, und auch, dass sie es für die Zukunft anbieten. Also, mit den großen Spielern spielen könnte
eine sicherere Wette sein , als mit einem coolen Startup zu spielen, das jetzt alles kostenlos bietet, aber wird in ein paar Monaten weg sein, und Ihre Daten sind mit ihnen verschwunden. Also, Google Cloud Machine Learning, das maschinelle Lernen bei AWS für Amazon, IBM Watson mit der Bluemix Infrastructure und Cognitive Services von Microsoft sind die Dinge, die ich verwendet habe und ich werde darüber sprechen Cognitive Services im Detail, um Ihnen zu zeigen, was Sie mit ihnen
machen können und wie sie für Ihre Schnittstellen in den nächsten Videos von Vorteil sein würden.
6. Visuelle Anwendungen: Willkommen zurück. In diesem Video werde
ich Ihnen zeigen, wie wir Computer Dinge sehen lassen oder wie wir scheinbar Computer dazu bringen können, Dinge zu sehen,
denn alles, was wir tun, ist,
visuelle Informationen zu vergleichen und zu sehen, was Computer darin finden können. Visuals sind zu einer größeren Sache geworden. Die Leute schreiben nicht mehr. Es macht keinen Spaß, auf Ihrem Handy zu schreiben. Die Spracherkennung funktioniert auch, aber Sie können nicht einfach in der Öffentlichkeit herumlaufen und mit Ihrem Telefon sprechen, weil es sich einfach seltsam anfühlt. So kommunizieren viele Leute nur mit Bildern. Wir machen Selfies, wir fotografieren Dinge, wir schicken uns Emoji zueinander. Viele Male vergessen wir diesen Fall, dass nicht jeder sie sehen kann, dass jemand sehbehindert sein könnte oder er einfach nur auf eine schreckliche Verbindung steht. Im Moment bin ich hier mit meiner UK SIM-Karte und alles ist auf Edge-Verbindung. Also schickten mir die Leute nur Bilder in einem Chat. Ich weiß nicht, was los ist. Also, ich möchte, dass der Computer mir sagt, was
zumindest in diesem Bild ist , bevor ich ihm meine süßen,
süßen Daten gebe und eine Menge Geld für das
Herunterladen dieses Bildes bezahle , das ich vielleicht nicht wirklich will. Im Laufe der Jahre haben
wir Bilder im Internet gesammelt, von wo auch immer. Es sind Billionen von Bildern in Bing und in Google und in anderen Suchergebnissen oder Suchmaschinen. Alles wurde indiziert. Alles wurde kategorisiert. Alles wurde mit anderen verglichen. Auf diese Weise können wir tatsächlich eine gute Annahme geben, was ein bestimmtes Bild sein wird. Ich habe Ihnen frühere Dinge wie die Vision AI, APIs
und die Demos gezeigt , mit denen Menschen, blinde Menschen sehen können, was um sie herum vor sich geht. Jetzt gehen wir näher auf diese APIs ein, was sie tun
und was Sie damit tun können, wie Sie Ihre Endbenutzer in die Lage versetzen können,
etwas Nützliches mit den Informationen zu tun , die sie haben. Ich werde hauptsächlich die Kommentare von Diensten von
Microsoft abdecken , weil dies etwas ist, über das ich später auch Ihre Fragen beantworten kann, und ich habe viele Kollegen, die in diesen Abteilungen arbeiten. Auch lokal hier,
für den Fall, dass Sie nicht lange auf Ihre Antworten warten wollen , weil ich ständig in verschiedenen Zeitzonen bin. Was wir hier haben, sind die Cognitive Services-APIs von Microsoft. Dies ist ein API-Angebot, mit dem Sie Daten an einen Endpunkt senden und zurückholen können. Also, um diese Dinge zu verwenden, können
Sie entweder die Demos hier auf der Website verwenden, nur um sie auszuprobieren. Aber wenn Sie sie später mit Ihren eigenen Systemen ausprobieren möchten, können
Sie von einem Entwickler ein Skript schreiben lassen, ein automatisiertes Skript, um beispielsweise
Bilder in einen Ordner zu legen und die Informationen zurück zu erhalten, oder Sie können eine Anfrage an eine URL, einen Endpunkt, ähnlich wie Sie google.com oder microsoft.com sagen würden. Sie sagen nur den API-Endpunkt, hier ist mein Bild, und dann erhalten Sie einen Datensatz mit den Informationen, die Sie haben wollten. Als wir damit begonnen
haben, haben wir versucht, es ein bisschen viraler zu
machen, es interessant für die Leute zu sehen, was diese Dinge tun können. Also, einer der großen Demos war die How-Alt-Demo, die ganz zu
einer viralen Sensation wurde und auch viele Leute ärgerte, einschließlich mich selbst. Weil ich gelernt habe, dass, sobald Sie einen Bart haben, er erkennt, dass Sie ein bisschen älter sind, und ich bin alt, aber in den meisten Fällen nicht so alt. Aber Sie können zum Beispiel zu how-old.net gehen und hier auf dieses Foto klicken
und sagen, verwenden Sie es oder laden Sie Ihr eigenes Foto hoch. Es erkennt das Geschlecht und das Alter, wahrgenommene Alter oder das wahrgenommene Geschlecht der Person in diesem Bild. Wieder einmal, wenn es Ihnen nicht gefallen hat, können
Sie sich mit diesem Link darüber beschweren und sehen, was los ist. Wir haben auch einen langen Blogbeitrag geschrieben, der erklärt, wie wie-old.net funktioniert, welche APIs es verwendet und der Code auf GitHub verfügbar ist, um es auch selbst auszuprobieren. Also, wenn Sie auf klicken, um die Quelle hier anzuzeigen, können
Sie tatsächlich die Informationen erhalten und Sie können den Code bekommen, um damit selbst zu spielen. Also, mit den APIs und Diensten, werde
ich mit Ihnen sprechen,
Sie können eine solche Schnittstelle ziemlich einfach erstellen, wenn Sie wissen, wie man eine Webschnittstelle erstellt und Sie wissen, wie man Daten an einen Endpunkt sendet und Daten erhält zurück mit dem, was Sie verwenden möchten ,
reagieren, eckig, alle Systeme da draußen. Sie können so etwas für Ihre Endbenutzer auf eine nette Art und Weise erstellen. Das eigentliche Wichtigste ist, wenn man darüber nachdenkt, ist die Gesichtserkennung, denn dort passiert die Zukunft einer Menge Dinge am meisten. Einloggen in Ihre Website, indem Sie in eine Kamera schauen, wäre eine schöne Sache zu haben, und seltsam genug, es ist nicht so schwer zu tun. erkennen, dass sich eine Person in einem Foto und auch in einem anderen
befindet, ist eine andere interessante Sache, die Sie Ihren Endbenutzern anbieten können. Dies sind APIs, die wir
zu einem gewissen Grad als gefährlich betrachten , weil Sie sicherstellen möchten, dass Sie alles richtig machen. Aber wenn sie arbeiten, dann sind sie wirklich schön. Denn ich liebe es zum Beispiel, auf Facebook zu
gehen und herauszufinden, wann Leute
Fotos von mir auf Konferenzen gemacht haben , von denen ich nichts weiß. Weise habe ich ein paar schöne interessante Bilder gefunden. Also, Sie möchten sicherstellen, dass, wenn Sie diese APIs verwenden, dass Ihre Endbenutzer wissen, das ist, was passieren wird, und Sie möchten auch sicherstellen, dass Sie den
Leuten erklären , dass einige dieser Dinge eine Vermutung Arbeit sind. Also, wenn Sie sagen, zum Beispiel, wie die alte Demo gab Menschen ältere Bilder oder jünger und waren glücklich oder sie waren unglücklich darüber, aber Sie wollen sie nur als eine Vermutung geben, und sagen, das ist, was es ist. Dies ist es, was maschinelles Lernen auf eine Menge Male hinausläuft. Machine Learning gibt Ihnen ausgebildete Ergebnisse, die erraten Arbeit sind. Sie sind nicht zu 100 Prozent da. Computer machen Fehler. Sie machen keine Fehler, aber wir machen Fehler, wenn wir falsche Fragen stellen oder ihnen falsche Daten geben. Also, Sie wollen sicherstellen, ob es persönlich und so persönlich wie eine Gesichtserkennung wird, wollen
Sie eine Schnittstelle haben, die Menschen fühlen sich willkommen und keine Angst. Das heißt, wenn Sie die Gesichts-API verwenden möchten, gibt es mehrere Dinge, die es tun kann. Es kann eine Gesichtsprüfung durchführen. Also, es findet eine Person auf einem Foto, und dann findet es die gleiche Person auf dem anderen Foto, und es sagt Ihnen, dass die beiden Gesichter
der gleichen Person und einem Konfidenzniveau von 0,73 gehören , in diesem Fall. Also, in diesem Fall, wenn Sie zwei verschiedene Leute nehmen, wird
es Ihnen sagen, dass es zwei verschiedene Menschen auf diesen beiden Bildern sind und es ist nicht die gleiche Person. Das könnte also ein erster Schritt sein, um ein Login-System durchzuführen, das ein erster Schritt sein
könnte, um sicherzustellen, dass die Leute die Richtigen sind. Natürlich wollen Sie nicht unbedingt, was Facebook am Anfang gemacht
hat, und sie mussten auch rückgängig machen,
automatisch alle markieren, weil die Leute vielleicht nicht auf einem Foto erkannt
werden wollen , je nachdem, wo sie waren. Stellen Sie sich vor, als wäre Clark Kent in diesem Bahnhof und die Leute sagen, es ist Superman, das ist nicht etwas, das Sie automatisch haben wollen. Er sollte sagen dürfen, dass er es nicht ist. Sobald Sie Gesichtserkennung haben, gibt es eine erstaunliche Menge an Informationen, die wir in dieser API, teilweise auch, weil mit den coolen Demos, die wir in der Vergangenheit erstellt haben. Also, jedes erkannte Bild, wie die Dame hier, hat einen Gesichtsausweis. Es hat das Rechteck, das ist wie wo ist das Gesicht in diesem Bild und was ist der andere Teil des Bildes? Es hat Attribute, wie wenn es um die Haare geht, wenn es eine kahle Person ist, wenn das Haar von jemandem, der einen Hut trägt, unsichtbar ist ,
zum Beispiel die Haarfarbe mit unterschiedlichen Konferenzstufen. Also, in diesem Fall ist es ein braunes mit einem, eine Blondine mit 0,69 und so weiter. Ich werde das jetzt nicht lesen, weil es viele Informationen gibt, und die API wird im Laufe der Zeit mehr Informationen erhalten. Aber Sie können bereits sehen, dass es viele Informationen gibt, und es gibt viele coole Dinge, die Sie mit der App tun können. Also, ich möchte, dass du darüber nachdenkst, was du tun könntest, wenn ein hochgeladenes Bild all diese Dinge hat. Die Emotions-API ist auch eine sehr interessante. Es erkennt die Gesichter der Menschen und ihre Emotionen. Also, die Emotionen sind Wut, Verachtung, Ekel, Angst, Glück, neutral, Traurigkeit und Überraschung. Auf diese Weise können Sie tatsächlich herausfinden, wann etwas mit Ihrem Bild schief gelaufen ist oder Sie können sie automatisch in verschiedene Datenbanken kategorisieren. Sie können auch, wenn Sie es auf einer Live-Version tun, können Sie sehen, zum Beispiel, Ihr Benutzer testen, wenn Sie etwas gesagt haben, und sie etwas anderes bedeuten, es könnte Diskrepanz zwischen den beiden geben. Also, dies ist eine gute Möglichkeit, automatisierte Nutzung von Tests durchzuführen und
einen zusätzlichen Informationspunkt zu erhalten , wenn die Leute
wirklich aufgeregt sind zu sehen, was Sie ihnen auf ihrer Website zeigen, oder wenn sie es Ihnen nur gesagt haben, weil sie tatsächlich wollen besänftigen das Interview, oder so zu sagen. Also, das ist Gesichtserkennung und Emotionserkennung. Also, das sind zwei Dinge, die sehr,
sehr menschlich in Ihrer Schnittstelle sind . Also, verwenden Sie sie sparsam, aber Sie können sie für ziemlich erstaunliche Dinge verwenden, wenn Sie mit ihnen spielen wollen.
7. Menschliche Sprache: In diesem Teil der Videoserie werden
wir über Sprache sprechen. Ich werde nicht zu viel ins Detail gehen. Ich werde Ihnen nur einige APIs zeigen, die in diesem Fall verwendet werden sollen, weil es ein sehr,
sehr tiefes Thema und ein sehr, sehr altes Thema ist. Es gibt viele intelligente Leute da draußen, die es tun, und ich will sie nicht mit halbem Wissen beleidigen. Ich weiß nur, was ich will, und ich weiß, was Sie darin verwenden können. Also, ich möchte sicherstellen, dass ich Ihnen einige der
Möglichkeiten zeige , die wir in diesem Fall haben. Als wir anfingen, Maschinen zu benutzen, die tatsächlich Audioeingaben sind, als Leute anfingen, mit ihren Computern zu reden, oder Leute begannen, ganze Sätze zu schreiben, und wir müssen Maschinen intelligenter machen. Wir mussten in die reale menschliche Sprache eintauchen, in die Linguistik, in Phonetik, in Metaphern, und wir wurden wieder viel menschlicher und mussten wieder viel menschlicher werden als zuvor. Auf diese Weise haben viele Leute angefangen, in der IT zu arbeiten, die nicht religiös in der
IT sein sollen , wie wir denken, dass das Programm nur in der IT sein darf. Google zum Beispiel stellt Dichter ein, engagiert Sänger
oder stellt Übersetzer und Linguisten ein, damit die Computer die Intrinsität der Sprache verstehen,
denn Sprache ist eines der komplexesten Dinge, die wir haben, und Computer haben nichts, was sie tatsächlich damit tun können. Mit einem Bild zumindest können Sie die Pixel analysieren, Sie können Formen finden, Sie könnten die Umrisse finden. Mit Text müssen Sie irgendwie erraten und Computer sind schlecht zu erraten, aber Menschen sind gut darin, Dinge zu analysieren. Aus diesem Grund verfügen wir über hunderte Jahre Erfahrung in der Linguistik , die wir jetzt versuchen, APIs zu verstehen und Ihnen bei diesen Dingen zu helfen, die Sie tun möchten. Was Sie mit diesen APIs oder Schnittstellen erstellen möchten, die es
Menschen ermöglichen, Fehler zu machen, weil Menschen Fehler machen, nur schlampig. Wenn wir Dinge auf einem Mobiltelefon eingeben, oder wir etwas in ein Mikrofon sagen und es nicht so verständlich ist, wie wir es wollen, passieren Fehler. Also, die Sprachanalyse Dinge sollten viel besser auf diese Weise werden. Bing-Übersetzung und Google-Übersetzung, viele Übersetzungsdienste sind viel
besser geworden , wenn dieser linguistische Ansatz dazu kam. Wir haben Wort für Wort übersetzt, vielleicht Satz für Satz, aber es ist immer noch nicht viel Sinn gemacht. Es waren Dinge, die tatsächlich verständlich waren, aber sie gaben nicht ganz die Bedeutung, die wir wollten, dass sie geben. Also, jetzt vergleichen wir tatsächlich nach Absatz und nach der letzten Überschrift, die vor ihm kommt und so weiter und so weiter. Auf diese Weise erhalten wir mehr Kontext und automatisierte Übersetzung wird auch auf diese Weise viel besser. Wenn Sie also mit einigen dieser APIs spielen möchten, finden Sie hier einige der Dinge, die Ihnen zur Verfügung stehen. Also, das erste, was ist eine Textanalyse-API. Also, was Sie damit machen, extrahieren
Sie Informationen aus Ihrem Text. Also, Sie kopieren einen Text in und es wird Ihnen wieder einen Analysetext geben, und es gibt Ihnen ein JSON-Objekt mit den Daten selbst, so dass Sie einen Text an ihn senden. Zum Beispiel, hier habe ich eine wunderbare Erfahrung, die Zimmer waren wunderbar, und das Personal war hilfsbereit
und fand heraus, dass die Sprache Englisch mit einem Vertrauensniveau von 100 Prozent ist. Die wichtigsten Phrasen sind, dass es eine wunderbare Erfahrung gibt, dass das Personal und die Zimmer dort waren, und das ist wichtige Informationen, wenn Sie darüber nachdenken, für einen Kommentar. Sie möchten nicht Tausende von Kommentaren durchlesen. Sie wollen nur wissen, welcher Kommentar über die Zimmer gesprochen hat, welche Kommentar über die Leute gesprochen hat, die über das Essen gesprochen haben,
und das ist, worum es in dieser API geht. Wenn Sie das negative Beispiel hier nehmen, hatte
ich eine schreckliche Zeit im Hotel, das Personal war unhöflich und das Essen war schrecklich. Es findet heraus, das Essen, schreckliche Zeit, Hotelpersonal, Stimmung ist schrecklich, so dass es feststellt, dass das Essen und das Personal schrecklich waren. Also, das sind die beiden Dinge, die Sie sich später für Ihre Schnittstelle interessieren möchten. Alle diese Informationen sind wieder als JSON-Objekt verfügbar. Hier kommen die Daten her, so dass Sie die Informationen nicht erhalten, wie sie in dieser Demo auch hier angezeigt werden. Es erzeugt auch spanische oder spanische negative. Also, im Wesentlichen denke ich, es sind 12 verschiedene Sprachen. Google hat auch eine ganze Reihe von Sprachen, so viele, viele Angebote gibt es in verschiedenen APIs. Das nächste, worüber man sprechen muss, ist Sprachverständnis, und hier wird es wirklich, wirklich knifflig und wirklich interessant. Das wäre eine Session für eine alte Videoserie hier und es gibt ein paar da draußen, um sie anzuschauen. Es gibt einen Service Code Sprachverständnis, LUIS Service, und dieser sagt Ihnen oder lehrt Sie zu sagen, was Sie von einem Text lernen möchten. Anstatt also einen Text zu haben, der Ihnen automatisch sagt , dass es sich um die Räume handelt und es sich um das Personal und um das Essen
handelt, geht es darum, Systeme zu bauen, die Sprachbefehle aufnehmen und dann herausfinden, wo die Befehle sind. In diesem Fall ist die Demo, die Sie auf dieser Seite sehen würden, eine Fernlichtsteuerung, in der Sie Dinge eingeben können und sie wird es verstehen. Also, wenn ich sage, schalten Sie jetzt das Licht ein und senden Sie
es, würde es das Licht in der Demo einschalten, und es würde Ihnen die Abfrageergebnisse dafür geben. Schalten Sie alle Lichter auf grün, schalten Sie die Tischleuchte aus und so weiter und so weiter. Dies ist ein Beispiel, wie Sie etwas wie ein Alexa-Steuerelement oder
Google Home-Steuerelement in Ihren eigenen Schnittstellen tun können,
indem Sie diese Art von Text in diesem Fall als Texteingabe verwenden. Also, zum Beispiel für einen Roboter in einem Chat-Client oder Auto für ein Suchfeld. Also, dieses ermöglicht es Ihnen, Ihr eigenes Modell zu trainieren und sicherzustellen, dass Ihre eigenen erwarten bestimmte Befehle, anstatt nur zufällig Text zu analysieren. Also, das ist eine sehr interessante Schnittstelle, und für mich ist es eigentlich die Zukunft der Interaktion. über diese Spracherkennung oder
Texterkennung nachdenken , können Sie Dinge steuern, anstatt
auf Schaltflächen zu klicken und auf die Schaltfläche zu klicken oder auf den rechten Link zu klicken, kann es für Endbenutzer viel einfacher sein. Also, das ist etwas, in das Sie tief eintauchen können, wenn Sie daran interessiert sein wollen, und es ist eine großartige Gelegenheit für nicht-technische Person und die technische Person, zusammen zu arbeiten, um eine coole Schnittstelle für Ihre Steuerungen oder für die Notwendigkeit zu bauen , die Sie in Ihrem Unternehmen haben. Jetzt haben Sie gelernt, wie Ihre Dienste die Bedeutung im
Text verstehen können und wie Sie Steuerelemente definieren können, die Sie sagen können. Steuern Sie Sätze, schalten Sie die Lichter ein, schalten Sie die Lichter aus, und so weiter und so weiter. Natürlich ist
das als Text irgendwie interessant, aber wo Sie es wirklich wollen, ist eine Spracherkennung, und das sind die APIs, die wir als nächstes behandeln Text in Sprache und Sprache in Text
verwandeln .
8. Audio & Video: In diesem Video der Serie werden
wir über die wahrscheinlich coolste Sky Sci-Fi-Sache sprechen Sie mit KI und maschinellem Lernen tun können, und das ist Spracherkennung. In jedem Science-Fiction-Film hatten wir
früher oder später etwas, wo jemand sagt: „Okay, Computer erlaube mir, das Ding zu machen, erzähl mir diese Dinge.“ Das Interessante hier ist, dass wir dem Problem sehr nahe kommen wo etwas zu menschlich wird, um nicht gruselig oder nicht menschlich genug zu sein, um nicht nervig zu sein. Also, eine Schnittstelle zu tun, die
Sprache erkennt und eine Schnittstelle, die Sprache zurückgibt, die nicht seltsam klingt, es ist ziemlich eine Sache, die wir gerade eine harte Aufgabe zu tun haben. Alle Unternehmen, die ihre
persönliche Unterstützung haben , forschen gerade jetzt großartig, was wäre die richtige Sprache und was wäre die richtige Stimme für diese Systeme zu verwenden? Es gibt also eine Menge Dinge, die Sie falsch machen können, aber es gibt eine Menge Dinge, die Sie richtig machen können, denn wenn eine Spracherkennung richtig funktioniert, ist
es eine wunderbare Sache, und oft verstehen die Leute nicht, desto mehr Sie müssen sie benutzen, desto besser werden sie. Eine Spracherkennungs-API oder eine Spracherkennungsschnittstelle ist eine wunderbare Sache um Menschen freihändige Kommunikation zu ermöglichen, so dass Sie es im Auto tun können oder Sie es zu Hause tun können. Aber es ist irgendwie auf etwas beschränkt, was man in kurzen Schritten tun kann. Sie möchten sicherstellen, dass die Leute nicht sagen müssen, wie Geschichten an Ihre Schnittstelle halten, Sie möchten sicherstellen, dass die Erkennung so früh wie möglich erfolgt. Also, wenn es um die APIs geht, mit denen Sie jetzt spielen werde
ich Ihnen ein paar zeigen, und hoffentlich werden
die Demos funktionieren, damit ich Ihnen zeigen kann, wie das gemacht wird. Was Sie auch verstehen müssen, um sie in der Zukunft perfekt zu machen, ist es vielleicht richtig, kostenlose Endbenutzer anzubieten, um sie auch für ihre Stimme zu trainieren. Das könnte mittlerweile mit ein paar Sätzen geschehen. Das ist nicht wie das Lesen von Seiten und Seiten zu mögen, Dragon Natural Speaking, wie es früher war, aber jetzt macht es tatsächlich mehr Sinn. Wenn du darüber nachdenkst, gehen wir zurück. In den 50er Jahren diktierten die Leute Briefe an ihre Sekretärinnen und sie haben es in Kürze niedergeschrieben und dann tippt. Nun, der Computer ist im Grunde unsere Sekretärin, die all diese Dinge tun kann, aber wir müssen ein paar Mal damit reden um sicherzustellen, dass er unseren Akzent versteht, und Sie können Akzente ganz schön mit einige dieser angepassten APIs, die wir Ihnen anbieten. Also, das erste, was ich mit Ihnen sprechen werde, als Sprach-API, die Spracherkennung ist. Also, wir können das jetzt hier ausprobieren. Also, ich habe den Start-Aufnahme-Button gedrückt und es steht: „Englisch U.S. Ich könnte es auch mit Deutsch machen, also habe ich den Zugriff auf mein Mikrofon erlaubt und du kannst damit auch in Zukunft selbst spielen. Es heißt, Süden die Zukunft sowie Süden die Zukunft
und so weiter und so weiter und so weiter. Sie können sehen, dass die Worte auf dem Bildschirm passieren, während ich mit ihm spreche, und es macht eine ziemlich gute Arbeit davon. Das ist untrainiert. Dies ist nur aus dem Kasten, was es tun würde. Also, wenn Sie eine noch bessere Erkennung wollen, müssen
Sie anfangen, es zu verwenden. Also, ich höre auf, jetzt schalte ich auf Deutsch, und mal sehen, ob es das auch beweist. Ich erlaube, [unhörbar] Wie Sie sehen können, hat
es erkannt, dass
Sie es auf Deutsch wahrscheinlich nicht lesen können, aber ich könnte die Übersetzungs-API jetzt verwenden, um sie in
Englisch zu verwandeln , wenn ich wollte, und dann die andersherum, die Text-zu-Sprach-API, um es mit jemand anderem zu sprechen. Es gibt offene APIs und offene Datensätze, die Sie auch verwenden können, um
diese Art der Erkennung zu tun , indem Sie ein System wie Microsoft oder Google oder Amazon verwenden, wir haben es bereits in verschiedenen Sprachen geschult. Als ich Ihnen vorhin gesagt habe, dass dies jetzt ein Text in Deutsch ist, den Sie nicht verstehen würden, gibt es auch eine interessante API, die eine Übersetzer-Sprach-API ist. Also, in diesem Fall sprechen Sie in einer Sprache hinein und es konvertiert sie automatisch andere Sprache und erzeugt dann eine synthetisierte Stimme, die sie in der anderen Sprache ausliest. Wir haben dies in Schweden zusammen mit der Polizei genutzt, um Flüchtlingen
aus Syrien zu erlauben , mit Polizeibeamten
als sehr erfolgreich zu sprechen , und es ist jetzt auch Teil von Skype. Also, das sind die Barrieren, die ich liebe, dass Anerkennung mit Maschinen tun kann, wenn wir es richtig benutzen. Manchmal ist es
viel wichtiger, zu erkennen, wer spricht , als das, was gesagt wird. Sie möchten zum Beispiel
ein Logging-System verwenden, das die Spracherkennung als zweiten Faktor in
einer Zwei-Faktor-Authentifizierung zusammen mit einem Token oder mit einem Passwort verwendet . Das gibt es schon seit längerer Zeit. Viele Hollywood-Filme hatten Spracherkennung in den 40er Jahren und James Bond-Filme in den 60er Jahren, aber jetzt können wir dies im Browser jetzt tun. Ich kann das hier jetzt nicht tun, mit meinem Mikrofon hat ein Problem, aber Sie können es selbst trainieren, indem Sie diese verschiedenen Sätze durchlaufen. Es bittet dich dreimal,
den gleichen Satz zu sagen und dann den Unterschied deines Akzents zu erkennen. Die Probleme der Aussprache, wie Sie kurz,
wo Sie Pausen machen, und das sind alles kleine Indikatoren, um zu erkennen, welcher Sprecher wann spricht. Sobald es auf diesen Systemen trainiert ist und Sie vortrainierte Modelle haben, können
Sie verschiedene Lautsprecher in Audiodaten erkennen, die Sie ebenfalls haben. In der Demo hier unten haben
wir verschiedene amerikanische Präsidenten und es kann tatsächlich auf das Audio klicken,
und dann fängt es an, es zu spielen und es erkennt , dass es Barack Obama war, der in diesem Fall sprach. Das ist eine ziemlich wichtige oder interessante Sache mit der Spracherkennung zu tun. Also, das sind alle APIs, mit denen wir jetzt spielen müssen,
und ich möchte, dass Sie mehr darüber nachdenken, was Sie mit diesen Systemen tun können. Wenn es absolut notwendig ist, Ihre eigenen zu machen oder wenn es sinnvoller ist, einen Drittanbieterdienst zu nutzen, sind
Alexa Cortana und Siri alle als APIs verfügbar Anstatt
also Ihre eigenen zu trainieren, können
Sie einfach diese Systeme und profitieren von all der Schulung und der Planung, die diese Unternehmen auch für Sie getan haben. Denken Sie an
die Spracherkennung als die nächste Schnittstelle, die Menschen verwenden wollen und verwenden müssen. Denken Sie an etwas, das sehr persönlich ist, und etwas, das nicht skaliert, denn wenn Sie ein Büro mit 300 Personen gleichzeitig sprechen, ist
das keine gute Schnittstelle entweder keine egal, wie Science-Fiction es sich anfühlt. Dies sind also einige der APIs, mit denen man spielen kann, wenn es um die Spracherkennung geht, aber das Problem ist, dass Ihre Stimme sehr einzigartig ist und manchmal die Systeme, die sehr kalifornische,
sehr ausgebildete Stimmen erkennen , nicht das Richtige sind für Sie. Wenn es also um APIs und AI-APIs geht, eine APIs für maschinelles Lernen, möchten
Sie
früher oder später in die Personalisierung einsteigen und darüber werden wir als Nächstes sprechen.
9. Personalisierung deiner Machine-Learning-Anwendung: In diesem Video der Serienwerden
wir über Anpassung sprechen und das
bedeutet, werden
wir über Anpassung sprechen und das
bedeutet wie die Dinge, die Sie von der Anpassung erwarten würden. Machine Learning und Künstliche Intelligenz scheint ziemlich magisch, wenn es funktioniert. Es macht keinen guten Job, wenn es nicht funktioniert, weil es tatsächlich frustrierend ist. Oft gibt es viele Witze darüber, wie Menschen mit schottischen Akzenten, die nicht durch Spracherkennung und solche Dinge erkannt werden. Wir möchten sicherstellen, dass dies nicht für
sich selbst oder auch für Ihre Endbenutzer geschieht . So mag ich zum Beispiel manchmal nur meinem Computer zu
diktieren und ich habe meinen Computern beigebracht, meine Stimme zu erkennen, so dass ich später nicht viel Text bearbeiten muss. Sie sollten diese Art von Dingen auch mit all Ihren Diensten tun ,
denn auf diese Weise machen Sie sie einzigartig für sich selbst und zu einem gewissen Grad auch sicherer, weil andere Menschen nicht in der
Lage sein werden , die Systeme so zu nutzen, wie Sie es tun Art und Weise. Die Anpassung ist ein sehr wichtiger Teil, um die Lösung für Ihre Endbenutzer auf einer sehr persönlichen Ebene nützlich zu machen. Ähnlich wie du angefangen hast, mit deinem Siri zu sprechen und es wurde besser nach einer Weile oder du hast begonnen, auf
deiner Android-Tastatur zu tippen und nach ein paar Monaten erkannte es die Wörter, die du weiterhin verwendest, und gab dir Autocomplete für diese, Ihre Endbenutzer verdienen es auch, diese Art von Qualität zu haben. Je mehr Daten Sie erhalten und je individueller die Ergebnisse wiederkommen können, desto mehr hochwertige Schnittstellen werden Sie erstellen. Sie müssen auch sicherstellen, dass es Spaß macht, diese Dinge zu tun und es fühlt sich nicht wie eine lästige Pflicht an. Also, wenn drei Sätze ausreichen, um eine erste 60 Prozent Qualität der Anerkennung zu erhalten, machen Sie es drei Sätze. Lassen Sie die Leute nicht sagen: „Okay, Krieg und Frieden, und lesen Sie es bitte, bevor Sie unser System benutzen können.“ Anpassung ist für den Endbenutzer und nicht gegen sie. Die Sache, die hier zu tun ist, ist, die Systeme zu haben vorhanden
sind und sehen, wenn Sie feststellen, dass es einen Fehler in ihnen gibt. Sagen Sie zum Beispiel, Sie haben ein Bild-Dataset, das Bilder
von Bienen hat und die Erkennungsdienste von Microsoft, von Amazon, von Google, von IBM sind in Ordnung mit der Erkennung von Bienen, aber Sie sind ein Bienenexperte. Du weißt wirklich, wie alle Bienen, was alle verschiedenen Bienen sind. Du willst das Gleiche beim Computer beibringen. Sie können das selbst tun, indem Sie ein eigenes neuronales
Netzwerk oder ein eigenes Deep-Learning-Netzwerk schreiben und
ein paar Monate damit verbringen , das an der Universität zu lernen, bevor Sie es tatsächlich tun. Oder Sie können einige der APIs verwenden, mit denen Sie diese Dinge anpassen können. Die meisten Dienste ermöglichen für diese, für zusätzliche Zahlung und haben maßgeschneiderte Systeme. Einige von ihnen ermöglichen es Ihnen auch, Ihre Daten nur von Ihnen und nur auf Ihrem Computer
gehostet werden zu lassen , damit sie nicht in das Haupt-Dataset zurückkehren. Aber wenn Sie zulassen, dass sie in den Datensatz zurückkehren, ist
das natürlich viel billiger und viel freier, weil die Unternehmen
aus Ihren Daten ein besseres Modell erstellen können als von
allen anderen, da sie plötzlich anderen Imkern anbieten können, sowie zu wissen, wie man verschiedene Bienen erkennt. Wenn es um das Sprachverständnis geht, ist der
Kontext unglaublich wichtig. Sie können eine normale Sprach-Text-API haben, die Ihnen nur
eine Abschrift von dem gibt , was Sie gesagt haben, aber manchmal möchten Sie sicherstellen, dass verschiedene Teile erkannt werden, wie Steuerwörter, oder Sie möchten sicherstellen dass die Text wird in einem bestimmten Kontext verstanden. Dazu können Sie das Sprachverständnis
LUIS API verwenden, das bereits seit geraumer Zeit existiert und von Menschen für alle Arten von Kontext erfolgreich genutzt wird. Zum Beispiel hatten wir als Demo Kinder
über ihre Lieblingsbücher interviewt und der Inhalt machte überhaupt keinen Sinn. Aber als wir dem System gesagt haben, dass dies
die Kinderbücher sind , über die die Kinder gesprochen haben oder dass der Kontext Kinderbücher war, stieg die Anerkennung plötzlich von 40 Prozent auf 80 Prozent. Andere Dinge, mit denen Menschen gemacht haben, ist,
zum Beispiel Hintergrundgeräusche zu erkennen . Also, wir hatten einen Flughafen in den Niederlanden,
glaube ich , wo die Leute eine Spracherkennung hatten, die überhaupt nicht funktionierte. Also, was wir taten, ist, dass wir ungefähr 16 Stunden
Hintergrundgeräusche von diesem Flughafen aufgenommen haben, der an einem normalen Tag passiert ist, dem System
beigebracht hat, dass dies auch ein Teil des Audiosignals ist und auf diese Weise die Erkennung
wieder ein paar Prozentsätze zu machen die Menschen darauf aufmerksam, dass dies funktioniert. Also, all die Dinge, die der Computer wissen musste, mussten
wir zuerst den Computer trainieren und das ist das gleiche mit Akzent, das ist das gleiche mit Dingen, auf die wir hören, und Steueralgorithmen oder Steuersätze, die Sie wollen haben. Es gibt auch einen benutzerdefinierten Sprachdienst , mit dem Sie auch verschiedene Vokabeln und Hintergrundgeräusche geben können. Dies ist eine andere, die wir mit diesem Flughafen zum
Beispiel verwendet haben, oder es versteht tatsächlich verschiedene Dinge, verschiedene spezielle Wörter, die Sie verwendet haben. Der benutzerdefinierte Sprachdienst ermöglicht es Ihnen, ein System mit einem bestimmten Vokabular und
einem bestimmten Hintergrundrauschformat und
einem bestimmten Sprachakzentproblemzu trainieren einem bestimmten Hintergrundrauschformat und einem bestimmten Sprachakzentproblem , dass Sie den Text auf diese Weise besser erkennen. Dies ist also der benutzerdefinierte Sprachdienst. Wenn es darum geht, diese Dienste anzupassen, ist
es sehr wichtig zu verstehen, dass sie tatsächlich teuer sind, weil die Rechenleistung auf eine neue Art und Weise geschieht, während die vortrainierten Modelle der Anerkennung von Prominenten oder erkennt Eiffelturm und diese Art von Dingen und Bildern, die bereits für Sie getan worden sind. Aber es ist eine sehr gute Möglichkeit,
Ihre perfekten Ergebnisse in einem bestimmten Thema und Expertenbereich in
eine viel bessere Qualität zu bekommen Ihre perfekten Ergebnisse in einem bestimmten Thema und Expertenbereich in , als nur durch die Verwendung der normalen Konnektivität oder der normalen Verbindungssysteme, die Sie in AI und ML haben Systeme aus der Box.
10. Die Ethik des Machine Learning: In diesem Video der Serie möchte
ich über die Macht und die Verantwortung sprechen, die wir haben, wenn es um Machine Learning und Künstliche Intelligenz geht. Vieles von dem, was wir hier tun, ist eine sehr persönliche Sache und wir nehmen Leute auf, wir analysieren, was sie tun, und wir stellen sicher, dass das, was zurückkommt, zu einem gewissen Grad zu ihrem Vorteil ist. Also, die Ethik der KI ist ein großes Problem, ich werde es nicht im Video lösen und ich werde Ihnen nicht sagen, was zu tun ist, denn so funktioniert Ethik nicht,
und jedes große Unternehmen, das in
Machine Learning arbeitet und Künstliche Intelligenz hat KI für gute Abteilungen und sehr intelligente Menschen in psychischen und ethischen Umgebungen,
reden, was wir damit machen können und wie wir es falsch machen können. Also, viel davon, worüber wir hier denken wollen
oder worüber Sie als kreative Menschen nachdenken wollen,
ist, wie Sie diese Dinge formulieren können. Wie können wir Schnittstellen erstellen, die es Menschen ermöglichen, die Belohnungen von Machine Learning zu ernten, aber ihre Daten freiwillig und auf eine Art und Weise zu geben, sich
nicht so anfühlt, dass sie beobachtet werden oder aufgezeichnet werden, ohne es zu wissen. Ist eine sehr problematische Sache und für mich der nächste Schritt in der Benutzerinteraktion, wie stellen wir sicher, dass die Leute wissen, dass sie ihre Daten für einen Dienst verschenken, aber sie wissen auch, wohin die Daten gehen, und sie fühlen sich tatsächlich zuversichtlich, dass Sie die richtige Person
sind, um diese Informationen zu erhalten? Wir sind mitten in einem massiven Medienstreit darüber mit Firmen, die deine Sachen aufzeichnen, was sie damit machen, also willst du nicht die nächste Firma sein, die in diesen Kampf gerät und dieses Problem hat. Machine Learning und Deep Learning sind da, um
Informationen mit der Beantwortung der richtigen Fragen von Benutzern zu finden . Wenn Ihre Fragen bereits voreingenommen sind oder die Daten voreingenommen sind, wird
das das Problem tatsächlich verschlimmern. Ihr System wird auch voreingenommen sein. Also müssen Sie sicherstellen, dass, wenn Sie etwas bauen, dass das Team es erstellt, und die Daten, die eingehen, so vielfältig wie möglich sind. Das ist eine allgemeine Sache, um jedes Produkt besser zu machen. Ihre Endbenutzer sind nicht Sie. Sie sind nicht die Leute im Büro, die diese schnelle Verbindung haben , verwenden nur eine Marke von Computer,
und wissen tatsächlich, worum es bei dem System geht. Wenn ein System intelligent sein soll, dann muss das System auch über Ausreißer wissen. Es muss nicht nur den glücklichen Weg haben, wohin Sie die Informationen wollen, sondern Sie müssen ihm auch die Fehlerbehandlung und
die Fehlerprobleme beibringen , die es tatsächlich beachten sollte. So vermeiden Sie Dinge wie Gesichtserkennung, die nicht an Menschen mit Farbe arbeiten. So müssen Sie vermeiden, dass Probleme wie asiatische Menschen als jemand gesehen werden, der ihre Augen geschlossen hatte. Das sind Dinge, die großen Konzernen passiert sind. Sie waren sehr, sehr offensichtlich und sehr, sehr gefährlich für sie und ein PR-Alptraum. Sie möchten nicht in diesen Raum gelangen, indem Sie sicherstellen, dass Ihre Systeme keine Annahmen treffen. Indem Sie also nicht davon ausgehen, dass Ihre Endbenutzer wie Sie sind, bauen
Sie tatsächlich Systeme auf, die nicht-voreingenommene künstliche Intelligenz ermöglichen. Es wird nie 100 Prozent sein, weil Menschen voreingenommen sind und wir da sind, aber hoffentlich würde
eine Analyse, eine tiefe Analyse unserer Daten uns auch unsere Vorurteile zeigen
und eine Fehlerbehandlung sein, die wir nicht mehr tun sollten. Eines der wichtigsten Dinge, die Sie über
Machine Learning und Künstliche Intelligenz verstehen sollten, ist, dass die Ergebnisse so gut sind wie die Fragen, die Sie zusammenstellen und die Datensätze, die Sie in. Also, die Fragen, auf denen Sie Ihre Modelle trainieren, sollten prägnant und einfach sein. Sie nicht, dass der Computer kreativ ist, erwarten
Sie nicht, dass der Computer
Metaphern verstehen und Sprünge und Denken wie Menschen machen kann. Computer sind nicht gut darin. Indem Sie also Ihre Fragen so einfach wie möglich halten, müssen
Sie sicherstellen, dass auch Ihre Datensätze, die
zurückkommen, auch für andere Benutzer inklusive sind. Also, es ist schön, zum Beispiel eine Spracherkennung zu haben, aber jemand mit einem Stottern, oder jemand, der überhaupt nicht sprechen kann, wird es nicht benutzen können. Denken Sie also darüber nach, wenn Sie diese coolen Systeme verwenden und
in den Sci-Fi-Modus einsteigen und darüber begeistert sein, dass Menschen unterschiedliche Bedürfnisse haben und auch Menschen unterschiedliche Fähigkeiten haben. Also, etwas so erstaunliches wie eine Spracherkennung für eine blinde Person ist unmöglich für eine taubstumme Person, und umgekehrt. Daher können wir dies als Verbesserungen verwenden, aber nicht die einzige Möglichkeit, auf diese Art von Informationen zuzugreifen. Also, wenn es darum geht, die Zustimmung Ihrer Endbenutzer zu erhalten, möchten
Sie sicherstellen, dass Sie tatsächlich auf
einem legalen Weg sind und Sie tatsächlich auf einem ethischen Weg als auch wollen. Also, Ihre Benutzer zu fragen oder Ihren Benutzern im Voraus mitzuteilen, dass Sie eine bessere Erfahrung bekommen können, wenn Sie uns erlauben, diese Daten aufzuzeichnen, ist eine Möglichkeit, dies zu tun. Ja, es ist ein anderer Schritt in der Schnittstelle, es ist eine zusätzliche Taste zu drücken, aber es macht Sinn für Endbenutzer und für mich, als jemand, der viel über Privatsphäre und Sicherheit interessiert, würde
es mich Ihnen mehr vertrauen, wenn ich das Recht, nein zu sagen, oder wenn das, was ich mit maschinellem Lernen tun möchte, eine Verbesserung ist, und es ist immer eine Verbesserung, weil Machine Learning ist immer eine Vermutung Arbeit. Maschinen machen die Dinge nicht richtig. Sie vermuten nur, dass es das ist, was die Menschen wollen. Am Ende gibt es immer einen Menschen, der in der Lage sein sollte, etwas zu sagen, dass es falsch ist, oder etwas zu sagen, dass es richtig ist. Also, Sie trainieren es, Sie testen es mit echten Menschen, und haben immer eine Möglichkeit für Ihre Endbenutzer, nein zu sagen
oder zu sagen, dass das falsch ist, oder es jemandem zu melden und sehr hart
daran zu sein , diese Dinge wirklich zu beantworten wirklich schnell, denn dies könnten Dinge sein, die Sie nicht zeigen möchten, wenn Sie Schnittstellen, und wenn die Leute es melden, dann gab es wahrscheinlich ein echtes Problem damit. Stellen Sie also sicher, dass Sie, wenn
Sie menschliche Schnittstellen erstellen , auch viel menschliches Denken in sie stecken.
11. Machine Learning & Kreativität: Immer wenn etwas automatisiert wird, sich die
Menschen Sorgen darüber. Sie fragen sich, ob ihre Kunst, oder ob ihr Handwerk, oder was sie tun, bald überholt sein wird. Ja, Machine Learning und Künstliche Intelligenz werden viele Jobs überflüssig machen. Es wird eine Menge Dinge überflüssig machen, die wir für
selbstverständlich halten, jetzt ist ein normales Einkommen für einen Menschen. Selbstfahrende Autos sind einer davon. Selbstfahrende LKWs, all die Dinge, die für Menschen im Grunde gefährlich sind, weil wir müde werden, langweilen wir uns, wenn wir immer wieder dasselbe tun, wenn es uns nicht geistig besteuert. Dann stellt sich die Frage,
was mit diesen Leuten passieren wird? Ich habe einen sehr positiven Spin darauf. Ich denke, dass
es mit der Automatisierung der Dinge möglich sein sollte, dass diese Menschen
die neue Kreativität finden , die sie vorher nicht hatten. Wir müssen jedoch sicherstellen, dass diese Menschen es sich leisten können,
kreativ zu sein und nicht nur arbeitslos zu sein und darüber unglücklich zu sein. Hier wird die Revolution der Künstlichen Intelligenz tatsächlich Teil der Politik sein müssen, und wir müssen Teil der sozialen Kultur sein, die wir haben. Wir können es einfach nicht als eine Sache haben, die nur reiche Leute mit den neuesten Smartphones verwenden können, es ist bereits Teil des Lebens aller, also müssen wir es
auch zu einem gewissen Grad demokratisieren und alle Systeme, die wir haben Da draußen. Nun, wenn es um Kreativität
geht, sagen Menschen gegen künstliche Intelligenz immer: „Hier sind die Grenzen von Computern.“ Sie haben völlig Recht, und ich bin damit völlig okay. Ich bin völlig okay, dass ein Computer nicht kreativ ist, weil ich nicht will, dass sie kreativ sind. Kreativität kann gefährlich sein, Kreativität kann schön sein, kann
aber auch hart sein. Also, ich will nicht, dass Computer all diese Kontrolle haben. Zum Beispiel, wie viel Steuer ich zahlen muss, oder ob der Strom in meinem Haus so hoch sein sollte, oder ob der Sauerstoffgehalt in meinem Haus in Zukunft
aufgelöst werden sollte , wenn wir im Weltraum leben. Also, wenn Menschen ihre kreativen Systeme
oder die KI-Systeme zeigen wollen , wie stark sie sind, zeigen
sie, wie weit Computer gekommen sind, um Menschen nahe zu sein. war es, wenn Deep Blue Kasparov im Schach oder einem anderen Schachmeister geschlagen hat. Wenn Googles Computersysteme spielten Ziel besser als eine menschliche Person. Als wir begannen, wie die computergenerierte Musik zu haben indem wir die ganze Musik der Beatles analysieren und herausfinden, welche Dinge die Menschen am meisten mochten. Plötzlich haben wir diese Dinge gezeigt, die immer ein bisschen kreativ aussehen, aber einige sind auch seltsam. Natürlich wird es dort Kreativität geben,
aber ich denke, AI und ML sind da, um Dinge zu automatisieren. Also, die Dinge, mit denen wir langweilig sind, die wir nicht tun wollen, sollten von denen getan werden. Es gibt noch keine Kreativität in Computern. Wir haben keine Maschine, die denkt. Und wenn wir eine Maschine haben, die denkt, das könnte sehr gefährlich für Menschen sein, weil ein Computer versucht, uns zu schützen, und ihre Hauptaufgabe darin besteht, uns zu schützen, wird wahrscheinlich sehr
verärgert sein das könnte sehr gefährlich für Menschen sein,
weil ein Computer versucht, uns zu schützen,
und ihre Hauptaufgabe darin besteht, uns zu schützen, wird wahrscheinlich sehr
verärgert sein. dumme Dinge die ganze Zeit, um uns selbst zu gefährden. Also, die Kreativität, die Sie gerade begegnen, oder die Sie fühlen, ist Ihre beste Waffe gegen Automatisierung und gegen Machine Learning, Künstliche Intelligenz als Feind. Ich freue mich darauf, dass meine Arbeit nicht nötig ist. Ich freue mich darauf, dass die meisten meiner Codierung
durch eine Maschine und einen Algorithmus optimiert werden , der die Algorithmen aufnimmt. Das ist auch ganz in Ordnung. Ich war wirklich aufgeregt, als das Computing begann, dass ich auf eine bestimmte Art und Weise mit einem Computer sprechen muss. Aber ich bin heutzutage genauso aufgeregt, dass ich mit meinem Computer reden kann, dass ich in eine Kamera schauen kann, um meinen Computer zu entsperren, und ich kann ein Mensch sein, und dass ich menschliche Dinge tun möchte, und dass ich Zeit habe, menschliche Dinge zu tun, weil die Computer sind intelligent genug. Also, wenn es um Kreativität von Computern geht, ist
eine Menge davon wie gute Vitrinen, um die Macht von KI-Systemen zu zeigen. Es ist nicht notwendigerweise echte Kreativität. Was wir uns mehr Sorgen machen sollten, sind eigentlich die Endverbraucher,
die Konsumenten unseres kreativen Outputs, die echte kreative Dinge fordern. Wenn man Popmusik in den letzten Jahren oder sogar die ganzen Boy Bands der 90er Jahre betrachtet, war
das algorithmische Musik. Dies war vorhersehbar und in einer bestimmten Zeit definiert. Ich sah einen Vertrag von Boy Bands, die sie tatsächlich
nach ein paar Jahren auflösen mussten , weil das Marketing-Modell um diese Band fertig war. Das ist etwas, das wir in den letzten Jahren
Kreativität und Medien angetan haben. Also, jetzt ist es an der Zeit für uns kreative Menschen, oder für Sie kreative Menschen, sich zu wehren und sicherzustellen, dass Sie nicht
automatisiert werden können , indem Sie etwas so kreatives tun, dass ein Computer einfach verwirrt ist.
12. Abschließende Gedanken: Ich danke Ihnen sehr, dass Sie diesen Kurs befolgt haben, und ich hoffe, ich habe Sie dazu inspiriert, mit ein paar Dingen zu spielen Sie vorher dachten,
dass Sie außerhalb Ihrer Reichweite oder Reichweite waren. Es war definitiv jenseits meiner Reichweite und ist immer noch, und ich habe eine Menge Freunde, die viel besser darin sind, die
glücklich sind, Ihre Fragen zu beantworten, die Sie auch haben könnten. Ich freue mich sehr darauf, zu sehen, was Sie mit der Inspiration machen können, die Sie hier bekommen haben. Wenn du nicht inspiriert wurdest, sag mir bitte, was ich beim nächsten Mal besser machen kann. Also, ich danke Ihnen sehr und stelle sicher, dass Ihre Computer für Sie arbeiten und nicht für Sie für Ihre Computer.