Transcription
1. Introduction: Bonjour, je suis Chris Hermione, je suis de Berlin, Allemagne, je travaille pour Microsoft en ce moment. Je suis développeur web depuis 20 ans, et en ce moment j'entre dans tout l'espace d'apprentissage automatique de l'IA pour voir comment les ordinateurs peuvent nous aider encore plus. intelligence artificielle et l'apprentissage automatique sont, pour moi, la prochaine évolution de l'informatique aussi révolutionnaire que la première usine l'était sur le marché du travail. Dans cette classe, vous allez en apprendre davantage sur l'apprentissage automatique et l'IA, mais pas du point de vue de la science des données, mais du point de vue de l'interface. Je vais vous aider à comprendre où obtenir de l'information, où trouver des outils à utiliser et comment utiliser ces outils pour construire vos propres interfaces pour les rendre plus humaines. Donc, vous n'avez pas besoin d'être une personne technique pour suivre ce cours, vous avez juste besoin d'être une personne intéressée et quelqu'un qui veut en apprendre davantage sur l'intelligence artificielle. L' apprentissage automatique peut faire des choses étonnantes pour les gens, et je pense qu'il y a une excellente occasion de construire des interfaces compréhensibles par les humains et qui réduisent la barrière à l'entrée dans vos systèmes. Lorsque quelqu'un dans le passé ne pouvait utiliser vos sites Web que lorsqu'il utilise un clavier ou une souris, nos jours, les gens peuvent le faire par la voix ou peuvent le faire en regardant simplement une caméra et en se connectant de cette façon. C' est une idée passionnante presque de science-fiction que nous pouvons utiliser de nos jours, mais pas encore assez de gens. J' espère que cela vous incite à poser des questions, me
poser des questions, à poser des questions à d'autres personnes, et aussi à remettre en question les gros titres que vous verrez sur l'apprentissage
automatique, l'intelligence artificielle et les systèmes que vous utilisez. Je veux que vous utilisiez l'apprentissage automatique et l' intelligence
artificielle pour créer des interfaces humaines et rendre accessibles aux personnes qui ne sont pas forcément trop enthousiastes par la technologie. Donc, quand vous construisez quelque chose de cool avec ce que vous apprenez ici, s'il vous plaît nous en parler. Eh bien, je suis excité de donner ce cours et commençons.
2. Qu'est-ce que l'apprentissage automatique: L' apprentissage automatique est un moyen de dire à un ordinateur faire les choses répétitives encore et encore, jusqu'à ce qu'il trouve des différences,
jusqu' à ce qu'il trouve des modèles et jusqu'à ce qu'il voit réellement ce que les données sont sur. L' apprentissage automatique n'est pas comme par magie l'apprentissage de. Quelque chose encore et encore. Vous devez poser à l'ordinateur une question très détaillée et très précise pour obtenir de bonnes réponses. Nous ne pouvons pas avoir comme des informations magiques qui sortent des ordinateurs parce que les ordinateurs ne peuvent pas penser. Ils peuvent simplement simuler le fonctionnement des processus de pensée. Il y a deux écoles de pensée, il y en a quelques autres, mais deux grandes. L' un d'eux est comme le Terminator, où les gens ont peur de l'intelligence artificielle, où les gens ont peur d'enlever nos emplois, où ils ont peur de
nous espionner et ils sont en fait nous tuer à la fin, ce qui est juste des films vraiment si vous y pensez. L' autre côté, c'est le genre de chose Star Trek de Steve Jets où nous avons cet ordinateur omniprésent à qui nous parlons, c'est super excitant pour nous, c'est notre ami, qui est juste là dans le besoin. Elle est un excellent exemple en tant que film où les gens tombent
amoureux d'une Intelligence Artificielle parce que c'est comme s'occuper d'eux, c'est le partenaire idéal pour parler et c'est la machine parfaite pour faire des choses pour vous. Nous ne sommes dans aucun de ces espaces. Bien sûr, il y a des gens terribles qui utilisent Machine Learning pour des choses maléfiques et il y a des gens qui rendent les choses beaucoup plus faciles pour les
tâches comme pour l'utilisation d'ordinateurs et pour l'utilisation de votre téléphone portable. Il suffit de prendre la dernière génération de téléphones mobiles pour faire des photos automatisées pour vous, en vous assurant que votre selfie est superbe, assurant que l'arrière-plan est synchronisé et mis au point sans que vous fassiez quoi que ce soit. Beaucoup de choses sont Machine Learning et Deep Learning, mais nous n'en parlons plus aux gens, nous les utilisons simplement sociologiquement et aussi d'un point de vue psychologique, nous sommes dans un endroit très intéressant là-bas. Nous avons des gens qui ont peur ou qui préfèrent les ordinateurs aux gens. Je pense que nous devons revenir un
peu au milieu et comprendre que toutes ces choses sont des outils pour nous, pour que les humains soient plus créatifs. Donc, si l'école de pensée Terminator
craint que des emplois soient enlevés par les ordinateurs, l'école de pensée Star Trek devrait être heureuse que certains emplois soient enlevés par des ordinateurs et des robots, parce qu'ils sont malsains pour les humains et ils n'ont aucun sens pour les humains. Il y a maintenant une grande opportunité avec l'automatisation et les ordinateurs qui font des choses pour nous que nous pouvons nous libérer de choses que nous n'aurions jamais pensé pouvoir. Comme mes parents, par exemple, étaient en classe ouvrière. Ils travaillaient toujours dans les usines, travaillaient dans les mines de charbon. Ils ont dû travailler pour vivre parce qu'il n'y avait pas de robot capable de prendre le travail. Les emplois malsains, répétitifs, ennuyeux qu'ils avaient, qui pourraient le faire pour eux. Donc, avec ces emplois disparaissent et ils disparaîtront parce qu'il
sera beaucoup plus rentable pour les robots et les machines de le faire, nous avons la liberté en tant que genre humain de devenir plus créatif et d'en apprendre davantage sur les prochains emplois que nous je ne sais même pas encore. travail n'a pas besoin d'être quelque chose où nous
vivons et nous le faisons parce que nous devons obtenir de l'argent pour ça. Le travail pourrait être quelque chose qui n'a même pas encore été là. Nous pourrions nous libérer des chaînes de
production en comprenant que les ordinateurs peuvent faire ces choses. Nous avons juste besoin de comprendre que de quelque part, nous devons distribuer la richesse et distribuer l' intelligence et mieux distribuer l'éducation. J' espère que c'est un début où vous serez excité d'en apprendre plus à ce
sujet et que vous n'avez plus peur de l' apprentissage
automatique et de l'intelligence artificielle. Il y a quelques choses comment je peux aider les humains. La première chose est l'automatisation, c'est la grande en ce moment. Il y a une prévention des erreurs, qu'un ordinateur peut nous dire que c'est vraiment faux, pourquoi refais-tu ça ? Il y a réduction des données et étouffement le bruit lorsque vous avez beaucoup de données et que vous voulez seulement trouver cette chose qui est différente entre toutes les autres. Les ordinateurs sont parfaits pour trouver ces différences. Il y a des prédictions basées sur des données historiques. Combien de fois avez-vous utilisé votre ordinateur et que peut-il faire mieux pour vous ? Un excellent exemple pour cela serait votre clavier que vous utilisez sur votre smartphone. Il a réalisé ce que vous avez écrit et vous donner des mots automatisés déjà en
tapant les deux premières lettres parce qu'il sait que ce sont les mots que vous utilisez tout le temps. C' est labourer des quantités massives de données, comme si l'information est beaucoup d'informations provenant de capteurs, données d'
image, un enregistrement audio est beaucoup d' informations et nous, en tant qu'humains, ne pensons pas à cela comme ça. Mais trouver de l'émotion dans une reconnaissance audio par exemple, est une tâche vraiment difficile. Donc, les ordinateurs sont bons pour labourer cette quantité de données et vous donner seulement les résultats, plutôt que vous avez à regarder toutes ces données vous-même. Le dernier bit est, bien sûr, création d'interfaces plus humaines. permettre de parler à un ordinateur comme nous le ferions à une personne humaine et récupérer des
informations propres à la consommation humaine et pas seulement une liste de taxes ou une liste de résultats. Dans cette première section, je veux que vous enleviez que l'Intelligence Artificielle n'est pas magique. Il ne se passe rien que les ordinateurs puissent penser, les ordinateurs peuvent être créatifs et combler des lacunes qu'ils ne connaissent pas. Vous êtes responsable de ce que vous dites à
la machine et vous êtes responsable de ce que vous en retirez. Les machines intelligentes ne peuvent être aussi intelligentes que les questions que nous leur posons. Vous pouvez profiter de beaucoup d' informations
enregistrées et de modèles trouvés par d'autres personnes déjà, mais vous devez vous assurer que pensée de l'
ordinateur est juste une illusion de pensée. Ce n'est pas un autre être humain et il ne remplacera pas les êtres humains. Nous avons la chance d'être aussi créatifs que nous le voulions si nous comprenons simplement que les ordinateurs de tâches répétitives ennuyeuses à faire.
3. Comment nous enseignons aux machines: Bienvenue dans cette section du cours où nous allons examiner la magie qui se passe comment les ordinateurs savent apparaître penser. D' où viennent les informations, ce qui se passe là-bas. Je ne vais pas vous parler de tous les détails, bien sûr, mais je vais vous faire comprendre qu'il y a quelque chose qui n'est pas
sifascinant et qui n'est passi
évident au premier coup quand on y fascinant et qui n'est pas pense. Donc, quand il s'agit de films et quand il s'agit d'interfaces et de stars de cinéma, toujours ce moment magique où l'information sort de rien. Le meilleur exemple est le trope de n'importe quel film quand vous avez le zoom et l'amélioration de n'importe quel épisode comme CSI où c'est comme, oh juste ce petit métrage granuleux et comme, améliorer cela, améliorer cela, et il y a toujours une grande informations dans ceux où vous trouvez comme, vous zoomez sur une vis d'une plaque d'immatriculation et puis vous voyez le reflet d'un tueur en arrière-plan là-bas. Malheureusement, le monde ne fonctionne pas comme ça. Si les informations sont là et que vous avez des données corrompues ou des données mauvaise qualité, vous ne pouvez pas faire grand-chose pour trouver ces informations. Cependant, au cours des dernières années, de
plus en plus de choses apparaissaient comme ça. Il y a un excellent papier d'intelligence artificielle qui vous montre comment vous pouvez obtenir en face, par exemple, à partir d'une matrice de 8 x 8 pixels et juste continuer affiner jusqu'à ce que vous découvriez quel était probablement ce visage. caméras qui reconnaissent les gens dans les gares et les choses
sont devenues de mieux en mieux pour changer les images granuleuses en autre chose. Nous ne sommes pas tout à fait là dans le monde CSI où nous pouvons le faire, mais ce qui se passe ici, c'est que nous avons tellement de données au fil des ans enregistrées, analysées, et avec le tact de l'apprentissage automatique et du deep learning que nous pouvons maintenant comparer mieux que cela. L' un des grands exemples que je veux vous montrer est une chose que Google a publié il y a quelques mois appelé AutoDraw, et ce qu'il peut faire et vous pouvez voir ici est que vous pouvez commencer à dessiner quelque chose, et si vous êtes artistiquement défié comme je suis il fait des choses magiques pour vous. Donc, dans ce cas, j'essaie de peindre une paire de lunettes. Donc, je suis à peine obtenir une spécification ronde ici et à peine faire la bonne ligne de fermeture. Mais si vous voyez là-haut, je peux maintenant cliquer dessus et j'ai une paire parfaite de lunettes et je peux même avoir différentes formes. Donc, il a reconnu d'après les contours que j'ai dessinés, que probablement je veux faire quelques lunettes et pas un vélo où j'aurais eu une poignée sur le dessus qui genre de pourrait regarder le même et la plupart du temps quand je essayé de peindre les lunettes, il ressemble à un vélo donc je suis très heureux que cette chose existe. qui est intéressant, c'est que les informations que nous
avons sur ces choses ne viennent pas par magie. Bien sûr, un ordinateur peut trouver l'arrondi entre deux lignes et le fait plus droit comme lorsque vous utilisez vos contours dans Illustrator ou quoi que vous utilisez, il fait ces choses pour vous. Mais découvrir que je voulais faire une paire de lunettes est basé sur quelque chose de beaucoup plus intéressant. Il y a quelques années, Google a publié un jeu appelé Quick, Draw où il a demandé aux gens de dessiner quelque chose et de dire ce que c'est. Donc, il dit comme dessiner une ligne et moins de 20 secondes. Donc, vous tracez maintenant une ligne et il est écrit. Oh, je sais, c'est la ligne. Donc, l'ordinateur dit en fait que c'est une ligne. Dessinez un train en moins de 20 secondes et c'est là que je suis sorti parce que ça n'arrivera pas pour moi. Mais des millions de personnes utilisent ce jeu et se sont
amusés à jouer à ce jeu et à rivaliser avec leurs amis et c'est le jeu de données qui devait commencer ce jeu de tirage automatique plus tard sur un outil Autodraw plus tard. Ainsi, chaque fois que vous téléchargez une photo sur Facebook, chaque fois que vous téléchargez une photo sur Twitter, chaque fois que vous abandonnez un commentaire sur quelque chose, la machine commence à reconnaître cela et commence à la
filtrer et quand 10 personnes disent les mêmes choses, alors très probablement qui ressemble à un train. Nous téléchargeons des informations depuis des années et des années gratuitement parce que nous voulions utiliser les systèmes gratuitement et en arrière-plan, machines enregistrent cela depuis longtemps. Donc, la dernière chose où cette information sort, qui est très intéressante,
est un système Google appelé reCAPTCHA. Récemment, les reCAPTCHA sont comme, s'il y a cinq photos ou 20 photos de quelque chose, dites-nous où est quelque chose. Cela a été le texte déformé et c'était quand Google avait Google Books et certains des scanners n'ont pas fonctionné. Donc, il a utilisé ces systèmes pour les humains pour nettoyer ces ensembles de données gratuitement en ayant plus de sécurité sur vos formulaires communs. De nos jours, vous verrez beaucoup plus que ce sont les noms de rues ou les panneaux de rue, et bien sûr, panneaux de
rue et les voitures, ce
qui signifie bien sûr ou indique que cet ensemble de données sera utilisé pour les voitures autonomes pour en savoir plus sur leur environs. Donc, en tant qu'humains, nous sommes surveillés et nous sommes enregistrés tout le temps, mais ce n'est pas nécessairement une chose maléfique ou insidieuse. C' est assez intéressant quand il devient un jeu où les gens dessinent quelque chose, puis plus tard, d'autres personnes comme moi qui ne
peuvent pas dessiner peuvent en bénéficier ou il peut être que vous voulez vous
assurer que pas un bot essaie de se connecter à votre et un humain, et cet humain apprend à un ordinateur plus tard à reconnaître les panneaux de rue autour d'elle, sorte que la voiture ne tombe pas dans d'autres voitures ou piétons. C' est ainsi que les ordinateurs savent comment combler les lacunes, c'est ainsi que les ordinateurs savent. Il s'agit d'un jeu de données et de données massives, et ce n'est que le Cloud computing, c'est là
que les machines à la demande entrent en jeu. Vous pouvez faire beaucoup de ces choses sur votre propre ordinateur, mais il est la plupart du temps plus logique de louer un ordinateur pendant quelques secondes qui est beaucoup plus puissant que le vôtre pour faire ce genre d'exploration de données, et l'exploration de données est pour tout le monde là-bas. C' est ce qui se passe. Donc, nous allons nous assurer que nous le faisons pour combler les lacunes dans l'information. Il y a une excellente occasion de télécharger une mauvaise image et trouver 50 qui sont presque les mêmes et de faire les contours pour vous. Nous sommes dans un monde où le zoom et l'amélioration n'est pas loin parce que nous avons tellement de données à comparer.
4. L'apprentissage automatique pour aider les humains: Maintenant, nous allons jeter un oeil à quelques exemples de la façon dont l'apprentissage
automatique aide à construire des interfaces très humaines. Donc, ce que je veux que vous compreniez, c'est que l'apprentissage automatique peut aider les humains devenir beaucoup plus facile ou à mieux comprendre ce qu'est le monde qui les entoure, en comparant ce que nous avons à beaucoup et beaucoup d'autres informations et en les rendant mieux de cette façon. Donc, l'un des exemples que vous
avez probablement vu depuis un certain temps est Google Translate. Beaucoup de gens ont utilisé Chrome comme leur navigateur principal parce que c'était le premier navigateur à traduire
automatiquement un site Web pour vous quand il n'était pas dans la langue que vous aviez. L' application Google Translate sur votre téléphone mobile va encore plus loin en analysant les images. Donc, vous pouvez aller à un panneau de rue en cyrillique par exemple, et tenir votre téléphone, et il vous le donne en anglais, en le traduisant, quel est le nom de la rue, au cas où vous n'avez que des directions qui étaient en anglais. Par le passé, les services de traduction venaient de traduire de l'anglais à l'allemand par exemple, et le faisaient mot par mot. Mais plus les gens utilisent ces systèmes, plus nous comprenons qu'un mot suivant autre fait une phrase beaucoup plus naturelle, et ainsi les traductions sont devenues meilleures. Google a analysé des livres, Microsoft a analysé livres
et analysé des livres ainsi que pour comprendre ce que pourrait être idiomes ? Quelles métaphores pourraient être à propos ? Comment les humains se parlent les uns aux autres ? Donc, avoir une traduction aujourd'hui d'un service à un autre est presque là que vous pouvez la lire et comprendre, que se passe-t-il ? Donc, la traduction était probablement la première chose où l'apprentissage automatique était utilisé sur le web, nous ne l'avons même pas réalisé, mais c'était tellement utile d'avoir que c'est devenu une chose très normale. De nos jours, les gens ne savent même pas combien d'énergie et d'efforts ont été faits pour que vos tweets puissent être dans une seule langue et vous comprenez, ce qui se passe là-bas. Un autre exemple intéressant, j'aime toujours est Google Maps. Mais il y a des choses très intelligentes là-dedans, vous pouvez aller par exemple chercher Google Maps et dire : « À quelle distance je suis de la capitale de la France ? Il analysera cela et analysera que la capitale de la France est en fait Paris, France, puis il me montre la distance d'ici à New York, et me montre également qu'il y a un vol de huit heures, et il m'offre réellement quels vols pour réserver. Donc, dans le passé quelque chose comme ça, serait que je devrais taper à Paris, France. Alors je dois dire, taper à New York aussi. Ensuite, je dois aller sur un autre site Web et dire : « Quels vols pourraient être disponibles ? En analysant les schémas d'utilisation de ces systèmes, chaque clic, chaque souris se déplace, chaque interaction, les machines sont devenues beaucoup plus intelligentes et nous donnent les choses que nous voulions réellement. Je n'aurais jamais eu l'idée de taper à quel point je suis loin de la capitale de la France. Mais un enfant apprenant la géographie par exemple, il le ferait. Ils ne le feraient pas nécessairement comme je l'ai fait en ce moment dans un navigateur, ils allaient à leur maison Google, ou à leur Alexa, ou toute autre machine qu'ils sont comme à quel point est la capitale de la France et la machine dirait, « Paris est la capitale de la France. C' est vrai, dans tant de kilomètres de là. Voici des vols au cas où vous voudrez partir. » C' est là que je veux que l'ordinateur aille. Je veux que nous apprenions cela comme en fait la réponse suivante plutôt que la seule réponse que nous en sommes venus. Nous sommes toujours dans un espace ou des gens comme moi, qui utilisent des ordinateurs depuis si longtemps, nous avons été conditionnés à considérer les ordinateurs comme des interfaces
stupides qui ont besoin d'avoir la bonne question. Mais c'est une question parfaitement humaine à poser à la machine, et vous récupérez quelque chose comme ça. Si vous voulez voir quelque chose d'assez incroyable, vous pourriez passer un peu de temps à regarder l'IA. Voir l'IA est une application sur iOS de Microsoft que j'ai construite avec un de mes amis, aveugle. C' est un utilisateur aveugle, et c'est un humain aveugle, et c'est aussi un programme aveugle qui est fascinant à voir. Mais il voulait en fait ne pas avoir à demander aux gens ce qui se passe dans les menus. Donc, il voulait avoir une application où vous pouvez prendre une photo du menu dans un restaurant et dire : « Montrez-moi les gros titres ou lisez moi les gros titres. » Ou il voulait avoir des lunettes spéciales sur le chemin où vous prenez une photo, et ça lui dit : « Vous regardez un chien, vous regardez le chat, vous regardez la Tour Eiffel, vous regardez le haut du pont de la Tour. » Toutes ces choses que nous connaissons parce que nous les
comparons avec des millions de photos que les gens ont déjà prises et étiquetées comme Tower Bridge ou c'est la forme d'un chien donc c'est probablement un chien. Donc, ce genre d'outil lui permet de
devenir beaucoup plus indépendant et de ne pas avoir besoin de personne d'autre autour de lui. Donc, vous pouvez essayer toutes ces vidéos là-bas et vous pouvez télécharger et jouer avec vous-même. Cela est basé sur ces API que nous allons
couvrir plus tard aussi pour que vous puissiez jouer avec. J' espère que ces exemples vous ont inspiré à construire des interfaces humaines qui
rendent les choses plus faciles pour les humains sans qu'ils aient à faire quelque chose de plus, sans avoir à comprendre comment ils fonctionnent, mais juste comme une grande chose en arrière-plan, vous n'avez pas de texte alternatif toutes les images, je peux créer cela pour vous. Pas un problème du tout. Les machines sont là pour nous aider quand les humains quand nous n'avons pas fait les choses. Donc, ces interfaces vous montrent que nous pouvons penser en avance sur ce que vos utilisateurs
finaux veulent faire ensuite plutôt que de leur dire de le faire étape par étape. Plus il est facile d'utiliser une interface, plus
les gens l'utiliseront. Plus vous aurez d'utilisateurs heureux, plus vous aurez de revenus et plus vos produits seront réussis. Nous avons toutes ces choses ici et cela a montré comment cela peut être fait sans vous gêner,
mais seulement là quand vous en avez besoin. C' est comme ça que je veux que vous pensiez à l'intelligence artificielle dans l'apprentissage automatique.
5. Outils pour l'apprentissage automatique: Bonjour. Dans cette partie de la série de vidéos, je voulais présenter les joueurs qui offrent des API pour vous permettre de commencer avec l'apprentissage automatique et l'intelligence artificielle. Les grands joueurs, c'est beaucoup de joueurs sur ce marché en ce moment. C' est une grande chose, beaucoup d'investissement se passe, mais celles qui le font depuis des années sont plus grandes entreprises
du secteur informatique et toutes
ont des offres différentes avec lesquelles vous pouvez jouer. Par exemple, celui-ci ici est l'API Google Cloud, vous pouvez voir ici vous pouvez l'essayer gratuitement et il y a des guides et des ressources, et toutes ces choses sont plus ou moins les mêmes. Si vous vous inscrivez, vous les essayez, il y a beaucoup de bonne documentation sur la façon de commencer, et certains d'entre eux ont même essayé avant d'acheter des interfaces où vous pouvez jouer avec les informations et vous voyez quel type de données vous attendez et quel type de données vous attendez à sortir. Donc, c'est Google Cloud, qui est un très, très grand joueur dans ce cas dans le monde entier disponible, et en plusieurs langues, et l'une des grandes entreprises qui jouent avec cela. Il y aura chez Google [inaudible], il y a toujours beaucoup de discussions sur Google Cloud, comment les utiliser aussi bien. Amazon est, bien sûr, la prochaine machine learning avec AWS. AWS est une plate-forme Cloud d'Amazon, Amazon Web Services qui vous permet de faire toutes sortes de choses pour l'apprentissage automatique et l'intelligence artificielle. Beaucoup de choses dans AWS sont également liées aux autres services d'Amazon. Donc, si, par exemple, vous voulez interagir avec un Alexa et profiter de l'avantage d'avoir ce traitement de langage naturel là-bas, vous pouvez écrire une compétence pour Alexa plutôt que d'écrire votre propre service et d'utiliser les services sous le capot pouvoirs Alexa. Donc, vous pouvez l'utiliser aussi. IBM Watson est un autre des grands acteurs l'apprentissage
automatique et il a été très bon dans son marketing. Rappelez-vous, par exemple, qu'il a joué sur Jeopardy et qu'il a remporté toutes ces choses il y a des années et des années. IBM Watson, la plate-forme elle-même est très axée sur les soins de santé et sur la prévision du type de maladies que les gens pourraient contracter, mais bien sûr, ils ont un ensemble d'IA normal et ensemble d'apprentissage
automatique que vous pouvez utiliser sur leurs plateformes également. Il s'agit d'une offre B2B dans la plupart des cas, mais il y a l'infrastructure Bluemix où vous pouvez configurer des serveurs plus petits, ou l'utiliser localement, et appeler une API et récupérer les données. Services Cognitifs de Microsoft sont ce dont je parlerais dans les prochaines vidéos, surtout parce que je le connais et que je travaille pour eux,
donc c' est l'avantage qu'il y a là. J' ai utilisé les autres aussi, je ne dis pas que vous devez utiliser l'un ou l'autre. Assurez-vous de lire la documentation, assurez-vous de lire les démos
et de voir laquelle est le plus logique pour vous. Par exemple, si vous voulez avoir une batterie de serveurs en Allemagne, alors l'offre Microsoft est probablement meilleure que d'avoir une sorte de batterie uniquement en Californie ou à New York. Donc, pensez à l'endroit où vous pouvez dépenser votre argent le mieux et aussi ne pas dépenser autant d'argent que vous avez besoin parce qu' il peut devenir très cher très rapidement si vous avez beaucoup de jeux de données et qu'ils doivent avoir un calcul très complexe. Donc, assurez-vous que vous avez assez d'argent sur le côté et pourtant ce serait encore beaucoup moins cher que de tout faire sur votre propre machine, ou votre propre ordinateur parce que cela signifie que vous devez changer cette chose tout le temps et toutes les moitiés, il faut vraiment le mettre à niveau pour répondre aux nouveaux besoins informatiques que nous avons. Assurez-vous juste lorsque vous vous inscrivez pour l'un d'eux que vous serez également en mesure de vous le permettre après un certain temps, et aussi qu'ils l'offrent pour l'avenir. Donc, jouer avec les grands joueurs pourrait être un pari plus sûr que de jouer avec une startup cool qui offre tout gratuitement maintenant, mais sera parti dans quelques mois, et vos données sont partis avec eux. Donc, l'apprentissage automatique Google Cloud, l'apprentissage automatique chez AWS pour Amazon, IBM Watson avec l'infrastructure Bluemix et les services cognitifs de Microsoft sont les choses que j'utilise et je parlerai de Cognitive Services en détail pour vous montrer ce que vous pouvez faire avec eux et comment ils seraient bénéfiques pour vos interfaces dans les prochaines vidéos.
6. Utilisations visuelles: Bienvenue de retour. Dans cette vidéo, je vais vous montrer comment nous faisons en sorte que les ordinateurs voient les choses ou comment nous semblons pouvoir les faire voir, parce que tout ce que nous faisons est de comparer informations
visuelles et de voir ce que les ordinateurs peuvent y trouver. Les visuels sont devenus plus gros. Les gens n'écrivent plus. Ce n'est pas amusant d'écrire sur votre téléphone. La reconnaissance vocale fonctionne aussi bien, mais vous ne pouvez pas simplement faire le tour en public et parler à votre téléphone parce que c'est juste bizarre. Donc, beaucoup de gens communiquent simplement avec des images seulement. Nous prenons des selfies, nous prenons des photos de choses, nous envoyons des emoji l'un à l'autre. Beaucoup de fois, nous oublions cette affaire, que tout le monde ne peut pas les voir, que quelqu'un pourrait être malvoyant, ou qu'il pourrait être sur une terrible connexion. En ce moment, je suis ici avec ma carte SIM britannique et tout est sur la connexion de bord. Donc, les gens ne m'ont envoyé que des photos dans une conversation. Je ne sais pas ce qui se passe. Donc, je veux que l'ordinateur me dise ce qu'il y a au moins dans cette image avant de lui donner mes doux doux données et de payer beaucoup d'argent pour télécharger cette image que je ne veux peut-être pas vraiment. Donc, au fil des ans, nous avons recueilli des images sur Internet où que ce soit. Il s'agit de billions d'images dans Bing, et dans Google, et dans d'autres résultats de recherche ou moteurs de recherche. Tout a été indexé. Tout a été catégorisé. Tout a été comparé aux autres. De cette façon, nous pouvons réellement donner une bonne hypothèse de ce qu'une certaine image va être. Je vous ai montré plus tôt des choses comme l'IA vision, les API et les démos qui permettent aux gens, aux
aveugles de voir ce qui se passe autour d'eux. Maintenant, nous allons entrer en détails sur ces API, ce qu'elles font
et ce que vous pouvez faire avec elles, comment vous pouvez donner à vos utilisateurs finaux les moyens de faire quelque chose d'utile avec les informations qu'ils possèdent. Je vais couvrir principalement les commentaires des services de Microsoft parce que c'est quelque chose que je peux répondre à vos questions plus tard aussi, et j'ai beaucoup de collègues travaillant dans ces départements. Même localement ici, au cas où vous ne voulez pas
attendre longtemps vos réponses parce que je suis dans des fuseaux horaires différents tout le temps. Ce que nous avons ici, c'est les API Cognitive Services de Microsoft. Il s'agit d'une offre d'API qui vous permet d'envoyer des données à un point de terminaison et de les récupérer. Donc, afin d'utiliser ces choses, vous pouvez soit utiliser les démos ici sur le site, juste pour les essayer. Mais, lorsque vous voulez les essayer avec vos propres systèmes plus tard, vous pouvez demander à un développeur de vous écrire un script, un script automatisé pour placer, par exemple, des images dans un dossier et récupérer les informations, ou vous pouvez envoyer un à une URL, un point de terminaison, un peu comme vous direz google.com ou microsoft.com. Vous dites simplement le point de terminaison de l'API, voici mon image, puis vous obtenez un jeu de données avec les informations que vous vouliez avoir. Quand nous avons commencé cela, nous avons essayé de le rendre un peu plus viral, rendre intéressant pour les gens de voir ce que ces choses peuvent faire. Donc, l'une des grandes démos était la démo How-Old qui est devenue une sensation virale et a ennuyé beaucoup de gens aussi, y compris moi-même. Parce que j'ai appris que dès que vous avez une barbe, elle vous reconnaît être un peu plus vieux, et je suis vieux mais pas si vieux dans la plupart des cas. Mais, vous pouvez aller à how-old.net, par exemple, et cliquez sur cette photo ici, et dire l'utiliser ou télécharger votre propre photo. Il reconnaît le sexe et l'âge, ou l'âge perçu, ou le sexe perçu de la personne dans cette image. Encore une fois, si vous ne l'avez pas aimé, vous pouvez vous plaindre à ce sujet avec ce lien et voir ce qui se passe. Nous avons également écrit un long billet de blog expliquant comment fonctionne how-old.net, quelles API il utilise et le code est disponible sur GitHub pour l'essayer vous-même. Donc, si vous cliquez sur pour voir la source ici, vous pouvez réellement obtenir l'information et vous pouvez obtenir le code pour jouer avec vous-même. Donc, en utilisant les API et les services, je vais vous parler,
vous pouvez construire une interface comme celle-ci assez simplement si vous savez comment construire une interface Web et vous savez comment envoyer des données à un point de terminaison et obtenir des données en utilisant ce que vous voulez utiliser, réagir, angulaire, tous les systèmes là-bas. Vous pouvez construire quelque chose comme ça pour vos utilisateurs finaux d'une manière agréable. La chose la plus importante est, quand on y pense, reconnaissance faciale parce que c'est là l'avenir de beaucoup de choses se passe le plus. Se connecter à votre site Web en regardant dans une caméra serait une bonne chose à avoir, et assez bizarrement, ce n'est pas si difficile à faire. Reconnaître qu'une personne est sur une photo et aussi sur une autre, est une autre chose intéressante à offrir à vos utilisateurs finaux. Donc, ce sont des API que nous considérons, une certaine mesure, dangereuses parce que vous voulez vous assurer que vous faites tout correctement. Mais quand ils travaillent, ils sont vraiment beaux. Parce que j'aime, par exemple, aller sur Facebook et découvrir quand des gens ont pris des
photos de moi lors de conférences que je ne connais pas. J' ai trouvé de belles photos intéressantes de cette façon. Donc, vous voulez vous assurer que lorsque vous utilisez ces API que vos utilisateurs finaux sont conscients ce
qui va se passer et que vous voulez également vous assurer que vous expliquez aux
gens que certaines de ces choses sont un travail de devinette. Donc, quand vous dites, par exemple, la démo comment vieille a donné aux gens images
plus anciennes ou plus jeunes et étaient heureux ou ils étaient malheureux à ce sujet, mais vous voulez juste leur donner comme une supposition, et dire que c'est ce que c'est. C' est ce que l'apprentissage automatique se résume à beaucoup de fois. L' apprentissage automatique vous donne des résultats éduqués qui sont le travail de deviner. Ils n'y sont pas à 100 %. Les ordinateurs font des erreurs. Ils ne commettent pas d'erreurs, mais nous faisons des erreurs en posant les mauvaises questions ou en leur donnant les mauvaises données. Donc, vous voulez vous assurer que si cela devient personnel et aussi personnel qu'une reconnaissance faciale, vous voulez avoir une interface qui fait que les gens se sentent les bienvenus et ne pas avoir peur. Cela dit, si vous voulez utiliser l'API face, il y a plusieurs choses qu'il peut faire. Il peut faire une vérification faciale. Donc, il trouve une personne sur une photo, puis il trouve la même personne sur l'autre photo, et il vous dit que les deux visages appartiennent à la même personne et un niveau de confiance de 0,73, dans ce cas. Donc, dans ce cas, si vous prenez deux personnes différentes, il vous dira que ce sont deux personnes différentes sur ces deux images et ce n'est pas la même personne. Donc, cela pourrait être une première étape de la création d'un système de connexion qui pourrait être une première étape pour s'assurer que les gens sont les bons. Bien sûr, vous ne voulez pas nécessairement ce que Facebook a fait au début et ils ont dû annuler aussi, étiqueter
automatiquement tout le monde parce que les gens pourraient ne pas vouloir être reconnus sur une photo en fonction de l'endroit où ils étaient. Imaginez que Clark Kent soit dans cette gare et que les gens disent que c'est Superman, ce n'est pas quelque chose que vous voulez avoir automatiquement. Il devrait être autorisé à dire qu'il ne l'est pas. Une fois que vous avez la détection de visage, il y a une quantité incroyable d'informations que nous mettons dans cette API, en partie parce qu'avec les démos cool que nous avons construites dans le passé. Donc, toutes les photos reconnues, comme la dame ici, ont une identité faciale. Il a le rectangle, qui est comme où est le visage dans cette image et quelle est l'autre partie de l'image ? Il a des attributs, comme si c'est sur les cheveux, si c'est une personne chauve, si les cheveux sont invisibles par quelqu'un portant un chapeau, exemple, la couleur des cheveux avec un niveau de conférence différent. Donc, dans ce cas, c'est un brun avec un, une blonde avec 0,69, et ainsi de suite. Je ne vais pas lire ceci maintenant parce qu'il y a beaucoup d'informations, et l'API obtiendra plus d'informations au fil du temps. Mais, vous pouvez déjà voir qu'il y a beaucoup d'informations là-dedans, et il y a beaucoup de choses cool que vous pouvez faire avec l'application. Donc, je veux que vous réfléchissiez à ce que vous pourriez faire si une photo téléchargée a toutes ces choses. L' API d'émotion est également très intéressante. Il reconnaît les visages des gens et leurs émotions. Ainsi, les émotions sont la colère, le mépris, le dégoût, la peur,
le bonheur, la neutralité, la tristesse et la surprise. De cette façon, vous pouvez savoir quand quelque chose s'est mal passé avec votre image ou vous pouvez automatiquement les catégoriser dans différentes bases de données. Vous pouvez également, lorsque vous le faites sur une version live, vous pouvez voir, par exemple, votre test utilisateur lorsque vous aviez l'habitude de dire quelque chose et qu'ils signifient quelque chose différemment, il peut y avoir une différence entre les deux. Donc, c'est un excellent moyen de faire l'utilisation automatisée des tests et
d'obtenir un point d'information supplémentaire si les gens sont vraiment excités de voir ce que vous leur montrez sur leur site Web, ou s'ils viennent de vous dire parce qu'ils ont réellement veulent faire apaiser l'entrevue, ou ainsi dire. Donc, c'est la reconnaissance faciale et la reconnaissance des émotions. Donc, ce sont deux choses qui sont très, très humaines dans votre interface. Donc, utilisez-les avec parcimonie, mais vous pouvez les utiliser pour des choses assez étonnantes si vous voulez jouer avec eux.
7. Parler l'humain: Dans cette partie de la série de vidéos, nous allons parler de langue. Je ne vais pas entrer dans les détails. Je vais vous montrer juste quelques API à utiliser dans ce cas parce que c'est un sujet très, très profond et un sujet très, très ancien. Il y a plein de gens intelligents qui le font, et je ne veux pas les insulter avec un peu de connaissance. Je sais juste ce que je veux, et je sais ce que tu peux utiliser dans ça. Donc, je veux m'assurer de vous montrer quelques-unes
des opportunités que nous avons dans ce cas. Lorsque nous avons commencé à utiliser des machines qui sont en fait des entrées audio, lorsque les gens ont commencé à parler à leurs ordinateurs, ou que les gens ont commencé à taper des phrases entières et nous devons rendre les machines plus intelligentes. Nous avons dû plonger dans le vrai langage humain dans la linguistique, dans la phonétique, dans les métaphores, et nous sommes redevenus beaucoup plus humains et dû redevenir beaucoup plus humains qu'auparavant. Ainsi, beaucoup de gens ont commencé à travailler en informatique qui ne sont pas censés être en informatique d'une manière religieuse comme ce que nous pensons que le programme est seulement autorisé à être en informatique. Google, par exemple, embauche des poètes, embauche des chanteurs, ou embauche des traducteurs et des linguistes pour faire comprendre aux ordinateurs
l'intrinsèque de la langue, parce que la langue est l'une des choses les plus complexes que nous ayons, et les ordinateurs n'ont rien qu'ils puissent en faire. Avec une image au moins vous pouvez analyser les pixels, vous pouvez trouver des formes, vous pouvez trouver les contours. Avec le texte, vous devez en quelque sorte deviner et les ordinateurs sont mauvais à deviner, mais les humains sont bons pour analyser les choses. C' est pourquoi nous avons des centaines d'années de connaissances linguistiques que nous essayons maintenant d'aider les API à comprendre et à vous aider avec ce genre de choses que vous voulez faire. Ce que vous voulez construire avec ces API ou interfaces qui permettent aux gens de faire des erreurs parce que les gens font des erreurs, tout simplement bâclée. Lorsque nous tapons des choses sur un téléphone mobile, ou que nous disons quelque chose dans un microphone et que ce
n'est pas aussi compréhensible que nous le voulons, des erreurs se produisent. Donc, les choses de l'analyse linguistique devraient être beaucoup mieux de cette façon. Bing translation et Google translation, beaucoup de services de traduction sont devenus beaucoup
plus efficaces lorsque cette approche linguistique est arrivée à elle. Nous avons traduit mot par mot, peut-être phrase par phrase, mais cela n'a toujours pas beaucoup de sens. Ce sont des choses qui étaient en fait compréhensibles, mais elles ne donnaient pas tout à fait le sens que nous voulions qu'elles donnent. Donc, maintenant, nous comparons en fait aussi par paragraphe et par le dernier titre qui vient avant lui et ainsi de suite et ainsi de suite. De cette façon, nous obtenons plus de contexte et la traduction automatisée devient beaucoup mieux ainsi. Donc, si vous voulez jouer avec certaines de ces API,
voici quelques-unes des choses qui sont à votre disposition. Donc, la première chose est une API d'analyse de texte. Donc, ce que vous faites avec ça, vous extrayez des informations de votre texte. Donc, vous copiez un texte et il vous donnera à nouveau un texte d'analyse, et il vous donne un objet JSON avec les données elles-mêmes, sorte que vous lui envoyez un texte. Par exemple, ici, j'ai une expérience merveilleuse, les chambres étaient merveilleuses, et le personnel a été serviable, et a découvert que la langue est l'anglais avec un niveau de confiance de 100 pour cent. Les phrases clés sont, qu'il ya une expérience merveilleuse, que le personnel et les chambres étaient là, et cela est une information importante si vous pensez à ce sujet pour un commentaire. Vous ne voulez pas lire des milliers de commentaires. Vous voulez seulement savoir quel commentaire a parlé des chambres, qui a parlé des gens, qui a parlé de la nourriture, et c'est de cela que cette API est à propos. Si vous prenez l'exemple négatif ici, j'ai passé un moment terrible à l'hôtel, le personnel était grossier et la nourriture était horrible. Il découvre la nourriture, temps
terrible, le personnel de l'hôtel, sentiment est terrible, donc il trouve que la nourriture et le personnel étaient horribles. Donc, ce sont les deux choses que vous voulez que votre interface se soucie plus tard. Toutes ces informations sont à nouveau disponibles en tant qu'objet JSON. C' est d'où proviennent les données, donc vous n'obtiendrez pas les informations telles qu'elles sont affichées dans cette démo ici aussi. Il crée également des négatifs espagnols ou espagnols. Donc, en substance, je pense que c'est 12 langues différentes. Google a aussi un certain nombre de langues, tant, beaucoup d'offres sont là dans différentes API. La prochaine chose à parler est la compréhension de la langue, et c'est là que ça devient
vraiment, vraiment délicat et vraiment intéressant. Ce serait une séance pour une vieille série de vidéos ici et il y en a quelques-uns pour la regarder. Il y a une compréhension du langage de code de service, un service LUIS, et celui-ci vous dit ou vous enseigne à dire ce que vous voulez apprendre d'un texte. Donc, au lieu d'avoir un texte qui vous indique automatiquement qu'il s'agit des pièces et qu'il s'agit du personnel et de la nourriture, il
s'agit de construire des systèmes qui prennent dans les commandes linguistiques, puis de savoir où les commandes sont. Donc, dans ce cas, la démo que vous verrez sur cette page est une télécommande de lumière, où vous pouvez taper des choses et il le comprendra. Donc, si je dis maintenant allumer les lumières et le soumettre,
il allumerait la lumière dans la démo, et cela vous donnerait les résultats de la requête pour cela. Allumez tous les feux en vert, éteignez la lumière de la table , etc. Donc, voici un exemple comment vous pouvez faire quelque chose comme un contrôle Alexa ou un contrôle Google Home dans vos propres interfaces en
utilisant ce type de texte comme une entrée de texte dans ce cas. Ainsi, par exemple, pour un robot dans un client de chat ou automatique pour une boîte de recherche. Donc, celui-ci vous permet de former votre propre modèle et de vous assurer que votre propre attente de certaines commandes plutôt que de simplement analyser le texte de manière aléatoire. Donc, c'est une interface très intéressante, et pour moi, c'est en fait l'avenir de l'interaction. Pensez à ce que la reconnaissance vocale ou la reconnaissance de
texte vous permet de contrôler les choses plutôt que cliquer sur des boutons et de cliquer sur
le bouton ou sur le lien droit pourrait être beaucoup plus facile pour les utilisateurs finaux. Donc, c'est quelque chose à plonger en profondeur si vous voulez être intéressé par cela, et c'est une excellente occasion pour personne non technique et la personne technique de travailler ensemble pour construire une interface cool pour vos commandes ou pour le besoin que vous avez dans votre entreprise. Maintenant, vous avez appris comment vos services peuvent comprendre la signification du texte et comment vous pouvez définir des contrôles que les utilisateurs peuvent dire. Contrôlez les phrases, allumez les lumières, éteignez les lumières, et ainsi de suite et ainsi de suite. Bien sûr, en tant que texte,
c'est un peu intéressant, mais là où vous voulez vraiment l'avoir, c'est une reconnaissance vocale, et ce sont les API que nous allons couvrir ensuite, transformant le texte en discours et discours en texte .
8. Audio et vidéo: Dans cette vidéo de la série, nous allons parler de la chose la plus cool de science-fiction du ciel vous pouvez faire avec l'IA et l'apprentissage automatique et c'est la reconnaissance vocale. Dans chaque film de science-fiction, tôt ou tard, on avait quelque chose où quelqu'un disait : « Ok, ordinateur me permet de faire ce truc, dis-moi ces choses. » Ce qui est intéressant ici, c'est que nous sommes très proches du problème où quelque chose devient trop humain pour ne pas être effrayant ou pas assez humain pour ne pas être ennuyeux. Donc, faire une interface qui reconnaît parole et une interface qui donne la parole qui ne semble pas bizarre, c'est une chose que nous avons une tâche difficile à faire en ce moment. Toutes les entreprises qui ont leur genre d' aide
personnelle font de grandes recherches en ce moment, quel serait le bon langage et quelle serait la voix à utiliser pour ces systèmes ? Donc, il y a beaucoup de choses que vous pouvez faire mal, mais il y a beaucoup de choses que vous pouvez faire correctement parce que si une reconnaissance vocale fonctionne correctement, c'est une chose merveilleuse, et beaucoup de fois les gens ne comprennent pas il faut les utiliser, mieux ils sont. Une API de reconnaissance vocale ou une interface de reconnaissance vocale est une chose merveilleuse pour permettre aux gens de communiquer les mains libres, sorte que vous pouvez le faire dans la voiture ou vous pouvez le faire à la maison. Mais c'est un peu limité à quelque chose que vous pouvez faire en quelques étapes. Vous voulez vous assurer que les gens n'ont pas à dire comme tenir des histoires à votre interface, vous voulez vous assurer que la reconnaissance se fait le plus tôt possible. Donc, quand il s'agit de l'API à jouer en ce moment, je vais vous en montrer quelques-unes, et j'espère, les démos vont fonctionner pour que je puisse vous montrer comment cela est fait. Ce que vous devez également comprendre pour les rendre parfaits à l'avenir, il peut être une bonne chose d'offrir aux utilisateurs finaux gratuits pour les former à leur voix aussi. Cela pourrait être fait avec quelques phrases à l'heure actuelle. Ce n'est pas comme lire des pages et des pages pour aimer, Dragon Natural Speaking comme dans le passé, mais maintenant c'est plus logique. Si tu y penses, on y retourne. Dans les années 50, les gens ont dicté des lettres à leurs secrétaires et ils l'ont écrit en raccourci, puis les ont dactylographiées. Maintenant, l'ordinateur est fondamentalement notre secrétaire qui peut faire toutes ces choses, mais nous devons lui parler quelques fois
pour vraiment s'assurer qu'il comprend notre accent, et vous pouvez nettoyer les accents assez bien avec certaines de ces API personnalisées que nous vous proposons. Donc, la première chose dont je vais vous parler à propos d'être API de la parole, qui est la reconnaissance vocale. Donc, on peut essayer ça maintenant. Donc, j'ai appuyé sur le bouton de démarrage d'enregistrement et il dit, « Anglais États-Unis. Je pourrais aussi le faire avec l'allemand, donc j'ai autorisé l'accès à mon microphone et vous pouvez jouer avec cela vous-même dans le futur aussi. Il est dit, le sud aussi l'avenir, et le sud l'avenir aussi et ainsi de suite et ainsi de suite. Vous pouvez voir les mots se passent à l'écran pendant que je parle à lui, et cela fait un bon travail. Ce n'est pas entraîné. C' est juste sorti de la boîte ce qu'il ferait. Donc, si vous voulez une meilleure reconnaissance, vous devez commencer à l'utiliser. Donc, j'arrête d'enregistrer maintenant je passe à l'allemand, et voyons si cela le prouve aussi. Je le permets, [inaudible] Comme vous pouvez le voir, il a reconnu qu'en allemand, vous ne pouvez probablement pas le lire, mais je pourrais utiliser l'API de traduction dès maintenant pour le transformer en anglais si je le voulais et ensuite utiliser le autrement, le texte à l'API vocale pour le parler à quelqu'un d'autre. Il existe des API ouvertes et des ensembles de données ouverts que vous pouvez également utiliser pour faire ce type de reconnaissance en utilisant un système comme Microsoft ou Google ou Amazon,
nous l' avons déjà formé dans différentes langues. Quand je vous ai dit plus tôt que c'est maintenant un texte en allemand que vous ne comprendriez pas, il y a aussi une API intéressante qui est une API vocale de traducteur. Donc, dans ce cas, vous parlez dans une langue et il la convertit automatiquement en une autre langue, puis génère une voix synthétisée qui la lit dans l'autre langue. Nous avons utilisé cela en Suède avec la police pour permettre aux réfugiés de Syrie de parler à des policiers comme un succès assez important et cela fait aussi partie de Skype maintenant. Donc, ce sont les obstacles que j'aime que la reconnaissance peut faire avec les machines quand nous l'utilisons de la bonne façon. Parfois, reconnaître qui parle est beaucoup plus important que ce qui est dit. Vous souhaitez utiliser, par exemple, un système de journalisation qui utilise la reconnaissance vocale comme deuxième facteur dans une authentification à deux facteurs avec un jeton ou un mot de passe. Cela existe depuis assez longtemps. Beaucoup de films hollywoodiens avaient reconnaissance
vocale dans les années 40 et James Bond films dans les années 60, mais maintenant nous pouvons le faire à l'intérieur du navigateur en ce moment. Je ne peux pas le faire ici en ce moment avec mon microphone a un problème, mais vous pouvez l'entraîner vous-même à passer par ces différentes phrases. Il vous demande trois fois de dire la même phrase, puis il reconnaît la différence de votre accent. Les problèmes de la prononciation, comment vous bref, où vous faites des pauses, et ce sont tous de petits indicateurs pour reconnaître quel orateur parle quand. Une fois qu'il a été formé sur ces systèmes et que vous avez des modèles pré-formés, vous pouvez reconnaître différents haut-parleurs dans les données audio que vous possédez également. Donc, dans la démo ici, nous avons différents présidents américains et il peut effectivement cliquer sur l'audio, puis il commence à le lire et il reconnaît que c'était Barack Obama qui parlait dans ce cas. C' est une chose assez importante ou intéressante à voir avec la reconnaissance vocale. Donc, ce sont toutes les API avec lesquelles nous devons jouer en ce moment, et je veux que vous considériez plus ce que vous pouvez faire avec ces systèmes. S' il est absolument nécessaire de faire le vôtre, ou s'il est plus logique d'utiliser un service tiers, Alexa Cortana et Siri sont tous disponibles en tant qu'API, donc au lieu de former le vôtre, vous pouvez simplement utiliser ces systèmes et bénéficient de toute la formation et toute la planification que ces entreprises ont fait pour vous aussi. Pensez à la reconnaissance vocale comme la prochaine interface que les gens voudront utiliser et devront utiliser. Pensez à quelque chose qui est très personnel cependant, et quelque chose qui n'évolue pas parce que si vous avez un bureau avec 300 personnes parlant en même temps, ce ne sera pas une bonne interface non plus importe comment la science-fiction se sent. Donc, ce sont quelques-unes des API avec lesquelles jouer quand il s'agit de reconnaissance vocale, mais le problème est que votre voix est très unique et parfois les systèmes qui reconnaissent des voix très californiennes, très entraînées, ne sont pas la bonne chose pour vous. Donc, en ce qui concerne les API et les API IA, une API d'apprentissage automatique, vous voulez entrer dans la personnalisation tôt ou tard et c'est ce dont nous allons parler ensuite.
9. Personnaliser votre apprentissage automatique: Dans cette vidéo des séries, nous allons parler de la personnalisation et cela signifie comme les choses que vous attendez de la personnalisation. L' apprentissage automatique et l'intelligence artificielle semblent assez magiques quand ça marche. Il ne fait pas de bon travail si cela ne fonctionne pas parce que c'est vraiment frustrant. Beaucoup de fois, il y a beaucoup de blagues sur les gens avec accents
écossais qui ne sont pas reconnus par la reconnaissance vocale et ce genre de choses. Nous voulons nous assurer que cela ne se produit pas pour vous-même ou pour vos utilisateurs finaux également. Par exemple, j'aime parfois dicter à mon ordinateur et j'ai appris à mes ordinateurs à reconnaître ma voix, donc je n'ai pas besoin d'éditer beaucoup de texte plus tard. Vous devriez faire ce genre de choses avec tous vos services aussi bien parce que de cette façon vous les rendre uniques à vous-même et une certaine mesure aussi plus sécurisés parce que d'autres personnes ne seront pas en mesure d'utiliser les systèmes comme vous le faites dans le même manière. La personnalisation est un élément très important pour rendre la solution utile à vos utilisateurs finaux à un niveau très personnel. Tout comme vous avez commencé à parler à votre Siri et il est devenu meilleur après un certain temps ou vous avez commencé à taper sur votre clavier Android et après quelques mois, il a reconnu les mots que vous continuez à utiliser et vous a donné la saisie semi-automatique pour ceux, vos utilisateurs finaux méritent également d'avoir ce genre de qualité. Ainsi, plus vous pouvez obtenir de données et plus les résultats peuvent être personnalisés, plus vous construirez des interfaces de qualité. Vous devez aussi vous assurer que c'est amusant de
faire ces choses et que ça ne ressemble pas à une corvée. Donc, si trois phrases suffisent pour obtenir un premier 60 pour cent de qualité de reconnaissance, faites-le trois phrases. Ne laissez pas les gens dire : « Ok, guerre et paix, et s'il vous plaît lisez-la avant de pouvoir utiliser notre système. » La personnalisation est pour l'utilisateur final et non contre eux. La chose à faire ici, c'est d'avoir les systèmes qui sont en place et de voir quand on constate qu'il y a une erreur dans eux. Par exemple, vous avez un jeu de données d'image qui a
des images d'abeilles et les services de reconnaissance de Microsoft, d'Amazon, de Google, d' IBM sont
d'accord avec la reconnaissance des abeilles, mais vous êtes un expert de l'abeille. Vous savez vraiment comment toutes les abeilles, ce que sont toutes les abeilles différentes. Tu veux apprendre à l'ordinateur la même chose. Vous pouvez le faire vous-même en écrivant un propre réseau neuronal ou votre propre réseau d'apprentissage profond et passer quelques mois à apprendre cela à l'université avant de le faire réellement. Ou vous pouvez utiliser certaines des API qui vous permettent de personnaliser ces choses. La plupart des services permettent pour ceux, pour un paiement supplémentaire et ont des systèmes personnalisés. Certains d'entre eux vous permettent également de ne laisser vos données qu'être les vôtres et uniquement hébergées sur votre machine afin qu'elles ne reviennent pas dans le jeu de données principal. Mais si vous leur permettez de revenir dans le jeu de données, bien sûr, c'est beaucoup moins cher et beaucoup plus libre parce que les entreprises arrivent à faire un meilleur modèle partir de vos données que de tout le monde comme tout d'un coup ils peuvent offrir à d'autres apiculteurs, ainsi que de savoir comment reconnaître différentes abeilles. Quand il s'agit de comprendre le langage, le contexte est incroyablement important. Vous pouvez avoir une API de texte normale qui vous donne juste une transcription de ce que vous avez dit, mais parfois vous voulez vous assurer que différentes parties sont reconnues, comme des mots de contrôle, ou vous voulez vous assurer que le texte est compris dans un certain contexte. Pour cela, vous pouvez utiliser la compréhension du langage, API LUIS qui existe depuis un certain temps et qui a été utilisée avec succès par les gens pour tous les types de contexte. Par exemple, nous avons eu comme démonstration que nous avons interviewé des enfants au sujet de leurs livres préférés et que le contenu n'avait aucun sens. Mais une fois que nous avons dit au système que ce
sont les livres enfants dont les enfants ont parlé ou que le contexte était celui des livres pour enfants, tout d'un coup, la reconnaissance est passée de 40 % à 80 % également. D' autres choses que les gens ont fait avec est de reconnaître, par
exemple, le bruit de fond. Donc, nous avions un aéroport aux Pays-Bas je pense que les gens avaient une reconnaissance vocale qui ne fonctionnait pas du tout. Donc, ce que nous avons fait, c'est que nous avons enregistré environ 16 heures de bruit de fond sur cet aéroport qui s'est produit au cours d'une journée normale, enseigné au système que cela fait également partie de l'audio et de cette façon, la reconnaissance a
augmenté de nouveau quelques pourcentages à faire en sorte que les gens sachent que cela fonctionne. Donc, toutes les choses que l'ordinateur avait besoin de savoir, nous avons dû former l'ordinateur d'abord et c'est la même chose avec l'accent, c'est la même chose avec les choses que nous écoutons, et contrôler les algorithmes ou les phrases de contrôle que vous voulez ont. Il existe également un service de parole personnalisé qui vous permet également de donner différents vocabulaire et bruit de fond. C' est un autre que nous avons utilisé avec cet aéroport
par exemple ou il comprend réellement différentes choses, différents mots spéciaux que vous avez utilisés. Ainsi, le service de parole personnalisé vous permet de former un système avec un certain vocabulaire et un certain format de bruit de fond et un certain problème d'accent de langue que vous devenez meilleur à reconnaître le texte de cette façon. Donc, c'est le service de parole personnalisé. Quand il s'agit de personnaliser ces services, il est très important de comprendre qu'ils sont en fait coûteux parce que la puissance de calcul se passe d'une manière nouvelle, alors que les modèles préformés de reconnaissance des célébrités ou reconnaissance de la Tour Eiffel et de ce genre de choses et d'images qui ont déjà été faites pour vous. Mais c'est un très bon moyen d'obtenir vos résultats parfaits dans un domaine particulier et un domaine d'expertise dans une bien meilleure qualité qu'en utilisant simplement la connectivité normale ou les systèmes de connexion normaux que vous avez en IA et ML systèmes sortis de la boîte.
10. L'éthique de l'apprentissage automatique: Dans cette vidéo de la série, je veux parler du pouvoir et des responsabilités que nous
avons en matière d'apprentissage automatique et d'intelligence artificielle. Une grande partie de ce que nous faisons ici est très personnelle et nous enregistrons les gens, nous analysons ce qu'ils font, et nous nous assurons que ce qui revient leur est dans une certaine mesure bénéfique. Donc, l'éthique de l'IA est un gros problème, je ne vais pas le résoudre dans la vidéo et je ne vais pas vous dire quoi faire, parce que ce n'est pas ainsi que l'éthique fonctionne, et toutes les grandes entreprises qui travaillent dans Machine Learning et l'Intelligence Artificielle a l'IA pour les
bons départements et les personnes très intelligentes dans des environnements psychologiques et éthiques, parlant de ce que nous pouvons faire avec cela et comment nous pouvons le faire mal. Donc, beaucoup de choses, ce que nous voulons penser ici
ou ce à quoi vous, en tant que gens créatifs, voulez penser, est comment vous pouvez exprimer ces choses. Comment pouvons-nous créer des interfaces qui permettent aux gens de récolter les fruits de l'apprentissage automatique, mais qui donnent leurs données volontairement et d'une manière qui n'a pas l'impression qu'ils sont regardés ou qu'ils sont enregistrés sans le savoir. Est une chose très problématique et pour moi la prochaine étape dans l'interaction de l'utilisateur, comment pouvons-nous nous assurer que les gens savent qu'ils donnent leurs données pour un service, mais ils savent aussi où vont les données, et ils se sentent réellement confiant que vous êtes la bonne personne pour obtenir cette information ? Nous sommes au milieu d'une énorme dispute médiatique ce
sujet avec les entreprises enregistrent vos choses, ce qu'elles en font, donc vous ne voulez pas être la prochaine entreprise à se lancer dans ce combat et à avoir ce problème. Machine Learning et Deep Learning sont là pour trouver des
informations en répondant aux bonnes questions des utilisateurs. Si vos questions sont déjà biaisées, ou si les données sont biaisées, cela exacerbera le problème. Votre système sera également biaisé. Donc, vous devez vous assurer que lorsque vous construisez quelque chose que l'équipe le construit, et que les données qui entrent sont aussi diverses que possible. C' est une chose générale pour améliorer n'importe quel produit. Vos utilisateurs finaux ne sont pas vous. Ce ne sont pas les gens du bureau qui ont cette connexion rapide
qui n'utilisent qu'une seule marque d'ordinateur, et qui savent vraiment ce qu'est le système. Si un système est censé être intelligent, le système doit également connaître les valeurs aberrantes. Il a besoin non seulement d'avoir le chemin heureux de l'endroit où vous voulez que l'information aille, mais vous devez également lui enseigner la gestion des erreurs et les problèmes d'erreur qu'il devrait connaître. C' est ainsi que vous évitez des choses comme la reconnaissance faciale ne pas travailler sur les personnes de couleur. C' est ainsi que vous devez éviter les problèmes comme les Asiatiques d'être vus comme quelqu'un qui avait les yeux fermés. Ce sont des choses qui sont arrivées aux grandes sociétés. Ils étaient très, très évidents et très, très dangereux pour eux aussi et un cauchemar PR. Vous ne voulez pas entrer dans cet espace en vous
assurant que vos systèmes ne font pas d'hypothèses. Donc, en ne supposant pas que vos utilisateurs finaux sont comme vous, vous construisez réellement des systèmes qui permettront l'intelligence artificielle non biaisée. Ce ne sera jamais 100 % parce que les humains sont biaisés et que nous sommes là, mais j'espère qu'
une analyse, une analyse approfondie de nos données nous montrera aussi nos biais, et sera une manipulation d'erreurs que nous ne devrions plus faire. L' une des principales choses à comprendre à propos l'apprentissage
automatique et de l'intelligence artificielle est
que les résultats sont aussi bons que les questions que vous collez et les jeux de données que vous mettez dans. Donc, les questions sur lesquelles vous entraînez vos modèles doivent être concises et simples. Ne vous attendez pas à ce que l'ordinateur soit créatif, ne vous attendez pas à ce que l'ordinateur soit capable de comprendre métaphores et de faire des sauts et de penser comme les humains le font. Les ordinateurs ne sont pas bons pour ça. Donc, en gardant vos questions aussi simples que possible, vous devez vous assurer que vos jeux de données reviendront aussi, seront inclusifs pour les autres utilisateurs. Donc, c'est bien d'avoir une reconnaissance vocale par exemple, mais quelqu'un avec un bégaiement, ou quelqu'un qui ne peut pas parler du tout ne pourra pas l'utiliser. Alors, pensez lorsque vous utilisez ces systèmes cool et en mode science-fiction et que vous êtes excité à ce sujet, que les humains ont des besoins différents et que les humains ont aussi des capacités différentes. Donc, quelque chose d'aussi étonnant qu'une reconnaissance
vocale pour une personne aveugle est impossible pour une personne sourde-muette, et l'inverse. Nous pouvons donc utiliser cela comme des améliorations, mais pas la seule façon d'accéder à ce type d'information. Donc, quand il s'agit d'obtenir le consentement de vos utilisateurs finaux, vous voulez vous assurer que vous êtes réellement sur une voie légale et que vous voulez réellement être sur une voie éthique également. Donc, demander à vos utilisateurs ou leur dire immédiatement que vous pouvez obtenir une meilleure expérience si vous nous permettez d'enregistrer ces données, est une façon de le faire. Oui, c'est une étape différente dans l'interface, c'est un bouton supplémentaire à appuyer, mais c'est logique pour les utilisateurs finaux et pour moi, tant que quelqu'un qui se soucie beaucoup de la vie privée et de la sécurité, ça me ferait plus confiance si j'obtiens le droit de dire non, ou si ce que je veux faire avec l'apprentissage automatique est une amélioration, et c'est toujours une amélioration parce que l'apprentissage automatique est toujours un travail de devinette. Les machines ne font pas les choses correctement. Ils devinent juste que c'est ce que les humains voudraient faire. En fin de compte, il y a toujours un humain qui devrait être capable de dire quelque chose, que c'est mal, ou de dire quelque chose que c'est juste. Donc, vous l'entraînez, vous le testez avec de vrais humains, et avez toujours un moyen pour vos utilisateurs finaux de dire non, ou de dire que c'est faux, ou de le signaler à quelqu'un et d'être très catégorique à propos de répondre vraiment à ces choses très rapidement, parce que ce sont peut-être des choses que vous ne voulez pas montrer lorsque vous interfacez, et quand les gens le signalent, alors il y avait probablement un vrai problème avec cela. Donc, assurez-vous que si vous construisez des interfaces humaines, vous y mettez beaucoup de pensée humaine aussi.
11. L'apprentissage automatique et la créativité: Chaque fois que quelque chose est automatisé, les gens s'inquiètent à ce sujet. Ils se demandent si leur art, ou si leur métier, ou ce qu'ils font seront bientôt obsolètes. Oui, l'apprentissage automatique et l'intelligence artificielle rendront beaucoup d'emplois obsolètes. Cela rendra beaucoup de choses obsolètes que nous tenons pour acquis en ce moment est un revenu normal pour un être humain. voitures autoconduites en font partie. camions autonomes, toutes les choses qui sont fondamentalement dangereuses pour les humains, parce que nous sommes fatigués, nous nous ennuyons quand nous faisons les mêmes choses encore et encore, quand cela ne nous impose pas mentalement. Alors la question est comme :
qu'arrivera-t-il à ces gens ? J' ai un tour très positif là-dessus. Je pense qu'avec l'automatisation des choses, il devrait être possible pour ces gens de trouver la nouvelle créativité qu'ils n'avaient pas auparavant. Ce que nous devons nous assurer, c'est que ces gens peuvent se permettre créativité et non pas seulement d'être au chômage et d'être malheureux à ce sujet. C' est là que la révolution de l' Intelligence
Artificielle devra faire partie de la politique, et nous devrons faire partie de la culture sociale que nous avons également. Nous ne pouvons pas l'avoir comme une chose que seuls les riches avec les smartphones les plus récents peuvent utiliser, cela fait déjà partie de la vie de tout le monde, donc nous devons la démocratiser
aussi dans une certaine mesure et tous les systèmes que nous avons là-bas. Maintenant, quand il s'agit de créativité, c'est toujours là que les gens contre l'Intelligence Artificielle disent toujours, « C'est là que se trouvent les limites des ordinateurs. » Ils ont tout à fait raison, et je suis tout à fait d'accord avec ça. Je suis tout à fait d'accord pour qu'un ordinateur ne soit pas créatif parce que je ne veux pas qu'il soit créatif. La créativité peut être dangereuse, la créativité peut être belle, mais peut aussi être difficile. Donc, je ne veux pas que les ordinateurs soient tout ce contrôle. Par exemple, combien d'impôt je dois payer, si l'électricité dans ma maison devrait être aussi élevée, ou si le niveau d'oxygène dans ma maison devrait être dissous à l'avenir lorsque nous vivrons dans l'espace. Ainsi, chaque fois que les gens veulent montrer leurs systèmes créatifs, ou les systèmes d'IA, quel point ils sont forts, ils montrent à quel point les ordinateurs sont devenus proches des humains. C' est ce que quand Deep Blue battait Kasparov aux échecs ou un autre maître d'échecs c'était. Lorsque les systèmes informatiques de Google ont joué objectif mieux qu'une personne humaine. Quand nous avons commencé à avoir comme la musique générée par ordinateur en analysant toute la musique des Beatles et découvrant quelles sont les choses que les gens aimaient le plus. Tout d'un coup, nous avons montré ces choses qui ont toujours l'air un peu créatives, mais certaines sont peu bizarres aussi. Bien sûr, il y aura de la créativité là-bas, mais je pense que l'IA et ML sont là pour automatiser les choses. Donc, les choses qui nous ennuient, que nous ne voulons pas faire devraient être faites par ceux-là. n'y a pas encore de créativité dans les ordinateurs. On n'a pas de machine qui pense. Et une fois que nous avons une machine
qui pense, cela pourrait être très dangereux pour les humains, parce qu'un ordinateur essaie de nous protéger,
et leur travail principal est de nous protéger sera probablement très ennuyeux parce que
nous faisons des choses stupides tout le temps pour nous mettre en danger. Donc, la créativité que vous rencontrez en ce moment, ou que vous ressentez est votre meilleure arme contre l'automatisation et contre l'apprentissage automatique, l' intelligence
artificielle comme ennemi. J' attends avec impatience que mon travail ne soit pas nécessaire. J' attends avec impatience que la plupart de mon codage soit optimisé par une machine et un algorithme ramassant les algorithmes. C' est très bien aussi. J' étais vraiment excité quand l'informatique a commencé, que je dois parler à un ordinateur d'une certaine manière. Mais je suis aussi excité aujourd'hui que je puisse parler à mon ordinateur, que je puisse regarder dans une caméra pour déverrouiller mon ordinateur, et que je peux être un humain, et que je veux faire des choses humaines, et que j'ai le temps de faire des choses humaines parce que les ordinateurs sont assez intelligents. Donc, quand il s'agit de la créativité des ordinateurs, beaucoup de cela est comme de bonnes vitrines pour montrer la puissance des systèmes IA. Ce n'est pas nécessairement une vraie créativité. Ce dont nous devrions nous inquiéter davantage, c'est en fait les utilisateurs finaux, les consommateurs de notre production créative exigeant des choses créatives réelles. Si vous considérez la musique pop ces dernières années ou même les groupes de garçons entiers des années 90, c'était de la musique algorithmique. Cela était prévisible et défini dans un certain temps. J' ai vu un contrat de bandes de garçons qu'ils ont dû effectivement dissoudre après quelques années parce que le modèle de marketing autour de ce groupe a été fait. C' est quelque chose que nous faisons à la créativité et aux médias depuis quelques années. Donc, maintenant, il est temps pour nous, les gens créatifs, ou vous, les gens créatifs, de se battre et de s'assurer que vous ne pouvez pas être automatisé en faisant quelque chose de si créatif qu'un ordinateur est juste confus.
12. Réflexions finales: Je vous remercie beaucoup d'avoir suivi ce cours, et j'espère que je vous ai inspiré à jouer avec quelques choses qui auparavant vous pensiez être hors de portée ou de portée. C' était certainement hors de ma portée et de ma portée et l'est toujours, et j'ai beaucoup d'amis qui y sont beaucoup mieux qui sont heureux de répondre à vos questions que vous pourriez avoir aussi. J' ai vraiment hâte de voir ce que vous pouvez faire avec l'inspiration que vous avez ici. Si vous n'avez pas été inspiré, dites-moi ce que je peux faire mieux la prochaine fois. Donc, je vous remercie beaucoup et assurez-vous que vos ordinateurs fonctionneront pour vous et non pour vos ordinateurs.