Science des données avec Pandas dans Python | Lazy Programmer Inc | Skillshare

Vitesse de lecture


1.0x


  • 0.5x
  • 0.75x
  • 1 x (normale)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Science des données avec Pandas dans Python

teacher avatar Lazy Programmer Inc

Regardez ce cours et des milliers d'autres

Bénéficiez d'un accès illimité à tous les cours
Suivez des cours enseignés par des leaders de l'industrie et des professionnels
Explorez divers sujets comme l'illustration, le graphisme, la photographie et bien d'autres

Regardez ce cours et des milliers d'autres

Bénéficiez d'un accès illimité à tous les cours
Suivez des cours enseignés par des leaders de l'industrie et des professionnels
Explorez divers sujets comme l'illustration, le graphisme, la photographie et bien d'autres

Leçons de ce cours

    • 1.

      Vidéo d'introduction

      3:12

    • 2.

      Les grandes lignes des pandas

      1:08

    • 3.

      Chargement des données

      3:43

    • 4.

      Sélectionner les lignes et les colonnes

      9:39

    • 5.

      La fonction apply()

      2:23

    • 6.

      Tracer avec des pandas

      2:36

    • 7.

      Exercice de pandas

      2:01

    • 8.

      Où obtenir des coupons de réduction et du matériel d'apprentissage automatique GRATUIT

      5:31

  • --
  • Niveau débutant
  • Niveau intermédiaire
  • Niveau avancé
  • Tous niveaux

Généré par la communauté

Le niveau est déterminé par l'opinion majoritaire des apprenants qui ont évalué ce cours. La recommandation de l'enseignant est affichée jusqu'à ce qu'au moins 5 réponses d'apprenants soient collectées.

42

apprenants

--

projet

À propos de ce cours

Dans ce cours à votre rythme, vous apprendrez à utiliser Pandas pour effectuer des tâches critiques liées à la science des données et à l'apprentissage machine. Cela implique de charger, de sélectionner, de transformer et de manipuler les données en utilisant des dataframes.

Le cours comprend des présentations vidéo, des leçons de codage, des exercices pratiques et des liens vers d'autres ressources.

Ce cours est destiné aux :

  • Toute personne intéressée par la science des données et l'apprentissage automatique
  • Toute personne qui connaît Python et qui souhaite passer à l'étape suivante dans les bibliothèques Python pour la science des données
  • Toute personne intéressée par l'acquisition d'outils pour mettre en œuvre des algorithmes d'apprentissage automatique

Prérequis suggérés :

  • Compétences décentes en programmation Python
  • Expérience avec Numpy et Matplotlib

Rencontrez votre enseignant·e

Teacher Profile Image

Lazy Programmer Inc

Enseignant·e
Level: Beginner

Notes attribuées au cours

Les attentes sont-elles satisfaites ?
    Dépassées !
  • 0%
  • Oui
  • 0%
  • En partie
  • 0%
  • Pas vraiment
  • 0%

Pourquoi s'inscrire à Skillshare ?

Suivez des cours Skillshare Original primés

Chaque cours comprend de courtes leçons et des travaux pratiques

Votre abonnement soutient les enseignants Skillshare

Apprenez, où que vous soyez

Suivez des cours où que vous soyez avec l'application Skillshare. Suivez-les en streaming ou téléchargez-les pour les regarder dans l'avion, dans le métro ou tout autre endroit où vous aimez apprendre.

Transcription

1. Vidéo d'introduction: Bonjour à tous et bienvenue dans mon dernier cours, Data Science with pandas and Python. Alors qui suis-je et pourquoi devriez-vous m'écouter ? Eh bien, je suis un programmeur paresseux et je suis l'auteur de plus de 30 cours en ligne sur la science des données, l'apprentissage automatique et l'analyse financière. J'ai deux masters en ingénierie et en statistiques. Ma carrière dans ce domaine s' étend sur plus de 15 ans. J'ai travaillé dans plusieurs entreprises que nous appelons aujourd'hui Big Tech et dans plusieurs startups. Grâce à la science des données, j'ai augmenté mes revenus de plusieurs millions de dollars grâce aux équipes que j'ai dirigées. Mais surtout, je suis très enthousiaste à l'idée de vous proposer cette technologie essentielle. Alors, quel est l'objet de ce cours ? Ce cours vise à vous enseigner les compétences de base à l' aide de la bibliothèque pandas, devenue la norme au cours de la dernière décennie pour la science des données avec Python Vous apprendrez comment charger un ensemble de données en tant que cadre de données et comment manipuler des DataFrames d'une manière qui est généralement nécessaire en science des données. Par exemple, sélectionner différentes lignes et colonnes, appliquer des fonctions à des colonnes entières et même comment créer des graphiques. Ces compétences sont essentielles si vous souhaitez faire de la science des données avec Python dans le monde réel. Alors, qui doit suivre ce cours et comment vous y préparer ? Ce cours est conçu pour les étudiants qui s' intéressent à la science des données et à l'apprentissage automatique et qui ont déjà une certaine expérience des bibliothèques de calcul numérique, telles que NumPy et Matplotlib. La deuxième compétence dont vous avez besoin est la programmation de base. N'importe quel langage convient, mais comme ce cours utilise Python, ce serait idéal. Heureusement, Python est un langage très facile à apprendre. Tu connais déjà une autre langue. Vous ne devriez avoir aucun problème à rattraper votre retard. Pour ces deux sujets. Une compréhension de niveau secondaire devrait être suffisante. Au premier cycle, la compréhension serait encore meilleure. Donc, en termes de ressources, quelles ressources aurez-vous besoin pour suivre ce cours ? Heureusement, pas grand-chose. Vous aurez besoin d'un ordinateur, d'un navigateur Web et d'une connexion à Internet. Et si vous regardez cette vidéo, vous remplissez déjà ces conditions. Voyons maintenant pourquoi vous devriez suivre ce cours et ce à quoi vous devez vous attendre. Eh bien, ce que j'ai remarqué après avoir enseigné l'apprentissage automatique pendant de nombreuses années, c'est qu'il existe un énorme fossé dans les connaissances. Les étudiants suivent un cours d' apprentissage automatique but d'apprendre l'apprentissage automatique. Ils comprendront les concepts, mais n'auront aucune idée de la manière de les mettre dans du code parce qu'ils ne savent pas vraiment comment coder. Ce cours vise à combler cette lacune en créant un pont entre un revêtement ordinaire et le type de codage dont vous aurez besoin pour la science des données et l'apprentissage automatique. Chargement et manipulation spécifiques de vos ensembles de données. À la fin de ce cours, vous aurez suffisamment appris pour utiliser ce que vous avez appris sur un jeu de données réel. En fait, c'est ce que nous allons faire dans le cadre de notre projet final. J'espère donc que vous êtes tout aussi enthousiaste que moi à l'idée de découvrir cette incroyable bibliothèque. Merci de m'avoir écouté, et je vous verrai lors de la prochaine conférence. 2. Contour de Pandas: Dans cette conférence, nous allons présenter la section suivante de ce cours, qui porte sur les pandas. Pandas est une bibliothèque qui permet de lire, d' écrire et de manipuler des données très facilement . Maintenant, bien qu'il y ait beaucoup de fonctionnalités dans Pandas, nous ne pourrons pas toutes les aborder dans cette courte section. Cette section se concentre uniquement sur les fondamentaux. Nous voulons répondre à des questions telles que comment chargez-vous un fichier CSV et comment écrivez-vous un fichier CSV ? Qu'est-ce qu'un DataFrame et en quoi est-ce différent d'un tableau NumPy ? Et d'ailleurs, si vous avez une formation artistique et que vous êtes issu des statistiques, vous devriez vous sentir comme chez vous avec DataFrames. Nous allons examiner les opérations de base sur les DataFrames, comme la sélection de lignes et de colonnes spécifiques. Ce sera très étrange si vous venez d'un pur milieu de programmation. Parce que, à première vue, cela semble être le contraire de ce que l'on pourrait voir avec un engourdi. Nous allons examiner une fonction spéciale appelée fonction apply, qui vous permet d'effectuer la même opération sur chaque ligne de vos données de manière efficace sans avoir à utiliser de boucle for. Enfin, nous verrons comment Pandas facilite traçage de vos données. 3. Chargement dans les données: Dans cette conférence, nous allons voir comment charger des données à l'aide de pandas. Pandas est particulièrement utile pour les données structurées sous forme de tableau. Il ne traitera donc pas des données d'image, des données audio ou des données de texte non structurées, si c'est ce que vous pensiez. Les données tabulaires lorsqu'elles sont stockées dans un fichier se présentent généralement sous la forme d'un CSV ou d'un TSV. Cela représente les valeurs séparées par des virgules et les valeurs séparées par des tabulations. Vous pouvez également utiliser des pandas pour lire à partir d'une feuille de calcul Excel, car celle-ci a une structure similaire, bien que cela soit plus inhabituel. Donc, pour commencer, nous allons importer des pandas. Importez des pandas au format pdf. Ensuite, nous allons télécharger un fichier CSV depuis mon dépôt GitHub. Vous et moi allons copier cette URL depuis mon carnet pré-écrit. N'essayez donc pas de le saisir manuellement comme certains d'entre vous le font parfois. On va faire un W. Et puis cette URL. Comme vous pouvez le voir, le fichier que nous venons télécharger s'appelle une S-box, ce CSV. Ensuite, nous allons lire dans le CSV, donc df est égal à pd, lire CSV sous forme de boîte à points CSV. Notez que cette commande fonctionne également directement avec les URL. Donc, si nous copions l'URL directement, nous allons voir df égal pd, lire le fichier CSV, puis coller cette URL. Très bien, donc ça marche aussi. Ensuite, nous pouvons vérifier le type d'objet que df est en utilisant le type df. Comme vous pouvez le voir, il s'agit d'un objet dataframe et non d'un tableau NumPy. Maintenant, à titre de comparaison, nous devrions regarder le contenu du fichier que nous avons téléchargé. Utilisons donc la commande Linux. Donc, c'est bang head as books point csv. Comme vous pouvez le voir, il y a une colonne d'en-tête avec la date d' ouverture, le haut, le bas, la fermeture, le volume et le nom des en-têtes . Il doit être clair qu'il s'agit des cours des actions de Starbucks à partir de février 2013. X nous allons revenir aux pandas. Pandas possède une commande analogue à df.head. Essayons ça. Et comme vous pouvez le constater, si vous êtes dans un bloc-notes qui vous montre un aperçu joliment formaté du haut de votre DataFrame. Vous pouvez également définir le nombre de lignes que vous souhaitez voir en tant qu'argument. Nous pouvons donc faire df.head ten. Et cela nous montre les dix premières lignes au lieu des cinq premières. Tout comme sous Linux, il existe une commande tail. Nous pouvons donc faire un pdf, un trail sec. Et cela nous montre la fin du DataFrame. Enfin, il existe une fonction d'information, Df point info. Et cela nous donne des informations importantes sur le dataframe. Comme vous pouvez le constater, il vous indique des éléments tels que le type d'index utilisé par DataFrame, nombre de colonnes qu'il possède, les types de données de ces colonnes et la quantité de mémoire qu'il occupe. 4. Sélection de lignes et de colonnes: Dans cette conférence, nous allons expliquer comment sélectionner des lignes et des colonnes à partir de notre DataFrame. Ceci est analogue à l' indexation d'un tableau. Donc, par exemple avec un tableau NumPy, je peux demander, donnez-moi l'élément à la ligne zéro, à la colonne zéro. Et dans ce cas, j'utiliserais la notation entre crochets et passerais un zéro, une virgule zéro. Voyons donc si cela fonctionne avec un DataFrame. Df zéro, virgule zéro. Comme vous pouvez le constater, cela ne fonctionne pas. Donc, avant de faire quoi que ce soit d'autre, vérifions les colonnes du DataFrame en utilisant l'attribut appelé columns. Donc c'est pdf, dy. La colonne renvoie un objet d'index avec les noms des colonnes. Notez que vous pouvez également attribuer cet attribut à l'aide d'une liste de noms de colonnes. Disons que je n' aime pas le fait que la colonne des noms soit la seule en majuscule, car cela va à l'encontre de mon sens de l'uniformité. Changeons donc cela en minuscules. Nous pouvons faire df.columns et ensuite lui envoyer une liste. Changez cela en minuscules. Et nous y voilà. Et nous pouvons également vérifier que cela a fonctionné. OK, donc ça marche. D'accord, alors voici une idée. Et si je passe l'un de ces noms de colonnes entre crochets ? Essayons donc df. Ouvert. Comme vous pouvez le constater, cela renvoie la colonne ouverte du DataFrame. Nous pouvons également sélectionner plusieurs colonnes en utilisant une liste de noms de colonnes. Essayons donc le support ouvert f, le support ouvert, l'ouverture, la fermeture. Et cela renvoie les deux colonnes. Maintenant, par simple curiosité, vérifions le type de données de la colonne ouverte. Donc, c'est type ouvert. Intéressant, donc c'est une série. Maintenant, nous allons vérifier le type des colonnes ouvertes et fermées. Il s'agit donc d'un DataFrame. La leçon à tirer est que lorsque vous n'avez qu' une seule dimension et que les pandas sont généralement stockés en série. S'il est bidimensionnel, c'est un DataFrame. À ce stade, vous pensez peut-être que les pandas sont très étranges car les crochets sont utilisés pour sélectionner les colonnes. Alors que dans NumPy et tout autre type de tableau, les crochets sélectionnent généralement les lignes. La question évidente est maintenant de savoir comment sélectionner une ligne dans un DataFrame ? La réponse est que nous pouvons y parvenir en utilisant les attributs I et local. Nous pouvons donc faire df point de zéro. Et cela renvoie la colonne zéro du DataFrame. Vous devriez peut-être vérifier cela. Nous pouvons également faire le log des points F de zéro. Et cela renvoie également la même ligne. Vous vous demandez peut-être quelle est la différence ? La différence est que I look est utilisé pour les indices entiers et quoi qu'il en soit, alors que low sélectionne la ligne par l'étiquette d'index. Et il se trouve que dans notre DataFrame, ils ne font qu'un. Pour démontrer cette différence, chargeons à nouveau notre DataFrame, mais cette fois, nous allons spécifier que la colonne de date doit être l'index. Nous allons donc faire df2 égal à pd, lire CSV sous forme de boîte à points CSV. Ensuite, nous dirons que l'indice col est égal à la date. D'ailleurs, nous vous encourageons vivement à lire la documentation sur les pandas. Il existe de nombreux arguments en faveur des nombreuses fonctions des pandas et vous ne pourrez pratiquement jamais vous en souvenir de toutes. Alors, habituez-vous à utiliser la documentation. Passons maintenant à la tête de point F2. Comme vous pouvez le constater, la colonne de date semble désormais avoir une sorte de statut spécial. En fait, il s'agit de l'index de ce DataFrame. Maintenant, nous pouvons faire d trop bas. Ensuite, nous pouvons transmettre l' un de ces indices. Et cela renvoie la première ligne du DataFrame. D'ailleurs, si on vérifie le type de cette ligne, on peut voir qu' il s'agit également d'une série. Ainsi, les lignes individuelles et les colonnes individuelles sont des objets de série. Voyons maintenant comment sélectionner plusieurs lignes du DataFrame. Supposons que je veuille toutes les lignes où le cours d'ouverture était supérieur à 64. Je peux donc faire df open bracket, d f open supérieur à 64. Très bien, ce sont donc toutes les lignes où le cours d'ouverture est supérieur à 64. Supposons maintenant que je veuille toutes les lignes dont le nom n'est pas Starbucks. Donc, je peux faire df, le nom df n'est pas égal à S-box. OK, donc nous n'avons aucune ligne où le nom n'est pas Starbucks. Il semble donc qu'en utilisant la notation entre crochets, je puisse transmettre quelque chose comme un code booléen comme celui-ci qui fonctionne de l'intérieur vers l'extérieur. Voyons donc ce qu'est réellement ce truc booléen . Nous allons vérifier le type. donc pas surprenant qu'il s'agisse d'une série contenant des valeurs booléennes. Donc, les crochets sur un DataFrame sauf une série booléenne en entrée. Maintenant, curieusement, ce comportement correspond au fonctionnement des tableaux Numpy. À mon avis, numpy est plus cohérent ici car cela implique une sélection de lignes et non pas une sélection. Alors allons-y. Faisons importer numpy car np est égal à np.array range ten. Voyons juste ce qu'est un. Il s'agit donc d'un tableau de nombres entiers de 0 à 10. Maintenant, disons que je veux juste garder les nombres pairs. Ensuite, je peux faire un crochet ouvert, un mod deux est égal à zéro. Cela me donne tous les nombres pairs de ce tableau. Maintenant, en guise de devoirs, vous pouvez vérifier le type de données que nous venons de transmettre entre crochets. Donc, un mod deux est égal à zéro. Maintenant, lorsque vous créez des algorithmes d'apprentissage automatique, vous souhaitez généralement travailler avec des tableaux de nombres et non avec des DataFrames qui peuvent contenir toutes sortes d'objets. Alors, comment pouvons-nous convertir un DataFrame en tableau NumPy ? Nous pouvons utiliser l'attribut values. donc que des valeurs de points df. Malheureusement, cela nous donne l'objet dtype, qui n'est pas ce que nous voulons si nous faisons de l'apprentissage automatique, car il y a maintenant des chaînes à l'intérieur de ce tableau. Voyons donc ce qui se passe si nous sélectionnons uniquement les colonnes numériques. Faisons donc une valeur égale à df, ouverte et fermée, et nous allons vérifier de quoi il s'agit. Ok, donc maintenant nous avons un bon tableau de chiffres. Vérifie le type de a. Très bien, donc c'est un tableau NumPy comme prévu. Bien, supposons que maintenant que nous avons fait ce que nous devions faire avec notre DataFrame, nous aimerions l' enregistrer dans un fichier. Cela se fait à l'aide des deux fonctions CSV. Supposons que je veuille conserver uniquement les colonnes ouvertes et fermées. Ensuite, je peux faire un petit df égal à df ouvert, fermé. Et puis je peux faire un petit fichier df en CSV, un point de sortie CSV. D'accord, et cela vient de sauvegarder mon DataFrame dans un fichier appelé output point CSV. Nous pouvons maintenant utiliser la commande Linux pour voir ce qu'il y a dans notre fichier afin créer une sortie directe au format CSV. Malheureusement, il semble y avoir une colonne d'index assez inutile dans notre fichier. Heureusement, nous pouvons nous en débarrasser. Nous allons donc suivre la même ligne. Et nous ajouterons un nouvel argument. L'indice est égal à faux. Maintenant, nous pouvons réessayer le commandement principal. Et la colonne d'index a disparu. 5. La fonction d'application(): Dans cette conférence, nous allons discuter de la fonction d'application. Le cas d'utilisation typique de la fonction apply serait similaire au scénario où nous voulons effectuer une opération sur chaque élément d'une liste, par exemple si nous voulons mettre chaque élément au carré, bien sûr dans Python, nous savons que les boucles sont lentes, donc nous aimerions les éviter si possible. La fonction apply peut être utilisée si vous souhaitez effectuer la même opération sur chaque ligne d' un DataFrame ou sur chaque colonne d'un DataFrame. En d'autres termes, il fait ce que vous voulez faire avec une boucle for sans avoir à écrire une boucle for. Faisons donc un exemple. Supposons que je veuille avoir une colonne appelée année, dans laquelle je prends la colonne de date existante, analyse l'année et je la convertis en un entier. Commençons donc par écrire une fonction qui accepte en entrée une seule ligne d'un DataFrame. Ce serait sourd les deux années d'affilée. Nous allons donc retourner int of rho, date entre crochets. Ensuite, nous allons diviser cette chaîne avec un tiret, puis nous allons récupérer l'élément zéro. Maintenant, si vous ne voyez pas comment cela fonctionne tout de suite, je vous suggère de l'essayer sur une chaîne de date fictive. Rappelez-vous que le format est l' année, le tiret, le mois, le jour. Ensuite, nous allons appliquer cette fonction à chaque ligne de notre DataFrame. Nous n' appliquons donc pas de date à année. Le premier argument est donc qu'un axe de fonction est égal à un. L'axe est égal à un est nécessaire. Sinon, cela fonctionnera colonne au lieu de robots. Alors exécutons-le. Et comme vous pouvez le constater, nous sortons une série contenant uniquement l'année de type D en 64. Notez que nous pouvons également attribuer cette série à une nouvelle colonne. Nous pouvons donc faire si l'année est égale à ce que nous avons ci-dessus. Très bien, voyons maintenant ce que cela a fait à notre DataFrame. Comme vous pouvez le constater, il y a une nouvelle colonne appelée année. 6. Plotting avec des Pandas: Dans cette conférence, nous allons voir comment comploter avec des pandas. Pandas rend cela très facile car il fournit des méthodes d'instance sur les séries et les DataFrames qui génèrent automatiquement des tracés. Essayons-en donc quelques-unes. Nous allons donc faire un fichier pdf open point hist. Comme vous pouvez le constater, cela crée un histogramme. Que diriez-vous de la parcelle ouverte en F ? Comme vous pouvez le constater, cela crée un graphique linéaire. D'ailleurs, les noms de ces méthodes correspondent aux versions en direct de leurs tracés cartographiques, ce qui les rend faciles à mémoriser. Nous pouvons également faire des tracés plus intéressants comme le boxplot. Bien entendu, le boxplot est utile pour les colonnes numériques. Nous allons donc sélectionner Ouvrir en haut, en bas et en fermer. Ce serait DF, ouvert haut, bas, fermé. Et nous allons tracer une boîte à points. Il s'agit donc d'un boxplot. Un autre diagramme très utile pour obtenir un résumé rapide de vos données est la matrice de dispersion. allons donc d'abord tracer les choses , puis nous discuterons de ce que nous voyons. Nous allons donc importer une matrice de dispersion. Donc, à partir du tracé par points de Panda, importez une matrice de dispersion. Ensuite, nous allons appeler cette fonction. Donc, matrice de dispersion, même DataFrame que ci-dessus. Ensuite, nous dirons que alpha est égal à 0,2 et figsize est égal à 66. OK ? Il s'agit d'une matrice de dispersion. Donc, comme vous le savez, alpha est égal à 0,2 donne de la transparence aux points et une taille fixe rend le graphique un peu plus grand pour que nous puissions mieux le voir. Alors, quel est ce complot ? En gros, ce diagramme montre la corrélation linéaire entre chacune des colonnes de données. Sur la diagonale, nous obtenons un histogramme de chaque colonne individuelle. Cela nous permet donc de voir la distribution de nos données. En d'autres termes, il s'agit d'un résumé statistique des données. Nous voyons quel type de distribution possède chaque colonne et comment elles sont liées les unes aux autres. 7. Exercice de Pandas: Dans cette conférence, nous allons passer en revue le prochain exercice de dissection au stylo. Dans cet exercice, vous allez combiner ce que vous avez appris dans les sections précédentes et aller plus loin. Vous devrez également utiliser la documentation sur les pandas afin de terminer cet exercice. D'ailleurs, l'utilisation de la documentation est très importante car ces bibliothèques sont constamment mises à jour et les API changent constamment. Vous pourriez participer à un camp d'entraînement d'une semaine entière sur les pandas sans savoir la moitié de ce que les pandas ont à offrir. Et même si vous étudiiez l'intégralité de l'API Pan is, ce qui est d'ailleurs très peu probable, vous ne seriez toujours pas capable tout mémoriser de toute façon. Même si vous pouviez mémoriser toutes ces informations, pourquoi le voudriez-vous alors que ce que vous avez mémorisé me change ? N'essayez donc pas de mémoriser la syntaxe ou de trop vous attacher à une manière particulière de faire les choses, apprenez simplement à utiliser la documentation. Et une autre remarque, vous devez le faire sans utiliser de blogs ou de tutoriels. Utilisez uniquement la documentation officielle de Pandas et NumPy. D'accord, alors quel est l'exercice ? Dans cet exercice, vous allez générer le jeu de données en forme de beignets qui est le jeu de données de cercles concentriques. Une fois que vous avez généré le jeu de données, qui sera bien sûr stocké dans un tableau, vous allez créer un DataFrame à partir de ce tableau. Vous souhaitez appeler les noms de colonne X1 et X2. Ensuite, vous devez dériver de nouvelles colonnes en fonction de X1 et X2. ce que nous appelons l'extension de fonctionnalités quadratiques. Vous voulez donc générer trois nouvelles colonnes, x1 au carré, x2 au carré et X1 fois X2. Vous trouverez peut-être que la fonction d'application est utile ici. Vous souhaitez également nommer ces colonnes de manière appropriée. Enfin, une fois que vous avez terminé votre DataFrame, enregistrez-le dans un fichier CSV sans en-têtes et sans colonne d'index. Ainsi, votre fichier CSV ne doit contenir que les nombres qui seraient stockés s'il s'agissait d'un tableau NumPy. Bonne chance et je vous verrai lors de la prochaine conférence. 8. Où obtenir des coupons de réduction et du matériel de machine learning gratuit: Bonjour à tous et bon retour dans ce cours. Dans cette conférence, je vais répondre à l' une des questions les plus courantes que je me pose. Où puis-je obtenir des coupons de réduction et du matériel de deep learning gratuit ? Commençons par les coupons. J'ai plusieurs moyens pour vous tenir au courant de moi. moyen absolu meilleur moyen absolu pour vous tenir au courant des coupons de réduction récemment publiés est de vous abonner à ma newsletter. Vous pouvez le faire de plusieurs manières. Tout d'abord, vous pouvez visiter mon site Web, lazy programmer point. En haut de la page, vous pouvez saisir votre adresse e-mail et vous inscrire à la newsletter. autre site Web que je possède et gère Deep Learning courses.com est un autre site Web que je possède et gère. Ce site Web contient en grande partie les mêmes cours que ceux que vous voyez sur cette plateforme, mais il contient également du matériel VIP supplémentaire. Nous en reparlerons plus tard. Donc, si vous faites défiler la page vers le bas de ce site Web, vous trouverez une boîte pour saisir votre adresse e-mail, qui vous inscrira la newsletter comme vous le feriez sur le programme paresseux de DOT ME. Vous n'avez donc qu'à faire l'une d'entre elles. Faisons maintenant une petite digression, car c' est une autre question courante que je reçois. En quoi consiste ce matériel VIP et comment puis-je l'obtenir ? Voici donc comment fonctionne le service VIP. Habituellement, lorsque je publie un cours, je le publie avec du matériel VIP temporaire, qui est réservé aux lève-tôt qui se sont inscrits au cours lors de mon annonce. C'est une belle petite récompense pour ceux d'entre vous qui se tiennent au courant de mes annonces et qui, bien sûr, les lisent. Il est important de noter que le matériel VIP peut être diffusé à tout moment. Par exemple, je ne pouvais pas apporter de mises à jour majeures à un cours trois ans après l'avoir commencé et faire une autre version VIP. L'objectif de Deep Learning courses.com est de disposer d'un site permanent pour ces supports VIP. Donc, même si cela peut être temporaire sur la plateforme sur laquelle vous vous êtes inscrit. Si vous vous inscrivez à la version VIP du cours, vous aurez accès au matériel VIP sur deep learning courses.com en permanence sur demande. Voici quelques exemples de matériel que vous pouvez trouver dans les sections VIP de mon TensorFlow. Bien entendu, il y a trois heures supplémentaires de matériel sur Deep Dream et la localisation d' objets. D'habitude, je ne publie pas le contenu VIP au format vidéo, mais c'était une exception. Un autre exemple de mon cours de pointe sur l'IA est une section écrite supplémentaire sur l'algorithme T3. Ce cours a couvert trois algorithmes au total. Donc, la section des extras qui vous donne un contenu de plus, ou en d'autres termes, 33 % de matériel en plus. Un autre exemple de mon chœur avancé de PNL et de RNN est une section sur la reconnaissance vocale utilisant le deep learning. En outre, le cours comporte une toute nouvelle section sur les prédictions boursières ou les réseaux de mémoire, selon la version du cours que vous suivez. La raison en est que je peux publier des versions légèrement différentes de chaque cours sur différentes plateformes. En raison du fonctionnement des règles sur toutes ces plateformes, je dois différencier les cours. Cependant, étant donné que je possède un site d'apprentissage en profondeur courses.com, c'est la seule plateforme qui contient la version la plus complète du cours, qui inclut toutes les sections. Veuillez noter que cela est rare, donc selon le cours que vous suivez, cela peut ne pas vous affecter. Très bien, alors revenons vers vous. Coupons de réduction et matériel gratuit. autres endroits où j'ai annoncé des coupons de réduction sont Facebook, Twitter et YouTube. Vous pouvez suspendre cette vidéo afin de pouvoir accéder à ces URL et me suivre ou vous pouvez suspendre cette vidéo afin de pouvoir accéder à ces URL et me suivre abonner à ces sites s'il s'agit de sites Web que vous utilisez régulièrement. Donc pour Facebook, que facebook.com slash paresseux programmeur point Emmy pour Twitter, c'est twitter.com slash lazy underscore scientists pour YouTube, youtube.com slash C slash lazy programmer x. De temps en temps, je publiais encore du matériel totalement gratuit. C'est bien si je veux simplement parler d'un sujet unique sans avoir à y faire un cours complet. Par exemple, je viens de publier une vidéo sur les prévisions boursières et sur les raisons pour lesquelles la plupart des autres blogs de cours abordent ce problème de manière totalement erronée. C'est un autre avantage de s' inscrire à ces activités. J'ai l'occasion de dénoncer de faux data scientists qui sont de véritables spécialistes du marketing. Alors que je ne ferais jamais un cours complet à ce sujet. Parfois, cela peut être sous forme écrite et parfois sous forme vidéo. Si c'est sous forme écrite, ce sera soit dans le cadre d'un programme paresseux et enseigné ME, soit en deep learning courses.com. S'il s'agit d'une vidéo, elle sera sur YouTube. Assurez-vous donc de vous abonner à moi sur YouTube. Si je publie une vidéo, je peux aussi publier un article à ce sujet sur le programmeur paresseux point ME. Et je pourrais également l'annoncer en utilisant d'autres méthodes dont j'ai parlé précédemment. Il s'agit donc de la newsletter, de Facebook, Twitter et évidemment de YouTube lui-même. Maintenant, je me rends compte que c'est beaucoup de choses et que vous n'utilisez probablement pas toutes ces plateformes. Je ne le fais certainement pas, du moins pas régulièrement. Donc, si vous voulez faire le strict minimum, voici ce que vous devez faire. Tout d'abord, inscrivez-vous à mon infolettre. N'oubliez pas que vous pouvez le faire soit sur le programme paresseux DOT ME, soit sur deep learning courses.com. Ensuite, abonnez-vous à ma chaîne YouTube sur youtube.com. Slash C slash lazy programmer x. Merci de m'avoir écouté et à bientôt lors de la prochaine conférence.